PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7 5800X3D Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16

MSABK
2022-06-14, 15:27:39
Das wird mit AM5 nun aber auch Geschichte sein, soweit ich gehört habe? Also max 2 Gens für AM5 dann folgt AM6? Wäre schade. Und ein weiter Grund Intel wieder mehr Beachtung zu schenken (Bei einem Neukauf)

Ich rechne mit AM6 erst mit DDR6, das sollte doch eher locker in 3-4 Generationen erst kommen.

w0mbat
2022-06-14, 15:41:38
Das wird mit AM5 nun aber auch Geschichte sein, soweit ich gehört habe? Also max 2 Gens für AM5 dann folgt AM6? Wäre schade. Und ein weiter Grund Intel wieder mehr Beachtung zu schenken (Bei einem Neukauf)
Du bist der Erste, der das sagt. Wo hast du dass denn "gehört"? Bisher geht man bei AM5 wieder von mehreren Generation aus, bis DDR6/AM6 eben. Wobei ein "AM5+" natürlich möglich wäre.

eratte
2022-06-14, 15:58:15
so mal gecheckt, alle Hersteller außer Asrock bieten bei B550 ausschließlich Support für

Auch wenn etwas Offtopic, aber nur weil es nicht in der Supportliste steht heisst nicht das die Generation nicht doch funktioniert.

https://www.hardwareluxx.de/community/threads/b550-mit-%C3%A4lteren-cpus.1274011/

https://www.heise.de/news/Ausprobiert-Auch-aeltere-Ryzen-Prozessoren-funktionieren-mit-B550-Mainboards-4841218.html

DSD512
2022-06-14, 16:37:50
Das wird mit AM5 nun aber auch Geschichte sein, soweit ich gehört habe? Also max 2 Gens für AM5 dann folgt AM6? Wäre schade. Und ein weiter Grund Intel wieder mehr Beachtung zu schenken (Bei einem Neukauf)

Mich interessieren vor allem die Preise für die Premium-AM5-Boards (DARK, Hero etc.).

Durch die hohen DDR5_Frequenzen müssen die Hersteller schon ranklotzen.
So günstig wie AM4 wird das sowieso nicht mehr. Die Cheap-Boards gehen vielleicht bis 6000.

Im Luxx hat BIOSMan das EVGA Dark (900 Euro, in DE über normalen Händler nicht zu bekommen; Die Ebay-Schmotze mal außen vor).
Er schreibt, dass das einzige Board ist, dass DDR5-7000/7100 locker schafft, wohl aufgrund 12 Layer.
Er vergleicht das mit seinem Unity-X/Apex die das gar nicht bzw. nur mit Würgen schaffen.

Wenn es ein 12 Layer Board für AM5 geben sollte, dann sicherlich nicht unter 600 Euros.
Mehr wie 6600 wird man im Mainstream-Bereich beim AM5 (erstmal) auch nicht sehen. Und wen dann mit Latenzen von >50.

dargo
2022-06-15, 10:57:02
Wie kommt es eigentlich, dass der 5800X3D in Games so viel sparsamer arbeitet als der 5800X @Defaultsettings? Federt der Cache so viel ab wodurch diverse Kopiervorgänge wegfallen was so viel Energie spart? Oder liegts eher am niedrigeren Takt und somit auch Spannung?

M4xw0lf
2022-06-15, 11:20:43
Wie kommt es eigentlich, dass der 5800X3D in Games so viel sparsamer arbeitet als der 5800X @Defaultsettings? Federt der Cache so viel ab wodurch diverse Kopiervorgänge wegfallen was so viel Energie spart? Oder liegts eher am niedrigeren Takt und somit auch Spannung?

Ja

:freak:

Tigershark
2022-06-15, 11:36:04
Wie kommt es eigentlich, dass der 5800X3D in Games so viel sparsamer arbeitet als der 5800X @Defaultsettings? Federt der Cache so viel ab wodurch diverse Kopiervorgänge wegfallen was so viel Energie spart? Oder liegts eher am niedrigeren Takt und somit auch Spannung?

Das haben golem.de imho ganz gut beschrieben in ihrem Test. Hauptursache dürften die durch den deutlich größeren Cache wesentlich seltener nötigen Zugriffe über den Bus auf den RAM sein, in Verbindung mit niedrigeren und streng begrenzten Core-Spannungen.

dargo
2022-06-15, 12:01:22
Hmm... also die CPU gefällt mir immer mehr. Leider wird das Performanceplus bei mir vs. 5800X @4,5Ghz gering ausfallen. Ich denke aber ich werde die CPU noch mitnehmen wenn Zen4 erscheint. Zen4 erwarte ich auf ähnlichem Niveau anfangs ohne 3D Cache und ein ganzer Plattformwechsel macht da gar keinen Sinn (viel Aufpreis für wenig Mehrleistung). Mal sehen ob ich den 5800X3D wenn Zen4 erscheint unter 300€ bekomme.

Thunder99
2022-06-15, 12:30:48
Ja so 300€ bis max. 400€ wäre traumhaft für ein Upgrade vom 3600 :)

dargo
2022-06-15, 13:26:40
Ich lese bei CB folgendes....
Undervolting geht (noch) nicht
Noch einmal zurück zur Spannung: Sie lässt sich derzeit auch nicht nach unten regulieren, Undervolting ist nicht möglich. Hier sieht sich AMD die Thematik aber noch einmal genauer an, wie der Hersteller auf Nachfrage erklärte. Mittels Curve Optimizer – hier der Verweis auf den sehr guten Artikel der ComputerBase-Community – könnte das in Zukunft also noch möglich werden.
Ist da schon was passiert oder gibt es Anzeichen wann was passiert? Würde schon gerne weniger Spannung und einen festen Multi setzen können. Mache ich bei meinem 5800X auch was ordentlich Energie einspart.

Linmoum
2022-06-15, 13:35:55
Geht via PBO2 Tuner von Anfang an. -30 auf allen Kernen funktioniert bei den meisten problemlos und hat entsprechend hohe Auswirkungen auf Spannung, Verbrauch und Temperaturen. War hier kurz nach dem Launch seitenlang Thema.

M4xw0lf
2022-06-15, 13:36:25
@dargo
Dass curve optimizer über den Umweg von PBO2 Tuner geht wurde hier im Thread doch schon auf epischer Breite diskutiert ;)
Bei mir läuft er mit -30 curve optimizer Ticks auf allen Kernen, Start und Anwendung per Windows Aufgabenplanung. Bringt an die 10°C unter Volllast und entsprechend mehr Spielraum um den allcore-Takt hochzuhalten.

Der_Korken
2022-06-15, 13:44:43
Nachteil ist dann aber wohl, dass man immer das Tool im Autostart haben muss? Ich persönlich bin so einer der immer gerne alles im BIOS geregelt hat - vor allem wegen Linux.

M4xw0lf
2022-06-15, 13:46:47
Es geht aktuell nicht ohne Aufruf des Programms, ja.

dargo
2022-06-15, 14:12:33
@dargo
Dass curve optimizer über den Umweg von PBO2 Tuner geht wurde hier im Thread doch schon auf epischer Breite diskutiert ;)
Bei mir läuft er mit -30 curve optimizer Ticks auf allen Kernen, Start und Anwendung per Windows Aufgabenplanung. Bringt an die 10°C unter Volllast und entsprechend mehr Spielraum um den allcore-Takt hochzuhalten.
Sorry... hatte den Thread aus Desinteresse nicht verfolgt. Mir gehts nicht darum mit dem Curve Optimizer die Performance zu erhöhen. Das geht ja bei den anderen CPUs auch. Ich verfolge da einen anderen Ansatz... Gleiche Performance mit weniger Verbrauch. Das ist mein Ziel.

Lehdro
2022-06-15, 14:13:08
Leider wird das Performanceplus bei mir vs. 5800X @4,5Ghz gering ausfallen.
Kommt darauf an was du spielst, wenn du etwas sehr cachelastiges zockst, kann es fast dreistellige Leistungssteigerungen geben, im Lategame bei Stellaris zum Beispiel (https://github.com/xxEzri/Vermeer/blob/main/Guide.md#stellaris). Auch in vielen MMOs sind mal eben locker +50% drin, gerade wenn viele Mitspieler unterwegs sind.

Es ist ein bisschen Schade das genau diese Sachen bei den ganzen Benchmarks unter die Räder kommen - für diese "Spezial"-Spiele ist der 5800X3D ein echter Gamechanger.
Sorry... hatte den Thread aus Desinteresse nicht verfolgt. Mir gehts nicht darum mit dem Curve Optimizer die Performance zu erhöhen. Das geht ja bei den anderen CPUs auch. Ich verfolge da einen anderen Ansatz... Gleiche Performance mit weniger Verbrauch. Das ist mein Ziel.
Da viele 5800X3D eh -30 allcore mitmachen hast du beides in einem: Mehr Performance (stabilerer MC Boost) + nochmals weniger Verbrauch und dadurch auch niedrigere Temps. Mit CO -30 langweilt sich der Noctua geradezu.

dargo
2022-06-15, 14:16:33
@Lehdro

Mir klar, dass es da einige speicherlastige Kandidaten gibt die stärker vom X3D profitieren. Ich meine das eher auf den Schnitt bezogen. Da ist dann ein Aufpreis von 200-250€ jetzt nicht unbedingt so prickelnd dafür. :)

PS: da ich einen recht gut optimierten B-Die Speicher habe wird die Mehrleistung eh etwas geringer ausfallen denke ich.


Da viele 5800X3D eh -30 allcore mitmachen hast du beides in einem: Mehr Performance (stabilerer MC Boost) + nochmals weniger Verbrauch und dadurch auch niedrigere Temps. Mit CO -30 langweilt sich der Noctua geradezu.
Das hört sich schon mal gut an. Was verbraucht deine CPU in Games so? Sind 30-35W realistisch? Das hatte mein damaliger R5 3600, richtig geile CPU handoptimiert. :)

Ex3cut3r
2022-06-15, 14:33:18
Ja, mit -30 sind 30-40W in Spielen realistisch. Kein Witz.

nairune
2022-06-15, 14:34:33
Mit Curve Optimizer hat man zwar eine bessere Spannungskurve, die CPU darf aber natürlich immer noch voll boosten und theoretisch auch ihr Powerlimit ausschöpfen.
Also kommt es sehr auf das Spiel an, hier z.B. TW:Warhammer III auf der Kampagnenkarte ca. 1 Minute:

https://i.imgur.com/lsagiBv.png

Lehdro
2022-06-15, 14:46:33
Ja, mit -30 sind 30-40W in Spielen realistisch. Kein Witz.
Aber nur welche die "sehr leicht" von der CPU Last her sind.
Rechne eher mit sub 50W, bei Extremfällen aber auch mal an die 60W. Siehe nairune.

Auf jeden Fall verdammt effizient.

dargo
2022-06-15, 14:52:12
Mit Curve Optimizer hat man zwar eine bessere Spannungskurve, die CPU darf aber natürlich immer noch voll boosten und theoretisch auch ihr Powerlimit ausschöpfen.

Ja... das meine ich. Das ist so ein wenig blöd gelöst. Also fester CPU-Multi und weniger Spannung geht nach wie vor nicht?

Ex3cut3r
2022-06-15, 14:54:09
Aber nur welche die "sehr leicht" von der CPU Last her sind.
Rechne eher mit sub 50W, bei Extremfällen aber auch mal an die 60W. Siehe nairune.

Auf jeden Fall verdammt effizient.

Ist hier aber bei meinen Spielen fast überall so, außer in Doom Eternal und CP77. :wink:

Spiele aber auch meistens in 4K und DLSS Q.

https://abload.de/img/unbenanntpkket.png

Lehdro
2022-06-15, 14:57:02
Ja... das meine ich. Das ist so ein wenig blöd gelöst. Also fester CPU-Multi und weniger Spannung geht nach wie vor nicht?
Nein. Du kannst höchstens den Boost komplett abschalten, dann hängst du bei 3.4 Ghz. Oder du stellst PBO auf eine niedrigere PPT ein, soll manche Mainboards geben wo man das noch einstellen kann. Geht das eigentlich auch mit dem PBO Tuner? Nie probiert und derzeit nicht Heim zum Testen.

Ist hier aber bei meinen Spielen fast überall so, außer in Doom Eternal und CP77. :wink:
Alles quasi nix was übermäßig CPU frisst. Aber dann passt das ja mit den Angaben.

nairune
2022-06-15, 14:58:21
Ja... das meine ich. Das ist so ein wenig blöd gelöst. Also fester CPU-Multi und weniger Spannung geht nach wie vor nicht?

Kann ich schon einstellen, Performance ist dann aber kaputt. Also -20% oder sowas, praktisch nicht nutzbar.

dargo
2022-06-15, 15:04:23
Oder du stellst PBO auf eine niedrigere PPT ein, soll manche Mainboards geben wo man das noch einstellen kann.
Das ist leider nicht so das gelbe vom Ei weil die CPU trotzdem bis zur PPT-Grenze boostet wenn das Game wenige Threads verwendet. Oder halt bis max. Boosttakt sofern PPT noch nicht ausgeschöpft wird. Ich finde das einfach mit dem festen CPU-Multi und fester, niedriger Spannung komfortabler weil die CPU unabhängig von der Threadzahl die eine Anwendung verwendet sparsamer arbeitet. Und der Singlecore-Boost interessiert mich überhaupt nicht da ich nichts Spiele was nur SC verwendet.

Am praktischen Beispiel... AC: Odyssey ist bei mir mit Defaultsettings am 5800X gleich schnell wie mit 4,5Ghz Allcore @1150mV. Letzteres braucht aber 25-30W weniger.

Kann ich schon einstellen, Performance ist dann aber kaputt. Also -20% oder sowas, praktisch nicht nutzbar.
Meh... das ist ja blöd. Stellst du den CPU-Multi bzw. die feste Frequenz auch im PBS Untermenü ein? Heißt irgendwas mit Custom schlagmichtot. Kann gerade im Bios nicht nachsehen.

Ex3cut3r
2022-06-15, 15:06:15
Alles quasi nix was übermäßig CPU frisst. Aber dann passt das ja mit den Angaben.

:redface: Jo. Upgrade war hier kaum spürbar vom 3600 mit 3733 CL14 + Subtimings Max.

Thunder99
2022-06-15, 15:15:39
Inoffiziell geht das schon
Edit: Wurde bereits geschrieben, PBOTuner 2

Dorn
2022-06-15, 15:25:44
@Dargo
Der 5800X3D muss quasi mit dem PBO2 Tuner @-30 laufen erst so kommt man auf so manche Benchmarkwerte von Computerbase etc...
Anscheinend gibt es bei diesem CPU teilweise größere Unterschiede zwischen Presse und auf dem freien Markt erhältlichen Exemplar in Sachen Boost Verhalten.

Wurde paar Seiten davor darüber diskutiert.

Ich glaub hier im Forum hat (noch) keiner inkl. mir Probleme mit -30 gehabt.

nairune
2022-06-15, 15:45:56
Meh... das ist ja blöd. Stellst du den CPU-Multi bzw. die feste Frequenz auch im PBS Untermenü ein? Heißt irgendwas mit Custom schlagmichtot. Kann gerade im Bios nicht nachsehen.
Ne, in den AMD-Menüs finde ich sowas gar nicht mehr, nur über den Asus-Kram konnte ich was umstellen.
Also schätze mal, da greift irgendwie eine "OC protection", sobald man per Hand einstellen will/tut.

Aber da die Kühlung so bereits absolut lautlos ist, bin ich trotzdem zufrieden: zu jeder Zeit top Leistung und Verbrauch absolut vertretbar. Man könnte noch die PPT bisschen herabsetzen, wenn man viel Vollauslastung provozieren kann, kommt bei mir aber viel zu selten vor.

dargo
2022-06-15, 15:52:06
Ne, in den AMD-Menüs finde ich sowas gar nicht mehr, nur über den Asus-Kram konnte ich was umstellen.

Hmm... ok. Dann mal abwarten, vielleicht ändert AMD noch was beim X3D in zukünftigen AGESAs. Aktuell scheint AMD da ja nahezu alles zu sperren. :D

Lehdro
2022-06-15, 16:35:19
Hmm... ok. Dann mal abwarten, vielleicht ändert AMD noch was beim X3D in zukünftigen AGESAs. Aktuell scheint AMD da ja nahezu alles zu sperren. :D
Das Curve Optimizer und niedrigere PBO Werte (oder zumindest ein fixer Eco Mode) nicht gehen ist echt unverständlich. Das Voltages/Taktfrequenzen gesperrt werden ist halbwegs nachzuvollziehen, wenn auch hier ein fest definierter Maximalwert schöner wäre um solche Sachen, wie du sie vorhast, zu ermöglichen.

Bei CO -30 hat mein 5800X3D so um die 1.1 - 1.15V drauf, bei 4450-4550 MHz btw.

Dant3
2022-06-15, 20:22:09
Hmm... also die CPU gefällt mir immer mehr. Leider wird das Performanceplus bei mir vs. 5800X @4,5Ghz gering ausfallen. Ich denke aber ich werde die CPU noch mitnehmen wenn Zen4 erscheint. Zen4 erwarte ich auf ähnlichem Niveau anfangs ohne 3D Cache und ein ganzer Plattformwechsel macht da gar keinen Sinn (viel Aufpreis für wenig Mehrleistung). Mal sehen ob ich den 5800X3D wenn Zen4 erscheint unter 300€ bekomme.
Ob 300,- realistisch ist lassen wir mal dahingestellt, aber da Media Markt und Saturn die CPU jetzt im Sortiment haben, sind ca. 400,- zur einer ihrer Mehrwertsteuer - geschenkt Aktionen sicher drin.

dargo
2022-06-15, 21:03:02
Ich meine das bezogen auf Ende 2022. Also erst nach Zen4 Release. Ist ja nicht gerade so, dass der Schuh drückt und ich die CPU sofort haben muss. Eher ein Spaßkauf um AM4 noch voll auszuschöpfen.

Darkman]I[
2022-06-16, 10:23:42
Genau denselben Plan habe ich auch Dargo, werde den 5800X auch gegen den 5800X3D tauschen wenn es ein gutes Angebot gibt. Darfst mich gerne informieren... :)

x-dragon
2022-06-16, 11:09:50
Wobei da auf jeden Fall die Frage wäre, wie lange die CPU angeboten wird ... Aktuell scheint sie ja gut verfügbar zu sein (bei 18 Händlern direkt, bzw. bei 36 Händlern kurzfristig lieferbar, laut Geizhals), aber ursprünglich klang das eher so danach, das es vielleicht nur ein kurzer Testballon sein könnte.

Mein Finger schwebt aktuell auch über der kaufen-Taste, und mein 3900X werd ich wohl bei meinem Nachbarn los, der ist auch kein Spieler und bastelt lieber an seinen Videos rum.

jorge42
2022-06-16, 11:41:09
ab 399,- greif ich zu

Taigatrommel
2022-06-16, 13:49:17
ab 399,- greif ich zu
Sehe ich inzwischen ähnlich, ich beobachte die Preise immer mal wieder. Aufgrund der aktuellen Inflation und den generellen Preisanstiegen habe ich mich bereits jetzt gegen ein komplettes Upgrade auf AM5 entschieden, das ist mir einfach zu teuer, wenn zur neuen CPU gleich noch ein neues Brett und neuer RAM gekauft werden muss. Zumal es ja auch abzuwarten bleibt, was die nächste Generation an Grafikkarten mitbringt.

Dann lieber meinen 3800X noch ein wenig behalten und dann einen 5800X3D einbauen. Ich habe ganz gut funktionierenden 3200 CL14 Speicher, dessen Grenzen ich noch nicht ausgelotet habe, womöglich geht da auch noch ein wenig was.

Pirx
2022-06-16, 13:53:39
brauchst du mit dem x3d ja nicht unbedingt

Th3o
2022-06-16, 14:07:50
Der 5800x3d interessiert mich auch, allerdings habe ich nur ein einfaches B350 Brett. Zum Komplettumbau fehlt mir z.Z. etwas die Motivation.

jorge42
2022-06-16, 14:47:58
Der 5800x3d interessiert mich auch, allerdings habe ich nur ein einfaches B350 Brett. Zum Komplettumbau fehlt mir z.Z. etwas die Motivation.
geht mir genau so, keine Lust neues Mobo, neuen besseren Ram zu holen. Da kommt der x3d, der diese Probleme geschickt umfährt ganz gelegen. Zudem ist der einzige Fall, bei dem es bei mir auf Performance ankommt das Gaming, und dafür scheint der x3d ja bestens geeignet zu sein.

Crazy_Chris
2022-06-16, 14:53:05
Der 5800x3d interessiert mich auch, allerdings habe ich nur ein einfaches B350 Brett. Zum Komplettumbau fehlt mir z.Z. etwas die Motivation.

Das ist auch kein Problem. Es tut auch eher mäßiger RAM und auch die Spannungsversorgung auf dem Board wird nicht besonders beansprucht. Im Prinzip also die ideale CPU zum Aufrüsten wenn der Preis stimmt. =)

Preis/Leistung ist zwar etwas fragwürdig aber ich wollte für die nächsten Jahre einfach Ruhe haben. ;) Wer nicht das letzte bisschen Leistung braucht der nimmt den langweiligen 5800x oder gleich den 5600x. Der Sprung, besonders von Zen 1, ist auch dort immens.

Th3o
2022-06-16, 15:17:13
@jorge42 und Crazy_Chris
Habt ihr beide ein B350 Brett?

Crazy_Chris
2022-06-16, 15:26:22
@jorge42 und Crazy_Chris
Habt ihr beide ein B350 Brett?


MSI X370 Gaming Pro Carbon. Siehe Seite 62.

Darkman]I[
2022-06-16, 15:50:28
Ach scheiße, ich hab' jetzt spontan zugeschlagen. Von Saturn über ebay.de mit Aktionsgutschein und ebay Guthaben (durch gesammelte Verkäufe) bin ich nun bei 385 € gelandet.

5800X3D Incoming ;D

dargo
2022-06-16, 16:08:18
Na 385€ klingt doch schon mal ganz nett. :)

Darkman]I[
2022-06-16, 16:09:51
Ohne eBay Guthaben kostet er 440 €:

https://www.mydealz.de/share-deal/2001996

jorge42
2022-06-16, 16:41:52
@jorge42 und Crazy_Chris
Habt ihr beide ein B350 Brett?
ja, hab ein Gigabyte B350 Gaming oder so. Kein OC oder so, alles Stock

Th3o
2022-06-16, 17:27:44
ja, hab ein Gigabyte B350 Gaming oder so. Kein OC oder so, alles Stock
Funktioniert damit auch rBAR?

aufkrawall
2022-06-16, 17:32:56
Funktioniert damit auch rBAR?
Mit <500er Chipsätzen gibt es offenbar manchmal Performance-Probleme mit rBAR.

Nightspider
2022-06-16, 18:28:18
Kommt darauf an was du spielst, wenn du etwas sehr cachelastiges zockst, kann es fast dreistellige Leistungssteigerungen geben, im Lategame bei Stellaris zum Beispiel (https://github.com/xxEzri/Vermeer/blob/main/Guide.md#stellaris).

Das Core Scaling Diagramm von deinem Link ist eigentlich auch ganz interessant:

https://camo.githubusercontent.com/ffb95705d1181e0752afdf702e0d6f33cd43039667e5d08b2d7327841d73851a/68747470733a2f2f692e696d6775722e636f6d2f584751373136462e706e67

Ich frage mich nur warum Cyberpunk in diesem Test gar nicht mehr von mehr als 6 Kernen (12 Threads) profitieren soll, während PCGH sogar zwischen 12 und 16 Kernen (5900x vs 5950x) noch 8% bei den min_fps erreichen konnte und der 5800x 25% vor dem 5600x liegt bei den min_fps.

Vielleicht haben sie da nur die avg fps gemessen?

Lehdro
2022-06-16, 19:09:08
Ich frage mich nur warum Cyberpunk in diesem Test gar nicht mehr von mehr als 6 Kernen (12 Threads) profitieren soll, während PCGH sogar zwischen 12 und 16 Kernen (5900x vs 5950x) noch 8% bei den min_fps erreichen konnte und der 5800x 25% vor dem 5600x liegt bei den min_fps.

Vielleicht haben sie da nur die avg fps gemessen?
Testet PCGH mit RT? Das erhöht die CPU Last enorm.

jorge42
2022-06-16, 19:14:33
Funktioniert damit auch rBAR?SAM geht sich erst ab den 450 er Chipsätze oder irre ich?

Crazy_Chris
2022-06-16, 19:17:10
SAM geht sich erst ab den 450 er Chipsätze oder irre ich?

Nö, läuft auch auf meinem x370.

Nightspider
2022-06-16, 19:28:17
Testet PCGH mit RT? Das erhöht die CPU Last enorm.

Nope, die RT CPU Benchmarks sind seperat getestet worden:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/

jorge42
2022-06-16, 19:45:37
Nö, läuft auch auf meinem x370.

Kann für mein Board nichts finden

Ex3cut3r
2022-06-16, 20:35:08
Nope, die RT CPU Benchmarks sind seperat getestet worden:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/

Die Benchmarks sind vom rls. Der ist mittlerweile auf einen veralteten Patch Stand. Und mit Ryzen Bug.

Der taugt im Jahre 2022 nix.


Ich frage mich nur warum Cyberpunk in diesem Test gar nicht mehr von mehr als 6 Kernen (12 Threads) profitieren soll, während PCGH sogar zwischen 12 und 16 Kernen (5900x vs 5950x) noch 8% bei den min_fps erreichen konnte und der 5800x 25% vor dem 5600x liegt bei den min_fps.


Welche Auflösung soll das sein? Ich wurde auf 1440p tippen. Dann ist es logisch, dass man da keinen zusätzlichen FPS mit einem 8C/16T sieht. Mit RT ab 1440p ohne DLSS ist man selbst mit einer 3080 Ti OC bei knapp 40 FPS. Die CPU dreht bei solchen Frameraten natürlich däumchen.

Crazy_Chris
2022-06-16, 20:37:57
Kann für mein Board nichts finden


Bei meinen Board wird’s als resize BAR support bezeichnet soweit ich mich erinnere.

Nightspider
2022-06-16, 20:54:19
Die Benchmarks sind vom rls. Der ist mittlerweile auf einen veralteten Patch Stand. Und mit Ryzen Bug.


Heißt was genau?

Ist das CPU Core scaling aktuell besser oder schlechter als es besagter PCGH Test suggeriert?

Ex3cut3r
2022-06-16, 20:57:43
Ist besser geworden mit Ryzen. Trotzdem hat das Spiel immer noch ein großes faible für Intel CPUs.

https://youtu.be/PiBVuwBeoQc?t=76 (Allerdings testet der "Idiot" da mit Medium Details :facepalm:)

Nightspider
2022-06-16, 21:02:17
Was soll der Test zwischen 5700x, 5800x und 12600k über Core scaling aussagen? :confused:

Ex3cut3r
2022-06-16, 21:15:44
Das sollte nur klarstellen, dass die Engine/Spiel immer noch Intel favorisiert, was nützt dir Core Skaling wenn dein AMD Prozzi sowieso 25% liegen lässt?

Pirx
2022-06-17, 08:15:11
die lässt die Software liegen

Savay
2022-06-17, 11:24:50
die lässt die Software liegen

Die lässt der nVidia Treiber liegen. :tongue:

DSD512
2022-06-27, 13:13:57
Wer delidded noch sein 3D?
Und keine Beschwerden, wenn's nicht klappt. :biggrin:

https://www.techpowerup.com/296212/de-lidded-amd-ryzen-7-5800x3d-has-vastly-improved-thermals

CoolhandX
2022-06-30, 11:29:41
Da ich eh noch eine CPU für einen zweiten Rechner brauche stellt sich mir die Frage, ob ich meinen 5900X gegen den 5800X3D tauschen sollte und ob das überhaupt Sinn macht. Habe in einigen Berichten gesehen, dass bei 4k die Unterschiede nicht wirklich hoch sind. Wie ist denn da eure Erfahrung. Mit dem Rechner wird meist nur gezockt. Und Sachen wie Cinebench kram oder so sind eher uninteressant.

dildo4u
2022-06-30, 11:42:55
Für Gameing werden dir 12Kerne nie was bringen, ich vermute das auch die nächsten Konsolen wieder 8 bekommen nur halt stärker per Core.

Thomas Gräf
2022-06-30, 11:47:22
Wer delidded noch sein 3D?
Und keine Beschwerden, wenn's nicht klappt. :biggrin:

https://www.techpowerup.com/296212/de-lidded-amd-ryzen-7-5800x3d-has-vastly-improved-thermals

Och, die Dinger sind heutzutage alle so gut verlötet sagt selbst der 8auer.
Mein X3D zeigt im Afterburner nie über 60 Grad. (Wakü-Loop)
Der Herr Madness7771 on Twitter muß ja wirklich ein Backofen als PC haben.
Zudem gibts ja noch PBO2...

Lehdro
2022-06-30, 14:39:21
Da ich eh noch eine CPU für einen zweiten Rechner brauche stellt sich mir die Frage, ob ich meinen 5900X gegen den 5800X3D tauschen sollte und ob das überhaupt Sinn macht. Habe in einigen Berichten gesehen, dass bei 4k die Unterschiede nicht wirklich hoch sind. Wie ist denn da eure Erfahrung. Mit dem Rechner wird meist nur gezockt. Und Sachen wie Cinebench kram oder so sind eher uninteressant.
Kommt darauf an was du zockst und was deine GPU so schafft. Für alles unter einer 3080/6800XT ist der 5800X3D meist eh overkill, bei 4K erst recht.

Aber, es gibt da einige Fälle wo die CPU auch in 4K einen Unterschied macht:
Spielst du Stellaris? Dann lohnt das, die Unterschiede sind gigantisch.
Du spielst CoD? Völlig egal.
Du spielst Anno? Könnte sich durchaus "lohnen".
Du spielst Battlefield? Durchaus egal.
Du spielst Factorio? Absoluter Gamechanger.

Oder du legst maximalen Wert auf Effizienz, da ist der 5800X3D auch unschlagbar.

Crazy_Chris
2022-06-30, 14:56:53
Jo es kommt total auf die Spiele an. Zum Beispiel FS 2020, Euro Truck Simulator 2 oder Anno 1800 gehen ab wie Schmidts Katze. :biggrin:

r3ptil3
2022-06-30, 16:06:45
Für Gameing werden dir 12Kerne nie was bringen, ich vermute das auch die nächsten Konsolen wieder 8 bekommen nur halt stärker per Core.

Schalt mal SMT beim 5900X ab, wirst überrascht sein.

Beim X3D hingegen sollte man SMT nicht ausschalten, da sich das eher nachteilig auswirkt auf die Performance.

rentex
2022-06-30, 16:43:39
Und wie sieht es beim 5950X aus? Quasi als letzt Aufrüstoption in zwei Jahren.

CoolhandX
2022-06-30, 16:47:41
Also als GPU habe ich eine 3080Ti. Das wäre dann also passend. Schwere Entscheidung.

Spiele sind recht unterschiedlich.

DCS, MMO's, meist aber ältere wie SWTOR aber auch ESO.

Rennspiele wie ACC oder F1 und in letzter Zeit einige Strategie Spiele.

Crazy_Chris
2022-06-30, 17:08:29
Schalt mal SMT beim 5900X ab, wirst überrascht sein.

Beim X3D hingegen sollte man SMT nicht ausschalten, da sich das eher nachteilig auswirkt auf die Performance.

Naja das hat vielleicht beim Pentium 4 noch merklich etwas gebracht aber inzwischen sind die Unterschiede wohl kaum der Rede wert.

siehe hier z.B:

https://www.anandtech.com/show/16261/investigating-performance-of-multithreading-on-zen-3-and-amd-ryzen-5000/3

Lehdro
2022-07-01, 14:22:18
Also als GPU habe ich eine 3080Ti. Das wäre dann also passend. Schwere Entscheidung.

Spiele sind recht unterschiedlich.

DCS, MMO's, meist aber ältere wie SWTOR aber auch ESO.

Rennspiele wie ACC oder F1 und in letzter Zeit einige Strategie Spiele.
Klare Kaufempfehlung dann. Gerade ältere MMOs mit teilweise problematischer Multicoreoptimierung gehen mit dem 5800X3D ab wie ein Zäpfchen. Für ACC ist die CPU sowieso komplett konkurrenzlos. (https://www.techspot.com/review/2458-ryzen-5800x3D-vs-core-i7-12700/)

Edit:
Naja das hat vielleicht beim Pentium 4 noch merklich etwas gebracht aber inzwischen sind die Unterschiede wohl kaum der Rede wert.

siehe hier z.B:

https://www.anandtech.com/show/16261/investigating-performance-of-multithreading-on-zen-3-and-amd-ryzen-5000/3
Relevanterer Test hier. (https://www.pcgameshardware.de/Ryzen-9-5950X-CPU-276916/Specials/SMT-Vergleich-CPU-Test-mit-Radeon-1364596/) "Es kommt darauf an" - und zwar wirklich, welches Spiel? Welcher GPU Hersteller? Angestrebte FPS/Auflösung?

Lehdro
2022-07-01, 14:23:58
Sorry 4 DP, kann gelöscht werden.

Langlay
2022-07-01, 14:37:03
Klare Kaufempfehlung dann. Gerade ältere MMOs mit teilweise problematischer Multicoreoptimierung gehen mit dem 5800X3D ab wie ein Zäpfchen. Für ACC ist die CPU sowieso komplett konkurrenzlos. (https://www.techspot.com/review/2458-ryzen-5800x3D-vs-core-i7-12700/)



Ja, ungefähr so ist auch meine Erfahrung. Mein krasses Beispiel ist Kingdom Come Deliverance. Mein alter 5800X hat teilweise keine 40 FPS geschafft der 5800X3D ballert 60-100+ FPS raus, an Stellen wo der 5800X nur 35-40 FPS geschafft hat ballert der 3D 60-70 FPS raus, dort ist der Unterschied zwischen dem 5800X und dem 58003D grösser als zwischen meinem alten 2700X und dem 5800X.

Lowkey
2022-07-01, 15:18:23
Kommt da noch was? (https://www.techpowerup.com/296392/amd-readies-more-ryzen-5000x3d-processors)

dargo
2022-07-01, 17:30:46
Huch... ein 5900X3D wäre schon ganz nett. :D

Benutzername
2022-07-01, 17:54:00
Huch... ein 5900X3D wäre schon ganz nett. :D

Außer haben wollen fallen mir da aber jetzt kaum Anwendungsfälle für ein. Bei massiv parallelen Aufgaben ist der 3D Cache egal. Welche Art Anwendungen würde davon profitieren? Fällt mir eigentlich nur als billiger Ersatz für einen EPYC mit 3DCache ein. Machine Learning für zu HAuse? :uponder:



5600X3D dürfte in den meisten Spielen dasselbe abliefern wie der 5800x3d. So als billigere Option schon nett gegen zB den Core i7-12700KF

Nightspider
2022-07-01, 18:05:59
Ein 5600X3D würde aber immernoch 400 Euro kosten.

Viel für einen 6-Kerner.

Ob es genug Gamer gibt, die für einen HexaCore so viel hinblättern würden?

Thunder99
2022-07-01, 18:18:42
Weshalb gehen die Preise nicht runter? Gut verfügbar und abkühlender Markt.

Nightspider
2022-07-01, 18:24:16
Gehen doch runter. Gab öfter Aktionen wo man billiger an den X3D herankam.

Aktuel 469 Euro bei Ebay.

https://www.ebay.de/itm/334490476176?epid=16053612083&hash=item4de12f9e90:g:ZW4AAOSwIydivv3f

Mit Gutscheincode könnte es den bald mal für 420 Euro geben.

Ich würde wohl trotzdem eher auf Zen4 warten und dann ggf. ein Sidegrade auf Zen4D machen.

CoolhandX
2022-07-01, 18:35:25
Kommt Morgen, bin gespannt. Dann kommt der 5900X in das 2. System. Sorftware zum Undervolting auch schon besorgt. Hoffe das klappt alles. :biggrin:

RoughNeck
2022-07-01, 19:24:32
Ein 5600X3D wäre für 300€ eine super Option.
Aber gut, der 5800X3D ist ja erstmal ein Versuch wie der Markt die CPU annimmt. Für viele sicher interessant die Lebenszeit ihrer AM4 Plattform zu verlängern.

M4xw0lf
2022-07-01, 19:42:19
Edit: Erst nachlesen, dann Posten

RoughNeck
2022-07-01, 19:44:44
Wird eh nicht kommen, macht auch jetzt keinen Sinn wenn im September tatsächlich der große AM5 Launch sein sollte.

Benutzername
2022-07-02, 17:28:42
Wird eh nicht kommen, macht auch jetzt keinen Sinn wenn im September tatsächlich der große AM5 Launch sein sollte.


Ja, für die gerüchteten 5900x3d und 5950x3d sehe ich auch keinen wirklich en MAkrt, ob es einen 5600x3d gibt wird wohl von der Ausbeute abhängen. AMD hat ja auch den etwas seltsamen 5500G herausgebracht. Und den ein wenig spät und etwas zu teuer.


Tja, könnte auch noch kommen, wenn sie noch Zen3 Chiplets mit 3D Chache übrig haben im Lager und die nicht als EPYC verkaufen können. Tja, kommt da auf die SErverkunden an, wieviel die kaufen werden und nachkaufen in Zukunft. Ist ja das tolle an dem Chiplet aufbau, daß AMD flexibel auf den MArkt reagieren kann.

CoolhandX
2022-07-02, 17:39:20
So nachdem ich ihn eingebaut und was getestet habe muss ich sagen wow.
Läuft mit PBO 2 Tuner und -30 wunderbar. Temps im Idle sind klasse mit 39C und 42 Paket. Unter Last auch super, meist Paket um die 57-62. Kein Vergleich mit dem 5900X.
Gegenüber dem 5900x z.B. in SWTOR an der selben Stelle (habs vor dem Umbau getestet) 209 FPS mit dem X3D und 179 mit dem 5900X. Sniper Elite 5 ca. 10-15 FPS mehr.
Alles in 4K und auch nur rudimentär Beobachtet.
Also für mein System echt ein tolles Upgrade. Bin hoch zufrieden.

The_Invisible
2022-07-02, 20:28:53
Außer haben wollen fallen mir da aber jetzt kaum Anwendungsfälle für ein.

Wieso, beste Anwendungs- und Spieleleistung in einem ; )

Würds mir aber eher für den neuen Sockel AM5 wünschen, dann gleich alles neu mit DDR5 und passt.

r3ptil3
2022-07-02, 22:35:42
Wird eh nicht kommen, macht auch jetzt keinen Sinn wenn im September tatsächlich der große AM5 Launch sein sollte.

Betrachtet man das aus Sicht der Analysten, könnte es durchaus Sinn machen.

- Prognosen rechnen mit einem starken Umsatzrückgang im PC-Geschäft
- dies betrifft ebenso auch die Einzelkomponenten wie Retail-CPUs etc.
- erweitert man die alte AM4 Plattform weiter neben der neuen AM5 Plattform, kann das durchaus zu einem höheren Umsatz führen

Ein beträchtlicher Teil der preisbewussten Enthusiasten-Kundschaft würde einen CPU-Wechsel, einem gesamten Plattformwechsel, sehr wahrscheinlich vorziehen.

Ist ja nicht nur ein neues Board + CPU, sondern auch noch der sehr teure DDR5 RAM, der nun notwendig wäre.

Thomas Gräf
2022-07-02, 23:10:24
Ja könnte mir auch vorstellen das der schicke neue AM5 für Ottonormal Gamer gar nich so sexy daherkommt.

MSABK
2022-07-02, 23:21:45
Betrachtet man das aus Sicht der Analysten, könnte es durchaus Sinn machen.

- Prognosen rechnen mit einem starken Umsatzrückgang im PC-Geschäft
- dies betrifft ebenso auch die Einzelkomponenten wie Retail-CPUs etc.
- erweitert man die alte AM4 Plattform weiter neben der neuen AM5 Plattform, kann das durchaus zu einem höheren Umsatz führen

Ein beträchtlicher Teil der preisbewussten Enthusiasten-Kundschaft würde einen CPU-Wechsel, einem gesamten Plattformwechsel, sehr wahrscheinlich vorziehen.

Ist ja nicht nur ein neues Board + CPU, sondern auch noch der sehr teure DDR5 RAM, der nun notwendig wäre.

Wenn die Nachfrage aber einbricht sehe ich DDR5 im Preis weiter sinken.

Thomas Gräf
2022-07-03, 02:18:16
Ja gut dann wird schlechter DDR5 günstiger, aber wird denn DDR5 übehaupt zum must have Objekt?
Das müssen die next Gen CPUs erstmal herzeigen. Nich war. ;)

Mortalvision
2022-07-03, 06:47:41
Jo, die Nachfrage wird sicher einbrechen. Aber das Gesamtvolumen bleibt bestimmt hoch genug, damit die Entwicklung weiterläuft.

HOT
2022-07-03, 08:34:07
In diesem Umfeld werden sich die Preise an die DDR4-Preise anpassen. Bis zum September vergeht noch ein bisschen Zeit. Es wird im September keinen Sinn mehr ergeben noch DDR4 zu kaufen.
Zudem scheint AMD ziemlich große N5-Kontingente für die CPUs aquiriert zu haben, was für eine recht starke Versorgung mit neuen CPUs sprechen dürfte, es ist also auch hier kein Mangel zu erwarten. Spannender wirds bei Mobo-Bauteilen mit PCIe5-Komponenten. Aber bei Standard-AM5-Platinen, die ja nur wenig PCIe5 verbauen (1. m.2) gibts da sicherlich auch keinen großen Mangel.

Der X3D als Aufrüstoption ist eigentlich nur dann interessant, wenn man die neue Plattform nicht braucht, weil man schon ne gute alte hat.

Rolsch
2022-07-03, 13:08:42
AM5 wird vermutlich sehr teuer werden. AM4 wird noch eine Zeit lang sexy bleiben. Trotzdem rechne ich nicht mit noch anderen 3D Prozessoren. Aber mit einer 5800x3D Preissenkung. Für 299€ wäre die CPU dann auch für AM4 Neukäufer interessant.

medi
2022-07-03, 13:50:31
AM5 wird vermutlich sehr teuer werden. AM4 wird noch eine Zeit lang sexy bleiben. Trotzdem rechne ich nicht mit noch anderen 3D Prozessoren. Aber mit einer 5800x3D Preissenkung. Für 299€ wäre die CPU dann auch für AM4 Neukäufer interessant.
Ich bitte drum. Mein 3600er scheint schon etwas in die Jahre gekommen zu sein da würde sich ein 5800x3d schon gut machen als Ersatz aber für 480€ würde ich derzeit auch ne komplett neue intel plattform bekommen inkl. PCI-E 5 (hab derzeit nur PCI-E 3)

Thunder99
2022-07-03, 13:59:41
Finde auch, der Preis muss runter damit der Prozessor konkurrenzfähig aus Preis/Leistungssicht wird.

Th3o
2022-07-03, 14:02:40
Wäre interessant zu wissen wie hoch die gesamten Herstellungskosten sind. Verschenken kann AMD nichts.

Nightspider
2022-07-03, 14:15:06
AM5 wird vermutlich sehr teuer werden.

Darauf deutet absolut nichts hin.

prinz_valium_2
2022-07-03, 15:03:15
Andere Rechnen mit weiteren 3D CPUs
https://videocardz.com/newz/amd-allegedly-preparing-new-zen3d-and-low-end-am4-processors


Vllt sogar Zen 4 auf AM4

Rolsch
2022-07-03, 15:11:46
Waferzahlen sind begrenzt. Könnte mir vorstellen dass die schon mitten in der Zen4 Produktion sind. Ob die da noch Ressourcen für Zen3 abzweigen? Man wird sehen.

medi
2022-07-03, 15:35:46
Wäre interessant zu wissen wie hoch die gesamten Herstellungskosten sind. Verschenken kann AMD nichts.

Ich vermute, die CPU hat ne hohe marge. Ist bestimmt nicht teurer als der 5900er in der Produktion. Ist aber die ideale Upgrade-Gaming-CPU und das lässt sich AMD vergolden.

Ex3cut3r
2022-07-03, 17:09:35
Naja, perfekt ist Sie nicht, gibt durchaus Spiele die im CPU Limit kaum einen Mehrwert aus dem zusätzlichen Cache ziehen.

Bei einem kompletten Neukauf wurde ich eher einen AlderLake vorziehen, egal ob 12700k oder 12900k wenn man mehr Geld hat.

MSABK
2022-07-03, 17:36:06
Finde auch, der Preis muss runter damit der Prozessor konkurrenzfähig aus Preis/Leistungssicht wird.

Warum sollte eine der schnellsten CPUs vom Preis aktuell runter?

Thunder99
2022-07-03, 17:44:24
Warum sollte eine der schnellsten CPUs vom Preis aktuell runter?

Weil sie im Lager liegen bleibt zu dem Preis? Vermutung

MSABK
2022-07-03, 17:53:12
Weil sie im Lager liegen bleibt zu dem Preis? Vermutung

Gut, das wissen wir aktuell nicht. Denke wenn AM5 kommt wird der alte 3d verschwinden.

nordic_pegasus
2022-07-03, 17:54:11
Waferzahlen sind begrenzt. Könnte mir vorstellen dass die schon mitten in der Zen4 Produktion sind. Ob die da noch Ressourcen für Zen3 abzweigen? Man wird sehen.

Zen3 (+ 3D-Cache) sind 7nm, Zen4 ist 5nm. Inwiefern muss man da Ressourcen abzweigen. Vielmehr dürften langsam aber sicher die 7nm Anlagen abflachen bei der Auslastung und 5nm ist gerade am Hochfahren.

Ich halte weitere AM4 CPUs mit 3D-Cache für unwahrscheinlich. Wenn hier Überschuss bei den Dies bestünde, weil sich Milan-X nicht verkauft, würden weitere 5xxxX3D Sinn ergeben.

RoughNeck
2022-07-03, 19:21:10
Weil sie im Lager liegen bleibt zu dem Preis? Vermutung

Kann ich mir nicht vorstellen, schon gar nicht bei dem Preis im Verglich zu den schnellsten Alder Lake CPUs. Zudem hat AMD den X3D für alle Sockel freigegeben, in meinem Freundeskreis haben viele aufgerüstet, die haben alle B450 und X470.
Ist doch aktuell DIE CPU um AM4 noch paar Jahre weiter zu nutzen.

Dorn
2022-07-03, 22:03:48
Ist doch aktuell DIE CPU um AM4 noch paar Jahre weiter zu nutzen.Aktuell der beste CPU fürs Gaming und Performance/Watt. Ein Meisterwerk...da anscheinend uv -30 bei jedem klappt, einfach nur Krass.

M4xw0lf
2022-07-03, 22:15:21
Naja, perfekt ist Sie nicht, gibt durchaus Spiele die im CPU Limit kaum einen Mehrwert aus dem zusätzlichen Cache ziehen.

Bei einem kompletten Neukauf wurde ich eher einen AlderLake vorziehen, egal ob 12700k oder 12900k wenn man mehr Geld hat.
Ich bin erst mit dem 5800X3D auf AM4 umgestiegen (von Sandy Bridge ;D).

Nightspider
2022-07-03, 22:15:40
Kann ich mir nicht vorstellen, schon gar nicht bei dem Preis im Verglich zu den schnellsten Alder Lake CPUs.

Die Sache ist das ein Zen4 HexaCore für 330 Euro auch schon wieder grob über den Daumen gepeilt gleich auf und in vielen Games bei den avg fps in Front liegen wird bei niedrigerem Verbrauch und 40% höherer Anwendungs singlethread Leistung.
Da kriegste schon ein Einstiegs-AM5 Board und mit Glück bis 16GB DDR5 dazu und hast USB 4.0, PCIeGen4/5 und kannst wahrscheinlich locker noch Zen5D oder Zen6 upgraden.

["Anwendungs-SingleThread-Leistung" :ugly:]


**330 Euro für 6 Zen4 Kerne sind natürlich nur eine Vermutung

*auch von weiter fallendem DDR5 Preis wird ausgegangen

Dorn
2022-07-03, 22:38:53
Jo ab in den speku damit sonst wird es albern.

basix
2022-07-04, 09:39:30
Gut, das wissen wir aktuell nicht. Denke wenn AM5 kommt wird der alte 3d verschwinden.

+/- wissen wir es schon:
https://www.reddit.com/r/Amd/comments/vp56xy/amd_continues_to_sell_about_2_cpus_for_every/

Stückzahlmässig liegen 12900K und 5800X3D in etwa gleich auf. Verglichen mit 5600X, 5800X und 5900X sind die Stückzahlen aber deutlich geringer.

dildo4u
2022-07-04, 12:07:46
Anno 1800 Nachtest mit 5800X3D.


https://www.pcgameshardware.de/Anno-1800-Spiel-61247/Specials/Anno-1800-Benchmark-Review-Prozessor-Grafikkarte-1398034/2/

Nightspider
2022-07-04, 12:26:21
Liegt nur ganz knapp vor Alderlake.

Bin gespannt wo Zen4 sich einordnen wird. ^^

Selbst der popelige 12400 Hexacore liegt vor dem normalen 5800X. Ich denke das zeigt die Richtung an wo es mit Zen4 hingehen wird.

Und Zen4 mit V-Cache wird dann eben nochmal ~15% drauflegen.

Ex3cut3r
2022-07-04, 13:08:15
Ich bin erst mit dem 5800X3D auf AM4 umgestiegen (von Sandy Bridge ;D).

Mit einer 6700XT macht das aber auch nicht wirklich Sinn, da hätte es auch ein 5600 (X) getan. Die CPU dreht mit der GPU Däumchen. Hoffe du wechselt noch auf eine kommende RDNA 3 Karte. :up:

kmf
2022-07-04, 13:34:05
Mit einer 6700XT macht das aber auch nicht wirklich Sinn, da hätte es auch ein 5600 (X) getan. Die CPU dreht mit der GPU Däumchen. Hoffe du wechselt noch auf eine kommende RDNA 3 Karte. :up:
Mag Däumchen drehen - wen juckt's - aber die min FPS steigen trotzdem stark an. Hauptsache irgendwie gemosert... Du warst doch früher ned so, hab dich als hilfsbereiten, patenten User in Erinnerung. Besinn dich auf deine Stärken und hör auf den Nightspider zu mimen :wink:

Ex3cut3r
2022-07-04, 13:38:01
War auch nicht negativ gemeint. Sondern man hätte sich einfach mal 250-300€ sparen können. Aber gut.

Das Min FPS im GPU Limit steigen sollen, Halte ich für gewagt.

kmf
2022-07-04, 13:38:53
War auch nicht negativ gemeint. Sondern man hätte sich einfach mal 250-300€ sparen können. Aber gut.ok, dann entschuldige meinen Post - ich hab's negativ aufgefasst.

Ex3cut3r
2022-07-04, 13:40:04
Kein Problem. :up:

Crazy_Chris
2022-07-04, 13:56:58
War auch nicht negativ gemeint. Sondern man hätte sich einfach mal 250-300€ sparen können. Aber gut.

Das Min FPS im GPU Limit steigen sollen, Halte ich für gewagt.

Also für mich als VR User ist die CPU ein Traum da sie zuverlässig Frameseinbrüche wegbügelt. Mikroruckler sind da im wahrsten Sinne des Wortes Übel. :usad: Und ich habe nur eine 5700XT. (soll aber vorrausichtlich mit RDNA3 ersetzt werden)

Nightspider
2022-07-04, 14:24:13
hab dich als hilfsbereiten, patenten User in Erinnerung. Besinn dich auf deine Stärken und hör auf den Nightspider zu mimen :wink:

Warum so salty?

Ist jetzt nicht so das deine Beiträge glänzen, wenn du in einem anderen Thread fragst ob Nvidia die Physik überlistet hat wenn die Taktrate bei Ada stark ansteigt. :ugly:

Ex3cut3r
2022-07-04, 14:28:07
Bitte nicht auf die Persönliche Ebene abschweifen. Ist außerdem stark OT.

M4xw0lf
2022-07-04, 15:01:48
Mit einer 6700XT macht das aber auch nicht wirklich Sinn, da hätte es auch ein 5600 (X) getan. Die CPU dreht mit der GPU Däumchen. Hoffe du wechselt noch auf eine kommende RDNA 3 Karte. :up:
Der 5800X3D bleibt auf jeden Fall 5+ Jahre, also wird die 6700XT vermutlich nicht seine einzige Spielgefährtin bleiben.

Ex3cut3r
2022-07-04, 15:11:28
Das ist wirklich sehr beruhigend. :up: :smile:

M4xw0lf
2022-07-05, 13:28:52
PCGH hat The Witcher 3 nochmal groß angelegt gebencht :D : https://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/CD-Projekt-Benchmark-Review-Test-1398431/2/

Raff
2022-07-05, 14:44:00
Cache is king. So powerful, it's kinda ridiculous! ;)

MfG
Raff

aufkrawall
2022-07-05, 14:48:24
Nicht nur beinahe lächerlich sind die 4400 DDR5 Gear 2 für ADL. :freak:
Ja, ich weiß, Spec und so. Aber wen interessiert das. Zen 3D ist geil, aber von der angeblichen Überlegenheit hat man hier im Bench-Forum noch nichts gesehen.

Raff
2022-07-05, 14:53:21
Ich kann mit meinem 6900K im OC-Betrieb auch noch diverse Ryzen 3000 abledern - nur ist das einfach nicht das Thema. ;)

MfG
Raff

aufkrawall
2022-07-05, 14:58:09
Ich kann mit meinem 6900K im OC-Betrieb auch noch diverse Ryzen 3000 abledern
Nur, weil die ohne RAM-OC immer noch Gaming-Krücken waren. Also nicht weiter schwer. ;)
Gegen ausgemaxte Zen 2 dürfte der 6900K aber auch nicht mehr gut aussehen. Womit wir wieder beim Thema wären, wie viel eine CPU typischerweise real leisten kann (und da wären 3800 CL16 Gear 1 das Minimum, oder wenigstens mal typisch). Und da ist eure ADL-Config halt ein Witz für Gaming.

Raff
2022-07-05, 15:00:13
Nicht unsere. Intels. Der Prozessor-Marktführer ist (seit Generationen) herzlich dazu eingeladen, die RAM-Spec weniger konservativ auszulegen.

MfG
Raff

aufkrawall
2022-07-05, 15:09:01
Dann hättest du wohl besser mit der Witcher 3-Standardconfig vom Hersteller getestet, anstatt diese selbst inoffiziell zu manipulieren. Was ein dummes, borniertes Argument...

Emil_i_Lönneberga
2022-07-05, 17:17:49
PCGH hat The Witcher 3 nochmal groß angelegt gebencht :D : https://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/CD-Projekt-Benchmark-Review-Test-1398431/2/

Ein Träumchen - Spitzenleistung in der Gaming-Performance trotz günstigem Gammel-RAM, ohne OC von Haus aus verfügbar und nachtrgäglich mit etwas Tuning über UV 60-80W Verbrauch möglich. Genau mein Ding :love: Hoffentlich bleibt das kein Einzelfall und wird mit Zen4 fortgesetzt.

Hott3X
2022-07-05, 18:09:51
Ein Träumchen - Spitzenleistung in der Gaming-Performance trotz günstigem Gammel-RAM, ohne OC von Haus aus verfügbar und nachtrgäglich mit etwas Tuning über UV 60-80W Verbrauch möglich. Genau mein Ding :love: Hoffentlich bleibt das kein Einzelfall und wird mit Zen4 fortgesetzt.

So sieht es aus, daher musste ich mir die CPU auch holen. Jetzt sowas noch bei den Grafikkarten 😂

Nightspider
2022-07-05, 20:13:03
Dann hättest du wohl besser mit der Witcher 3-Standardconfig vom Hersteller getestet, anstatt diese selbst inoffiziell zu manipulieren. Was ein dummes, borniertes Argument...

Hey immer schön nett bleiben.


Aber ich verstehe beide Seiten.

Ein gepimptes Witcher 3 mit Alderlake im Speicher Limit zu testen ist aber natürlich nur bedingt aussagekräftig bezüglich des X3D.

Mit schnellem RAM und bissl Tuning schmilzt bestimmt viel vorm Vorsprung dahin.

Wer natürlich zu faul ist für memory OC und den billigsten RAM kaufen will ist mit dem X3D gut bedient.

Also nix Neues eigentlich. :D

ChaosTM
2022-07-05, 20:37:06
Es soll ja auch Leute geben, die sich extensives RAM Tuning einfach aus Zeitgründen nicht antun wollen oder können.
Uns macht so was Spaß, für viele ist es einfach nur unnötige Arbeit

Ex3cut3r
2022-07-05, 20:47:52
Full Ack. :)

aufkrawall
2022-07-05, 21:11:10
Hey immer schön nett bleiben.

Ich habe mich ja nur auf sein Argument bezogen, nicht auf seine Person. ;)
So eine Postbeamten-Ausflucht ala "Dienst strengstens nach Vorschrift!" ist halt nur ein Abspeisen mit einem Pseudo-Argument anstatt eine ernstgemeinte Erklärung.
Leuchtet anderen Testern auch ein, HWUB haben mit Äpfel vs. Äpfel-RAM getestet. Aber man kann natürlich auch einen 12700 und einen 12700K testen statt irgendeinen ADL 8C mit schnellerem RAM. Ist bestimmt der Größe der verbleibenden Leserschaft zuträglich, oder auch nicht. Ist ja nur ein Beruf und kein Hobby...

Th3o
2022-07-05, 21:39:51
So sieht es aus, daher musste ich mir die CPU auch holen. Jetzt sowas noch bei den Grafikkarten 😂
Habe mir jetzt auch eine bestellt. YOLO

Rolsch
2022-07-05, 21:56:16
Habe mir jetzt auch eine bestellt. YOLO

Gute Entscheidung. Man merkt das sogar im Windows wie die 3D-Sau abgeht. :biggrin:

Monsta
2022-07-05, 21:56:47
Ich habe mich ja nur auf sein Argument bezogen, nicht auf seine Person. ;)
So eine Postbeamten-Ausflucht ala "Dienst strengstens nach Vorschrift!" ist halt nur ein Abspeisen mit einem Pseudo-Argument anstatt eine ernstgemeinte Erklärung.
Leuchtet anderen Testern auch ein, HWUB haben mit Äpfel vs. Äpfel-RAM getestet. Aber man kann natürlich auch einen 12700 und einen 12700K testen statt irgendeinen ADL 8C mit schnellerem RAM. Ist bestimmt der Größe der verbleibenden Leserschaft zuträglich, oder auch nicht. Ist ja nur ein Beruf und kein Hobby...

Also bitte, es wurden 39 Cpus getestet, hätte man da alle auslooten sollen was so RAM OC mäßig machbar ist? Am besten noch noch für jede CPU aufdröseln was wieviel bei welcher bringt. Wieviel tausend Stunden soll das kosten, wer bezahlt sowas?

Ich finde den Test klasse. Danke

Thomas Gräf
2022-07-05, 22:09:23
RAM auszutesten erinnert mich immer bissl an Quantenphysik.
In allen Belangen.
Darum lieber den X3D, der kennt sich damit besser aus. :biggrin:

Raff
2022-07-05, 23:15:37
Ist ja nur ein Beruf und kein Hobby...

Genau, deswegen poste ich ja quasi 24/7 in diversen Foren, weil das nur ein Beruf ist. Falscher Adressat für jede Form von "mehr Einsatz, du faules Stück", echt. :) Irgendwo muss man aber Grenzen ziehen. Machst du im Beruf bestimmt auch.

MfG
Raff

Denniss
2022-07-06, 00:23:04
@Raff - Trolle bitte nicht füttern. Statt vernünftig Kritik am Test zu üben kommt so einer gleich mitm Flammenwerfer daher. Das der 5800X3D nur mit 3200er RAM getestet wird regt er sich dann nicht auf, ist also mit fetter Fanboybrille unterwegs

Raff
2022-07-06, 00:27:22
Apropos, wir sind gerade auf der Suche nach einem richtig gemeinen Anno-Save. Also noch gemeiner als "Bright Sands", welches keineswegs Samthandschuhe anlegt. Wer was hat: Postet das gerne hier, ansonsten via PN. Dann gibt's zu einem späteren Zeitpunkt noch ein paar Spezialbenchmarks mit ganz besonders geringen Bildraten inkl. OC-Stichproben. :D

MfG
Raff

aufkrawall
2022-07-06, 01:48:42
@Raff - Trolle bitte nicht füttern. Statt vernünftig Kritik am Test zu üben kommt so einer gleich mitm Flammenwerfer daher. Das der 5800X3D nur mit 3200er RAM getestet wird regt er sich dann nicht auf, ist also mit fetter Fanboybrille unterwegs
Ich habe auf den HWUB-Test verwiesen, der auch den 3D mit dem gleichen "typischen" RAM-OC betrieben hat. Hast du wohl durch deine wasauchimmer-Brille nicht gesehen (Glashaus und so)...

Crazy_Chris
2022-07-07, 11:58:10
MSI scheint ja die Funktionalität des PBO Tuner Tools für den 5800X3D ins BIOS eingebaut zu haben.(?) Nennt sich Kombo Strike. :rolleyes:

https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/News/MSI-Performance-Plus-weniger-Strom-Temperatur-1398602/

Benutzername
2022-07-08, 17:13:02
MSI scheint ja die Funktionalität des PBO Tuner Tools für den 5800X3D ins BIOS eingebaut zu haben.(?) Nennt sich Kombo Strike. :rolleyes:

https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/News/MSI-Performance-Plus-weniger-Strom-Temperatur-1398602/


Für spiele bringt es wohl fast nix sagt Gamers Nexus:

wf6HAtllwpg


MSI wollte wohl einfach ein "tolles neues Killer-Feature", daß man auf die Mobo-Schachtel drucken kann um sich von der Konkurrenz abzusetzen.

TwoBeers
2022-07-10, 19:39:32
Also ich habe gerade mal das 1.B1 BIOS getestet. RAM OC ging bei mir etwas besser, soll heißen er bottete zumindest wieder mit 3600, aber stabil war's trotzdem nicht, sitze weiterhin auf 3200 CL14 mit super scharfen Subtimings.

Außerdem habe ich mir mal dieses "Kombo Strike" feature angeguckt.

Also CB23 normal hab ich MC 14300 Punkte, mit PBO2 Tuner -30 14990 und mit "Kombo Strike" Level 3 14940, bei ~77°C @85W.
Also Kombo Level 3 und -30 scheinen wohl sehr änlich zu sein.

Thunder99
2022-07-11, 08:27:28
Eventuell MSI BIOS Workaround zur Sperre von AMD

TwoBeers
2022-07-11, 09:52:30
Eventuell MSI BIOS Workaround zur Sperre von AMD

Jup, genau das ist es. Halt nur nicht erklärt, was dahinter steckt, aber wird wohl nichts anderes als CO sein.
Persönlich bleibe ich erstmal bei PBO2 im Autostart, da weiß ich eher was der macht.
Aber z.B. für Linux ist eine direkte BIOS Integration ein Schritt in die richtige Richtung.

dildo4u
2022-07-11, 10:53:50
F1 22 +50% bei den Mins zum 5800X/12900K.


https://www.pcgameshardware.de/F1-22-Spiel-73658/Specials/F1-22-Test-Steam-Benchmarks-Raytracing-DLSS-1398284/2/

Raff
2022-07-11, 11:20:56
Yep, wieder brutal. Das lässt sich auch nicht "reintakten" - ein ausgereizter 12900K mit DDR5-6400 landet zwischen 160 und 165 Fps mit Raytracing.

MfG
Raff

dildo4u
2022-07-11, 11:22:24
Mit einer Nvidia kann man die Performance auch mit RT nutzen oder sind die Karten noch zu langsam.

M4xw0lf
2022-07-11, 11:42:57
F1 22 +50% bei den Mins zum 5800X/12900K.


https://www.pcgameshardware.de/F1-22-Spiel-73658/Specials/F1-22-Test-Steam-Benchmarks-Raytracing-DLSS-1398284/2/
Möge die secret sauce noch lange von kommenden Spielen gemolken werden :umassa:

dargo
2022-07-11, 14:30:25
2HqE03SpdOs

Von einem R5 3600 definitiv ein heftiges Upgrade.

Rancor
2022-07-11, 16:24:50
Also für Gaming absolut krank das Teil. Kein Ahnung ob Ryzen 7000 da überhaupt rankommen wird. Afaik haben die kein 3D Cache oder?

Lehdro
2022-07-11, 16:41:22
Also für Gaming absolut krank das Teil. Kein Ahnung von Ryzen 7000 da überhaupt rankommen wird. Afaik haben die kein 3D Cache oder?
Soll nicht allzu spät folgen...

mironicus
2022-07-11, 17:07:25
Wer kauft sich dann noch eine CPU ohne V-Cache? Da würde ich selbst bei Zen 4 warten.

dargo
2022-07-11, 17:18:03
Also für Gaming absolut krank das Teil. Kein Ahnung ob Ryzen 7000 da überhaupt rankommen wird. Afaik haben die kein 3D Cache oder?
Auch ohne X3D wird sich Zen4 genug von Zen3 absetzen können. Ich erwarte bei Zen4 einfach nur ein gleichmäßigeres Performanceplus vs. Zen3. Zen3X3D legt leider nicht bei alle Games so stark zu.

Lehdro
2022-07-11, 17:54:27
Auch ohne X3D wird sich Zen4 genug von Zen3 absetzen können. Ich erwarte bei Zen4 einfach nur ein gleichmäßigeres Performanceplus vs. Zen3. Zen3X3D legt leider nicht bei alle Games so stark zu.
Genau, Takt skaliert in jedem Spiel. Cache und IPC eben nicht.

Zen 4 bringt Minimum +10% Takt als Boost mit, zusätzlich zu allem was AMD sonst noch so mit Zen 4 in petto hat.

horn 12
2022-07-11, 19:09:40
Ja, dann lass es 15 bis 22% sein
X3D so wie meiner fährt bei kommenden Games wohl gross auf, wird wohl in naher Zukunft immer mehr da hin optimiert werden, vor Allem wenn Zen 4 auch bald mit 3D Cache folgen wird.

Nightspider
2022-07-12, 02:44:49
Gute Entscheidung. Man merkt das sogar im Windows wie die 3D-Sau abgeht. :biggrin:

Der Cache bringt was im Windows? :|



X3D so wie meiner fährt bei kommenden Games wohl gross auf, wird wohl in naher Zukunft immer mehr da hin optimiert werden, vor Allem wenn Zen 4 auch bald mit 3D Cache folgen wird.

Klar, wird immer zu den 0,0001% Randgruppen hin optimiert. Genau.

Und natürlich wird zu der Hardware hin optimiert, die eh Leistung im Überfluss hat, damit es auf den restlichen 99,999% beschissener läuft.

Du schreibst mal wieder einen Müll.

aufkrawall
2022-07-12, 02:57:08
Wird wohl so eintreten wie die Zen-Optimierungen für z.b. den Dunia-Müll mit Ryzen-Logovideo während dem Spielstart, nämlich gar nicht.
Fun Fact: Far Cry 3 (!) haut mir selbst bei 80fps im GPU-Limit mit DXVK (also weniger Overhead) einen höheren CPU-Verbrauch raus als Dying Light 2 mit RT in 720p...
Ubisoft-Spiele scheinen aus Kot anstatt aus Code zu bestehen. ;D

Ex3cut3r
2022-07-12, 04:43:12
Kann mal bitte einer diese Szene am besten mit Nvidia Karte testen wie auf dem Bild?

Mein 5700X mit DDR4 3800 CL16 Tuned, haut dort nur 87 FPS raus. Dazu ist die Frametime wie man vlt. sieht, auch komplett im Arsch.

Wenn ich das OC komplett rausnehme sinkt die Framerate auch nur um 3-5 FPS. :confused:

https://abload.de/thumb/forzahorizon5_2022_070dj8v.png (https://abload.de/image.php?img=forzahorizon5_2022_070dj8v.png)

https://abload.de/thumb/forzahorizon5_2022_07c4j0m.png (https://abload.de/image.php?img=forzahorizon5_2022_07c4j0m.png)

Irgendwas ist da mächtig im Arsch, nur ich weiß nicht was. :freak:

Erzwinge ich via Bios einen festen Takt und Spannung, springt der Takt der CPU nicht mehr wie wild rum, sondern ist stabil, aber die Framerate und Frametime ist genau so im Arsch.

Settings ist alles auf Max/Extreme wo es geht, ansonsten TAA, 1440p.

Ich habe da so langsam Nvidias DX12 in Verdacht. Auch wenn Krawall das nicht hören will.

dildo4u
2022-07-12, 06:31:52
Das Game profitiert massiv von SAM was Nvidia aber für das Game nicht freigibt.

https://youtu.be/H5vtaAMVM5c

dargo
2022-07-12, 07:19:38
Kann mal bitte einer diese Szene am besten mit Nvidia Karte testen wie auf dem Bild?

Mein 5700X mit DDR4 3800 CL16 Tuned, haut dort nur 87 FPS raus. Dazu ist die Frametime wie man vlt. sieht, auch komplett im Arsch.

Wenn ich das OC komplett rausnehme sinkt die Framerate auch nur um 3-5 FPS. :confused:

https://abload.de/thumb/forzahorizon5_2022_070dj8v.png (https://abload.de/image.php?img=forzahorizon5_2022_070dj8v.png)

https://abload.de/thumb/forzahorizon5_2022_07c4j0m.png (https://abload.de/image.php?img=forzahorizon5_2022_07c4j0m.png)

Irgendwas ist da mächtig im Arsch, nur ich weiß nicht was. :freak:

Wie kommst du darauf da wäre was nicht in Ordnung? Die Engine hängt offensichtlich kaum am Speicher. Das sieht man auch schon am Test vom 5800X3D. Der legt in FH5 kaum zu vs. Zen3 non 3D Cache.
https://youtu.be/2HqE03SpdOs?t=337

Ex3cut3r
2022-07-12, 13:56:36
Trotzdem, erscheint mir das sehr wenig. Außerdem minruckelt es extrem dort an der Stelle.

dargo
2022-07-12, 13:58:51
Ist aber normal an dieser Stelle. Da kommt einiges zusammen... etwas schwächelnder Geforce-Treiber + schwaches Multithreading der Engine. Hast du SAM aktiv? Das bringt auch einiges, zumindest auf Radeon. Keine Ahnung ob Geforce auch so stark von SAM in FH5 profitiert.

Ex3cut3r
2022-07-12, 14:00:03
Wie sieht da mit Radeon aus? Besser oder?

dargo
2022-07-12, 14:01:36
Muss ich jetzt echt die Stelle suchen? :usad:

Ex3cut3r
2022-07-12, 14:04:07
Nein, schon gut.

AlderLake + Radeon düfte die beste Erfahrung sein, werde beim nächsten Upgrade Intel viel mehr beachtung schenken und eine Radeon Karte, Nvidias DX12 geht mir auf die Nüsse. Lächerlich seit Ampere haben Sie kaum Performance aus dem Treiber geholt, haben sich nur um Miner gekümmert.

dargo
2022-07-12, 14:05:04
Wegen einem Spiel? lol :freak: Warum ist dein 5800X3D schon wieder weg? Langerweile? ;D

Edit:
Weil du es bist. :)

Die Stelle ist mit Radeon auch kaum schneller (max. Details + TAA).
https://abload.de/thumb/forzahorizon5_2022.07ozkkn.jpg (https://abload.de/image.php?img=forzahorizon5_2022.07ozkkn.jpg)

Mikroruckeln tut aber mit Radeon in FH5 gar nix. Absolut butterweich durchgehend. Die Stelle ist schon böse cpu-limitiert, meine GPU geht fast auch 2,6Ghz bei 224 Wattchen hoch. :D

PS: weiß jetzt aber nicht ob die ToD auf die fps geht, müsste es mir nochmal am Tag anschauen.

Ex3cut3r
2022-07-12, 14:19:38
Wegen einem Spiel? lol :freak: Warum ist dein 5800X3D schon wieder weg? Langerweile? ;D

Der war in der Tat etwas langweilig, habe getauscht mit jemanden aus der Familie und 200€ auf die Hand. :biggrin:

-30 @ 5800X3D Curve Optmizier ging übrigens nicht, im Prime stiegen einzelne Kerne aus, glaube viele merken das gar nicht. ^^

Wegen einem Spiel? lol :freak: Warum ist dein 5800X3D schon wieder weg? Langerweile? ;D

Edit:
Weil du es bist. :)

Die Stelle ist mit Radeon auch kaum schneller (max. Details + TAA).
https://abload.de/thumb/forzahorizon5_2022.07ozkkn.jpg (https://abload.de/image.php?img=forzahorizon5_2022.07ozkkn.jpg)

Mikroruckeln tut aber mit Radeon in FH5 gar nix. Absolut butterweich durchgehend. Die Stelle ist schon böse cpu-limitiert, meine GPU geht fast auch 2,6Ghz bei 224 Wattchen hoch. :D

Danke dafür. Komisch, miniruckelt extrem mit Nvidia an der Stelle. Dein FrametimeGraph ist ja eine Linie, bei mir sieht man auch, wie der Graph hoch und runter springt.

dargo
2022-07-12, 14:25:35
-30 @ 5800X3D Curve Optmizier ging übrigens nicht, im Prime stiegen einzelne Kerne aus, glaube viele merken das gar nicht. ^^

Och... Prime ist mir völlig wumpe, teste ich schon lange nicht mehr mit. Solange meine Applikationen einwandfrei laufen reicht mir das.

Ex3cut3r
2022-07-12, 14:26:54
Och... Prime ist mir völlig wumpe, teste ich schon lange nicht mehr mit. Solange meine Applikationen einwandfrei laufen reicht mir das.

:freak: War auch in SoTTR dann der Fall. -> Instant Rechner Neustart.

dargo
2022-07-12, 14:28:12
Komisch, miniruckelt extrem mit Nvidia an der Stelle. Dein FrametimeGraph ist ja eine Linie, bei mir sieht man auch, wie der Graph hoch und runter springt.
Teste mal SAM On/Off, vielleicht ist da bei Geforce was im Argen.

:freak: War auch in SoTTR dann der Fall. -> Instant Rechner Neustart.
Das ist natürlich was anderes und sollte logischerweise nicht passieren. :)

Ex3cut3r
2022-07-12, 14:42:36
rBar habe ich schon per Inseptor geforced, bringt 5-7 FPS an der Stelle, aber, in anderen Bereichen/Szenen, gibt starke Einbrüche der GPU Usage, hat leider einen Grund, warum Nvidia es im Gegensatz zu FH4 nicht standardmäßig aktiviert.

dargo
2022-07-12, 15:05:35
ToD wirkt sich nicht auf die fps aus.
https://abload.de/thumb/forzahorizon5_2022.07fzjud.jpg (https://abload.de/image.php?img=forzahorizon5_2022.07fzjud.jpg)

aufkrawall
2022-07-12, 15:35:30
Ist das im CPU-Limit? GPU-Auslastung (nicht eingeblendet, weil?)?

Ex3cut3r
2022-07-12, 15:36:41
Ja dürfte CPU Limit sein. Dargo hat nie seine GPU Auslastung eingeblendet, er orientiert sich am Verbrauch, soweit ich weiß. Meins ist das aber auch nicht. Aber gut. ^^

aufkrawall
2022-07-12, 15:54:41
Was mir gerade auffällt: Hattest du nicht mal den 3D? :freak:
Bez. Frame Times: Ja, kann sein, dass die in diesem Spiel mit Radeon-Treiber insbesondere im CPU-Limit besser sind. Zwar gibts nicht unbedingt riesige zweistellige Performancegewinne avg. vs. Nvidia, aber perfekt ist deren D3D12-Treiber definitiv nicht. Manche Spiele laufen mit VKD3D-Proton sauberer als nativ. Zufrieden, dass ich das gesagt habe?
Kommt aber halt sehr aufs Spiel an. Wie gesagt, DL2 Open World RT, und die CPU langweilt sich einen ab und es läuft komplett sauber...

Ex3cut3r
2022-07-12, 15:59:46
Steht weiter oben alles.

dargo
2022-07-12, 16:10:25
Ja dürfte CPU Limit sein. Dargo hat nie seine GPU Auslastung eingeblendet, er orientiert sich am Verbrauch, soweit ich weiß. Meins ist das aber auch nicht. Aber gut. ^^
Da brauchts auch keine GPU-Auslastung wenn man die eigene Graka über alle Spiele kennt. Normalerweise liegt der GPU-Takt bei mir bei <2,4Ghz mit dem eigenen Powerlimit von 226W. In FH5 sind es an manchen Stellen in der Stadt ca. 200Mhz mehr.

aufkrawall
2022-07-12, 16:14:50
Das ist nur ein Indiz, kein Beweis. Dass die Engine trotz GPU-Limits kaum Strom zieht, ist zumindest in Anbetracht des Verhaltens der Vorgängertitel nicht unwahrscheinlich.
Man könnte es ja auch sorgfältig überprüfen...

dargo
2022-07-12, 16:22:14
Man könnte auch rumtrollen, in deiner Manier halt. :rolleyes:

aufkrawall
2022-07-12, 16:26:56
Dass deine Definition geringer Stromverbrauch = CPU-Limit für den Arsch ist, ist leider kein Trolling.
Im deutlichen CPU-Limit takten Radeons auch gerne mal schnell runter. Deine Interpretation des hohen Takts ist da genauso hirnrissig. Nach all den Jahren sollte man es mit etwas Lernfähigkeit doch wirklich mal besser wissen, außer die fehlt halt...

Mal abgesehen davon haben HWUB viel höhere 1% low.
Der 3D ist bei HWUB in 1440p offenbar auch schon größtenteils im GPU-Limit, und folglich in 1080p auch schon in Teilen...

dargo
2022-07-12, 16:34:58
Du bist und bleibst ein Troll. ;D

Die Graka taktet außerhalb der Stadt bei gleichen Powerlimit mit <2,4Ghz bei 30-40 mehr fps. Mach dich nur weiter lächerlich.

Edit:
Im übrigen testet HU nur mit High Settings, was nicht nur die GPU-/ sondern auch die CPU-Last erheblich reduziert.

aufkrawall
2022-07-12, 16:37:45
Wow, es scheint dargo neu zu sein, dass unterschiedliche Szenen auch unterschiedliche Stromverbräuche haben können, und das ganz ohne CPU-Limit.
Kann natürlich trotzdem ein CPU-Limit sein, aber aus purer Bockigkeit nicht einfach die GPU-Last einzublenden, ist so etwas von geistiger Tiefflug...

Nightspider
2022-07-12, 20:35:19
F1 22 +50% bei den Mins zum 5800X/12900K.


https://www.pcgameshardware.de/F1-22-Spiel-73658/Specials/F1-22-Test-Steam-Benchmarks-Raytracing-DLSS-1398284/2/


Mit RT-Schatten liegen nur 20% dazwischen.

Und bei den von dir genannten Werten ist es irgendwie auch Wurst ob 143fps oder 215fps.

In City Skylines explodieren die fps auch mit dem X3D an Stellen, wo man eh schon zu viele fps hat und die Hardware nicht gefordert wird.

In Star Citizen sind die Unterschiede auch da am größten, wo man die meisten fps hat.


So als würde das Memory Bottleneck in den Szenen größer werden, relativ gesehen, in denen die CPU Kerne gar nicht so stark gefordert werden und sie viel mehr Bilder pro Sekunde berechnen können und als ob durch diese mehr berechneten Bilder pro Sekunde mehr Daten(sätze) vom Speicher angfordert werden. Ich kanns gerade nicht besser beschreiben, wie ich das meine. ^^

aufkrawall
2022-07-12, 21:19:16
So als würde das Memory Bottleneck in den Szenen größer werden, relativ gesehen, in denen die CPU Kerne gar nicht so stark gefordert werden und sie viel mehr Bilder pro Sekunde berechnen können und als ob durch diese mehr berechneten Bilder pro Sekunde mehr Daten(sätze) vom Speicher angfordert werden. Ich kanns gerade nicht besser beschreiben, wie ich das meine. ^^
Oder die Latenzen schlagen einfach stärker durch, je höher die fps sind. Ohne den Cache quasi als Fixkosten, die um so geringer ins Gewicht fallen, je niedriger die fps sind.
Ist natürlich nicht nur so, Anno profitiert ja auch gut <100fps. Aber halt auch nicht beeindruckend vs. ADL mit RAM-OC.

Nightspider
2022-07-12, 21:57:57
Oder die Latenzen schlagen einfach stärker durch

Das ist quasi das was ich meinte, nur andersherum formuliert. :)

Ist das vielleicht auch logisch, weil für jedes Bild, bei hohen fps, deutlich weniger Zeit ist?

Also werden die (Speicher-)Latenzen wichtiger, je höher man mit den fps will, weil nur noch ein Bruchteil der Zeit für jedes Bild vorhanden ist.

Keine Ahnung ob das eine Erklärung ist aber sie klingt logisch. :freak::freak:

Rancor
2022-07-13, 08:10:52
Nein, schon gut.

AlderLake + Radeon düfte die beste Erfahrung sein, werde beim nächsten Upgrade Intel viel mehr beachtung schenken und eine Radeon Karte, Nvidias DX12 geht mir auf die Nüsse. Lächerlich seit Ampere haben Sie kaum Performance aus dem Treiber geholt, haben sich nur um Miner gekümmert.
Lel du hast deinen 5800X3D, die aktuelle schnellste Gaming CPU, gegen einen 5700x und 200€ getauscht? ;D

Das ist nach der RTX 3080TI für 1900€ der nächste Fail

Darkearth27
2022-07-13, 16:48:12
@aufkrawall

https://s20.directupload.net/images/220713/yyfab4cf.png (Dämmerung)

https://s20.directupload.net/images/220713/6vv4lokb.png (Nachts)

5800X3D mit 6900XT, selbe Stelle wie bei Dargo bzw Ex3cut3r

Grafiksettings sind auch mit dabei (Maxed out 1440p mit TAA)

PS nur für den Screenshot das Game nochmal installiert, da die Texturen des roten Rauches immer noch nicht gefixed sind (nach 7 Monaten echt armselig)..

aufkrawall
2022-07-13, 16:53:40
Top, danke! :up:
Wenn die GPU-Auslastung konstant bei den 99% liegt, sollte das auch mit der etwas zappeligen Radeon-Auslastungsanzeige (wobei ja seit Navi unter Windows wesentlich verlässlicher) auf ein GPU-Limit hindeuten.
Könntest du noch einmal mit 720p testen (wenn du willst, auch noch mit ein paar GPU-Details wie AF oder SSR reduziert)? :redface:

Darkearth27
2022-07-13, 17:01:13
Klar, selbe Stelle?

aufkrawall
2022-07-13, 17:11:34
Jo. :)

Ex3cut3r
2022-07-13, 17:36:34
Lel du hast deinen 5800X3D, die aktuelle schnellste Gaming CPU, gegen einen 5700x und 200€ getauscht? ;D

Das ist nach der RTX 3080TI für 1900€ der nächste Fail

Der 5800X3D hat hier oft genug gar nicht so viel mehr gebracht. Außerdem war die CPU sehr langweilig.

Die Leistung des 5700X mit RAM OC reicht mir aus.

Die 3080 Ti habe ich für 1750€ gekauft, und nicht 1900€. Hinterher habe ich meine RTX 2080 für 700€ verkauft. Könnte ich gut mit leben. Na immer noch mit 2080 8GB Krüppel unterwegs? Reicht grade so für 1080p Gaming? :smile:

Vlt. solltest du dich mal beim Caritas melden, die Spenden dir vlt. eine 2080 Ti vom Grabbeltisch.

Darkearth27
2022-07-13, 17:37:06
Maxed out in 720p ist immer noch GPU bound, siehe hier:
https://s20.directupload.net/images/220713/g4s54md6.png


Und dann hab ich die Settings reduziert.
(Settings dann diese:)
https://s20.directupload.net/images/220713/wesccffm.png

Das kommt dann dabei heraus.
https://s20.directupload.net/images/220713/k3cyhkfu.png

Keine Ahnung ob es dir hilft, aber bitte sehr.

dargo
2022-07-13, 17:59:15
Maxed out in 720p ist immer noch GPU bound, siehe hier:
https://s20.directupload.net/images/220713/g4s54md6.png

Sehr zuverlässig die GPU-Auslastungsanzeige. :lol:

aufkrawall
2022-07-13, 18:17:58
Keine Ahnung ob es dir hilft, aber bitte sehr.
Ja, exzellent!
Das CPU-Limit liegt also deutlich höher als ~95fps, und das vermutlich auch mit dem non-3D. Ist der Nvidia-Treiber hier wirklich so kacke (Ex3cut3r in 3, 2, 1...)? :freak:

Wie nicht anders zu erwarten war, war dargos Stromverbrauchs-"Theorie" kompletter Unfug.

Sehr zuverlässig die GPU-Auslastungsanzeige. :lol:
Die ist ja korrekt, anders als deine unsinnigen Annahmen. Bei dir wird die GPU-Auslastung auch bei 100% sein und damit deine Werte für die Tonne.
Vielleicht liegt der non-3D nur wenig über dem GPU-Limit, vielleicht aber auch deutlicher. Das würden wir auch schon längst wissen, würdest du gescheit testen, anstatt aus purer (und augenscheinlich deplatzierter...) Eingebildetheit an deinem Quatsch festzuhalten...

Darkearth27
2022-07-13, 18:30:38
Bei einem 400w Powerbudget das ich für die GPU eingestellt hatte bei dem Test ist aber dennoch klar, dass der Verbrauch der GPU trotz angeblicher 100% Auslastung nicht wirklich 100% beträgt.

Es werden nur Teile der Karte genutzt die dann zu 100% ausgelastet sind, also irgendwas scheint da bei dem Spiel komplett anders zu laufen.

aufkrawall
2022-07-13, 18:33:27
Ja, ein GPU-Auslastungsproblem im GPU-Limit. Deshalb skaliert das auch mit sinkender Auflösung so schlecht. Aber würde halt mit massiv schnellerer CPU auch nicht schneller laufen, also GPU-Limit. Gibts etwa bei dem Ubisoft-Schrott auch ständig.
Mit Ampere ist das nochmal schlimmer und das wird dann auch gerne mit einem CPU-Limit verwechselt. :)
Nicht, dass es nicht doch je nach Spiel CPU-Limit-Probleme mit Nvidia D3D12 geben könnte (so wie hier?), aber häufig dürfte es eben doch die Auslastung im GPU-Limit sein.

Darkearth27
2022-07-13, 18:38:26
Ich könnte ja mal die PCGH Strecke (https://www.youtube.com/watch?v=0Oro2PzzIDU) fahren und Benchen.
Oder wird die nicht mehr genutzt @Raff?

Oder ich schreibe Dave an, der kümmert sich ja um die CPUs ;)

aufkrawall
2022-07-13, 18:43:08
Falls du experimentierfreudig bist und das nicht mit dem 3D auch gelockt ist, könntest du den CPU-Takt runterschrauben. Sollte nichts an der Performance im GPU-Limit ändern.

Darkearth27
2022-07-13, 18:58:02
Soo,

PCGH Strecke + Settings.

Run Nr. 1
https://s20.directupload.net/images/220713/hhajzzbs.png

Run Nr. 2
https://s20.directupload.net/images/220713/jfc49a8k.png


Takt begrenzen geht nur über ein drittanbieter Tool, welches ich aus persönlichen Gründen nicht nutzen möchte.

Stelle ich es im Bios ein (1207er Agesa und NUR mit MOD verfügbar bei meinem Brett) wird es nicht aktzeptiert.

dargo
2022-07-13, 18:58:26
Die ist ja korrekt, anders als deine unsinnigen Annahmen. Bei dir wird die GPU-Auslastung auch bei 100% sein und damit deine Werte für die Tonne.

Klar... eine RX 6900XT verbraucht auch nur 168W ASIC bei 99% Auslastung. :uup: Der Experte aufkrawall mal wieder. ;D ;D ;D

aufkrawall
2022-07-13, 19:05:02
Klar... eine RX 6900XT verbraucht auch nur 168W ASIC bei 99% Auslastung. :uup: Der Experte aufkrawall mal wieder. ;D ;D ;D
Bei dir klemmts echt gewaltig. Es gibt auch Spiele, da zieht meine 3060 nur ~100W (WD Legion geht schon stark in die Richtung). Trotzdem würden die auf einer 3080 massiv schneller laufen.
Und genau das wird auch der Fall sein mit einer "7900 XT" in FH, auch wenn die dann auch wieder nur einen Bruchteil des Stroms heizender Spiele ziehen wird.
Wie kann man nach all den Jahren so wenig kapiert haben und sich stattdessen in sein Schneckenhaus des völligen Blödsinns zurückziehen...

dargo
2022-07-13, 19:15:16
Bei dir klemmts echt gewaltig. Es gibt auch Spiele, da zieht meine 3060 nur ~100W (WD Legion geht schon stark in die Richtung). Trotzdem würden die auf einer 3080 massiv schneller laufen.

Das sagt der richtige. ;D

Wie noobig bist du eigentlich? Wenn deine 3060 im Taktlimit hängt zieht sie logischerweise weniger sofern kein CPU-Limit vorliegt. Takt hoch und schon zieht sie mehr. :rolleyes: Oder es liegt mal wieder ein Auslastungsproblem bei der Luftpumpe @Ampere vor in kleineren Auflösungen. Ist jetzt auch kein Geheimnis bei Ampere.

btw.
Du hast ja offenbar nicht mal gerafft, dass das System von Darkearth27 von 1440p auf 720p nicht erwartungsgemäß der Pixellast skaliert, weil eben die CPU schon bremst. Der Übergang vom CPU-Limit zum GPU-Limit ist fließend, solltest du eigentlich wissen.

1440p = 98fps
720p = 130fps

Eine Szene ist also gpu-limitiert wenn 720p bloß ~33% vs. Faktor 4 @Pixel bei 1440p zulegt? Wohl nur in der Fantasiewelt von aufkrawall. :lol:

aufkrawall
2022-07-13, 19:37:27
Eine Szene ist also gpu-limitiert wenn 720p bloß ~33% vs. Faktor 4 @Pixel bei 1440p zulegt? Wohl nur in der Fantasiewelt von aufkrawall. :lol:
Ja, sonst würde es mit reduzierten Details, die nur die GPU-Belasten (AF, SSR...) nicht schneller laufen. Und allein dieser Sachverhalt zeigt schon, dass du komplett auf dem Holzweg bist.

Wenn es mit schnellerer GPU schneller und mit langsamerer CPU nicht langsamer läuft, ist es ein GPU-, und kein CPU-Limit.
Eine GPU besteht aus unterschiedlichen Blöcken, die unterschiedlich ausgelastet sein können. -> Auslastungslimit im GPU-Limit. Bitte erzähl nicht weiter kompletten Stuss, bis dir dieser Sachverhalt endlich mal eingeleuchtet hat. Ich bin nicht für die Sonderschule qualifiziert, ich kann das Begreifen bei dir nicht erzwingen...

Ex3cut3r
2022-07-13, 19:41:28
Bitte macht per PN weiter. Für mich ist es ein CPU Limit, wenn die GPU unter 95% Auslastung ist. Klar verbrauch schön und gut, aber andere Spiele nutzen halt auch verschieden die ganzen Shader der GPU, nicht jedes Spiel lastet die GPU zu 100% mit all ihren Shader aus, sieht man daran, dass die GPU relativ hoch taktet und in anderen Spielen nur bei z.B. 1700Mhz ist. Trotzdem meldet die GPU 99% Auslastung, also kein CPU Limit.

Der Sinn einer GPU Auslastungsanzeige macht also schon Sinn, sich nur am Stromverbrauch zu orientieren für zig Spiele, erscheint mir zu schwammig. Kann natürlich aber jeder so machen, wie er will.

Tyrann
2022-07-13, 20:25:58
aufkrawall & dargo

Diskutiert bitte SACHLICH weiter oder last es bleiben. Bei der nächsten Entgleisung gibts Punkte!

dargo
2022-07-13, 21:21:47
@Exe

Habe mal ein Video aufgenommen, da kannst du die Frametimes sehen. Ist jetzt kein Stadtsetting, in der Stadt sind die Frametimes aber genau so sauber.
whyUpq_mti8

aufkrawall
2022-07-13, 21:29:47
Dass im GPU-Limit Frame Times häufiger sauberer sind als im CPU-Limit, ist auch keine neue Erkenntnis.

Ex3cut3r
2022-07-13, 22:13:12
Cool danke. Kann aber nur sagen, ich habe keine Probleme mit CPU Limit oder Frametimes, wie gesagt nur in der Stadt ist es manchmal problematisch. Sonst läuft das absolut sauber. Und das lief ehrlich gesagt ziemlich ähnlich wie schon mit dem 3600 + RAM Tuning.

War stand jetzt, ein wenig Geldverbrennung, aber gut. Mit dem 3600 hätte ich noch leben können. Da ich stand jetzt kein neues GPU Upgrade plane, müssen die Komponenten nun 2+ Jahre aushalten, das passt schon. Ich schau dann was Zen 5/Intel und die über Next Gen GPUs an.

Lurtz
2022-07-13, 22:27:29
Ja, ein GPU-Auslastungsproblem im GPU-Limit. Deshalb skaliert das auch mit sinkender Auflösung so schlecht. Aber würde halt mit massiv schnellerer CPU auch nicht schneller laufen, also GPU-Limit. Gibts etwa bei dem Ubisoft-Schrott auch ständig.
Mit Ampere ist das nochmal schlimmer und das wird dann auch gerne mit einem CPU-Limit verwechselt. :)
Nicht, dass es nicht doch je nach Spiel CPU-Limit-Probleme mit Nvidia D3D12 geben könnte (so wie hier?), aber häufig dürfte es eben doch die Auslastung im GPU-Limit sein.
Kann man bei AC Valhalla mit Ampere auch sehr gut beobachten.

99% GPU-Auslastung schwanken bei meiner undervolteten 3070 da zwischen ~180 Watt (Days Gone und andere UE4-Spiele) und teils nur ~130 Watt (AC Valhalla).

derpinguin
2022-07-14, 00:10:02
nachdem der eine privatkrieg beendet war, musste der zweite folgen?

Freestaler
2022-07-14, 00:50:04
Per PBO2 Tuner mal kurz max. TAKT Z.b. auf 4000mhz setzen? Cpu limit sollte so dann sofort ersichtlich sein.
Pbo2 tuner braucht keine installation das Tool und alle settings sind nach nem Boot wieder so wie sie waren bevor man im Tool was machte.

Nightspider
2022-07-14, 01:00:11
Gute Entscheidung. Man merkt das sogar im Windows wie die 3D-Sau abgeht. :biggrin:

Ich wiederhole nochmal die Frage, wo denn unter Windows irgendwas durch zusätzlichen Cache abgehen soll?

Wenn diverse Windows Applikationen von viel Cache profitieren würde, wäre das ja nett aber bisher hatte ich nicht das Gefühl, das es so wäre.

ChaosTM
2022-07-14, 01:09:09
Bei "normalen" Windows Tasks jenseits von Games sind keine signifikanten Vorteile messbar bisher.
Afaik.

Rolsch
2022-07-14, 07:37:32
Am deutlichsten merke ich es bei der Ramdisk. Das zurückschreiben des Inhalts als komprimiertes NTFS-File geht deutlich schneller als mit dem normalen 5800x. Gefühlt reagieren manche Programme auch schneller, so z.B. die Prozessliste beim Taskmanager.

Crazy_Chris
2022-07-14, 09:18:28
Am deutlichsten merke ich es bei der Ramdisk. Das zurückschreiben des Inhalts als komprimiertes NTFS-File geht deutlich schneller als mit dem normalen 5800x. Gefühlt reagieren manche Programme auch schneller, so z.B. die Prozessliste beim Taskmanager.

Ich kann dann diese Wahrnehmung unter Ubuntu und Windows auch bestätigen. Allerdings hatte ich vorher ja auch nur einen 1700. ;D

dargo
2022-07-14, 12:56:50
PS nur für den Screenshot das Game nochmal installiert, da die Texturen des roten Rauches immer noch nicht gefixed sind (nach 7 Monaten echt armselig)..
Glatt übersehen... hast du einen aktuellen Adrenalin drauf? Spielversion sollte ja aktuell sein. So sieht der rote Rauch bei mir mit dem Adrenalin 22.5.2 aus.
qlqBpfwtg0I tspIF6MMkhE

Sieht das kaputt aus? Eventuell übersehe ich was.

Raff
2022-07-14, 12:58:10
Cyberpunk 2077 v1.52 mit 40 CPUs getestet: https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-v152-Benchmark-Review-Raytracing-1398562/3/

... und der 5800X3D klatscht ausnahmsweise nicht alle anderen Chips mit Wucht an die Wand. Das liegt aber auch daran, dass die verwendete Radeon RX 6900 XT dank SAM & Co. am Anschlag läuft. Wird echt Zeit für schnellere GPUs, auch für CPU-Tests. :ugly:

MfG
Raff

dargo
2022-07-14, 13:08:06
Entweder habt ihr das beim 5600X und 5800X Mist gemessen oder die Applikation verarscht euch. ;) Alternativ Ergebnisse verwechselt.

PS: ein 5700X langsamer als 5600 non X ergibt auch keinen Sinn. Zu viel Benchmarking auf einmal? :tongue:

Kaputte Applikation.

Raff
2022-07-14, 13:25:10
Schau dir mal diese lustigen schwarzen Zeichen auf weißem Grund an. :)

MfG
Raff

nairune
2022-07-14, 13:52:04
Deshalb hat man doch mittels Hexeditor die .exe bearbeitet. Hat sich seit Release nicht geändert...

Edit: oder damit
https://github.com/yamashi/CyberEngineTweaks
Edit2: und mit dem SMT-Fix macht der 3D dann mglw doch wieder den Rest nackig :D

dargo
2022-07-14, 14:36:51
Schau dir mal diese lustigen schwarzen Zeichen auf weißem Grund an. :)

Danke für den Hinweis. Zugegeben... bei dem Wetter hatte ich keine Lust den Text zu lesen. Sagt dann viel über die Unfähigkeit von CDPR aus wenn die das immer noch nicht gefixt haben. :freak: Im Prinzip habt ihr also viel Arbeitszeit für (fast) nichts verschwendet. Oder ich verstehe den Sinn dahinter nicht von einem CPU-Test zu sprechen bei einer kaputten Applikation.

aufkrawall
2022-07-14, 15:12:06
Da hätte ich dann mal die Hex-/Mod-Tweaks mitgetestet. Wär 1. ein Mehrwert für Zen 8C-Besitzer unter den Lesern, darüber informiert zu werden, und 2. würde man so hoffentlich die "echte" Performance der CPU in dem Spiel messen anstatt des Bugs.
So, was für ein Fanboy bin ich diesmal? AMD? ;D

DeadMeat
2022-07-14, 15:26:15
Ich verstehe nicht das die das nicht per Auto Erkennung an und abschalten wenn das noch immer so unterschiede macht, was machen die Typen eigentlich.

aufkrawall
2022-07-14, 15:29:44
Ich verstehe nicht das die das nicht per Auto Erkennung an und abschalten wenn das noch immer so unterschiede macht, was machen die Typen eigentlich.
Es war ja auch mal mit 6C kaputt, sodass mit solchen AMD-CPUs keine "HT-Threads" gespawnt wurde, also ab 50% CPU-Auslastung Schluss war. Das haben sie offenbar gefixt, aber anscheinend verschlampt, die unsinnige Kondition auch >6C/12T AMD-CPUs rauszunehmen (wenn PCGH recht hat).

Lehdro
2022-07-14, 16:07:32
Wieso man bei PCGH nicht mit dem simplen Config Change bencht ist sowas von unverständlich. Aber beim Witcher 3 mit zwölfdrilliaren Mods/Configs geht das plötzlich sogar ohne Special.

Th3o
2022-07-15, 16:40:25
Den 5800X3D eingebaut und eben y-cruncher laufen lassen. Temperatur bei manchen Tests bei ~90 Grad bei Leistungsaufnahme >100W. Bisher keine Auffälligkeiten. Welcher der Tests beim y-cruncher ist der härteste?

Darkearth27
2022-07-17, 22:23:24
Glatt übersehen... hast du einen aktuellen Adrenalin drauf? Spielversion sollte ja aktuell sein. So sieht der rote Rauch bei mir mit

Ja hatte / habe den aktuellen Treiber drauf,
Bin nun auf 22.5.2 zurück und hab eine Windows 11 neuinstallation gemacht, vielleicht gebe ich mir das Game nochmal (wieder herunter laden).

Es sah halt in Bewegung nicht so schlimm aus, wenn man aber "langsam" fährt, sieht man von unten die "blockigen" Texturen und das ist ein Fehler, der seit 7 Monaten von MS und AMD als "bekannt" gemeldet wurde und bei mir bis heute nicht beseitigt war (mit 22.6.1).

Mal schauen wann ich das Game erneut herunterladen.

aufkrawall
2022-07-18, 00:22:46
Was schafft der 3D in Octane V2 in Firefox?
https://chromium.github.io/octane/

Darkearth27
2022-07-18, 05:16:50
Zwischen 35000 und 38000 Punkte mit Firefox 102.0.1 (scheint nicht sehr konstant zu sein der Benchmark, gilt übrigens auch für EDGE)
75731 Punkte mit Edge (siehe Anhang)

Und ich habe Windows 11 22H2 gerade neu installiert, dann den 22.5.2 Treiber und nun sieht der Rauch bei FH5 tatsächlich besser aus (auch nicht mehr so "blocky").

Toller Nebeneffekt, in der PCGH Benchmarkszene mit den selben settings wie noch vor ein paar Tagen, hab ich anstatt 238 FPS avg nun 250 FPS avg.

Ob das ganze nun am GPU Treiber lag oder am frischen Windows, will ich nicht sagen.

aufkrawall
2022-07-19, 03:06:41
Zwischen 35000 und 38000 Punkte mit Firefox 102.0.1 (scheint nicht sehr konstant zu sein der Benchmark, gilt übrigens auch für EDGE)
75731 Punkte mit Edge (siehe Anhang)

Thx. Da steht ja auch, man soll den Browser zwischen den Tests neu starten. Aber eine gewisse Abweichung gibt es auch so, ja.
~36k sind ganz nett, mit dem 11400F sind es ~32k bei 4,4GHz SC (Linux btw. ~2k Punkte schneller).

Darkearth27
2022-07-19, 07:24:17
Na klar soll man den Browser neu starten, wegen des cachings (was ja die große Stärke des 3D ist), dennoch sind die Werte wie beschrieben immer unterschiedlich bei erneuter Ausführung.

Auch beim Edge, da hab ich es aber nur quer getestet.

Ich konnte mit den Daten nichts anfangen. ;)

M4xw0lf
2022-07-19, 09:23:47
Na klar soll man den Browser neu starten, wegen des cachings (was ja die große Stärke des 3D ist), dennoch sind die Werte wie beschrieben immer unterschiedlich bei erneuter Ausführung.

Auch beim Edge, da hab ich es aber nur quer getestet.

Ich konnte mit den Daten nichts anfangen. ;)

Habs nur mit Edge getestet, komme nahezu beim identischen Score raus wie du.

aufkrawall
2022-07-19, 16:12:38
Ich konnte mit den Daten nichts anfangen. ;)
Daraus lässt sich grob ableiten, wie schnell/langsam JavaScript-lastige Web-Anwendungen wie etwa Office im Browser etc. laufen.
Der 3D ist da gut dabei für 4,45GHz, aber Wunder gegen ADL >5GHz sollte man nicht erwarten. Im Notebook wär es natürlich genial, man stelle sich eine APU mit der für mobil-typischen Zen-Spannungskurve + den 3D-Cache vor. Das würd bei Lastspitzen fast keinen Strom ziehen. :eek:

Darkearth27
2022-07-19, 16:17:16
Anderen Browser nutzen, wie eben Edge z.B.

Und ehrlich, selbst mit 45w Limit zaubere ich 120FPS in CP2077 in der PCGH Szene + settings auf den Schirm, da braucht ein 12900k fast das 3 fache :D

(Mit AMD Karte, wir wissen ja um die NV Schwäche...)

aufkrawall
2022-07-19, 16:21:56
Anderen Browser nutzen, wie eben Edge z.B.

Nein, danke.


(Mit AMD Karte, wir wissen ja um die NV Schwäche...)
Wir wissen gar nicht die CPU-Performance des Radeon-Treibers in CP77, weil dort RDNA2 mit RT selbst in 720p im nicht üppigen GPU-Limit versauern dürfte. ;)

Ex3cut3r
2022-07-19, 16:50:58
Dumm nur, dass AMD Karten für RT nicht taugen, und CP77 ohne RT, ist einfach falsch. :cool:

dargo
2022-07-19, 17:10:44
Klar... deswegen war für dich noch vor kurzen CP77 mit 4k @1440p + DLSS ohne RT das nonplusultra. ;D ;) Sorry... aber ich habe mir so einige Stellen in CP77 mit vollem RT angesehen und kann nach wie vor nicht nachvollziehen was ihr da jedes Mal mit dem RT-Gedöns so hypt. Für mich ist das nach wie vor etwas was ich einfach nur nebenher mitnehme. Definitiv noch kein Must-have.

Ex3cut3r
2022-07-19, 17:28:56
Das du den Unterschied nicht sehen willst, das wissen wir ja. :rolleyes: :biggrin:
Vermutlich weil die Radeon einfach zu langsam ist, sobald du ne Radeon im System hast, die es für dich annehbar beschleunigt, ist es der letzte heiße Shit.

https://abload.de/img/maxresdefaultyiktm.jpg

Darkearth27
2022-07-19, 18:23:31
Naja der CPU ist es egal ob da eine Radeon oder eine Geforce Karte drin ist um die zusätzliche RT Leistung zu stemmen, Vorteil NV weil HW technisch weiter.

Also eben reine CPU Leistung testen und RT ausmachen (damit man eben keinen GPU Bench macht).

Was dann übrig bleibt ist der Vorteil der Radeons im CPU Limit durch den geringeren Overhead bzw weil das Speicherinterface der Geforce einfach nicht für die kleinen Auflösungen gemacht ist.
Raff hatte da ja mal eine ausführliche Berichterstattung drüber publiziert iirc.

Kleine Erzählung:

3090 OC mit 5800X3D schafft ohne Limits (wurden aber auch nur 77w gezogen dabei) nicht mal 120 FPS
6900XT OC mit 5800X3D schafft das mit 45 Watt Limit.

Jeweils die PCGH CPU Benchmarkszene + identische Settings derer.

Wenn man dann wie gesagt RT anwirft ist man mit der AMD Karte sofort im GPU Limit und auch die NV Karte wäre es, wenn man kein DLSS dazu nimmt.

Also braucht man einfach neue GPUs zum benchen ;)

aufkrawall
2022-07-19, 18:29:04
Das RT erhöht aber massiv die CPU-Last, ohne RT ist es also quasi ein Test ohne maximale CPU-Details.
Und mit GeForce halt auch Quatsch, nicht wenigstens die verrauschten SSR durch RT zu ersetzen, womit es sogar schneller als auf der Psycho-SSR-Stufe läuft.

Darkearth27
2022-07-19, 18:39:51
Ja stimmt schon, aber kann man eben nicht ändern bei dem Spiel.

Außer eben mit einer der kommenden GPUs hoffen, dass es nicht mehr GPU limitiert ;)

dargo
2022-07-19, 19:31:04
Das du den Unterschied nicht sehen willst, das wissen wir ja. :rolleyes: :biggrin:
Vermutlich weil die Radeon einfach zu langsam ist, sobald du ne Radeon im System hast, die es für dich annehbar beschleunigt, ist es der letzte heiße Shit.

https://abload.de/img/maxresdefaultyiktm.jpg
Ja... nettes Cherrypicking hast du dir da ausgesucht was wenige Sekunden in einer Cutszene zu sehen ist. Cherrypicking kann ich auch, voll krass der Unterschied auf die gesamte Szene bezogen.
https://youtu.be/6bqA8F6B6NQ?t=504
https://youtu.be/6bqA8F6B6NQ?t=615

Sorry, aber auch mit deinen Einzelschüssen wirst du mich nicht überzeugen. Vielleicht mal in Zukunft wenn das was deine 3080TI heute liefert eine 400-500€ Graka liefert. Wobei wir bis dahin eh eine ganz andere Grundlast beim Rasterizer sehen werden (ab dem Zeitpunkt wo alte Konsolen fallen gelassen werden) und wenn dann die DEVs mehr RT-Strahlen pro Szene loslassen kotzen wieder die 1500+€ Grakas sich einen aus. ;D Die Spirale kennen wir doch seit Jahren. ;)