PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7 5800X3D Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16

dargo
2023-02-08, 14:15:11
Das habe ich mich auch schon gefragt. Ich hätte auch gerne Werte unter -30, weil ich dann den max. Boost etwas reduzieren könnte (also negativer Offset), um diese 1,5V-Spitzen nicht mehr zu haben. Dazu bräuchte ich aber mehr UV-Offset (sonst habe ich einfach nur weniger Takt bei gleicher Voltage), aber es geht nur bis -30. Zusätzlich globales Offset, habe ich noch nie probiert, ich glaube das geht bei mir gar nicht beides.
Beim non X3D würde ich dir eh empfehlen mit Custom P-State + manueller Vcore anstatt mit CO zu arbeiten. Oder ist dir der Singlecore-Boost so extrem wichtig? Ich habe für den SC keine kritischen Anwendungen.

Edit:
Ah... ich sehe gerade du hast nen 24 Threader. Da könnte es eventuell schwieriger als beim 12-16 Threader sein, der Vorschlag von mir.


Die Leistung eines 13600K reicht trotzdem aus um ganz oben mitzuspielen.

Du siehst das völlig falsch. Ein 13600K ist spätestens in April nur noch lowend, genauso wie der 5800X3D.

Wer ein Stück Sarkasmus hier findet darf ihn gerne behalten.

aufkrawall
2023-02-08, 15:17:23
@aufkrawall

Kannst du mit dem Intel mal die PCGH Szene von Miles Morales benchen und mit CX aufzeichnen (inkls Sensoren hier dann ein Screenshot Posten)?

Ich werde das gleiche machen wenn ich das Spiel geladen habe, Savegame sollte es bei PCGH ja geben, dann könnte man direkt den Intel und den 3D unter Alltags Betrieb vergleichen.

Mit meinen 4000CL15 ist der 3D übrigens weit über dem Durchschnitt, was aber kein Problem sein sollte, da die hier getunten, bzw eingestellten Intel ja auch nicht Stock laufen.
Bro ist noch am Basteln, das MSI-Board scheint schon bei 6400 RAM-Takt instabil rumzuzicken. Ich meinte einfach die erste Szene im Hauptmenü in der U-Bahn, weil die auf der 4090 sofort bei ~70fps im CPU-Limit lief. Die scheint kurioserweise alles um die Stelle des Levels mitzurendern und entspricht schon oft fast dem, was passiert, wenn man sich durch dichtbefahrene Straßen schwingt. Ging mit dem 3D ständig auf 70fps und auch mal weniger runter, mit dem ADL bislang immer >100fps geblieben.
Bei MM ist der Verbrauch logischerweise viel höher als etwa bei Strange Brigade (oder, wenn man bei Uncharted mit Vsync in den Himmel schaut...), das ist klar.

Darkearth27
2023-02-08, 16:02:50
Habs mal gebenched.

Savegame hab ich mir einfach anderweitig besorgt, Tageszeit auf "Tag" gesetzt ohne Schneefall.

Alles auf max Details gesetzt, inklusive RT, Auflösung 720p (eigentlich unnötig soweit runter zu gehen mit der 4090 aber vorsichtshalber).
Ist nicht berauschend mit dem 3D, aber das war auch schon beim "normalen" Spiderman so.

Siehe angehängte Bilder.

Ergebnis passt auch zu denen welche PCGH gemessen hat.
https://www.pcgameshardware.de/Spider-Man-Miles-Morales-Spiel-72802/Specials/PC-Benchmark-Technik-Review-1407865/3/

Mit einem 13900k und 8000er RAM (selbst mit 7600) geht da fast das doppelte durch ;)

dargo
2023-02-08, 16:46:29
Noch ein kleiner Teaser von mir. ;)

Die Aussage 5800X3D würde mit Samsung B-Die nur zu ca. 50% vs. non X3D mit Samsung B-Die zulegen ist pauschal gesagt falsch. Es hängt wieder mal von der Applikation ab. Sieht so aus, dass ich alle Messungen (es sind mal wieder mehr geworden als ich eigentlich machen wollte :freak:) heute fertig bekomme.

aufkrawall
2023-02-08, 17:19:18
Habs mal gebenched.

Kommt ja genau hin. :)
Ich hoffe, dass der Test mit dem 13700K die nächsten Tage was wird. Wird aber imho keine Überraschungen zeigen. Das Spiel spawnt einfach weniger Threads mit dem Ryzen 8C, die Gesamtauslastung über die 16T ist nur bei ~38-43% im CPU-Limit. Beim 13700K ist die trotz 24T bei knapp über 50%. Genau das Gleiche sieht man in CP77 mit völlig anderer Engine.

Darkearth27
2023-02-08, 17:22:50
Wäre der Intel nicht so spät erschienen und ich hätte komplett neu kaufen "müssen" wäre es bei mir auch ein 13900k geworden, aber bis 2025 reicht's mir noch, zumal dank FrameGeneration noch etwas Zeit ist.

aufkrawall
2023-02-08, 17:32:37
Jup, damit lief es dann die allermeiste Zeit im Reflex-Limit bei 138fps. Wirklich ein Unterschied wie Tag und Nacht und wird sicherlich noch in vielen Titeln so helfen (wie auch schon in Plague Tale). Allerdings war Bro angefressen, dass Fortnite ständig Einbrüche hatte. Sonst hätte er den 3D wohl auch behalten.

dargo
2023-02-08, 19:39:12
So, jetzt habe ich alles. Eins vor weg... ich habe es leider verschwitzt den Durchschnitt der 5 Durchläufe in CapFrameX darzustellen, was dazu führt, dass ich jetzt den Schnitt bei den drei Messwerten je Spiel ausrechnen muss. Das kommt davon wenn man mit CapFrameX länger nicht hantiert. :usad: Ergo sorry im voraus für die leidende Übersichtlichkeit. Gemessen habe ich immer mit 10 Sekunden und fünf Durchläufen um einen aussagekräftigen Schnitt zu haben. Normalerweise halte ich nichts von 0,2% percentiles weil es oftmals eine zu starke Varianz dabei gibt. Ausnahmsweise habe ich paar Fälle hier mit 0,2% percentiles genommen weil ich gesehen habe, dass die Reproduzierbarkeit dort sehr gut ist. Wo ich davon nicht überzeugt war ist der kleinste Wert 1% percentiles.

Anmerkungen:
Mit dem 5800X3D bin ich in Days Gone leider in ein GPU-Limit gerutscht, trotz 720p. Dies war bei 5800X noch nicht der Fall. Ergo besteht hier die Möglichkeit, dass der 5800X3D sich noch etwas stärker mit einer schnelleren Grafikkarte absetzen könnte. Als weiteres möchte ich noch folgendes anmerken. Die Szene die ich in HZD genommen habe ist ziemlich dynamisch. Dh. jedes mal wenn ich mein Savegame neu geladen habe ist mal die KI durchs Bild gelaufen, mal nicht. Das ist bei solchen Messungen nicht unbedingt ideal da die Frames dann je nach Durchlauf etwas stärker abweichen. So kann es vorkommen, dass bzw. der prozentuale Unterschied zwischen avgs. und 1% low stärker abweicht. Normalerweise sollte es prozentual zwischen avgs. 5% low und 1% low keinen großen Unterschied geben wenn man richtig gemessen hat bzw. sehr gute Reproduzierbarkeit der Szene gewährleistet ist. Dies gilt auch für 0,2% low percentiles.

Getestet habe ich folgende Spiele:
* Assassin’s Creed Odyssey
* Days Gone
* Horizon Zero Down
* Spiderman: Miles Morales (einmal mit Objektreichweite 6 bei RT, einmal mit 10, hohe Objektreichweite keult die CPU enorm)
* Shadow of the Tomb Raider
* Uncharted: The Lost Legacy

Gemessen wurde immer mit max. Details, außer jetzt so ein Gedöns wie Motion Blur und Chromatische Aberration.

5800X3D + XMP DDR4-3200 CL14:
https://abload.de/thumb/5800x3d_aco_xmp_avg7aebe.jpg (https://abload.de/image.php?img=5800x3d_aco_xmp_avg7aebe.jpg) https://abload.de/thumb/5800x3d_days_gone_xmposcaw.jpg (https://abload.de/image.php?img=5800x3d_days_gone_xmposcaw.jpg) https://abload.de/thumb/5800x3d_hzd_xmp_avgcmepa.jpg (https://abload.de/image.php?img=5800x3d_hzd_xmp_avgcmepa.jpg) https://abload.de/thumb/5800x3d_mm_objektreic41cd7.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreic41cd7.jpg) https://abload.de/thumb/5800x3d_mm_objektreicbtds3.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreicbtds3.jpg)https://abload.de/thumb/5800x3d_sottr_xmp_avgfrfki.jpg (https://abload.de/image.php?img=5800x3d_sottr_xmp_avgfrfki.jpg) https://abload.de/thumb/5800x3d_uncharted_xmpqsezu.jpg (https://abload.de/image.php?img=5800x3d_uncharted_xmpqsezu.jpg)

5800X3D + optimierter Samsung B-Die @DDR4-3600 CL16:
https://abload.de/thumb/5800x3d_aco_avg44dy0.jpg (https://abload.de/image.php?img=5800x3d_aco_avg44dy0.jpg) https://abload.de/thumb/5800x3d_days_gone_avgb5e3l.jpg (https://abload.de/image.php?img=5800x3d_days_gone_avgb5e3l.jpg) https://abload.de/thumb/5800x3d_hzd_avgbpiyk.jpg (https://abload.de/image.php?img=5800x3d_hzd_avgbpiyk.jpg) https://abload.de/thumb/5800x3d_mm_objektreicuvfve.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreicuvfve.jpg) https://abload.de/thumb/5800x3d_mm_objektreic77fdd.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreic77fdd.jpg) https://abload.de/thumb/5800x3d_sottr_avgw6i2v.jpg (https://abload.de/image.php?img=5800x3d_sottr_avgw6i2v.jpg) https://abload.de/thumb/5800x3d_uncharted_avgo6fpv.jpg (https://abload.de/image.php?img=5800x3d_uncharted_avgo6fpv.jpg)

Durchschnittwerte vom 5800X + XMP DDR4-3200 CL14:

ACO = 87,92 avg.fps, P1 72,32fps, P0.2 68,46fps
Days Gone = 133,92 avg.fps, P5 111,54fps, P1 93,22fps
HZD = 135,36 avg.fps, P5 111,88fps, P1 104,82fps
Spiderman MM (6) = 77,24 avg.fps, P5 71,9fps, P1 67,98fps
Spiderman MM (10) = 61,14 avg.fps, P5 56,74fps, P1 53,4fps
SotTR = 189,12 avg.fps, P1 137,2fps, P0.2 128,5fps
Uncharted = 78,74 avg.fps, P5 75,62fps, P1 74,3fps


Durchschnittwerte vom 5800X + optimierter Samsung B-Die @DDR4-3600 CL16:

ACO = 100,82 avg.fps, P1 84,12fps, P0.2 80,2fps
Days Gone = 147,42 avg.fps, P5 124,62fps, P1 103,98fps
HZD = 143,1 avg.fps, P5 121,14fps, P1 113,26fps
Spiderman MM (6) = 84,96 avg.fps, P5 78,86fps, P1 75,62fps
Spiderman MM (10) = 68,88 avg.fps, P5 64,26fps, P1 61,4fps
SotTR = 219,72 avg.fps, P1 152,52fps, P0.2 145,92fps
Uncharted = 87,62 avg.fps, P5 84,16fps, P1 82,62fps

dargo
2023-02-08, 19:39:33
Alle Messwerte im Detail mit den 5 Durchläufen.

5800X + XMP DDR4-3200 CL14:
https://abload.de/thumb/5800x_aco_xmpbddvh.jpg (https://abload.de/image.php?img=5800x_aco_xmpbddvh.jpg) https://abload.de/thumb/5800x_days_gone_xmpgmi81.jpg (https://abload.de/image.php?img=5800x_days_gone_xmpgmi81.jpg) https://abload.de/thumb/5800x_hzd_xmpfnias.jpg (https://abload.de/image.php?img=5800x_hzd_xmpfnias.jpg) https://abload.de/thumb/5800x_mm_objektreichwpyirz.jpg (https://abload.de/image.php?img=5800x_mm_objektreichwpyirz.jpg) https://abload.de/thumb/5800x_mm_objektreichwopdoi.jpg (https://abload.de/image.php?img=5800x_mm_objektreichwopdoi.jpg) https://abload.de/thumb/5800x_sottr_xmpm9d2z.jpg (https://abload.de/image.php?img=5800x_sottr_xmpm9d2z.jpg)https://abload.de/thumb/5800x_uncharted_xmpxec0z.jpg (https://abload.de/image.php?img=5800x_uncharted_xmpxec0z.jpg)

5800X + optimierter Samsung B-Die @DDR4-3600 CL16:
https://abload.de/thumb/5800x_acojmemm.jpg (https://abload.de/image.php?img=5800x_acojmemm.jpg) https://abload.de/thumb/5800x_days_gonesmiz5.jpg (https://abload.de/image.php?img=5800x_days_gonesmiz5.jpg) https://abload.de/thumb/5800x_hzd61ipc.jpg (https://abload.de/image.php?img=5800x_hzd61ipc.jpg) https://abload.de/thumb/5800x_mm_objektreichwg6fba.jpg (https://abload.de/image.php?img=5800x_mm_objektreichwg6fba.jpg) https://abload.de/thumb/5800x_mm_objektreichwq4ef2.jpg (https://abload.de/image.php?img=5800x_mm_objektreichwq4ef2.jpg) https://abload.de/thumb/5800x_sottrv7ept.jpg (https://abload.de/image.php?img=5800x_sottrv7ept.jpg) https://abload.de/thumb/5800x_unchartedv8c6l.jpg (https://abload.de/image.php?img=5800x_unchartedv8c6l.jpg)

dargo
2023-02-08, 20:02:56
5800X3D + XMP DDR4-3200 CL14:
https://abload.de/thumb/5800x3d_aco_xmp7bfjq.jpg (https://abload.de/image.php?img=5800x3d_aco_xmp7bfjq.jpg) https://abload.de/thumb/5800x3d_days_gone_xmp5adyv.jpg (https://abload.de/image.php?img=5800x3d_days_gone_xmp5adyv.jpg) https://abload.de/thumb/5800x3d_hzd_xmpy9ixp.jpg (https://abload.de/image.php?img=5800x3d_hzd_xmpy9ixp.jpg) https://abload.de/thumb/5800x3d_mm_objektreicr3ca5.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreicr3ca5.jpg) https://abload.de/thumb/5800x3d_mm_objektreicc3esk.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreicc3esk.jpg) https://abload.de/thumb/5800x3d_sottr_xmpj3cjm.jpg (https://abload.de/image.php?img=5800x3d_sottr_xmpj3cjm.jpg) https://abload.de/thumb/5800x3d_uncharted_xmp1qfiz.jpg (https://abload.de/image.php?img=5800x3d_uncharted_xmp1qfiz.jpg)

5800X3D + optimierter Samsung B-Die @DDR4-3600 CL16:
https://abload.de/thumb/5800x3d_acoysc6d.jpg (https://abload.de/image.php?img=5800x3d_acoysc6d.jpg) https://abload.de/thumb/5800x3d_days_gone0oe43.jpg (https://abload.de/image.php?img=5800x3d_days_gone0oe43.jpg) https://abload.de/thumb/5800x3d_hzdmvc40.jpg (https://abload.de/image.php?img=5800x3d_hzdmvc40.jpg) https://abload.de/thumb/5800x3d_mm_objektreic1qcjc.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreic1qcjc.jpg) https://abload.de/thumb/5800x3d_mm_objektreicu8eo5.jpg (https://abload.de/image.php?img=5800x3d_mm_objektreicu8eo5.jpg) https://abload.de/thumb/5800x3d_sottriqed9.jpg (https://abload.de/image.php?img=5800x3d_sottriqed9.jpg) https://abload.de/thumb/5800x3d_unchartedjcfe8.jpg (https://abload.de/image.php?img=5800x3d_unchartedjcfe8.jpg)


@Lehdro

Hier noch mal für dich zwei Videos im absoluten CPU-Limit. Das erste Video ist mit Stocksettings @5800X3D, das zweite Video mit durchoptimiertem 5800X3D im Rahmen der Möglichkeiten, sprich CO -30 + Offset -75mV + max.Boost 4350Mhz. Wobei ich hier eigentlich schon auf 4300Mhz runter gehen müsste, aber geschenkt diese Kleinigkeit.

Cajdu7ZyS8M C5yYUWtajvc

Diese Szene wurde übrigens auch bei meiner Messung verwendet. Ab "Alles bestens" startet die Messung und ich gehe nach vorne.

ZeroStrat
2023-02-09, 12:15:57
So, jetzt habe ich alles. Eins vor weg... ich habe es leider verschwitzt den Durchschnitt der 5 Durchläufe in CapFrameX darzustellen, was dazu führt, dass ich jetzt den Schnitt bei den drei Messwerten je Spiel ausrechnen muss.

Nur mal zur Info, du kannst auch die Aggregation Page nutzen, um n Runs nachträglich zu aggregieren (Durchschnitt bilden).

Mit dem Group Button auf der Comparison Page kann man übrigens mehrere Spiele in einem Chart darstellen.

dargo
2023-02-09, 12:32:35
Schon klar... nur leider sind bereits alle Messdaten gelöscht. :usad: Ich hätte mich vor den Messungen etwas genauer mit CapFrameX beschäftigen sollen, das war zugegegen etwas überhastet. Jetzt leidet dadurch die Übersicht. Mal sehen... eventuell kriege ich das noch besser zwecks Übersichtlichkeit hin. Aktuell wenig Lust dazu alles neu zu sortieren.

ZeroStrat
2023-02-09, 12:40:44
Wenn du die Capture Files über CX selbst gelöscht hast, sind noch Backups im Papierkorb.

dargo
2023-02-09, 12:45:37
Nee... Papierkorb wird hier immer gesäubert.

Lehdro
2023-02-09, 14:19:49
@Lehdro

Hier noch mal für dich zwei Videos im absoluten CPU-Limit. Das erste Video ist mit Stocksettings @5800X3D, das zweite Video mit durchoptimiertem 5800X3D im Rahmen der Möglichkeiten, sprich CO -30 + Offset -75mV + max.Boost 4350Mhz. Wobei ich hier eigentlich schon auf 4300Mhz runter gehen müsste, aber geschenkt diese Kleinigkeit.

Ist doch ein ganzen Stückchen mehr Effizienz, über 20W gespart.

dargo
2023-02-09, 14:30:07
Jepp... im Schnitt in diesem Beispiel ca. 25W weniger. Hätte AMD mehr Spielraum nach unten beim X3D gelassen wären womöglich gar 30W drin.

aufkrawall
2023-02-09, 17:29:27
Ich hoffe, dass der Test mit dem 13700K die nächsten Tage was wird.
So, 7200 CL34 + Tuning gehen mit ASRock (was ne Arbeit...). Schon mal ein Teaser alles@max + DLSS UP:
https://abload.de/thumb/milesmorales_2023_02_q5ft8.png (https://abload.de/image.php?img=milesmorales_2023_02_q5ft8.png) https://abload.de/thumb/milesmorales_2023_02_m6el0.png (https://abload.de/image.php?img=milesmorales_2023_02_m6el0.png)

robbitop
2023-02-09, 18:22:35
Wobei CPU Board und RAM natürlich vom Preis eine ganz andere Liga sind als der 5800X3d in der AM4 Plattform.

Ex3cut3r
2023-02-09, 20:24:57
So, 7200 CL34 + Tuning gehen mit ASRock (was ne Arbeit...). Schon mal ein Teaser alles@max + DLSS UP:
https://abload.de/thumb/milesmorales_2023_02_q5ft8.png (https://abload.de/image.php?img=milesmorales_2023_02_q5ft8.png) https://abload.de/thumb/milesmorales_2023_02_m6el0.png (https://abload.de/image.php?img=milesmorales_2023_02_m6el0.png)

Alter, die FPS mit Intel, krass.

Bei Ryzens spawnt er einfach die Threads nicht so voll, wie mit Intel, immer noch kein Fix von Nixxes, ob da jemals was kommt? Ich wage es zu bezweifeln. Bei CP77 das gleiche, auch kein Entwickler Fix bis heute, gibt nur den User Hex Fix.

Hier ein Video von mir. Aber mit 60 FPS Cap, reicht ungelocked sowieso nur für 70 FPS...Von daher...

Die Aufnahme spielt da aber auch etwas mit, die GPU taktet plötzlich hoch, ohne Aufnahme bin ich nur bei 800-1200Mhz. Und gibt ein paar extra Spikes hier und da.

IbJ7Y4SrTYQ

Der_Korken
2023-02-09, 21:51:34
Ich frage mich generell, was genau da bei einigen Extrembeispielen passiert, die aufkrawall im Raptor Lake Thread gepostet hat. Shader-Kompilierung, die auf Intel Faktor 6 schneller laufen soll. In keiner Anwendung, die irgendein Reviewer so testet, gibt es solche Performance-Unterschiede und auch von der Architektur her sind solche Unterschiede imho nicht zu erklären, sofern man nicht von Hand Assembler-Code so schreibt, dass er auf Zen 3 (oder 4) maximal schlecht läuft. Wenn einige Spiele dann auf AMD nachweislich Quatsch machen mit ihren gespawnten Threads, dann wirken diese Ausreißer nach unten für mich eher nach Pogrammier-Fails und nicht nach Hardware-Fails aus.

Lehdro
2023-02-09, 22:10:33
Spiele die ihre Shader live kompilieren sind Fail. Das macht man vor dem Spielstart oder zumindest in den Menüs. In Singleplayerspielen meinetwegen sogar in den Ladebildschirmen. Aber bei Multiplayerspielen geht sowas schon wieder gar nicht. Anstatt sich drüber zu freuen das potente Hardware das trotzdem schnell schafft, sollte man mal lieber darüber nachdenken dass nicht jeder solche Hardware hat, siehe Steam Hardwaresurvey.
Genauso Spiele die Threads nicht korrekt spawnen, obwohl Ressourcen vorhanden wären. Das ist lächerlich und absurd.

Das hat aber alles NULL mit dem 5800X3D zu tun, sondern ist ein systematisches Problem was durch die massive Verbreitung einiger weniger Engines verstärkt wird. Wenn die dann solch einen Mist mitbringen, biste halt gefickt, weil die Entwickler teilweise gar nichts drauf geben. Man beachte die Häufung von Spielen mit "Shaderstutter", wo das komischerweise immer erst NACH Release auffällt. Bestes Beispiel für die Inkompetenz war EldenRing, was auf dem Steamdeck dank Valve gar kein Problem damit hatte, während die ganzen Highend PC Spieler erst einmal leiden durften - kannste dir alles gar nicht ausdenken so aberwitzig ist das.

aufkrawall
2023-02-10, 04:09:47
-erstmal ist es positiv, wenn Anwendungen Shader vorab kompilieren
-dass das bei Fortnite während der ersten Ladezeit ist anstatt im Menü, ist zugegebenermaßen etwas unglücklich. Aber besser als Stutter.
-ändert nichts daran, dass schon ein 13600K bei nur 20W mehr Verbrauch dabei massivst schneller als ein 5800X3D ist, siehe auch Linux Compile time + Verbrauch:
https://www.phoronix.com/review/intel-core-i5-13600k/3
-nicht jedes Spiel, das auf dem 5800X3D lahmarschig läuft, spawnt zu wenig Threads. Die CPU-Auslastung in Hitman oder Plague Tale ist ähnlich niedrig wie auf Ryzens, trotzdem läuft ein optimierter ADL/RPL dort davon
-Jetzt ist wieder der Entwickler schuld und natürlich AMD selber gar nicht. Doof nur, dass AMD selber empfiehlt, HT mitunter nicht zu nutzen:

One strategy to reduce this contention is to create threads based on physical core count rather than logical processor count.
Game initialization, including decompressing assets and compiling/warming shaders, may benefit from logical processors using SMT dual-thread mode.
Game play may prefer physical core count using SMT single-thread mode.
https://gpuopen.com/ryzen-performance/
-im Gegensatz zu Miles Morales, hat das erste Spiderman noch eine höhere CPU-Last auf Ryzen 8C 16T erzeugt. Es lief aber trotzdem mit abgeschaltetem HT 20% schneller...
-was interessiert mich das als Kunde, der fast 400€ für eine CPU blechen soll, wenn es das Problem bei der Konkurrenz nicht gibt und dort selbst asymmetrische CPU-Designs besser laufen? :freak:

Ex3cut3r
2023-02-10, 04:32:14
-im Gegensatz zu Miles Morales, hat das erste Spiderman noch eine höhere CPU-Last auf Ryzen 8C 16T erzeugt. Es lief aber trotzdem mit abgeschaltetem HT 20% schneller...

Das stimmt, aber CP77 ist das perfekte Gegenbeispiel. Mit dem Hex Mod an der exe. wird das Spiel im CPU Limit auf Ryzens extrem beschleunigt (selbst ausprobiert), warum bei Spider-Man Remastered und speziell Miles Morales so wenig Threads gespawnt werden, ist mir aber ein Rätsel.

Was noch interessant wäre, ob es einen Unterschied mit AMD DX12 gibt? Sieht es mit einer AMD Karte in MM anders aus, was die CPU Nutzung angeht? Oder ist es gleich?

Ansonsten kriegen andere Spiele es ja auch (besser) hin.

aufkrawall
2023-02-10, 04:36:36
Das stimmt, aber CP77 ist das perfekte Gegenbeispiel. Mit dem Hex Mod an der exe. wird das Spiel im CPU Limit auf Ryzens extrem beschleunigt (selbst ausprobiert)
Ja, wenn man in NPC-Mengen rumsteht. Die Einbrüche während des Fahrens profitierten afair aber gar nicht oder sogar kontraproduktiv. Falls du es nochmal testen willst, wär das natürlich nicht uninteressant (mit RT natürlich). :)
Oder einfach den Benchmark nehmen. Wenn die Kamera im letzten Drittel bei den Bänken draußen etc. vorbei fliegt, gibts da offenbar reproduzierbar einen entsprechenden Streaming-Einbruch wie während des Fahrens.

Ex3cut3r
2023-02-10, 04:51:48
Das wäre mir sicherlich aufgefallen beim Fahren. Aber gut, kann es mal demnächst testen, momentan habe ich das Spiel nicht installiert, weil ich es mittlerweile ziemlich langweilig finde, habs auch schon 2x durch. :redface:

aufkrawall
2023-02-10, 04:56:00
Kannst ja einfach den Benchmark + RTSS-Overlay mit GFE aufnehmen, kann ich dann mit dem 13700K machen.

Darkearth27
2023-02-10, 06:42:13
Da CP2077 hier immer wieder aufgeführt wird.

Der "HEX FIX" geht schon lange nicht mehr, denn CDPR hat es bald nach Bekanntgabe selbst via Patch gefixed.

Aktuelle Builds haben die Werte nicht mal mehr in der EXE drinstehen, also auch nix zu fixen da.

SMT ON läuft auch besser auf dem 3D als SMT OFF (mit RT auf Psycho zumindest).

Erste Bild = SMT OFF
Zweites Bild = SMT ON

Settings ist wie bei PCGH im CPU Benchmark (inkls FoV).

Problem ist einfach der niedrige Takt.
Ein 5800X3D mit 5.5GHz und damit verbunden auch dem Cache auf dem Takt würde schon komplett anders aussehen.

Dies erhofft man sich ja von den 7000ern nun.
Schauen wir, ob AMD damit dann abliefern kann oder ob ein getunter Intel mt 7600 - 8000er DDR5 oder 4400er - 4600er DDR4 immer noch die Nase vorn hat

aufkrawall
2023-02-10, 06:55:38
~40% CPU-Last ist aber viel zu niedrig bei 16T, ist auf dem 13700K trotz 24T und kompletten GPU-Limits deutlich höher:
https://youtu.be/FYDXhyrTSCc

Darkearth27
2023-02-10, 07:42:21
Der 3D geht nur beim Kompilieren auf 100%
Habe den sonst noch nie höher gesehen als maximal 80% auf einem Kern, während die anderen dann eher schlafen, Ausnahme halt beim Kompilieren.

Messungen sagen zwar immer mal etwas anderes aber das sieht man ja nicht zwingend im overlay.

Man kann eben die Architekturen nicht vergleichen.

dargo
2023-02-10, 07:49:08
Man kann eben die Architekturen nicht vergleichen.
Man kann noch nicht mal Geforcesysteme mit Radeonsystemen vergleichen. Schon das ist Äpfel/Orangen. Igor hatte das mal gemessen, dass ein System mit Geforce auf CPU Seite mehr säuft. Ergo muss diese zusätzliche Energie von irgendwas kommen.

aufkrawall
2023-02-10, 07:53:57
Hab das noch vor wenigen Wochen selbst mit einer GeForce auf dem 3D gesehen, war auch nur <50%.

Rancor
2023-02-10, 08:55:20
Ich überlege gerade meine AM4 Plattform nochmal aufzurüsten. Ich schwanke zwischen dem 5800x3d und dem 5900x. Bin mir aber unsicher. Der 5800x3D ist in Games zum Teil ja deutlich schneller. Ich zocke aber nicht nur mit dem PC, daher wäre der 5900x auch ne Option. Was würdet ihr denn machen?

aufkrawall
2023-02-10, 09:03:04
Was soll denn das von einem 5600X bringen? Der 12C bringt quasi nichts und der 3D in manchen Spielen viel, in anderen auch wieder gar nichts.

Crazy_Chris
2023-02-10, 09:15:32
Wenn du jetzt nicht gerade den ganzen Tag FS2020 spielst dann lohnt sich das nicht wirklich.

-> Es kommt total auf die Spiele an die einem wichtig sind. Der 5900x ist aus "Spielersicht" aber uninteressant.

dargo
2023-02-10, 09:30:02
In Spiderman MM ist eh mit RT was ganz schön schräg. Mir kann doch keiner erzählen, dass das alleine an der Hardware liegt.

720p + FSR2.1_UP no RT
https://abload.de/thumb/milesmorales_2023_02_62i0c.jpg (https://abload.de/image.php?img=milesmorales_2023_02_62i0c.jpg)

720p + FSR 2.1_UP max. RT
https://abload.de/thumb/milesmorales_2023_02_6xfcu.jpg (https://abload.de/image.php?img=milesmorales_2023_02_6xfcu.jpg)

Ich überlege gerade meine AM4 Plattform nochmal aufzurüsten. Ich schwanke zwischen dem 5800x3d und dem 5900x. Bin mir aber unsicher. Der 5800x3D ist in Games zum Teil ja deutlich schneller. Ich zocke aber nicht nur mit dem PC, daher wäre der 5900x auch ne Option. Was würdet ihr denn machen?
Du musst schon selbst entscheiden wo deine Prioritäten höher liegen. Fürs Gaming ganz klar 5800X3D. Allerdings muss ich dabei sagen, dass der 5800X3D für eine RX 6800XT eigentlich eh zu schnell ist bei 1440p Gaming.

Was soll denn das von einem 5600X bringen? Der 12C bringt quasi nichts und der 3D in manchen Spielen viel, in anderen auch wieder gar nichts.
Wo soll das denn sein, dass der X3D gar nichts bringt? Bisher konnte ich das in keinem Game feststellen. Habe aber natürlich nicht alles mögliche durchgemessen. Wäre auch bei der Masse an Games völlig unmöglich.

Crazy_Chris
2023-02-10, 09:41:36
TechPowerUp: RTX 4090 & 53 Games: Ryzen 7 5800X vs Ryzen 7 5800X3D Review

https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/2.html

dargo
2023-02-10, 09:51:08
TechPowerUp: RTX 4090 & 53 Games: Ryzen 7 5800X vs Ryzen 7 5800X3D Review

https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/2.html
Wenn die bei Days Gone nur +15% für den 5800X3D messen und ich +41% bei den avgs. und P1 (jeweils XMP-Profil) kannst du dir sicherlich denken was ich von solchen Seiten halte. ;) Mit dem X3D war ich in Days Gone sogar noch etwas gpu-limitiert, bei 720p wohlgemerkt. Ich würde jetzt blind darauf tippen die waren mit der 4090 @1080p nicht vollständig im CPU-Limit. @D3D11 dürfte der Overhead beim NV-Treiber auch geringer sein. Ergo liefern die ganzen CPUs mit der Geforce mehr Frames auf CPU-Seite wodurch die 4090 eher limitiert.

Crazy_Chris
2023-02-10, 10:08:25
Ja das kann durchaus sein. Gerade bei Spiele ohne integrierten Benchmark kann es zu sehr großen Abweichungen kommen. Als grobe Übersicht ist es trotzdem sehr praktisch. Zumal ich jetzt TechPowerUp eher schon als seriös ansehen würde.

HOT
2023-02-10, 10:13:24
Leute, die Konsolen CPUs haben ja Zen2, also 2 CCDs. Davon wird ein CCD auch von der Konsole belegt, also gibts da 1 freies CCD mit 8 Threads und eigenem L3$ und ein CCD mit 3 freien Kernen und nicht ganz freiem L3$. Was wäre denn, wenn die ganzen Games, die ja alte Games sind für Jaguar, also maximal 6 Threads Vollauslastung (können ja trotzdem mehr Kerne belegen) auf Ryzen nur auf ein CCD optimiert wären? Also nur ein CCD belegen und dessen L3$, rein aus Optimierungsgründen, da ja die Leistung auf einem CCD reichen würde für diese Games? Und was wäre, wenn diese Ryzen-Optimierung einfach auf dem PC zurück zu Papa will und genau das hier wieder macht? Und was wäre, wenn der dämliche Windows-Scheduler mit AMD Zusatz"optimierungen" wie CPPC da noch mals reingrätscht? Irgendwie hab ich den Eindruck, dass die Entwickler einfach den Ryzen-Pfad der Konsolenversionen nutzen - ist ja schon da - und Windows das "optimiert" oder sowas. Ich glaube, dass das ein komplexes Problem ist. Bei Intel gibts ja keine CCX, daher kann es sein, dass das hier kein Problem ist, da der Scheduler hier schlichtweg keine "Optimierungen" hat und die Intel-CPU so behandelt, als wäre es ein CCX. Es ist ja schon auffällig, dass das bei mehreren Games der Fall ist und das auch Konsolengames sind.

dargo
2023-02-10, 10:19:22
Keine Ahnung... erstmal müsste man schauen was so ein Intel bsw. ohne RT in Spiderman MM im Vergleich liefert. Vielleicht ist nur bei RT was kaputt.

Crazy_Chris
2023-02-10, 10:20:09
Ist doch beim 5800X3D irrelevant. Es gibt nur eine CCD mit 8 Kerne.

aufkrawall
2023-02-10, 10:20:50
Nur war die Verlautbarung von AMD nach dem Verdacht auf Regression in 11 22H2, dass der Windows-Scheduler mit AMD-CPUs so arbeitet, wie man sich das vorstellt.

hq-hq
2023-02-10, 10:21:43
Wenn die bei Days Gone nur +15% für den 5800X3D messen und ich +41% bei den avgs. und P1 (jeweils XMP-Profil) kannst du dir sicherlich denken was ich von solchen Seiten halte. ;) Mit dem X3D war ich in Days Gone sogar noch etwas gpu-limitiert, bei 720p wohlgemerkt. Ich würde jetzt blind darauf tippen die waren mit der 4090 @1080p nicht vollständig im CPU-Limit. @D3D11 dürfte der Overhead beim NV-Treiber auch geringer sein. Ergo liefern die ganzen CPUs mit der Geforce mehr Frames auf CPU-Seite wodurch die 4090 eher limitiert.

bei dir fällt der Unterschied sicherlich größer aus wenn du deinen 5800x als Kastrat zum Vergleich verwendest

HOT
2023-02-10, 10:26:23
Und was SMT angeht: Intel-coves sind ja erheblich fetter als so ein Ryzen-Kern und hat in der Breite erheblich mehr Ressourcen zu Verfügung. Das kann schon sein, dass SMT auf Ryzen kontraproduktiver läuft als bei Intel. In dem Falle wäre es wichtiger, die CPU in der gesamten Breite zu nutzen, auch über beide CCXs hinweg, bevor man 2 Threads auf einen Kern scheduled. Wie läuft so ein Spiel, also Spiderman oder Cyberpunk, eigentlich, wenn man CPPC komplett abschaltet auf einer 2 CCD-CPU (vielleicht bei deaktiviertem SMT)?

Ist doch beim 5800X3D irrelevant. Es gibt nur eine CCD mit 8 Kerne.

Das Problem ist ja in dem Falle nicht das CCX, sondern der Scheduler und seine "Optimierungen". Es gab ja auch das Phänomen, dass CPPC und Preferred Cores kontraproduktiv sein können.

aufkrawall
2023-02-10, 10:30:54
CPPC hatte mir auch unter Linux mit dem 5500 leicht den Octane 2-Score gesenkt. Vielleicht ist das Feature einfach kacke...

Crazy_Chris
2023-02-10, 10:38:26
Ja das habe ich auch schon oft gelesen. Eigentlich sollte es mit CPPC durchweg besser sein. Zumindest wenn es um Tasks geht die nur einen Kern auslasten. Von daher tippe ich auch auf "kacke". :wink:

HOT
2023-02-10, 10:40:33
Wird einfach zeit, dass die CPU wieder vollständig transparent für den Windows-Scheduler wird und die CCX-Aufteilung auch keine Rolle mehr spielt. Ich hoffe man wird da bei Zen5 einen großen Schritt in diese Richtung machen. Aber Spiele und Zen ist so ne Sache, bei Intel ist man, sofern die e-Cores nicht reingrätschen, bei dieser Spielegeneration problemloser unterwegs. Spannend wird es erst, wenn die Next-Gen-Spiele auf der Konsole mehrere CCX nutzen können (falls meine Theorie zutrifft), wie sich das Ganze dann auch mit den e-Cores verträgt. Am liebsten wäre mir eine cove-CPU mit 16 Kernen, aber FHF alias SR-64 ist ja auch scheisse, wie es aussieht. Schade.

dargo
2023-02-10, 10:40:37
bei dir fällt der Unterschied sicherlich größer aus wenn du deinen 5800x als Kastrat zum Vergleich verwendest
Wovon sprichst du das schon wieder?

hq-hq
2023-02-10, 10:42:46
Wovon sprichst du das schon wieder?

wenn du deinen 5800x auf 4500MHz limitierst und damit nebenbei auch die Speicherlatenzen verschlechterst fällt der Unterschied zum 5800x3d größer aus

dargo
2023-02-10, 10:47:04
wenn du deinen 5800x auf 4500MHz limitierst und damit nebenbei auch die Speicherlatenzen verschlechterst fällt der Unterschied zum 5800x3d größer aus
:facepalm:

Erstens ist der 5800X @4,5Ghz gleich schnell wie 5800X @Stock. Keine Ahnung warum das in manche Hirne hier nicht rein will. Zweitens habe ich beide CPUs mit Stock Settings gemessen damit mir eben nicht so ein bullshit unterstellt wird. Drittens... was hast du nicht an XMP vs. XMP verstanden? Ergo gleiche Bedingungen.

PS: und bevor gleich wieder irgendwelche wilden Unterstellungen kommen... nein, ich habe noch nicht den neuen, zusätzlichen Speicher verbaut. Ich wollte Äpfel mit Äpfel vergleichen und nicht Äpfel mit Birnen.

Edit:
Und wenn du jetzt unbedingt auf optimierten Speicher pochen willst steht auch alles da. Ich habe alles aufgelistet, volle Transparenz.

5800X + optimierter B-Die vs. 5800X3D + optimierter B-Die sind es +32% für den X3D bei den avgs. und + 31% bei P1.

Rancor
2023-02-10, 10:50:14
Was soll denn das von einem 5600X bringen? Der 12C bringt quasi nichts und der 3D in manchen Spielen viel, in anderen auch wieder gar nichts.
Weil ich die Plattform dann länger nutzen will und 6C wird mittelfristig zu wenig sein wird.

hq-hq
2023-02-10, 11:00:49
:facepalm:

Erstens ist der 5800X @4,5Ghz gleich schnell wie 5800X @Stock. Keine Ahnung warum das in manche Hirne hier nicht rein will. Zweitens habe ich beide CPUs mit Stock Settings gemessen damit mir eben nicht so ein bullshit unterstellt wird. Drittens... was hast du nicht an XMP vs. XMP verstanden? Ergo gleiche Bedingungen.

sehr unwahrscheinlich, dass sie gleich schnell wären, höherer Boost/Takt wirkt sich auf die Latenzen aus

okay, muss ich wohl übersehen haben, dass du deinen 5800x @ default/stock gemessen hast, löblich für den Vergleich

default XMP Settings sind nicht gemeint

dargo
2023-02-10, 11:08:11
sehr unwahrscheinlich, dass sie gleich schnell wären, höherer Boost/Takt wirkt sich auf die Latenzen aus

Ach glaub doch was du willst, mir egal. Vom Boostverhalten in Games wo mehrere Threads ausgelastet werden hast du offenbar auch noch nie was gehört. Messungen lügen übrigens nicht wenn man weiß was man tut!

Ja das kann durchaus sein. Gerade bei Spiele ohne integrierten Benchmark kann es zu sehr großen Abweichungen kommen. Als grobe Übersicht ist es trotzdem sehr praktisch. Zumal ich jetzt TechPowerUp eher schon als seriös ansehen würde.
Ich wollte damit jetzt natürlich nicht sagen die hätten da irgendwelchen bullshit gemessen. Die hatten eben Status X in Settings Y gemessen. Das wird auch sicherlich alles mit dieser Hardware da 1080p zutreffen. Die Frage ist bloß ob die wirklich das gemessen haben was sie auch zeigen wollten. Sprich... ob das tatsächlich volles CPU-Limit war. Daran habe ich meine Zweifel.

hq-hq
2023-02-10, 11:16:08
>Vom Boostverhalten in Games wo mehrere Threads ausgelastet werden hast du offenbar auch noch nie was gehört< ist das eine Plattitüde ?

du darfst dich wieder auf das Wesentliche konzentrieren

Lehdro
2023-02-10, 11:58:26
-erstmal ist es positiv, wenn Anwendungen Shader vorab kompilieren
-dass das bei Fortnite während der ersten Ladezeit ist anstatt im Menü, ist zugegebenermaßen etwas unglücklich. Aber besser als Stutter.
Schön das wir uns wenigstens da einig sind.

-ändert nichts daran, dass schon ein 13600K bei nur 20W mehr Verbrauch dabei massivst schneller als ein 5800X3D ist, siehe auch Linux Compile time + Verbrauch:
Dass der 5800X3D rein rohleistungstechnisch eher dünn ist, musst du hier aber niemandem erklären, das wissen wir alle. Und das man als PCler Softwaremacken/Probleme gerne mal mit purer Leistung erschlägt, einfach weil man es kann, sollte auch selbstverständlich sein. Anders als genau dieses Mindset als Voraussetzung zu haben ein Game vernünftig spielen zu können - die Compilezeit wird auch auf einem schwachbrünstigeren nicht-AMD-Prozessor nicht gerade angenehm sein. Das ist ein Problem.

-nicht jedes Spiel, das auf dem 5800X3D lahmarschig läuft, spawnt zu wenig Threads. Die CPU-Auslastung in Hitman oder Plague Tale ist ähnlich niedrig wie auf Ryzens, trotzdem läuft ein optimierter ADL/RPL dort davon
Ja, no Shit. Stell dir vor es gibt sogar Spiele bei denen Zen 4 vor RPL ist, unfassbar. Wirkt fast so als ob nicht alles überall gleich gut performed. Welch eine Erkenntnis. Auch hier gilt wieder: Die vorhandene Rohleistung wird beim X3D maximiert genutzt, er kann also manchmal mithalten mit ADL/RPL. Aber rein vom Potenzial her ist beim X3D natürlich weniger da, als bei ADL. Den die GC Cores sind schon fett (positiv gemeint).

-Jetzt ist wieder der Entwickler schuld und natürlich AMD selber gar nicht. Doof nur, dass AMD selber empfiehlt, HT mitunter nicht zu nutzen:

Intel hat auch gesagt dass die eCores mitunter nicht zum Gamen genutzt werden sollen, trotzdem gibt es da selbst heute noch ab und zu ein paar Probleme. Solltest gerade du wissen. (https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-e-cores-enabled-vs-disabled/2.html) Ist da jetzt Intel schuld, oder der Entwickler der Games?

-im Gegensatz zu Miles Morales, hat das erste Spiderman noch eine höhere CPU-Last auf Ryzen 8C 16T erzeugt. Es lief aber trotzdem mit abgeschaltetem HT 20% schneller...
Und so ziemlich jeder Reviewer hat damals festgestellt dass das Spiel CPU-technisch gesehen ein dampfender Haufen ist. Das Problem betraf damals Intel und AMD, kannst du gerne hier noch einmal nachlesen:
PCGH (https://www.pcgameshardware.de/Spider-Man-Remastered-Spiel-73740/Specials/Steam-PC-Systemandorderungen-Benchmark-Test-Review-1400598/4/)

aufkrawall
2023-02-10, 12:11:45
Dass der 5800X3D rein rohleistungstechnisch eher dünn ist, musst du hier aber niemandem erklären, das wissen wir alle. Und das man als PCler Softwaremacken/Probleme gerne mal mit purer Leistung erschlägt, einfach weil man es kann, sollte auch selbstverständlich sein. Anders als genau dieses Mindset als Voraussetzung zu haben ein Game vernünftig spielen zu können - die Compilezeit wird auch auf einem schwachbrünstigeren nicht-AMD-Prozessor nicht gerade angenehm sein. Das ist ein Problem.

Pech gehabt, viele zukünftige UE5-Spiele werden ähnlich viele oder noch mehr Shader haben.


Ja, no Shit. Stell dir vor es gibt sogar Spiele bei denen Zen 4 vor RPL ist, unfassbar.
Auch mit rBAR & Stromlimit aus + DDR4 4000 / DDR5 7200? Wo seh ich das hier im Forum in der Benchmark-Sektion?
Tipp: Nirgends.


Intel hat auch gesagt dass die eCores mitunter nicht zum Gamen genutzt werden sollen, trotzdem gibt es da selbst heute noch ab und zu ein paar Probleme. Solltest gerade du wissen. (https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-e-cores-enabled-vs-disabled/2.html) Ist da jetzt Intel schuld, oder der Entwickler der Games?

1. Der Tester, der Windows 10 verwendet.
2. Derjenige, der das unkritisch und unerwähnt verlinkt.



Und so ziemlich jeder Reviewer hat damals festgestellt dass das Spiel CPU-technisch gesehen ein dampfender Haufen ist. Das Problem betraf damals Intel und AMD, kannst du gerne hier noch einmal nachlesen:
PCGH (https://www.pcgameshardware.de/Spider-Man-Remastered-Spiel-73740/Specials/Steam-PC-Systemandorderungen-Benchmark-Test-Review-1400598/4/)
Leben wir in der Vergangenheit? Stand jetzt ist, dass es mies auf dem 5800X3D läuft und auf Intels nicht.
Und ja, es läuft auf meinem 11400F besser. Das ist die Dimension der "Beschissenheit", um die es in dem Fall geht.

dargo
2023-02-10, 12:29:26
Leben wir in der Vergangenheit? Stand jetzt ist, dass es mies auf dem 5800X3D läuft und auf Intels nicht.
Und ja, es läuft auf meinem 11400F besser. Das ist die Dimension der "Beschissenheit", um die es in dem Fall geht.
Fühlst du dich bei Assetto Corsa Competizione nicht auch ein wenig "beschissen"? Schließlich ist da ein 5800X3D weit selbst vor dem Intel 12600K und immer noch vor Zen4. Diese selektive Wahrnehmung wieder.

aufkrawall
2023-02-10, 12:46:59
Fühlst du dich bei Assetto Corsa Competizione nicht auch ein wenig "beschissen"? Schließlich ist da ein 5800X3D weit selbst vor dem Intel 12600K und immer noch vor Zen4. Diese selektive Wahrnehmung wieder.
Was willst du mit ADL? RPL hat massig mehr Cache und ein 13600K kostet das Gleiche wie ein 5800X3D.
Der 13600K wird mit gutem RAM wahrscheinlich knapp vor dem 5800X3D bei den 1% low liegen, wenn man das auf die Werte von HU umrechnet:
https://youtu.be/vd2V7emO8Es?t=761

Btw. >200fps bei medium Details 1080p. Kompletter Schwachsinnsvergleich vs. 1% low in den 50ern in Miles Morales. Kannst du dir eigentlich noch dümmere Beispiele cherry-picken? Aber wenn man so einen absurden Hass auf RT hat, bleibt da wohl auch nicht mehr so viel übrig. Ach so, Factorio natürlich...

dargo
2023-02-10, 13:08:49
Was willst du mit ADL? RPL hat massig mehr Cache und ein 13600K kostet das Gleiche wie ein 5800X3D.

Verzeihung... habe vergessen, dass du gerne ständig Themen wechselst wie es dir in den Kramm passt. Wie konnte ich nur auf ADL bei diesem Post kommen?
Und ja, es läuft auf meinem 11400F besser.
Ein RL war gar nicht im Test vertreten, ich kam dir sogar entgegen mit ADL. Aber war offenbar auch zu viel.

Ergänzend dazu:
Wenn ein 13600K das gleiche wie ein 5800X3D kostet sind eh für einen der nicht gerade eine komplette Neuanschaffung plant andere Kriterien ausschlaggebend. Hat man bereits ein passendes Intel Brett holt man sich den Intel. Hat man gerade ein passendes AM4 Brett holt man sich den 5800X3D. So einfach kann das Leben manchmal sein.


Btw. >200fps bei medium Details 1080p. Kompletter Schwachsinnsvergleich vs. 1% low in den 50ern in Miles Morales.
Mal vielleicht den Kopf einschalten? Wenn die fps bei Medium >200 liegen gehen die bei max. Settings nach oben oder nach unten? X-D

Aber wenn man so einen absurden Hass auf RT hat, bleibt da wohl auch nicht mehr so viel übrig. Ach so, Factorio natürlich...
Ich habe generell keinen Hass auf RT, nur auf verblendete RT-Trolle die hier stark vertreten sind.

dildo4u
2023-02-10, 13:13:02
Sowohl PCGH als auch Hardware UnBoxed hat den X3D auf Alder Lake 12700k Level bei Spiderman wie soll es da mit dem 11400f besser laufen?

Der Test ist erst zwei Wochen alt dürfte der neuste Stand sein.

https://youtu.be/77Xdpmwh8S0?t=677

dargo
2023-02-10, 13:25:44
Sowohl PCGH als auch Hardware UnBoxed hat den X3D auf Alder Lake 12700k Level bei Spiderman wie soll es da mit dem 11400f besser laufen?

Der Test ist erst zwei Wochen alt dürfte der neuste Stand sein.

https://youtu.be/77Xdpmwh8S0?t=677
Die haben dort high Settings und Objektreichweite bei RT "6", nicht "10" Insbesondere "10" keult Ryzen erheblich. Deshalb auch mein voriger Hinweis... man sollte sich eventuell erstmal anschauen wie Intel ohne RT abschneidet. Und warum max. RT so teuer auf Ryzen ist müsste mal ein Programmierfuzzi untersuchen.

dildo4u
2023-02-10, 13:34:32
Ah ok hatte mich gewundert warum das Game auf Ryzen Probleme haben sollten wenn es ok auf der PS5 läuft.
Ich kann an meinen LG TV die FPS einblenden ich vermute mal 6 ist das Konsolen Setting.

Beispiel:

https://youtu.be/LOJ7D8O1hgo?t=94

dargo
2023-02-10, 13:36:17
"6" ist auf jeden Fall Standard beim PC.


Beispiel:

https://youtu.be/LOJ7D8O1hgo?t=94
Interessant wieviel fps Sony da mit Vsync fallen lässt, hätte ich jetzt auch nicht gedacht.

Lehdro
2023-02-10, 13:40:51
Pech gehabt, viele zukünftige UE5-Spiele werden ähnlich viele oder noch mehr Shader haben.
Wenn das so breit akzeptiert wird, müssen wir das wohl ertragen. Das macht es aber nicht besser. Werden dann wohl einige Aufrüsten müssen weil das Spiel zwar eigentlich gut läuft, aber die Shadercompilezeit zu lang dauert :freak:

Auch mit rBAR & Stromlimit aus + DDR4 4000 / DDR5 7200? Wo seh ich das hier im Forum in der Benchmark-Sektion?
Tipp: Nirgends.
Ach muss das jetzt hier aus dem Forum sein? Wusste ich nicht. Na dann gibt es das wohl nicht und Zen 4 ist in ausnahmslos jedem Spiel langsamer - keine Ausnahmen. Sollte das doch irgendwo der Fall sein, deutet das auf einen Fehler in der Matrix hin und muss sofort behoben werden!

1. Der Tester, der Windows 10 verwendet.
2. Derjenige, der das unkritisch und unerwähnt verlinkt.
Ah, ich vergaß wie überaus beliebt Win11 bei Gamern ist. Mein Fehler.

Leben wir in der Vergangenheit? Stand jetzt ist, dass es mies auf dem 5800X3D läuft und auf Intels nicht.
Und ja, es läuft auf meinem 11400F besser. Das ist die Dimension der "Beschissenheit", um die es in dem Fall geht.
Ich habe dieses Spiel nicht und nie einen expliziten Nachtest von PCGH dazu gesehen. Ganz ehrlich: Laut mehreren Reviewsites (ich hoffe doch die benchen immer neu) ist das halt einfach nicht der Fall was du sagst. Bei CB ist der X3D so schnell wie ein 12600k (https://www.computerbase.de/2023-01/intel-core-i9-13900ks-test/#abschnitt_leistung_in_spielen_720p) und bei PCGH knapp hinter dem 12600k (https://www.pcgameshardware.de/Raptor-Lake-S-Codename-278677/Tests/Intel-13900K-13700K-13600K-Review-Release-Benchmark-1405415/3/).
Und der X3D muss auch sonst richtig beschissen laufen, taucht er doch meistens am unteren Ende von den Leistungsreviews auf. Ach halt, tut er ja gar nicht. Du hast einfach nur einen Hasskomplex auf diese CPU, warum auch immer. Dabei ist das doch nur ein ungewöhnlich kompliziert gestapelter Haufen von Sand. :freak:

Edit: CB testet Spiderman mit RT Sichtweite 10. (https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/5/#abschnitt_leistung_in_spielen_720p_rtx_3090_ti)

dargo
2023-02-10, 13:45:43
Wenn das so breit akzeptiert wird, müssen wir das wohl ertragen. Das macht es aber nicht besser. Werden dann wohl einige Aufrüsten müssen weil das Spiel zwar eigentlich gut läuft, aber die Shadercompilezeit zu lang dauert :freak:

Jetzt mal ernsthaft... wer wechselt sein System nur weil das Kompilieren schneller wird? :freak: Wen juckt sowas außer paar Nerds? Das ist nichts Rendering relevantes. Wenn Kompilierungszeit so extrem wichtig wäre wären schon alle auf einem 64 Threader oder sowas. :ulol: Vorausgesetzt natürlich das Kompilieren lässt sich perfekt multithreaden.

Lehdro
2023-02-10, 13:47:39
Jetzt mal ernsthaft... wer wechselt sein System nur weil das Kompilieren schneller wird? :freak: Wen juckt sowas außer paar Nerds? Das ist nichts Rendering relevantes. Wenn Kompilierungszeit so extrem wichtig wäre wären schon alle auf einem 64 Threader oder sowas. :ulol: Vorausgesetzt natürlich das Kompilieren lässt sich perfekt multithreaden.
Erklär das mal aufkrawall.
Aber wenn er natürlich jeden Tag ein paar mal die GPU oder den Treiber wechselt, dann kann das mit dem Shaderkompilieren schon nervig sein, das mag wohl stimmen.

dargo
2023-02-10, 13:50:29
Aber wenn er natürlich jeden Tag ein paar mal die GPU oder den Treiber wechselt, dann kann das mit dem Shaderkompilieren schon nervig sein, das mag wohl stimmen.
Der ist gut. ;D

aufkrawall
2023-02-10, 13:52:10
Sowohl PCGH als auch Hardware UnBoxed hat den X3D auf Alder Lake 12700k Level bei Spiderman wie soll es da mit dem 11400f besser laufen?

Tut er aber:
https://abload.de/thumb/milesmorales_2023_02_l2dmt.png (https://abload.de/image.php?img=milesmorales_2023_02_l2dmt.png)


Ah, ich vergaß wie überaus beliebt Win11 bei Gamern ist. Mein Fehler.

Tja, Dummheit. Wenn Win 11 22H2 mit Verbesserungen für Thread Director 2.0 mit RPL beworben wird, sollte man erstmal annehmen, dass da was dran sein könnte, anstatt vom Gegenteil auszugehen. :facepalm:
Und komm mir nicht mit angeblichen Problemen mit Win 11 vs. 10, das ist zu 99% BS (oder kaputte AMD-Hardware bei dem TPM-Problem...)...


Mal vielleicht den Kopf einschalten? Wenn die fps bei Medium >200 liegen gehen die bei max. Settings nach oben oder nach unten? X-D

Schon mal deinen eigenen Ratschlag ausprobiert?
Medium Details entlastet die GPU meist deutlich stärker als die CPU...

Darkearth27
2023-02-10, 14:23:05
@aufkrawall

Bitte den Screenshot noch mal ohne Menü machen, denn im Menü hat man mehr FPS ;)

Komme da in 1440p maxed out auf 92 FPS wenn das Menü offen ist und wenn ich dann das Menü schließe sind es 78FPS.

Hab mir sogar die Mühe gemacht, die gleiche Stelle zu finden wie im Screenshot von dir zu sehen.

Obendrein bemerkt, irgendwie sehen die Texturen auf deinem Screenshot irgendwie matschig aus, was da los?

dargo
2023-02-10, 14:28:13
Schon mal deinen eigenen Ratschlag ausprobiert?
Medium Details entlastet die GPU meist deutlich stärker als die CPU...
Und weiter? Wenn die GPU stärker bei Medium entlastet wird ist das in deiner Welt jetzt ein Vorteil oder Nachteil um ein CPU-Limit zu generieren? Jesus...

aufkrawall
2023-02-10, 14:28:14
Der Benchmark lief im Menü nicht mehr, sind nur noch die Ergebnisse im OSD. Hab im Spiel an der Stelle 85fps:
https://abload.de/thumb/milesmorales_2023_02_lwcm5.png (https://abload.de/image.php?img=milesmorales_2023_02_lwcm5.png)
Aber :up: , dass du akribisch auf so etwas achtest. Mist messen bringt ja nichts.

Und weiter? Wenn die GPU stärker bei Medium entlastet wird ist das in deiner Welt jetzt ein Vorteil oder Nachteil um ein CPU-Limit zu generieren? Jesus...
Geh mal ein paar Runden Factorio suchten...

aufkrawall
2023-02-10, 14:36:53
Obendrein bemerkt, irgendwie sehen die Texturen auf deinem Screenshot irgendwie matschig aus, was da los?
Ist DLSS Ultra Performance und im Spiel nur 1080p ausgewählt. Ändert aber nichts am CPU-Limit, ist bei Bro mit der 4090 in 4k alles nicht anders.

Edit: So. Der 13700K mit optimiertem RAM schlägt den 13900K bei PCGH auch recht komfortabel:
https://abload.de/thumb/cx_2023-02-10_14-50-0gzf6u.png (https://abload.de/image.php?img=cx_2023-02-10_14-50-0gzf6u.png) https://abload.de/thumb/milesmorales_2023_02_hif3y.png (https://abload.de/image.php?img=milesmorales_2023_02_hif3y.png) https://abload.de/thumb/milesmorales_2023_02_u3fzb.png (https://abload.de/image.php?img=milesmorales_2023_02_u3fzb.png)
Und ca. 75% höhere P1 fps als der 5800X3D bei PCGH mit GeForce. :D

Ex3cut3r
2023-02-10, 20:11:45
Jap, einfach erschreckend, wie schlecht Ryzen in Miles Morales im Vergleich zu Intels ist, die Entwickler scheint es nicht zu jucken, AMD auch nicht. Was ein Dilemma, muss leider mit 60 FPS lock spielen, obwohl die 3080 Ti noch Luft für 90-100 FPS hätte. :redface:

pnume
2023-02-10, 20:14:07
Jap, einfach erschreckend, wie schlecht Ryzen in Miles Morales im Vergleich zu Intels ist, die Entwickler scheint es nicht zu jucken, AMD auch nicht. Was ein Dilemma, muss leider mit 60 FPS lock spielen, obwohl die 3080 Ti noch Luft für 90-100 FPS hätte. :redface:

Dann freu dich doch darüber, dass du Strom sparst.

Ex3cut3r
2023-02-10, 20:15:17
Haa Witzig. Not.

Meine nächste CPU wird wieder Intel, gibt einfach immer zu viele Fuck Ups mit AMD CPU und GPUs.

Und ganz ehrlich. AMD HW ist auch eigentlich viel zu teuer geworden.

robbitop
2023-02-11, 08:36:33
Ist schon lustig wie man sich an 1-2 Games aufhängen kann, wo die Performance vom Entwickler verkackt wurde. Würde ich wie dargo sehen. Dann halt den RT Wert runter und zack ist es gefixt. Entweder die hohen FPS genießen oder freie GPU Leistung in DSR stecken. Ganz ehrlich da es eher die Ausnahme ist: ist fast irrelevant.
Dafür war der X3D relativ günstig und die AM4 Plattform fast hinterher geschmissen vom Preis und viele hatten die eh noch im PC also nur die CPU stecken.
Für Highend wird Zen4x3d die Mehrheit der Spiele abräumen und auf der Plattform kommt nächstes Jahr noch mindestens Zen 5 (wo die x3d Plattform laut Gerüchten wohl direkt mitlauncht).

Dass man tatsächlich real mal im CPU Limit ist, kommt sowieso nur selten vor. Das hat 6 Jahre mit meinem damaligen 4790K gedauert bis das passiert ist. Ansonsten lieferte die CPU immer ordentliche Grundframeraten. Die GPU bekommt man mit Details und dsr eh immer ins Limit von fast jeder CPU wenn das Ziel 60-100 fps sind.

Ich glaube kaum dass es real world (wo man ja auch Settings optimieren kann) so schnell zu einem realen Problem wird. Auch eine 4090 kriegt man mit dsr gekeult. Und dank FG kann man auch wieder CPU Limits umgehen.

aufkrawall
2023-02-11, 08:53:32
In Hitman 3 ohne rBAR sinds auch 51%, wird zig solcher Beispiele finden. Schön, wenn du meinst, du kannst mit reduzierten Details oder DSR der 4090 gescheit zu tun geben. Jemand anderes hat vielleicht andere Ansprüche, seine 2000€ Grafikkarte und 4k 144Hz gescheit in der Breite zu versorgen. Ist nichts mit "an Einzelfällen" hochziehen. Wenn du jetzt von deinem Haswell 4C schwärmst, sagt das imho viel... :freak:

dargo
2023-02-11, 09:04:16
Wieso sollte man ohne Resize Bar spielen? :freak: Ich habe hier nirgendwo irgendwelche Leistungsprobleme mit SAM feststellen können. Ganz im Gegenteil, selbst @1440p je nach Game deutliche Leistungssteigerungen. Ich verstehe auch nicht was du hier in diesem Thread eigentlich erreichen willst? Meinst du jetzt wechselt jeder auf Intel weil aufkrawall es so will? :freak:

Cubitus
2023-02-11, 09:15:31
Haa Witzig. Not.

Meine nächste CPU wird wieder Intel, gibt einfach immer zu viele Fuck Ups mit AMD CPU und GPUs.

Und ganz ehrlich. AMD HW ist auch eigentlich viel zu teuer geworden.

Kann ich so bestätigen, meine letzen beiden Intel Systeme waren im Handling dermaßen problemlos sodass einem sehr viel Nerven erspart bleiben. Wobei die 3D Serie prinzipiell einen guten Ansatz im Bezug aufs gaming verfolgt. Aber es scheitert eher am drum herum. Da verfolgt Intel eine kompatiblere Strategie.

dildo4u
2023-02-11, 09:20:11
Ich würde nix kaufen wo man Cores abschalten müsste, die Ecores vermiesen Performance wo Intel eigentlich vorne war.(FC6)
Was dazu kommt das Intel Preise erhöht damit sie überhaupt Marge machen.

AdvWGEzYqg4

aufkrawall
2023-02-11, 09:26:57
Ich würde nix kaufen wo man Cores abschalten müsste, die Ecores vermiesen Performance wo Intel eigentlich vorne war.(FC6)

Du erzählst Mist. FC6 Benchmark RT geht laut Bro mit E-Cores an auf ~130fps runter, mit dem 5800X3D waren es ~97fps...

Wieso sollte man ohne Resize Bar spielen?
Ist mit Nvidia eh standardmäßig in fast jedem neuen Spiel aus. Radeon interessiert mich pauschal nicht (wie viele andere auch nicht).

dargo
2023-02-11, 09:32:02
Kann ich so bestätigen, meine letzen beiden Intel Systeme waren im Handling dermaßen problemlos sodass einem sehr viel Nerven erspart bleiben. Wobei die 3D Serie prinzipiell einen guten Ansatz im Bezug aufs gaming verfolgt. Aber es scheitert eher am drum herum.
Nimm bitte weniger davon was du auch immer nimmst. Diese Shitshow die hier manche der Hardliner schieben ist an Lächerlichkeit kaum noch zu überbieten. Ich bin seit Zen1 dabei über Zen2, Zen3 und jetzt Zen3 X3D und kann mich überhaupt nicht beschweren. Eigentlich schon beinah langweilige Systeme weil alles auf Anhieb problemlos läuft. Da sind schon solche Spielereien wie (Sub)Timingsoptimierung, CO etc. nette Beilagen um überhaupt was zum spielen zu haben, wenn man möchte.


Ist mit Nvidia eh standardmäßig in fast jedem neuen Spiel aus. Radeon interessiert mich pauschal nicht (wie viele andere auch nicht).
Tja... und mich interessiert eben Nvidia nicht und viele andere auch. Und jetzt? Wenn Nvidia mit Resize Bar suckt dann haben die was aufzuholen.

aufkrawall
2023-02-11, 09:42:47
Wenn Nvidia mit Resize Bar suckt dann haben die was aufzuholen.
Die CPU-Probleme liegen nicht an Nvidia, sondern aller Voraussicht nach an MB-Bios-Fehlern. Hatte die mit RDNA2 genau so, gibt sporadisch auch Berichte von Ryzen-Usern. Es könnte einer der Gründe sein, warum Nvidia es mittlerweile meist nicht mehr in den Spiel-Profilen aktiviert, neben erhöhtem VRAM-Bedarf. Es betrifft aber nicht jedes Spiel und mit Nvidia gibts eh meist nicht mehr als +3% im GPU-Limit, also wayne.

dildo4u
2023-02-11, 09:47:18
Du erzählst Mist. FC6 Benchmark RT geht laut Bro mit E-Cores an auf ~130fps runter, mit dem 5800X3D waren es ~97fps...


Ist mit Nvidia eh standardmäßig in fast jedem neuen Spiel aus. Radeon interessiert mich pauschal nicht (wie viele andere auch nicht).
Ich hatte mich auf das Gamers Nexus Video bezogen, dort verliert der i7 gegenüber i5. 120 vs 114 lows

https://abload.de/img/gamenexusdli96.png

aufkrawall
2023-02-11, 09:48:17
Ich hatte mich auf das Gamers Nexus Video bezogen, dort verliert der i7 gegenüber i5.
Ich werds noch explizit mit Bios-Toggle testen.

robbitop
2023-02-11, 10:25:00
In Hitman 3 ohne rBAR sinds auch 51%, wird zig solcher Beispiele finden. Schön, wenn du meinst, du kannst mit reduzierten Details oder DSR der 4090 gescheit zu tun geben. Jemand anderes hat vielleicht andere Ansprüche, seine 2000€ Grafikkarte und 4k 144Hz gescheit in der Breite zu versorgen. Ist nichts mit "an Einzelfällen" hochziehen. Wenn du jetzt von deinem Haswell 4C schwärmst, sagt das imho viel... :freak:
Es sind 2x Beispiele die ich jetzt hier gesehen habe. Hitman und MM. Von wie vielen Spielen die man spielen kann? 10.000? Also reitet man auf einem Bruchteil der Population herum.
Die Frage ist, wie viel realen optischen Nachteil es in MM gibt wenn man RT von 10 sukzessive runterstellt. Oft gilt das Gesetz des sinkenden Grenzertrags und der Ärger besteht dann aus theoretischer/akademischer Natur. Muss man untersuchen. Ich sage nicht, dass es so ist - es würde mich aber nicht überraschen.

Ich habe nicht über meinen Haswell „geschwärmt“. Sondern diesen lediglich als Beispiel genommen um aufzuzeigen, dass man meistens im realen Spielbetrieb eh im GPU Limit ist.
Der Haswell hat lange Zeit (gute 5 Jahre) 80-100+ fps geliefert im CPU Limit so dass ich in der Praxis zu 99,999% im GPU Limit war. Ich investiere ab 80-100 fps dann lieber in GPU Details. Also DSR. Natürlich würde ich auch in RT investieren - aber ich maximiere Settings nicht blind. Wenn ein Setting nicht mehr optische Vorteile liefert aber fps kostet wird das Performance budget gespart für andere Settings. Oft hast du mit optimierten Settings praktisch keine optischen Einbußen, holst aber gute 20…40% (je nach Spiel) raus. Und die werden dann lieber in dsr/auflösung oder in Bewegtschärfe (mehr fps) investiert.

robbitop
2023-02-11, 10:28:59
Nimm bitte weniger davon was du auch immer nimmst. Diese Shitshow die hier manche der Hardliner schieben ist an Lächerlichkeit kaum noch zu überbieten. Ich bin seit Zen1 dabei über Zen2, Zen3 und jetzt Zen3 X3D und kann mich überhaupt nicht beschweren. Eigentlich schon beinah langweilige Systeme weil alles auf Anhieb problemlos läuft. Da sind schon solche Spielereien wie (Sub)Timingsoptimierung, CO etc. nette Beilagen um überhaupt was zum spielen zu haben, wenn man möchte.

Kann ich bestätigen. Ich habe seit dem Athlon 64 nur Intel CPUs und erst seit kurzem den 5800X3D mit AM4. Null mehr oder weniger Probleme. Und ich nutze die Kiste jedem Tag.
Dazu seit 2017 einen AM4 als Unraid Server. (1700 der vor kurzem einfach auf einen 5950x upgegradet wurde)
Da laufen meine VMs, mein Plex Server, NAS usw. Null Probleme seit 4,5 Jahren.

Traxx
2023-02-11, 10:46:14
Same here. Seit Athlon 64 auch nur Intel bis zum 5800x3d. Der kam primär wegen dem MSFS und verbannte den 10900k@5.1Ghz in den Zweitrechner. Läuft einwandfrei und ohne grossen Aufwand (nur -30 im CO) bei mir bisher.

aufkrawall
2023-02-11, 11:34:09
Tja. Und Bro und ich hatten >5 AM4-Boards. Alle hatten USB-Probleme mit bestimmten Nutzungskombinationen der Anschlüsse etc. . Wers nicht hat, hat einfach Glück.

robbitop
2023-02-11, 11:48:41
X570? Ggf ist der Chipsatz einfach kacke gewesen. Ich hatte immer nur die Promontery Chipsets gehabt weil billiger. Also B350 im Server und B450 im Desktop. Ich fand X570 immer überteuert.
Und immer ASrock (schon zu Intel Zeiten - bin damit immer gut gefahren). Ggf deshalb nie usb Probleme gehabt.

aufkrawall
2023-02-11, 11:50:31
X470, B450, B550, X570s. Macht keinen Unterschied.

robbitop
2023-02-11, 11:51:11
Wirklich merkwürdig dann.
Und auch merkwürdig dass es keinen Unterschied macht da X570 ja ein völlig anderer Chipsatz ist von einem anderen Hersteller.

hq-hq
2023-02-11, 11:55:33
Tja. Und Bro und ich hatten >5 AM4-Boards. Alle hatten USB-Probleme mit bestimmten Nutzungskombinationen der Anschlüsse etc. . Wers nicht hat, hat einfach Glück.

das mit den USB stimmt (beim x570), merkwürdige Probleme

zumindest beim x570 MSI Tomahawk hatte das Bios anfangs viele Bugs, kann natürlich an MSI gelegen haben

- bei Intel erinnere ich mich vor allem an schwindende CPU Leistung durch Bios-Updates

jetzt kam der 5800X3D jedoch so spät, IMO sind die Bugs mit dem neuesten Bios alle behoben

robbitop
2023-02-11, 12:00:31
Ja BIOSe und Chipsetdrivers sind wahrscheinlich so reif, dass die Plattform safe ist.
Ich hatte kahrelang mit dem Ryzen 1700 aus dem Kahr 2017 aber auch keine Probleme. War aber Unraid (Linuxbasis) als OS. :)

Crazy_Chris
2023-02-11, 12:06:14
Man findet wohl auf allen Plattformen irgendwelche Probleme. Wer erinnert sich noch an die defekten SATA Ports vor vielen Jahren mit Intel Chipsätze oder die Problematik mit dem ungleichmäßigen Anpressdruck bei Intel Sockel. Imho nimmt sich das nichts.

jorge42
2023-02-11, 12:18:31
Da hab ich wohl Glück gehabt und ich schließe diverse flight controller und rc Fernsteuerungen und rc Sender an für soft und Firmware Updates an. Teils mit obskuren treibern. Läuft alles auf AMD Boards mit USB

HOT
2023-02-11, 12:53:32
Tja. Und Bro und ich hatten >5 AM4-Boards. Alle hatten USB-Probleme mit bestimmten Nutzungskombinationen der Anschlüsse etc. . Wers nicht hat, hat einfach Glück.
Lass mich raten: Asus?

X570? Ggf ist der Chipsatz einfach kacke gewesen. Ich hatte immer nur die Promontery Chipsets gehabt weil billiger. Also B350 im Server und B450 im Desktop. Ich fand X570 immer überteuert.
Und immer ASrock (schon zu Intel Zeiten - bin damit immer gut gefahren). Ggf deshalb nie usb Probleme gehabt.

Ist BS der will nur haten. Ich hab mittlweile in meinem Umfeld zig (>15) AM4-Bretter verbaut, es gab nie irgendwelche USB-Probleme. Der X570 ist genauso gut wie die anderen. Das Ding war featuretechnisch echt weit seiner Zeit voraus und ist heute immer noch konkurrenzfähig. Das konsequente Fernhalten von Asus-Brettern hat bei mir hervorragend funktioniert. Gigabyte, MSI, sogar Biostar, läuft anstandslos. Ein GB X370 ist nach Dauerbetrieb nach 5 Jahren irgendwann verreckt, aber das passiert halt.

aufkrawall
2023-02-11, 13:00:45
Lass mich raten: Asus?

Falsch geraten, 3x MSI und 2x ASRock.
Wie ich schon sagte, hängt das auch davon ab, wie welche Anschlüsse genutzt werden. Besonders kritisch schienen Front USB 2 + hintere gleichzeitig zu sein, aber auf Knopfdruck war das auch nicht reproduzierbar. Ist aber sicherlich schon wieder zu übersichtlich für viele, um das richtig zuordnen zu können...

Cubitus
2023-02-11, 13:34:43
Mit dem USB hatte ich damals auch Probleme, die Maus klickte nicht richtig.

Dann das komische idle Verhalten und säbelzahn Lüfter Kurve.. klar kann man selbst fixxen.

Dann nach AGESA iwas hats mir meine ram konfig zerhagelt. Spiele hatten dann auch iwann Probleme wegen dem Zeitgeber usw.

Ich hatte dann einfach genug von AMD. Mag sein das es jetzt besser geworden ist..

Intel ist auch nicht immer das gelbe vom EI aber es war für mich einfacher zu handeln. Und das Verhalten eher nachvollziehbar..

aufkrawall
2023-02-11, 14:02:04
So schlimm liefs hier nicht, an den "richtigen" Anschlüssen liefen M+T richtig und auch sonst keine nennenswerten Probleme. Aber trotzdem ein Fail, dass es nie richtig gefixt wurde. Genau wie die TPM-Ruckler, die es mit betroffenen Boards angeblich immer noch gibt. Hatte ich aber zum Glück nicht.

Egal. Auch wenn ich einfach nur auf die fps mit richtiger RAM-Config etc. gucke, überzeugen die Ryzens nicht. Auch das Preis-Argument ist imho zum Großteil nur vorgeschoben, Z690 DDR4 gibts ab 150€ und den 13600K darf man frei takten (anders als gewisse CPUs von AMD...). RAM kostet auch nicht die Welt, wenn man sich nicht so ungeschickt beim Kauf anstellt. Selbst die 7200 CL34 konnte man für 200€ bei MF kaufen. Nur Ausreden...

Das Ablästern über die E-Cores hier ist auch peinlich. Die helfen bei den min fps in CP77 oder Miles Morales, während bei den 8C-Ryzens zwei ganze Kerne dort einfach nur ungenutzt rumgammeln. Da kann man mal hinterfragen, welche CPU zukunftssicherer ist...

Ex3cut3r
2023-02-11, 14:11:01
Dass man tatsächlich real mal im CPU Limit ist, kommt sowieso nur selten vor. Das hat 6 Jahre mit meinem damaligen 4790K gedauert bis das passiert ist. Ansonsten lieferte die CPU immer ordentliche Grundframeraten. Die GPU bekommt man mit Details und dsr eh immer ins Limit von fast jeder CPU wenn das Ziel 60-100 fps sind.


Das kann ich nicht bestätigen. Ich hatte damals einen 4770k @ 4,2 Ghz (von 2013 - 2019) und DDR3 2400 Mhz CL11 + Tuning.

War mit einer 1070 und später einer 2080 oft CPU limitiert. BF1, Arkham Knight, Assassins Creed Unity, Watch Dogs. etc.

Mein "Glück" war nur, dass ich anfang 2016 auf einen 3440x1440 Monitor gewechselt bin. Von FHD, und dann hat natürlich die 1070 automatisch wenig FPS ausgespuckt hat. Mit der 2080 2 Jahre später war das Problem CPU Limit aber wieder da.

robbitop
2023-02-11, 15:46:45
Naja selbst die genannten Preise sind immer noch viel teurer als AM4. Board gibts ab 70€ und RAM für grob 100€. Das sind 180€ weniger. Zumal es bei AM4 nicht selten der Fall ist, dass die Plattform noch da war.
In der Mehrzahl der Fälle (breite Spieleratings) rennen beide CPUs ähnlich schnell.

robbitop
2023-02-11, 15:48:04
Das kann ich nicht bestätigen. Ich hatte damals einen 4770k @ 4,2 Ghz (von 2013 - 2019) und DDR3 2400 Mhz CL11 + Tuning.

War mit einer 1070 und später einer 2080 oft CPU limitiert. BF1, Arkham Knight, Assassins Creed Unity, Watch Dogs. etc.

Mein "Glück" war nur, dass ich anfang 2016 auf einen 3440x1440 Monitor gewechselt bin. Von FHD, und dann hat natürlich die 1070 automatisch wenig FPS ausgespuckt hat. Mit der 2080 2 Jahre später war das Problem CPU Limit aber wieder da.
Na die Frage ist wo das CPU Limit ist. Wenn es bei 100 fps ist bspw dann ist es doch völlig wumpe. Und 1080p ist irgendwie jetzt nicht unbedingt der Anspruch. Sondern eher 1440p oder mehr.

Die notwendigen Grund fps hat meine CPU immer geliefert. Entweder war dann bei 1440p die GPU das Limit oder ich hatte halt GPU Budget über für dsr. Aber dass jetzt ein Game zu lahm war rein wegen der CPU hatte ich gar nicht bis 2020.

aufkrawall
2023-02-11, 15:51:43
Ich hatte mich auf das Gamers Nexus Video bezogen, dort verliert der i7 gegenüber i5. 120 vs 114 lows

Sehe hier das Gegenteil mit RT, die E-Cores verbessern die avg sowie low fps trotz 8 P-Cores:
https://abload.de/thumb/cx_2023-02-11_15-40-46ndyl.png (https://abload.de/image.php?img=cx_2023-02-11_15-40-46ndyl.png) https://abload.de/thumb/cx_2023-02-11_15-40-5tif1p.png (https://abload.de/image.php?img=cx_2023-02-11_15-40-5tif1p.png)
(Nope, Bilder nicht falsch zugeordnet.)

Die ganzen Tests sind ohne Win 11 22H2 und ohne abgeschaltetes Core-Parking (!!) zu 100% für die Mülltonne. Ist so. RPL regelt.

Ex3cut3r
2023-02-11, 16:18:55
Wie schaltet man Core Parking im Jahre 2023 eigentlich aus?

Die Dunia läuft übrigens auch zig mal schlechter mit Ryzens, aber das war schon ewig so.

CP77, Miles Morales, FC Reihe, Hitman 3. Sind Spiele die auf Ryzen erheblich schlechter laufen.

dargo
2023-02-11, 16:35:00
Lass mich raten: Asus?

Wie kommst du jetzt auf ASUS? Mein aktuelles ROG STRIX B550-F GAMING Null Probleme, gleiches beim vorigen PRIME X370-PRO welches jetzt seit über zwei Jahren bei der Tochter vom Kollegen weiterhin ohne Mucken seinen Dienst leistet.

aufkrawall
2023-02-11, 16:35:11
Wie schaltet man Core Parking im Jahre 2023 eigentlich aus?

ParkControl empfiehlt sich. Windows schaltet es halt offenbar nur für ADL/RPL an, mit anderen CPUs nicht (Threadripper etc. keine Ahnung). Völlig gaga. Außer, man findet Frame Time Spikes von mehreren hundert ms bei zu niedriger CPU-Last toll. ;D
Steht nirgendswo im Internet, dass das nur mit ADL/RPL an ist. Die ganzen Hardware-Tester haben imho schon wieder zu 100% kollektiv gefailt...

dildo4u
2023-02-11, 16:38:02
Wie schaltet man Core Parking im Jahre 2023 eigentlich aus?

Die Dunia läuft übrigens auch zig mal schlechter mit Ryzens, aber das war schon ewig so.

CP77, Miles Morales, FC Reihe, Hitman 3. Sind Spiele die auf Ryzen erheblich schlechter laufen.
Braucht man dafür Win11?
Gamer Nexus hatte E-Core Probleme mit FC6.

https://youtu.be/AdvWGEzYqg4?t=494

Ex3cut3r
2023-02-11, 17:03:01
ParkControl empfiehlt sich. Windows schaltet es halt offenbar nur für ADL/RPL an, mit anderen CPUs nicht (Threadripper etc. keine Ahnung). Völlig gaga. Außer, man findet Frame Time Spikes von mehreren hundert ms bei zu niedriger CPU-Last toll. ;D
Steht nirgendswo im Internet, dass das nur mit ADL/RPL an ist. Die ganzen Hardware-Tester haben imho schon wieder zu 100% kollektiv gefailt...

Ah, genau das gleiche Tool wie früher. Danke.

Interessant, sieht hier mit einem 5700X so aus beim ersten Start des Progs:

https://abload.de/thumb/image30egq.png (https://abload.de/image.php?img=image30egq.png)

aufkrawall
2023-02-11, 20:09:18
Witzig, Parking ist für Akku-Betrieb konfiguriert. Für eine CPU, die es gar nicht in Notebooks gibt. :freak:
Das wirkt alles völlig ausgewürfelt, einfach nur absurd...

Ex3cut3r
2023-02-11, 20:20:58
Genau, das habe ich mir auch gleich gedacht. :biggrin:

hq-hq
2023-02-11, 20:26:36
ich hätte gedacht man deaktiviert einfach die C States im Bios und stellt in Windows die min. CPU Last auf 100%

das kostet aber ca. 5-10Watt im Idle

Lehdro
2023-02-11, 20:34:30
Also ich bin schon stellenweise heftig im CPU Limit mit dem X3D, war auch ab und an mit der 6900XT so. Freue mich schon auf Zen 4 X3D. Der muss aber liefern, ansonsten setze ich aus bis zu der nächsten Intel/AMD Generation.

Wo meine CPU derzeit limitiert:
Darktide hat mit RT teilweise Drops in den 60er Bereich, unschön. Lässt sich mit FG kaschieren, merkt man aber trotzdem. In dem Spiel sollten Kerne, Takt und Cache skalieren, war zumindest bei VT2 so. Kenne aber niemanden der das mal so richtig durchgebencht hat - wenn dann nur die GPU-Seite. Aber das ist langweilig, weil vorhersehbar. Radeon ist aber definitiv schneller im CPU Limit, von daher war das Upgrade zur 4090 teilweise keines.
BDO - der X3D macht irgendwo bei 300 fps schluss, dropt aber runter auf 140 wenn ordentlich was los ist. Bei Worldbossen wie Garmoth geht es dann runter bis auf ~30, da sind dann aber hunderte Spieler im Bild und es kommt Serverlag dazu. Immer noch komplett CPU limitiert das ganze...
Zur Anmerkung: Bei BDO sind die Animationen größtenteils an die FPS gekoppelt, von daher ist mehr FPS = mehr DPS.
Stellaris - Weltensprung ausgehend vom 5950X, teilweise >100% schnellerer Zeitablauf im Lategame. Testet leider auch keiner mal so richtig durch mit X3D vs. ADL/RPL.

Also ja, mehr Performance im CPU Bereich würde ich schon genießen wollen. Der restliche Kram den ich so spiele ist meistens Singleplayer, da bin ich dann meistens von den FPS her eh schon safe.

aufkrawall
2023-02-11, 20:36:46
ich hätte gedacht man deaktiviert einfach die C States im Bios und stellt in Windows die min. CPU Last auf 100%

Würde nicht davon ausgehen, dass das Core Parking verhindert. Das scheint eher ein Windows-Feature zu sein, bei dem der Windows-Scheduler Threads, die wenig Last erzeugen, auf Kerne packt, wo schon andere Last läuft, anstatt auf eigene Kerne zu packen (je nach eingestellter Schwelle, wie in Park Control zu sehen). Völliges Schwachsinns-Feature.
Dass das Abschalten der C-States irgendwas bringen soll, ist imho nur Aberglaube.

Lehdro
2023-02-11, 20:39:55
Würde nicht davon ausgehen, dass das Core Parking verhindert.
Coreparking ist mithilfe der AMD Chipsetdriver ausgeknipst worden. Das Feature ist seit Zen 1 bei AMD tot im Desktop. Frage mich warum das bei Intel überhaupt noch defaultmäßig existiert, wenn es solche Einbrüche verursachen kann.

ChaosTM
2023-02-11, 20:40:11
Bin immer noch unschlüssig, ob ich den 3D als letzte Upgrade Möglichkeit für AM4 in Erwägung ziehen sollte.
Der 5900er ist erst 14 Monate alt, limitiert beim FS2020 aber doch sehr.

hq-hq
2023-02-11, 20:40:56
öh okay, dachte core parking ist ein Teil bzw. ein erweitertes Feature der C-States - bei Intel

aufkrawall
2023-02-11, 20:45:27
Coreparking ist mithilfe der AMD Chipsetdriver ausgeknipst worden. Das Feature ist seit Zen 1 bei AMD tot im Desktop. Frage mich warum das bei Intel überhaupt noch defaultmäßig existiert, wenn es solche Einbrüche verursachen kann.
Sehr berechtigte Frage. Intel sollte wirklich Microsoft dazu bringen, das zu deaktivieren. Ich bin aber auch der Meinung, dass es prinzipbedingt mit dem Höchstleistungs-Energieplan gar nicht möglich sein sollte, dass es an ist. Ist imho eine absurde Design-Schwäche der Windows-Einstellungen.
Macht mir mit RKL ja die gleichen Probleme, wenn ich es wie mit dem ADL/RPL-Default konfiguriere:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13231865&postcount=1161
Wunderbare Frametime-Spikes von einigen hundert ms, und nirgendwo wird das erwähnt...

Lehdro
2023-02-11, 20:46:22
Sehr berechtigte Frage. Intel sollte wirklich Microsoft dazu bringen, das zu deaktivieren.
Warum macht es Intel nicht wie AMD und haut das über den Chipsatztreiber raus? Scheint ja kein Problem zu sein.

hq-hq
2023-02-11, 20:53:37
naja, wenn man in Windows keine 0% min Last erlaubt kann normal auch kein Kern geparkt werden hätte ich gesagt; im Ressourcenmonitor stehen alle Kerne dann immer auf 100% - also bei mir weil ich auf 100% gestellt hab ^^ dachte an mindestens Basetakt und im "Leerlauf", verhält sich aber unterschiedlich nach Win7 und Win10 und hindert nicht das Parken wenn es mit dem Tool von oben aktiviert wurde

aufkrawall
2023-02-11, 20:57:56
naja, wenn man in Windows keine 0% min Last erlaubt kann normal auch kein Kern geparkt werden hätte ich gesagt
Im Windows-UI der Einstellungen zum Energieplan gibts nur das Frequency Scaling, aber nicht Parking. Das hat erstmal nichts direkt miteinander zu tun.

hq-hq
2023-02-11, 21:06:37
oh mann, Core Parking funktioniert auf AMD und Intel in Win7 und Win10, ist aber NUR aktiv wenn man es explizit aktiviert z.B. mit ParkControl
Selbst im "Energiesparmodus" ist es per default deaktiviert bei meinen Desktop PCs. An meinen Laptops (i5 7500 und i9 10850H mit Win10) gibts auch kein Core Parking, selbst wenn sie auf Akkubetrieb sind.

Wenn man in den erweiterten Einstellungen den minimalen Leistungsszustand auf 100% stellt werden die Kerne trotzdem geparkt (wenn mit ParkControl eingeschaltet), takten aber viel höher als auf 5%.
C-States im Bios deaktivieren hilft tatsächlich nicht um Core Parking abzuschalten wenn es mit ParkControl aktiviert ist.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82712&stc=1&d=1676202902

Also meine Desktop Systeme haben Core Parking nie aktiv, meine Laptops ebenfalls nicht. Vielleicht war das nicht immer so.

FunkyChris
2023-02-11, 22:38:37
Bin immer noch unschlüssig, ob ich den 3D als letzte Upgrade Möglichkeit für AM4 in Erwägung ziehen sollte.
Der 5900er ist erst 14 Monate alt, limitiert beim FS2020 aber doch sehr.

Ich habe genau diesen Schritt gemacht und es hat sich gelohnt 😄👍🏻

ChaosTM
2023-02-11, 22:56:21
Gut zu wissen, danke!

Thunder99
2023-02-12, 09:17:48
Lehdro, sicher das es nur an der CPU liegt? Könnte da nicht der Server zu schwach sein und die FPS entsprechend drücken?

Lehdro
2023-02-12, 18:42:33
Lehdro, sicher das es nur an der CPU liegt? Könnte da nicht der Server zu schwach sein und die FPS entsprechend drücken?
Bei BDO ist das bei Worldbossen möglich, aber sonst eher nicht. Die Radeon hatte zwar nicht so hohe FPS, weil die GPU schon oberhalb von 200 fps limitierte, hatte aber messbar kleinere Einbrüche. Es war mit der 6900XT viel einfacher >160 fps zu halten. Wenn man dann den Treiberoverhead der Geforces im Hinterkopf behält, deutet es schon auf ein CPU Limit hin. Ein Test mit einer stärkeren CPU würde Klärung schaffen - die RTX 4090 wird erst bei rund 300 fps ansatzweise gefordert.

dargo
2023-02-12, 19:57:36
Ich habe jetzt mal den Rechner am Energy Monitor 3000 angeschlossen und muss feststellen, dass die Verbrauchsangaben der CPU die so ein Afterburner oder HWiNFO64 ausspuckt eher Schätzwerte sind.

Der 5800X3D soll laut den Tools um die 24,xW in Idle verbrauchen laut Anzeigen. Einen ähnlichen Wert hatte ich mit dem 5800X @4,5Ghz Allcore vorher auch, der lag meine ich bei 25W. Nur verbrauchte der gesamte Rechner hinter dem NT vorher 60-62W, jetzt sind es 53,5-55W in Idle.

Radeonfreak
2023-02-12, 20:07:24
Ich habe genau diesen Schritt gemacht und es hat sich gelohnt 😄👍🏻

Kann ich mir irgendwie nicht vorstellen.

Ätznatron
2023-02-12, 20:20:06
Kann ich mir irgendwie nicht vorstellen.

Och, ich kann mir schon vorstellen, dass es sich für FunkyChris gelohnt hat.

Für mich hat es sich auch gelohnt, zwar nur von einem 5800X kommend, aber immerhin.

Für den FS 2020 gibt es zur Zeit keine bessere CPU.

aufkrawall
2023-02-12, 20:59:00
Für den FS 2020 gibt es zur Zeit keine bessere CPU.
Schwächelt bei Golem bei den P1 low fps im Vergleich zu avg. Irgendwas sagt mir, dass RPL mit ausgemaxtem RAM, Core Parking aus und Win 11 22H2 da auch gar nicht übel aussehen würde...

Lehdro
2023-02-12, 21:30:44
Schwächelt bei Golem bei den P1 low fps im Vergleich zu avg. Irgendwas sagt mir, dass RPL mit ausgemaxtem RAM, Core Parking aus und Win 11 22H2 da auch gar nicht übel aussehen würde...
Ist auch bei PCGH so. (https://www.pcgameshardware.de/Microsoft-Flight-Simulator-Spiel-15259/Specials/Benchmark-2023-CPU-GPU-1411823/3/) Ein RPL mit >6400 RAM + guten Latenzen wird da wohl vorbeiziehen.

Ätznatron
2023-02-12, 21:37:22
Vielleicht. Vielleicht auch nicht.

Fragt sich zudem, ob der Wechsel von AM4 auf eine EOL-Intelplattform dann wirklich noch überhaupt einen Mehrwert bringt.

w0mbat
2023-02-12, 23:44:59
Zumal ein 5800X3D @-30mV mit DDR4-3800 CL16 auch schneller wäre.

Traxx
2023-02-13, 08:29:54
Jup der Mehrwert definiert sich hier für mich an der sehr genau definierten Anwendung welche vom x3d profitiert. Denke das sollte man sich im Klaren sein. Wenn ein direkter Nutzen / Priorität vorhanden ist ist das top. Wenn ein generelles Upgrade im Raum steht, und Komponenten nicht schon zur Verfügung stehen wohl eher gleich auf eine neuere Plattform. Ich hatte noch keine AM4 Plattform, jedoch alles Andere zur Verfügung inkl. Ram.

dargo
2023-02-13, 09:58:58
Ich habe jetzt mal den Rechner am Energy Monitor 3000 angeschlossen und muss feststellen, dass die Verbrauchsangaben der CPU die so ein Afterburner oder HWiNFO64 ausspuckt eher Schätzwerte sind.

Der 5800X3D soll laut den Tools um die 24,xW in Idle verbrauchen laut Anzeigen. Einen ähnlichen Wert hatte ich mit dem 5800X @4,5Ghz Allcore vorher auch, der lag meine ich bei 25W. Nur verbrauchte der gesamte Rechner hinter dem NT vorher 60-62W, jetzt sind es 53,5-55W in Idle.
Kleine Ergänzung dazu... habe mal testweise DDR4-3200 + FCLK 1600Mhz eingestellt. Jetzt zeigen die Tools ~22W für die CPU und das Verbrauchsmessgerät 51-52,5W. Hier scheint das Delta in etwa zu passen. Ca. 2,5W weniger bei den Tools sowie am Messgerät.

FunkyChris
2023-02-13, 11:28:46
Kann ich mir irgendwie nicht vorstellen.

Klar hängt es natürlich sehr vom Einsatzzweck ab. Mein Rechner wird primär fürs Gaming mit hohen fps verwendet. Und Anwendungen, die Multithreading benötigen, nutze ich tatsächlich gar nicht. Mal ein bisschen Vinyl digitaliseren, das war es dann aber auch. :smile:

Rancor
2023-02-13, 15:28:37
Schwächelt bei Golem bei den P1 low fps im Vergleich zu avg. Irgendwas sagt mir, dass RPL mit ausgemaxtem RAM, Core Parking aus und Win 11 22H2 da auch gar nicht übel aussehen würde...
Dafür müsste man die ganze Plattform wechseln.

aufkrawall
2023-02-13, 16:03:59
Dafür müsste man die ganze Plattform wechseln.
Oder rational ausgedrückt: Man muss ein neues Board kaufen und verkauft das alte, wodurch sich der Wechsel um irgendwas von 50-150€ verteuert. Was der Preis ist, will man ein Update in der Breite. Wäre für Zen 4 3D auch fällig, mit auch nicht gerade günstigeren Boards...

Ist aber immer noch nicht klar geworden, weshalb dein 5600X nicht mehr reichen soll. Klingt eher so, als solle man dir Gründe liefern, einen 3D zu kaufen. Tja, mach halt. :confused:
Miles Morales läuft dann halt scheiße, HZD geil...

dargo
2023-02-13, 16:12:36
So ein bullshit... RT auf high, Objektreichweite auf 6 und schon läuft Miles Morales erste Sahne, auch mit 6800XT. :rolleyes:

aufkrawall
2023-02-13, 16:17:54
Wow, und nach welcher bescheuerten Logik kann er dann nicht beim 5600X bleiben? ;D

robbitop
2023-02-13, 16:20:00
Ich mache das grundsätzlich bei jedem Spiel. Settings optimieren. Man bekommt so viel mehr Performance pro BQ. Deminishing returns halt.
Bei DF kann man, wenn Alex den PC Test macht sich auch einfach seine optimized Settings nehmen. Alles @max ist meist eher eine akademische Diskussion da sinnlose Verbrennung von Leistung. Dann lieber mehr Auflösung oder Bewegtschärfe als viel Leistung für Settings auszugeben wo man dann praktisch keinen Mehrwert mehr sieht.
Ist nicht immer so und auch nicht bei jedem Setting aber sehr sehr oft, dass optimized Settings nahezu ohne sichtbaren BQ Verlust eine Menge Performance freilegen, die man besser investieren kann.

Wow, und nach welcher bescheuerten Logik kann er dann nicht beim 5600X bleiben? ;D
Sehe ich auch so. 5600X ist man in der Praxis zu 99,9 Prozent im GPU Limit wenn man nicht gerade einen Gurkenmonitor mit 1080p hat. Reicht völlig. GPU Leistung hingegen kann man nie genug haben (DSR und Co). Aber im Moment ist alles high endige overpriced leider.

Rancor
2023-02-13, 16:27:47
Oder rational ausgedrückt: Man muss ein neues Board kaufen und verkauft das alte, wodurch sich der Wechsel um irgendwas von 50-150€ verteuert. Was der Preis ist, will man ein Update in der Breite. Wäre für Zen 4 3D auch fällig, mit auch nicht gerade günstigeren Boards...

Ist aber immer noch nicht klar geworden, weshalb dein 5600X nicht mehr reichen soll. Klingt eher so, als solle man dir Gründe liefern, einen 3D zu kaufen. Tja, mach halt. :confused:
Miles Morales läuft dann halt scheiße, HZD geil...
Ich sage ja auch nicht das der nicht mehr reicht. Ich will AM4 nur möglicherweise so lange nutzen wie es geht. Zudem ist eine Entscheidung ja auch noch nicht gefallen.

HOT
2023-02-13, 16:29:57
Ich sage ja auch nicht das der nicht mehr reicht. Ich will AM4 nur möglicherweise so lange nutzen wie es geht. Zudem ist eine Entscheidung auch noch nicht gefallen.
Es ergibt auf jeden Fall Sinn bis zum Zen5 X3D zu verlängern. Der Sprung auf den Zen4 (X3D) wäre mir persönlich zu klein und Raptor Lake ist ein Sidegrade, auch wenn Mister mein-Name-ist-Programm das völlig anders sieht. Dann lieber den 5800X3D kaufen, die Plattform behalten und sich an der Energieeffizienz erfreuen. So dramatisch kanns gar nicht werden, wie hier einige immer tun.
Der Sprung von nehm 5600 auf den X3D ist schon ziemlich gewaltig, erst recht, wenn es CPU-limitierte Sachen sind wie Strategiespiele.

robbitop
2023-02-13, 16:38:20
Zen5X3D wäre ein Sprung zum 5600X der sich lohnen würde, hätte ich bereits einen 5600X. Bis dahin liegt der 5600X zu 99,9% im GPU Limit. Man kann sich auch einen mit 720p Benchmarks oder völlig unrealistischen Settings runterholen, dass CPU XYZ nochmal schneller ist. Solange die GPU Limitiert ist das völlig latz.

Klar gibt auch ein paar (schlecht optimierte) Spiele, bei denen man auch in modernen Auflösungen im CPU Limit landet aber eher selten. IMO sind größere Sprünge einfach viel netter, weil viel viel merkbarer. Bei einer GPU rüstet auch kein Mensch wegen 30% auf. (naja ein paar Leute gibts schon :D). Faktor ~2 wäre schon nett. Bei CPUs dauert das ne Weile. ^^

aufkrawall
2023-02-13, 16:41:16
Man kann sich auch einen mit 720p Benchmarks oder völlig unrealistischen Settings runterholen, dass CPU XYZ nochmal schneller ist. Solange die GPU Limitiert ist das völlig latz.

Oder man blendet einfach alles aus, was einen nicht in den Kram passt:
https://pbs.twimg.com/media/FotZB81X0AMjjeI?format=jpg&name=large
https://twitter.com/CapFrameX/status/1624740626406289408
Stichwort "Luftpumpe". ;D

Lehdro
2023-02-13, 16:45:42
https://twitter.com/CapFrameX/status/1624740626406289408
Stichwort "Luftpumpe". ;D
Warum postest du ein Bild von seinem falschen Benchmark? Er schreibt doch selber dass es 19% mehr ist, d.h. 10% schneller als ein X3D. Das wäre knapp hinter einem ADL mit schnellerem RAM, was nun nicht gerade "Luftpumpe" ist.

HOT
2023-02-13, 16:49:04
Zen5X3D wäre ein Sprung zum 5600X der sich lohnen würde, hätte ich bereits einen 5600X. Bis dahin liegt der 5600X zu 99,9% im GPU Limit. Man kann sich auch einen mit 720p Benchmarks oder völlig unrealistischen Settings runterholen, dass CPU XYZ nochmal schneller ist. Solange die GPU Limitiert ist das völlig latz.

Klar gibt auch ein paar (schlecht optimierte) Spiele, bei denen man auch in modernen Auflösungen im CPU Limit landet aber eher selten. IMO sind größere Sprünge einfach viel netter, weil viel viel merkbarer. Bei einer GPU rüstet auch kein Mensch wegen 30% auf. (naja ein paar Leute gibts schon :D). Faktor ~2 wäre schon nett. Bei CPUs dauert das ne Weile. ^^

Klar, wenn das reicht ist ja alles ok. Die Leute kaufen aber den X3D nicht aus Jux und Dollerei, sondern weil sie mehr Leistung haben möchten. Und die Sprünge vom 5600 auf X3D ist recht groß für ein einfaches Upgrade, von Zen2 erst recht und der Sprung vom 5800X3D zu Zen5 X3D wird sicherlich gewaltig.

aufkrawall
2023-02-13, 16:53:48
Warum postest du ein Bild von seinem falschen Benchmark? Er schreibt doch selber dass es 19% mehr ist, d.h. 10% schneller als ein X3D. Das wäre knapp hinter einem ADL mit schnellerem RAM, was nun nicht gerade "Luftpumpe" ist.
Das war von mir doch offensichtlich nur auf den 3D bezogen, oder was soll an dessen Werten "falsch" sein? Und was wollt ihr immer mit ADL? Ich würde nach den Erfahrungen mit den E-Cores einen 13600K dem 12700K vorziehen. Macht auch deutlich mehr Takt oder niedrigere Spannung mit.
Man gibt für den 3D >300€ für eine CPU aus, die mit gutem RAM (den man ja vielleicht schon hat, auch günstigerer B-Die lässt sich oft auf 4000 CL16 takten) ständig von einem optimierten 13600K geschlagen wird. Der 3D müsste dementsprechend noch deutlich weniger kosten, Board hin oder her.

robbitop
2023-02-13, 16:56:44
Oder man blendet einfach alles aus, was einen nicht in den Kram passt:
https://pbs.twimg.com/media/FotZB81X0AMjjeI?format=jpg&name=large
https://twitter.com/CapFrameX/status/1624740626406289408
Stichwort "Luftpumpe". ;D
Wieder sinnlos ausgemaxt oder sinnvoll optimiert? Außerdem scheint das Spiel unglaublich schlecht optimiert zu sein (was egal ist, wenn man es unbedingt spielen will). Schon krass was für ein Softwaremüll heute losgelassen wird auf die Welt. Selbst mit der besten kaufbaren CPU gibt es richtig inakzeptable schlechte low fps (sub 60 beim 13900K laut deinem Bild). Einfach nur Müll - sorry.

Ändert aber an meiner Aussage nichts. Ich habe ja klar gesagt, dass es (schlecht optimierte) Ausnahmen gibt - aber für die große Mehrheit der Spiele liegt man im GPU Limit. Und was machst du? Kommst mit einem Einzelbeispiel. X-D Ja ändert null an meiner Aussage. Schau her ich hab 3-4 Spiele wo meine Narrative gilt und ignoriere die 10.000(?) kauf- und spielbaren PC Spiele.

Aber ja, wer ausnahmslos immer im GPU Limit sein will, der muss immer top-notch kaufen (das ist aber auch nichts Neues) und hat dann anscheinend immer noch lows mit sub 60 fps. Geil :up:

aufkrawall
2023-02-13, 17:02:13
Kommst mit einem Einzelbeispiel.
Immer diese lästigen Einzelbeispiele der populärsten Titel. Sorry, du lügst dir in die Tasche. Wenn du meinst, der 5800X3D wäre ständig overkill, dann ist das deine 4090 erst recht.
Es ist einfach nur völliger Schwachsinn, eine 2000€-Grafikkarte nicht auch mit der besten Spiele-CPU zu kombinieren. Völlig egal, wie du es dir hindrehst. Weiter geh ich auf den Quatsch nicht ein, ist einfach nur Fanboy-Blödsinn. "ABeR PlaTtFoRmWeCHsEl!1" 100€, oh nein. ;D

HOT
2023-02-13, 17:03:26
Weil ja auch jeder ne 4090 hat, oder ist das jetzt auf einmal Standard geworden :freak:?
Ham se dich gebissen?

Bei dem Spiel müsste man erst mal optimierte Treiber und den ersten größeren Patch abwarten, dann sehen wir weiter. PCGH hat nicht umsonst bisher keinen Technikcheck.

aufkrawall
2023-02-13, 17:06:02
Weil ja auch jeder ne 4090 hat, oder ist das jetzt auf einmal Standard geworden :freak:?
Ham se dich gebissen?

Mach mal die Glubscher auf und guck hier in die Hardware-Profile.


Bei dem Spiel müsste man erst mal optimierte Treiber und den ersten größeren Patch abwarten, dann sehen wir weiter.
Genau, das Versprechen auf das magische AMD-Update. Der Klassiker, wird nie alt.

dargo
2023-02-13, 17:06:43
Ich habe jetzt mein 5800X3D System von 16GB Single Rank auf 32GB Dual Rank umgebaut. Habe jetzt testweise mal Assassin’s Creed Odyssey gebencht da dieses Spiel in meinen Messungen am stärksten noch beim 5800X3D von optimierten (Sub)Timings profitiert hatte. Der folgende Test wurde nur mit dem XMP-Profil durchgeführt, sprich DDR4-3200 CL14 und 32GB RAM. Ich staune nicht schlecht was alleine Dual Rank bringt.
https://abload.de/thumb/cx_2023-02-13_17-02-5i5ffw.png (https://abload.de/image.php?img=cx_2023-02-13_17-02-5i5ffw.png)

Zur Erinnerung... das war XMP-Profil mit 16 GB Single Rank.
https://abload.de/thumb/5800x3d_aco_xmp_avgf4fmr.jpg (https://abload.de/image.php?img=5800x3d_aco_xmp_avgf4fmr.jpg)

Das hätte ich jetzt auch nicht unbedingt erwartet.

Wow, und nach welcher bescheuerten Logik kann er dann nicht beim 5600X bleiben? ;D
Wer hat gesagt Rancor könnte nicht beim 5600X bleiben? Nimm bitte auch weniger davon was du nimmst.

robbitop
2023-02-13, 17:11:30
Immer diese lästigen Einzelbeispiele der populärsten Titel.
Ich zähle bisher 3 Titel. Von 10.000.

Und zu den populärsten Titeln gehört das Spiel (und die anderen genannten) anscheinend (noch) nicht:
https://de.wikipedia.org/wiki/Liste_der_erfolgreichsten_Computerspiele

Weder nach Metacritic noch nach verkauften Titeln. (letzteres kann sich ändern aber Stand heute gilt das eher noch nicht)


Sorry, du lügst dir in die Tasche. Wenn du meinst, der 5800X3D wäre ständig overkill, dann ist das deine 4090 erst recht.
Leseverständnis? Ich habe ganz klar gesagt, dass es in der Mehrzahl der Fälle so ist und es Ausnahmen gibt. Entsprechend habe ich da nirgends gesagt, der 5800X3D wäre ausnahmslos overkill. Ich habe das klar differenziert.

Weiterhin habe ich keine RTX4090 sondern eine RTX3080. Aber hätte ich eine 4090 würde ich das gleiche tun wie immer: mir mehr GPU Leistung wünschen. GPU Leistung ist wie Geld auf dem Konto: es kann nie genug geben.
DSR mit 8K@4K auf meinem OLED bei konstant anliegenden 120 fps. Das wäre schon was.


Es ist einfach nur völliger Schwachsinn, eine 2000€-Grafikkarte nicht auch mit der besten Spiele-CPU zu kombinieren.
Habe ich nie bestritten - natürlich macht zu einer 2000€ Grafikkarte die bestmögliche CPU Sinn.
Aber wer hat denn hier eine 4090 mit einem 5600X?
Es ging doch um Rancor der einen 5600X hat und der hat eine RX6800XT laut systeminfo. Um die 4090 ging es doch hier gar nicht in Kombination mit dem 5600X -> 5800X3D upgrade. :| Halluzinierst du?


Völlig egal, wie du es dir hindrehst. Weiter geh ich auf den Quatsch nicht ein, ist einfach nur Fanboy-Blödsinn. "ABeR PlaTtFoRmWeCHsEl!1" 100€, oh nein. ;D
Warum Fanboy Quatsch? Wenn du mich meinst ist das Blödsinn. Ich bin Fanboy von gar nichts. Ich kaufe immer bestes P/L (was ist falsch daran, auf's Geld zu schauen und P/L zu fokussieren? IMO sind das legitime Argumente und Sichtweisen aus dem Blick vieler Endkunden) und ich habe und hatte schon jeden IHV in meinem System. Intel, AMD, Cyrix bei CPUs und AMD, 3dfx, Matrox und NV bei GPU. Keine Muster und keine Vorlieben. Der Vorwurf zeigt, dass du hier irgendwie abdrehst und sinnlos Leute beschimpfst.

Ich habe klare Randbedingungen genannt (Großteil der Spiele mit Nennung von Ausnahmen) und du pöbelst einfach nur rum.

HOT
2023-02-13, 17:11:36
Mach mal die Glubscher auf und guck hier in die Hardware-Profile.
[...]
Ok, ymmd heute, wirklich. Ich schätze dich wirklich für deine tiefgehenden Analysen, aber diese Abgehobenheit ist schon arg krass. Das mag ja hier ein relevanter Teil sein, aber nur der üblichen Verdächtigen. Bei den Mitlesern dürfte es schon stark eng werden.

dargo
2023-02-13, 17:15:17
Wieder sinnlos ausgemaxt oder sinnvoll optimiert? Außerdem scheint das Spiel unglaublich schlecht optimiert zu sein (was egal ist, wenn man es unbedingt spielen will). Schon krass was für ein Softwaremüll heute losgelassen wird auf die Welt. Selbst mit der besten kaufbaren CPU gibt es richtig inakzeptable schlechte low fps (sub 60 beim 13900K laut deinem Bild). Einfach nur Müll - sorry.

Müll ist eher die RTX 4090 in diesem Beispiel. ;)

HOT
2023-02-13, 17:20:03
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-v152-Benchmark-Review-Raytracing-1398562/3/
Nur mal an Anstoss zu seinen ganzen Theorien. Klar ist Raptor Lake etwas schneller, aber testet man mit ner Radeon, siehts dann gleich wieder anders aus.
Was der NV-Treiber bei den Ryzens versaut hat auch bisher noch keiner wirklich untersucht. Das Spiel skaliert übrigens auch mit Ryzens durchaus über 8 Kerne hinaus, der Test dazu ist aber hinter ne Paywall.
Was Fakt ist und Beachtung verdient, ist, dass SMT auf Zen3 durchaus kontraproduktiv wirken kann und mal eben 10% Performance z.T. weg sind.

robbitop
2023-02-13, 17:24:04
Naja die breiten Performanceindizes sprechen doch auch eine klare Sprache. In der Mehrheit der Spiele liegt der 5800X3D sehr gut. Aber es gibt ein paar Spiele (und ggf. auch Kombinationen mit GPUs) da verhält es sich anders. Was natürlich unschön ist. Aber es scheint die Minderheit zu sein ansonsten würden die Indizes den 5800x3D deutlich schlechter sehen.
https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/5/#abschnitt_leistung_in_spielen_720p_rtx4090

13900K liegt im Rasterizer Index 15% vor dem 5800X3D und im Raytracing Index 21%. Ist defintiv deutlich schneller aber nicht um Welten und fernab der hier genannten Einzelbeispiele.

aufkrawall
2023-02-13, 17:27:09
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-v152-Benchmark-Review-Raytracing-1398562/3/
Nur mal an Anstoss zu seinen ganzen Theorien. Klar ist Raptor Lake etwas schneller, aber testet man mit ner Radeon, siehts dann gleich wieder anders aus.
Was der NV-Treiber bei den Ryzens versaut hat auch bisher noch keiner wirklich untersucht.
Also doch nichts mit Leistung im Überfluss und der RPL lohnt sich auch wegen des NV-Treibers in einigen Fällen...
Aber wenn man so wie robbitop sämtliche Pixelart-Spiele in die Betrachtung mit aufnimmt, Details runterschraubt und einen Durchschnitt bildet, ist das zugegebenermaßen auch wieder egal.

HOT
2023-02-13, 17:27:26
Und was grade bei HL beachtet werden sollte ist das hier:
https://youtu.be/qxpqJIO_9gQ?t=83

Auch hier haut der NV-Treiber wieder übelst dazwischen.

Also doch nichts mit Leistung im Überfluss und der RPL lohnt sich auch wegen des NV-Treibers in einigen Fällen...
Aber wenn man so wie robbitop sämtliche Pixelart-Spiele in die Betrachtung mit aufnimmt, Details runterschraubt und einen Durchschnitt bildet, ist das zugegebenermaßen auch wieder egal.

So kann man das auch sehen :freak:.

dargo
2023-02-13, 17:29:57
Was aufkrawall nicht kapiert ist die Tatsache, dass stumpfe Vergleiche zwischen verschiedenen IHVs schon länger nichts mehr bringen. Erst recht im absoluten CPU-Limit wo SAM sich deutlich bemerkbar macht. Zusätzlich in der Nvidia D3D12 Treiber in Hogwarts Legacy absoluter Müll, wurde auch schon öfter gezeigt.

HOT
2023-02-13, 17:31:50
Nv muss wirklich dringend generell was mit diesen CPU-Limits machen. Das wird z.T. wirklich hinderlich, wenn selbst High-End-CPUs unter die 60FPS fallen mit RT wegen der CPU.

robbitop
2023-02-13, 17:32:38
Also doch nichts mit Leistung im Überfluss und der RPL lohnt sich auch wegen des NV-Treibers in einigen Fällen...
Aber wenn man so wie robbitop sämtliche Pixelart-Spiele in die Betrachtung mit aufnimmt, Details runterschraubt und einen Durchschnitt bildet, ist das zugegebenermaßen auch wieder egal.
Optimieren ist schon wesentlich mehr als nur blind Details runterzuschrauben. Und Pixelart Spiele waren natürlich nicht gemeint (kann man natürlich argumentativ unterstellen aber im Kontext der Diskussion sollte klar sein, dass es nicht um Pixelart Spiele geht). Und einfach nur den Durchschnitt zu bilden war auch nicht gemeint sondern, dass die überwiegende Mehrheit (auch moderner Titel aus den letzten 2-3 Jahren) in der Praxis bei den aller meisten Usern mit halbwegs normalen GPUs und normalen Monitoren im GPU Limit liegen sollte.

Ja wer eine 4090 hat, der liegt öfter im CPU Limit (wobei ich persönlich mit DSR auf einem 4K120 OLED nicht mehr so oft im CPU Limit liegen würde - aber das ist auch nur eine Vorliebe) und ja für den ist die schnellste CPU am besten. Aber das stand IMO nie zur Debatte und ist schon immer klar gewesen.

dargo
2023-02-13, 17:36:55
Nv muss wirklich dringend generell was mit diesen CPU-Limits machen. Das wird z.T. wirklich hinderlich, wenn selbst High-End-CPUs unter die 60FPS fallen mit RT wegen der CPU.
Einer müsste nur mal auf einer Radeon testen was SAM On vs. SAM Off in Hogwarts Legacy @720p (CPU-Limit generieren) bringt. Ich habe das Spiel nicht, kann es also nicht testen. In diesem Spiel wird viel Speicher geschaufelt, ergo würde es mich gar nicht überraschen wenn SAM On mit Radeon und Ryzen hier besonders viel bringt. Möglichweise schwächelt der NV-Treiber beim Overhead gar nicht so sondern es liegt ausschließlich an SAM, oder zumindest zum großen Teil.

PS: SAM On bringt immer dort besonders viel wo es viele Speicheraufrufe gibt. Durch die Bündelung wird die CPU entlastet.

robbitop
2023-02-13, 17:40:32
Gibts für Ampere ne Empfehlung für 2023? Resizable bar on oder off?

HOT
2023-02-13, 17:43:37
Einer müsste nur mal auf einer Radeon testen was SAM On vs. SAM Off in Hogwarts Legacy @720p (CPU-Limit generieren) bringt. Ich habe das Spiel nicht, kann es also nicht testen. In diesem Spiel wird viel Speicher geschaufelt, ergo würde es mich gar nicht überraschen wenn SAM On mit Radeon und Ryzen hier besonders viel bringt. Möglichweise schwächelt der NV-Treiber beim Overhead gar nicht so sondern es liegt ausschließlich an SAM, oder zumindest zum großen Teil.

PS: SAM On bringt immer dort besonders viel wo es viele Speicheraufrufe gibt. Durch die Bündelung wird die CPU entlastet.

HWU hat ja mit Ryzen 7700 getestet. Hier wirken sich die CPU-Limits sehr heftig aus, selbst kleinere Radeons sind im Vorteil. Der NV-Treiber hat hier wirklich heftige Probleme auf Ryzen.

dargo
2023-02-13, 17:48:37
HWU hat ja mit Ryzen 7700 getestet. Hier wirken sich die CPU-Limits sehr heftig aus, selbst kleinere Radeons sind im Vorteil. Der NV-Treiber hat hier wirklich heftige Probleme auf Ryzen.
HWU testet minimum @1080p. Du kannst dir sicher sein, dass der Abstand im absoluten CPU-Limit noch größer sein wird. Ist doch logisch... sobald die GPU anfängt zu limitieren werden Vorteile durch SAM überlagert und somit geringer.

Edit:
Ich sehe gerade HWU hat da mit medium Details gemessen, ergo werden die schon die GPUs damit gut entlastet haben. Ist immer schwer zu deuten bei fremden Benchmarks ob das da auch wirklich volles CPU-Limit ist.

aufkrawall
2023-02-13, 17:51:10
Zusätzlich in der Nvidia D3D12 Treiber in Hogwarts Legacy absoluter Müll, wurde auch schon öfter gezeigt.
Eben, es braucht den Doppel-Wumms :D : Wer vernünftige fps mit RT haben will, braucht im GPU-Limit Nvidia, und um dahin zu kommen, eine sehr schnelle CPU. Ich sage die ganze Zeit nichts anderes. :freak:

Das mit SAM solltest du aber nochmal nachmessen, da gibts bei dir offenbar noch immer ein Verständnisproblem. Kannst natürlich auch gerne Beispiele nennen, wo die Leistung damit im CPU-Limit gestiegen sein soll. In Spiderman jedenfalls nicht. Das läuft auf Radeons mit SAM, auf GeForces ist rBAR aus. Trotzdem läufts im CPU-Limit auf der GeForce schneller... https://www.pcgameshardware.de/Spider-Man-Miles-Morales-Spiel-72802/Specials/PC-Benchmark-Technik-Review-1407865/3/

Ich hab das natürlich alles xfach auf AMD, Intel, GeForce und Radeon nachgemessen und könnte es jetzt nochmal erklären. Würde bei der Vorliebe für unterkomplexe Blödsinns-Annahmen hier ("Windows-Scheduler", "SAM" ...) aber auch nichts bringen. :redface:

HOT
2023-02-13, 17:58:21
SAM oder ähnliches ist nicht das Hauptproblem, auch nicht bei NV. Das wird einfach die CPU-Optimierung im NV-Treiber sein. Bei AMD läufts eben erheblich runder auf Ryzen, schade nur, dass AMD einfach nichts in der Leistungsklasse hat, deshalb fällt das eben kaum auf, weil fast jeder mit ner 4090 testet. Dann kombiniert man das mit Ryzen und bekommt komische Ergebnisse - seltsam :freak:.

dargo
2023-02-13, 18:05:44
SAM oder ähnliches ist nicht das Hauptproblem, auch nicht bei NV.
Woher willst du das wissen wenn es je nach Game 20+% bringt? Afaik waren es sogar irgendwo >30% wenn mich nicht alles täuscht. Valhalla oder FH5.

Ex3cut3r
2023-02-13, 18:09:23
Gibts für Ampere ne Empfehlung für 2023? Resizable bar on oder off?

Ist bei Nvidia sowieso nur für eine Handvoll Spiele freigeschaltet....google Nvidia rBar Whitelist.

Nv muss wirklich dringend generell was mit diesen CPU-Limits machen. Das wird z.T. wirklich hinderlich, wenn selbst High-End-CPUs unter die 60FPS fallen mit RT wegen der CPU.

Machen Sie doch schon, nennst sich FG aka DLSS 3. :biggrin:

Spaß bei Seite, das Problem mit dem schwachen DX12 im CPU Limit gibt bei Nvidia seit Turing. Seitdem hat sich nicht viel geändert, weil auch Ampere und Ada eigentlich nur Turing weiter aufgebohrt waren. Bin gespannt ob es beim nächsten "richtigen" Architektur Change auch wieder schnelleres/besseres DX12 gibt.

Allerdings muss man auch sagen, dass die DX12 Schwäche nicht im jeden Titeln/Engine gleich ist. Manche Spiele laufen z.B. relativ gleich im CPU Limit egal ob AMD oder Nvidia Karten, andere Spiele wiederum laufen aber doch erheblich langsamer.

HOT
2023-02-13, 18:11:29
Ist bei Nvidia sowieso nur für eine Handvoll Spiele freigeschaltet....google Nvidia rBar Whitelist.



Machen Sie doch schon, nennst sich FG aka DLSS 3. :biggrin:

Ja genau :freak: Welch toller Fortschritt. Kleb ein Pflaster auf den Dachschaden und der Dachschaden ist verschwunden :D.
Leider regnets immer noch rein... oder hast eben Eingabelatenz aus der Hölle. Die 120FPS braucht man ja nicht, weil die Grafik dann so flüssig ist, sondern weil das Spiel insgesamt so flufflig läuft. Deshalb brauche ich ja auch ne starke CPU und seh das eben nicht so entspannt wie Robbi.


dargo
Das ist doch einfach ein Teilaspekt der CPU-Optimierung.

aufkrawall
2023-02-13, 18:12:08
Ist bei Nvidia sowieso nur für eine Handvoll Spiele freigeschaltet....google Nvidia rBar Whitelist.
Hatte hier den Stand zu rBAR mit Nvidia gepostet:
https://forums.guru3d.com/threads/nvidia-geforce-528-49-whql-driver-download-discussion.446617/page-7#post-6102620

Aber wie du ja weißt, hat dargo derbe Probleme damit, CPU- und GPU-Limit auseinanderzuhalten. Er kann natürlich auch mal einen Screenshot posten, wo in irgendeiner Szene mit nennenswert <90% GPU-Last die fps mit rBAR ansteigen. Werden wir aber imho niemals sehen.

Ex3cut3r
2023-02-13, 18:14:33
Hatte hier den Stand zu rBAR mit Nvidia gepostet:
https://forums.guru3d.com/threads/nvidia-geforce-528-49-whql-driver-download-discussion.446617/page-7#post-6102620

Aber wie du ja weißt, hat dargo derbe Probleme damit, CPU- und GPU-Limit auseinanderzuhalten. Er kann natürlich auch mal einen Screenshot posten, wo in irgendeiner Szene mit nennenswert <90% GPU-Last die fps mit rBAR ansteigen. Werden wir aber imho niemals sehen.

Dargo hat sowieso keine GPU Last Anzeige im OSD, also ja, werden wir bei Ihm nie sehen. :biggrin:

Slipknot79
2023-02-13, 22:12:22
Ja wer eine 4090 hat, der liegt öfter im CPU Limit (wobei ich persönlich mit DSR auf einem 4K120 OLED nicht mehr so oft im CPU Limit liegen würde - aber das ist auch nur eine Vorliebe) und ja für den ist die schnellste CPU am besten. Aber das stand IMO nie zur Debatte und ist schon immer klar gewesen.

Also wenn dir bei Bewegtschärfe einer abged, warum dann nicht eine 4090 reinballern? Dann bekommst du Bewegschärfe durch hohe fps und Bewegtschärfe durch DLDSR, und das ergibt wenn man es ausrechnet: BewegtschärfeBewegtschärfe :redface:

robbitop
2023-02-14, 08:46:16
Weil mir die Karte zu teuer ist. Preis-Leistung muss gegenüber alten Produkten steigen - das war bis dato immer so. NV hat mit Ada (und ehrlich gesagt AMD auch mit N31) erstmals angefangen, dieses Paradigma abzuschaffen. Du bekommst mehr Leistung als deine alte GPU, musst aber mehr zahlen als du an Mehrleistung bekommst. P/L gegenüber einer veralteten Karte sinkt also. :|
Und das ist mir aus reinem Prinzip zuwider - das kann ich nicht unterstützen. Entsprechend kaufe ich bis sich das ändert nur 2nd hand. Ein Upgrade muss immer ein besseres P/L liefern als die alte HW. An verfügbaren Mitteln liegt es nicht - mir geht es zu 100% um's Prinzip was für all meine Ausgaben gilt.

Bewegtschärfe gibt es durch DSR nicht - im Gegenteil. Kostet fps. Viel fps/Hz (wo FG aber hilft) und BFI bringen bringen Bewegtschärfe. Dank FG macht es auch erstmals richtig Sinn, 240 Hz Monitore zu kaufen. Wobei dann OLEDs natürlich wegen der super niedrigen Schaltzeiten am aller besten sind. Ich werde wenn Blackwell rauskommt schauen wie die Preise für eine 5080/5070 sind oder im Zweifel eine Ada gebraucht kaufen, um ein hoffentlich brauchbares P/L zu behalten.

dargo
2023-02-14, 09:47:07
Weil mir die Karte zu teuer ist. Preis-Leistung muss gegenüber alten Produkten steigen - das war bis dato immer so. NV hat mit Ada (und ehrlich gesagt AMD auch mit N31) erstmals angefangen, dieses Paradigma abzuschaffen. Du bekommst mehr Leistung als deine alte GPU, musst aber mehr zahlen als du an Mehrleistung bekommst. P/L gegenüber einer veralteten Karte sinkt also. :|

Das ist falsch. N31 kostet (UVP) sogar etwas weniger als die 6950XT zum Launch oder gleich viel wie eine 6900XT.

PS: Der Salvage ist aber deutlich teurer geworden, zumindest wenn man die 6800XT als Vergleich nimmt.

robbitop
2023-02-14, 11:44:17
Na ich meine schon die Preise zum Upgradezeitpunkt. Korrekt rechnet man Wirtschaftlichkeit immer mit Opportunitätsbetrachtung. Also was kostet welche Option zum Zeitpunkt der Entscheidung - also zB heute. Und da gibt es Produkte mit höherem P/L.

Kommt man wie ich von einer 1080 ti ist also auch eine GA102 oder N21 eine legitme Option als Vergleich zu AD102 / N31. Und da kriegen in Bezug auf P/L die neuen Karten mächtig auf den Sack von den alten und das muss genau umgekehrt sein.

Ja N31 - insbesondere die XT - ist nicht ganz so krass - aber immernoch zu teuer ausgehend von GA102 und N21 zu aktuellen Preisen. Deshalb wurde es bei mir kürzlich eine gebrauchte GA102. War die einzige Wahl wo P/L halbwegs okay war.

ZeroStrat
2023-02-14, 12:04:06
Warum postest du ein Bild von seinem falschen Benchmark? Er schreibt doch selber dass es 19% mehr ist, d.h. 10% schneller als ein X3D. Das wäre knapp hinter einem ADL mit schnellerem RAM, was nun nicht gerade "Luftpumpe" ist.

Er meinte ja eher den 5800X3D. Ja, den 7950X hatte ich mit einem ASUS Board nachgetestet, weil mich der Abstand zu Alder Lake und Raptor Lake stutzig gemacht hatte. Das MSI Board hatte wahrscheinlich irgendeinen Murks mit Timings gemacht.

Lehdro
2023-02-14, 14:05:29
Er meinte ja eher den 5800X3D.
Das habe ich dann auch festgestellt, passiert ;(
OT:

Ja, den 7950X hatte ich mit einem ASUS Board nachgetestet, weil mich der Abstand zu Alder Lake und Raptor Lake stutzig gemacht hatte. Das MSI Board hatte wahrscheinlich irgendeinen Murks mit Timings gemacht.
Hast du eigentlich vor die alten Benchmarks zu wiederholen um zu schauen was sich da mit dem MB Wechsel getan hat?

ZeroStrat
2023-02-14, 14:09:43
Hast du eigentlich vor die alten Benchmarks zu wiederholen um zu schauen was sich da mit dem MB Wechsel getan hat?
Welche alten Benchmarks meinst du? Falls du den Arc Treibervergleich meinst, jup, fiel mir auch gestern ein, dass das im Grunde Murks sein muss. ;(

Ansonsten hatte ich das B650 nicht großartig im Einsatz. Zum Glück! Peinliche Nummer das ganze, aber angeblich arbeitet MSI an BIOS Updates.

Lehdro
2023-02-14, 14:35:15
Welche alten Benchmarks meinst du? Falls du den Arc Treibervergleich meinst, jup, fiel mir auch gestern ein, dass das im Grunde Murks sein muss. ;(
Ja, halt alles was du mit dem MB durchgetestet hattest.

Aus persönlichen Interesse: Du hast ja mal Darktide kurz angetestet, hast du da vor noch mehr Tests durchzuführen? Bin besonders an CPU Benchmarks mit und ohne RT interessiert: RPL/Zen4/X3D. Findet man fast gar nix zu, obwohl es technisch mal sehr interessant wäre - ist halt keine weit verbreitete Engine.

Ansonsten hatte ich das B650 nicht großartig im Einsatz. Zum Glück! Peinliche Nummer das ganze, aber angeblich arbeitet MSI an BIOS Updates.
Irgendeinen AIB triffts immer pro Generation. :frown:

ZeroStrat
2023-02-14, 14:52:04
Aus persönlichen Interesse: Du hast ja mal Darktide kurz angetestet, hast du da vor noch mehr Tests durchzuführen? Bin besonders an CPU Benchmarks mit und ohne RT interessiert: RPL/Zen4/X3D. Findet man fast gar nix zu, obwohl es technisch mal sehr interessant wäre - ist halt keine weit verbreitete Engine.


Ich denke, dass man Darktike eher ohne RT spielt. Ist zumindest meine Einschätzung. Ohne RT sind die FPS ordentlich, soweit ich das beurteilen kann. Hattest du in bestimmten Szenarien niedrige FPS mit CPU-Limit festgestellt?

Lehdro
2023-02-14, 16:10:43
Ich denke, dass man Darktike eher ohne RT spielt. Ist zumindest meine Einschätzung.
Mag sein, mit einer 4090 hat man aber die Power das man es aus GPU Sicht anmachen kann, vor allem mit FG.

Ohne RT sind die FPS ordentlich, soweit ich das beurteilen kann.
Das stimmt so.

Hattest du in bestimmten Szenarien niedrige FPS mit CPU-Limit festgestellt?
Ohja, in Einigen. Besonders heftig in engeren Leveln wenn viel Beleuchtung vorhanden ist (Hab Drayko als Beispiel) oder wenn mal wieder der "Lights out"-Modifier aktiv ist. Ich hatte vor ein paar Wochen das mal ohne FG mit der 4090 + X3D gespielt und teilweise brechen die FPS extrem ein:

7TAkCZcv6uE
Zum Beispiel ab Minute 2:00 (https://youtu.be/7TAkCZcv6uE?t=122) oder Minute 6:20 (https://youtu.be/7TAkCZcv6uE?t=381). Bei einem anderem Run ab hier im langen Gang (https://youtu.be/dAmw0QRA9cU?t=1119).
Generell alles was wirklich viel Licht verursacht: Flammenwerfer, Toxflamer, Blendgranaten, Scab Bomber Granaten, Lasguns mit hoher Kadenz, Feuerfässer, viele Taschenlampen gleichzeitig, quasi alle Psykerstaffs...ist halt wirklich eine Menge was da potentiell dazu führen kann. Die GPU Auslastung bricht ein, genau wie die FPS, von daher meine Vermutung dass die CPU bremst. Bei Bedarf kann ich CFX mal ein paar Runs mitloggen lassen.

Slipknot79
2023-02-14, 22:17:35
Weil mir die Karte zu teuer ist. Preis-Leistung muss gegenüber alten Produkten steigen - das war bis dato immer so. NV hat mit Ada (und ehrlich gesagt AMD auch mit N31) erstmals angefangen, dieses Paradigma abzuschaffen. Du bekommst mehr Leistung als deine alte GPU, musst aber mehr zahlen als du an Mehrleistung bekommst. P/L gegenüber einer veralteten Karte sinkt also. :|
Und das ist mir aus reinem Prinzip zuwider - das kann ich nicht unterstützen. Entsprechend kaufe ich bis sich das ändert nur 2nd hand. Ein Upgrade muss immer ein besseres P/L liefern als die alte HW. An verfügbaren Mitteln liegt es nicht - mir geht es zu 100% um's Prinzip was für all meine Ausgaben gilt.

Bewegtschärfe gibt es durch DSR nicht - im Gegenteil. Kostet fps. Viel fps/Hz (wo FG aber hilft) und BFI bringen bringen Bewegtschärfe. Dank FG macht es auch erstmals richtig Sinn, 240 Hz Monitore zu kaufen. Wobei dann OLEDs natürlich wegen der super niedrigen Schaltzeiten am aller besten sind. Ich werde wenn Blackwell rauskommt schauen wie die Preise für eine 5080/5070 sind oder im Zweifel eine Ada gebraucht kaufen, um ein hoffentlich brauchbares P/L zu behalten.



Du betrachtest das falsch. :redface:
Die 4090 ermöglicht hohe fps mit DLDSR wie keine andere Karte bisher, du bekommst also Bewegtschärfe durch fps und Bewegtschärfe durch DLDSR wie bisher noch nie zuvor, mit dem Ergebnis BewegtschärfeBewegtschärfe. Du darfst also nicht linear rechnen wie zB 1000EUR = 100fps, 2000EUR = 150fps -> 2000EUR ist Shice, sondern du erreichst erstmals im Leben P=L mit dem Ergebnis BewegtschärfeBewegtschärfe = PreisPreis :redface:

ZeroStrat
2023-02-15, 10:29:16
Ohja, in Einigen. Besonders heftig in engeren Leveln wenn viel Beleuchtung vorhanden ist (Hab Drayko als Beispiel) oder wenn mal wieder der "Lights out"-Modifier aktiv ist. Ich hatte vor ein paar Wochen das mal ohne FG mit der 4090 + X3D gespielt und teilweise brechen die FPS extrem ein:

https://youtu.be/7TAkCZcv6uE
Zum Beispiel ab Minute 2:00 (https://youtu.be/7TAkCZcv6uE?t=122) oder Minute 6:20 (https://youtu.be/7TAkCZcv6uE?t=381). Bei einem anderem Run ab hier im langen Gang (https://youtu.be/dAmw0QRA9cU?t=1119).


Nice! Das ist ja wirklich heftig CPU-limitiert mit Bildraten deutlich unter 100FPS. Perfekt für einen CPU-Test geeignet, würde ich sagen.

aufkrawall
2023-02-15, 19:16:16
Miles Morales-Patch mit CPU-Verbesserungen. Zen 3 wird allerdings nicht erwähnt :freak: :
CPU optimizations for Intel 11th generation and older, with 8 cores or more.
Optimizations for AMD Ryzen 9 7950X and Ryzen 9 7900X CPUs.
...
https://store.steampowered.com/news/app/1817190/view/3648515325555739583?l=english
Aber vielleicht hat man ja Glück. Mit 11400F allerdings null Unterschied.

dargo
2023-02-16, 18:59:12
Ich habe mir die "seltsame" Performance in Miles Morales mit RT an einer Stelle nochmal genauer angesehen. Da kann man sich schon fragen was die DEVs da vergewaltigt haben? :ulol: Das ganze in 720p + FSR2_UP.
https://abload.de/thumb/milesmorales_2023_02_1jddn.jpg (https://abload.de/image.php?img=milesmorales_2023_02_1jddn.jpg) https://abload.de/thumb/milesmorales_2023_02_avdh3.jpg (https://abload.de/image.php?img=milesmorales_2023_02_avdh3.jpg) https://abload.de/thumb/milesmorales_2023_02_pvdwl.jpg (https://abload.de/image.php?img=milesmorales_2023_02_pvdwl.jpg) https://abload.de/thumb/milesmorales_2023_02_m6f56.jpg (https://abload.de/image.php?img=milesmorales_2023_02_m6f56.jpg)

RainingBlood
2023-02-17, 19:56:41
was ist in den Energieoptionen normal für die CPU: 5 oder 99% für den minimalen Leistungszustand?

FunkyChris
2023-02-17, 20:05:51
was ist in den Energieoptionen normal für die CPU: 5 oder 99% für den minimalen Leistungszustand?

Bei mir unter ausgeglichen 0%.

dargo
2023-02-18, 09:17:11
Ich habe jetzt mal den Rechner am Energy Monitor 3000 angeschlossen und muss feststellen, dass die Verbrauchsangaben der CPU die so ein Afterburner oder HWiNFO64 ausspuckt eher Schätzwerte sind.

Der 5800X3D soll laut den Tools um die 24,xW in Idle verbrauchen laut Anzeigen. Einen ähnlichen Wert hatte ich mit dem 5800X @4,5Ghz Allcore vorher auch, der lag meine ich bei 25W. Nur verbrauchte der gesamte Rechner hinter dem NT vorher 60-62W, jetzt sind es 53,5-55W in Idle.
Bin schon etwas weiter mit der Optimierung vom 5800X3D + 4x 8GB Samsung B-Die. Heftig was noch alles so drin steckt. :eek:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13240540&postcount=14504

Edit:
https://abload.de/thumb/daysgone_2023_02_18_1tyeso.jpg (https://abload.de/image.php?img=daysgone_2023_02_18_1tyeso.jpg) https://abload.de/thumb/doometernalx64vk_2023o6e73.jpg (https://abload.de/image.php?img=doometernalx64vk_2023o6e73.jpg) https://abload.de/thumb/forzahorizon5_2023_0262c4i.jpg (https://abload.de/image.php?img=forzahorizon5_2023_0262c4i.jpg) https://abload.de/thumb/gow_2023_02_18_20_06_kcfn3.jpg (https://abload.de/image.php?img=gow_2023_02_18_20_06_kcfn3.jpg)

Zum Vergleich der 5800X UV.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13208186&postcount=2847

Das passende Savegame von APTR habe ich leider nicht mehr, aber ein paar Alternativen. :)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13241190&postcount=175

Neosix
2023-03-04, 23:33:11
Ich glaube die Hölle ist grad zugefrohren,

für mein MB, wird jetzt auf der MSI Webseite eine Beta version eines neuen Bios mit Agesa 08 angezeigt.

https://i.imgur.com/BXXMqPl.png

Die vorherige version datiert auf den 2022-08-16. MSI hat sich also "paar" Monate zeit gelassen, aber ich bin froh dass da was kommt.

N0Thing
2023-03-05, 01:01:59
Ja, für mein MEG X570 UNIFY ist es auch gelistet. Interessant, dass man bisher sonst gar nichts von einem AGESA ComboAm4v2PI 1.2.0.8 gelesen hat.

Morpog
2023-03-05, 01:25:33
Changelog von Gigabyte:

Checksum : 5883
Update AMD AGESA V2 1.2.0.8
Optimized performance for 5800X3D

robbitop
2023-03-05, 09:20:38
Was bringt AGESA 1208 denn (gern auch im speziellen Fall für den 5800x3d)? Außer security upgrades die kein 0815 Privatmensch braucht? Gibt es wirklich performance upgrades die signifikant sind und wenn ja wo kommen die her?
Für mein B450 von asrock gibts auch 1208 aber ich bin bei uefi updates zögerlich wenn bis dato alles rennt.

Ätznatron
2023-03-05, 09:50:45
Was bringt AGESA 1208 denn (gern auch im speziellen Fall für den 5800x3d)? Außer security upgrades die kein 0815 Privatmensch braucht? Gibt es wirklich performance upgrades die signifikant sind und wenn ja wo kommen die her?
Für mein B450 von asrock gibts auch 1208 aber ich bin bei uefi updates zögerlich wenn bis dato alles rennt.

Der CO ist zurück. Vom UEFI-Menü her sieht es jetzt so aus, wie zuvor bei den nicht-3D CPUs, d.h., die Kerne können individuell eingestellt werden.

Immerhin 2 Kerne boosten jetzt auf 4550 MHz, vorher nur bis 4450 MHz.

Bisher keine Abstürze, soweit also okay. Das Ganze muss natürlich noch wesentlich ausführlicher gestestet werden.

robbitop
2023-03-05, 12:50:04
Was bedeutet CO? Das gleiche wie die CO Reduktion über den PBO2Tuner in Windows? Selbst bei ASRock Boards? Dachte das bietet nur "combostrike" bei MSI?

Lehdro
2023-03-05, 13:09:36
CO= Curve Optimizer in granularen Schritten von 0-30.

Kombostrike = CO in 10er Schritten.

Ätznatron
2023-03-05, 13:12:13
Kürzel für den Curve Optimizer.

Der bietet die Möglichkeit, einen Spannungsoffset für jeden einzelnen Kern festzulegen (ähnlich dem PBO2Tuner, nur halt auf UEFI-Ebene).

Dieser Kombostrike ist übrigens nach wie vor vorhanden. Mittlerweile frage ich mich, welche Funktionaltät sich tatsächlich hinter ihm verbirgt.

Der steht jetzt bei mir auf Stufe 3, zusätzlich sind alle Kerne mit einem Offset von -30 versehen, und trotzdem hat die Kiste jetzt 1 Stunde Prime95 ohne Mucken hinter sich gebracht.

Was also soll der Kombostrike?

Neosix
2023-03-05, 15:28:00
Mein x3D hat leider in einigen Spielen mit -30 abstürze gehabt. Ich bin jetzt auf -28 runtergegangen, seit dem war die letzten 4 Wochen Ruhe. Mit Kombostrike 2 hätte ich aber -20 gehabt. Ich muss momentan Manuel im Windows nachsteuern. Mit dem neuen Bios könnte ich die -28 feiner einstellen, ohne ne Taskaufgabe über Windows laufen zu müssen.

dargo
2023-03-05, 16:49:24
Der CO ist zurück.
Keine Ahnung wie es bei anderen AIBs aussieht aber bei ASUS gibt es CO für den X3D schon seit AGESA V2 1.2.0.7.

Der_Korken
2023-03-05, 16:55:06
Der steht jetzt bei mir auf Stufe 3, zusätzlich sind alle Kerne mit einem Offset von -30 versehen, und trotzdem hat die Kiste jetzt 1 Stunde Prime95 ohne Mucken hinter sich gebracht.

Was also soll der Kombostrike?

Eine Stunde pro Kern (also einzeln getestet) oder 1h Allcore? Letzteres sagt nicht aus, damit findet man keine Instabilitäten, weil die Standard V/f-Kurve im AGESA zu flach ist. Das heißt, sie hat bei kleineren Taktraten mehr Luft als bei hohen Taktraten. Sofern also nicht alle 8 Kerne mit 4,55Ghz liefen (was ich bezweifel, weil ich das nichtmal auf einem 6er CCD hinbekomme ohne dass Temp- und PPT-Limit gerissen werden), könnte es trotzdem instabil sein.

Ätznatron
2023-03-05, 17:42:24
Eine Stunde pro Kern (also einzeln getestet) oder 1h Allcore? Letzteres sagt nicht aus, damit findet man keine Instabilitäten, weil die Standard V/f-Kurve im AGESA zu flach ist. Das heißt, sie hat bei kleineren Taktraten mehr Luft als bei hohen Taktraten. Sofern also nicht alle 8 Kerne mit 4,55Ghz liefen (was ich bezweifel, weil ich das nichtmal auf einem 6er CCD hinbekomme ohne dass Temp- und PPT-Limit gerissen werden), könnte es trotzdem instabil sein.

Mit stabil ist natürlich nur eine für mich ausreichend hohe Stabilität gemeint, und keine, die derjenigen des Werkszustandes entspricht.

Läuft der Rechner im Alltagsbetrieb störungsfrei über mehrere Stunden, reicht mir das aus.

Der_Korken
2023-03-05, 18:30:46
Werkszustand ist per Definition schon nicht möglich, wenn man undervoltet. "Störungsfrei über mehrere Stunden" würde mir aber definitiv nicht reichen. Das Problem mit dem Testen ist halt, dass im Alltag oft kurze Takt-Spikes anliegen (z.B. Browser öffnen), die dann bei einem Allcore-Test nicht mitgetestet werden. Mein Zen 1 konnte mit viel Allcore-UV stundenlang Prime laufen, ist damit aber alle paar Tage im Leerlauf gercrashed.

Ätznatron
2023-03-05, 18:57:45
Werkszustand ist per Definition schon nicht möglich, wenn man undervoltet. "Störungsfrei über mehrere Stunden" würde mir aber definitiv nicht reichen. Das Problem mit dem Testen ist halt, dass im Alltag oft kurze Takt-Spikes anliegen (z.B. Browser öffnen), die dann bei einem Allcore-Test nicht mitgetestet werden. Mein Zen 1 konnte mit viel Allcore-UV stundenlang Prime laufen, ist damit aber alle paar Tage im Leerlauf gercrashed.

Genau, Werkszustand ist der Zustand ootb. Ohne jeden manuellen Eingriff. Streng nach Spezifikation.

Alles andere halt eben nicht.

Sollte mein Rechner nach dem Hochfahren bis zum (gewollten) Ausschalten einwandfrei funktionieren (und der wird für alles Mögliche genutzt), reicht mir das. Wegen UV oder OC ist er während der gesamten Zeit, in der ich ihn nutze, also vielleicht seit 9 Monaten, jedenfalls bisher noch nicht gecrasht.

Stundenlanges Testen auf Stabilität ist für mich daher ein wenig sinnfrei.

Langlay
2023-03-05, 19:10:19
Stundenlanges Testen auf Stabilität ist für mich daher ein wenig sinnfrei.

Jein, so 24h Prime95 rennen lassen find ich auch sinnlos, aber fürs 24/7 Setting kann man ruhig schonmal ein paar Stresstest durchlaufen lassen um zumindest sicher eine Grundsabilität zu haben. Wirklich beweisen muss sich das System dann natürlich im Betrieb.

Der_Korken
2023-03-05, 19:22:13
Sollte mein Rechner nach dem Hochfahren bis zum (gewollten) Ausschalten einwandfrei funktionieren (und der wird für alles Mögliche genutzt), reicht mir das. Wegen UV oder OC ist er während der gesamten Zeit, in der ich ihn nutze, also vielleicht seit 9 Monaten, jedenfalls bisher noch nicht gecrasht.

Solange du weißt, was du tust, ist alles gut. Wenn das System ein paar Wochen lief hat man auch ein gewisses Vertrauen in seine Settings. Du hattest halt ursprünglich geschrieben, dass bei dir alles mit -30 easy durchläuft mit 1h testen. Das klang so, als hättest du das mal eben reingehauen, dann 1h Allcore getestet (was bei Benutzung des Boost-Algorithmus kein guter Test ist) und wärst dann davon ausgegangen, dass das jetzt "stabil" ist.

Ätznatron
2023-03-05, 19:29:32
Jein, so 24h Prime95 rennen lassen find ich auch sinnlos, aber fürs 24/7 Setting kann man ruhig schonmal ein paar Stresstest durchlaufen lassen um zumindest sicher eine Grundsabilität zu haben. Wirklich beweisen muss sich das System dann natürlich im Betrieb.

Als ich die CPU neu eingebaut hatte, habe ich natürlich die UV-Möglichkeiten stundenlang ausgelotet, dabei habe ich die Einstellungen gefunden, die heute noch aktuell sind (UV -30 auf jeden Kern, LLC Stufe 6), und seitdem läuft das Board damit, inkl. aller zwischenzeitlichen AGESA-Updates.

Der Rechner kompiliert einwandfrei, es gibt keine Probleme in Spielen, es funktioniert halt.

Der Alltagsbetrieb beweist eine Stabilität, die mir ausreicht.

Wer höhere Ansprüche hat, muss in den sauren Apfel beissen und länger testen.

Solange du weißt, was du tust, ist alles gut. Wenn das System ein paar Wochen lief hat man auch ein gewisses Vertrauen in seine Settings. Du hattest halt ursprünglich geschrieben, dass bei dir alles mit -30 easy durchläuft mit 1h testen. Das klang so, als hättest du das mal eben reingehauen, dann 1h Allcore getestet (was bei Benutzung des Boost-Algorithmus kein guter Test ist) und wärst dann davon ausgegangen, dass das jetzt "stabil" ist.

Das war dann etwas missverständlich ausgedrückt. Diesen 1 Stundentest mache ich nach jedem Update, nur um zu schauen, ob sich bereits da eventuelle Probleme zeigen.

Langlay
2023-03-05, 20:04:44
Als ich die CPU neu eingebaut hatte, habe ich natürlich die UV-Möglichkeiten stundenlang ausgelotet, dabei habe ich die Einstellungen gefunden, die heute noch aktuell sind (UV -30 auf jeden Kern, LLC Stufe 6), und seitdem läuft das Board damit, inkl. aller zwischenzeitlichen AGESA-Updates.

Der Rechner kompiliert einwandfrei, es gibt keine Probleme in Spielen, es funktioniert halt.

Der Alltagsbetrieb beweist eine Stabilität, die mir ausreicht.


Ja gut, dann machen wir das auch ungefähr gleich.

dargo
2023-03-08, 07:55:13
Hat jemand mittlerweile herausfinden können wie man den PBO2 Tuner im Autostart überreden kann einen max. Boost X bei den Limits automatisch zu wählen? Also wie muss das entsprechende Anhängsel hinter der .exe aussehen?

Edit:
Boah... ich habs endlich! :massa:
"X:\Debug-cli\Debug\PBO2 tuner.exe" -30 -30 -30 -30 -30 -30 -30 -30 142 95 140 4350

Pos. 1 bis 8 = CO je Core
Pos. 9 = max. PPT
Pos. 10 = max. TDC
Pos. 11 = max. EDC
Pos. 12 = max. Boost

horn 12
2023-03-08, 20:25:26
und was bringt dies bitte exakt?
Weniger Hitze und taktet auf allen Kernen dann auf 4350 Mhz oder gar noch höher?

dargo
2023-03-08, 20:44:05
Noch weniger Vcore (<1100mV), ergo noch weniger Verbrauch. Mit 4350Mhz ist die CPU gleich schnell wie ein Stock 5800X3D in Games.

Lehdro
2023-03-09, 14:52:09
Liegt halt daran das ein non CO 5800X3D (=Stock) nicht in jedem Game immer die 4450 MHz anliegen hat. Kann man also nutzen um entweder ein minimales μ mehr Leistung rauszukitzeln (CO -30), oder halt wie dargo dieselbe Performance bei noch weniger Verbrauch erreichen. Dreht sich aber dann eh nur um einstellige Wattzahlen.

dargo
2023-03-09, 15:14:26
Ich finds halt cool wenn ich öfter die "4" bei Wattage vorne sehe. :D Schade finde ich nach wie vor, dass nicht mehr als CO -30 zugelassen werden und/oder ich kein größeres Offset als -75mV fahren kann ohne die CPU einzubremsen. So eine "3" öfter vorne wäre noch geiler. :naughty: Aber gut... ist jetzt Meckern auf hohem Niveau. ;)

Der_Korken
2023-03-09, 15:29:52
Ich finds halt cool wenn ich öfter die "4" bei Wattage vorne sehe. :D Schade finde ich nach wie vor, dass nicht mehr als CO -30 zugelassen werden und/oder ich kein größeres Offset als -75mV fahren kann ohne die CPU einzubremsen. So eine "3" öfter vorne wäre noch geiler. :naughty: Aber gut... ist jetzt Meckern auf hohem Niveau. ;)

Redest du von "Core Power" oder "Package Power"?

dargo
2023-03-09, 15:30:51
Ich rede vom Gesamtverbrauch der CPU.

Der_Korken
2023-03-09, 15:33:20
Also "Package Power" bei HwInfo64? Oder womit liest du den Wert aus? Wie hoch ist der im Idle, wenn nichts läuft?

dargo
2023-03-09, 16:41:24
In Games verwende ich den Arschbrenner, liest das selbe aus wie "Package Power" @HWiNFO64. Idle = 19,xW - 20,xW.

PS: das hier dürfte genauer sein. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13240540&postcount=14504

dargo
2023-03-19, 12:46:49
*ggg

Schon witzig was noch so geht wenn man sich den 5800X3D auf maximale Effizienz zurecht stutzen möchte. :tongue: Gilt natürlich für alle Zen CPUs, nicht nur den X3D. In Idle bin ich mittlerweile mit diesen Settings bei 18,x-19,xW. Man achte auf die Spannungen oben rechts.
https://abload.de/img/speichertimingsfcf7i.png

Aktuell bin ich bei DDR4-3200 CL14 und scharfen (Sub)timings, überlege aber auch schon auf DDR4-3000 mit noch schärferen (Sub)timings zu gehen. ;D Das gibt dann noch etwas mehr Spielraum nach unten mit den Spannungen bei SoC, VDDG CCD und VDDG IOD. CLDO VDDP geht nicht mehr weniger, Mainboard lässt min. 700mV zu. :tongue: Ab 760mV (Bios) bei VDDG CCD und VDDG IOD fängt geringfügige Soundverzerrung an. Bei SoC <837,5mV schmeißt mich AC: O irgendwann mitten im Spiel auf den Desktop. Bei FCLK von 1600Mhz versteht sich.

Ausgangsbasis ist nach wie vor 5800X3D @max. 4350Mhz + CO-30 + Offset -75mV. Das sind die Defaultspannungen bei den oben genannten 4 Positionen.
https://abload.de/thumb/speichertimings_ddr4-51ern.png (https://abload.de/image.php?img=speichertimings_ddr4-51ern.png)

In Idle bedeutet dies 23,x-24,xW.

Und so sieht es dann in Games aus. Als Beispiel habe ich den Ladescreen von AC: O gewählt da dort die Last konstant ist. Einmal mit Vsync @144Hz (also wie ich spiele) und einmal ohne Vsync damit man sieht ob es sich dann anderes verhält wenn die CPU nicht ins Framelimit läuft.

Mein Setting:
https://abload.de/thumb/acorigins_2023_03_19_shc5n.jpg (https://abload.de/image.php?img=acorigins_2023_03_19_shc5n.jpg) https://abload.de/thumb/acorigins_2023_03_19_k8ekc.jpg (https://abload.de/image.php?img=acorigins_2023_03_19_k8ekc.jpg)

Default Setting:
https://abload.de/thumb/acorigins_2023_03_19_hhcxx.jpg (https://abload.de/image.php?img=acorigins_2023_03_19_hhcxx.jpg) https://abload.de/thumb/acorigins_2023_03_19_zpip7.jpg (https://abload.de/image.php?img=acorigins_2023_03_19_zpip7.jpg)

BlacKi
2023-03-19, 12:55:16
kannst du mal den performance verlust durch IF takt halbierung testen? und welchen einfluss das auf den idle verbrauch hat?

IF takt kann man nicht im windows einstellen oder?

dargo
2023-03-19, 13:08:05
Non 1:1 bei IF und Speicher macht überhaupt keinen Sinn. Hat man irgendwelchen super duper hochgeprügelten Speicher gekauft empfehle ich diesen trotzdem langsamer laufen zu lassen und dafür die (Sub)timings schärfer.

BlacKi
2023-03-19, 13:41:09
mir gings um den verbrauchreduktion im idle, weniger um die performance, auch wenn das interessant wäre wieviel man dabei verliert.

halbiert sich dabei der soc verbrauch, wenn nicht, dann um wieviel?

Thunder99
2023-03-19, 13:44:56
@dargo: Interessant. Bei mir ohne diese Optimierungen sind es immerhin <30W :)

dargo
2023-03-19, 14:15:35
@Thunder99

Du verplemperst da rund 9-10W sowohl in Idle als auch bei Last nur weil du deine DDR4-3600 fährst. Mit DDR4-3200 und schärferen (Sub)timings wirst du nicht langsamer sein, dafür sparsamer. In Summe sind die Latenzen entscheidend und diese werden nicht schlechter sein.

Dorn
2023-03-19, 16:42:13
@Thunder99

Du verplemperst da rund 9-10W sowohl in Idle als auch bei Last nur weil du deine DDR4-3600 fährst..Finde ich jetzt ohne getestet zu haben etwas arg hoch. Ohne Spannungserhöhung sollte das so gut wie nix ausmachen aber doch keine 10 Watt. :cool:

dargo
2023-03-19, 16:59:33
Ohne Spannungserhöhung? :tongue: Vergleich mal die Spannungen von mir mit denen von Thunder99. ;)

btw.
Hier übrigens mein Screen aus HWiNFO64 @Idle.
https://abload.de/img/5800x3d72ewp.jpg

Mein SoC ist besonders sparsam. ;)

Thunder99
2023-03-19, 17:26:52
Ja, der 3600er / 1800MHz Modus bringt den SoC zu höheren Spannungsbedarf. Macht sicher >5W aus. Wenn man noch die minimale Spannungen auslotet sind dann bis zu 15W möglich. Ist derzeit mir den Aufwand nicht Wert :D

aceCrasher
2023-03-19, 19:53:52
So Jungs, ich hab mir jetzt notgedrungen einen 5800X3D + Asus B550 Board gekauft um endlich meinen ehrwürden 7820X zu beerben. Der Preis ist aktuell einfach unschlagbar. Meine Optionen waren:

1. 5800X3D + B550 = 460€
2. 7800X3D (530) + B650 (250) + 6000 DDR5 = ~930€
3. 13700KF + Z690 Unify (310€) + 7200 DDR5 = ~950€

Option 2 wäre technisch die beste gewesen und hätte die modernste Plattform. Option 3 hätte mein Übertakterherz höher schlagen lassen. Aber preisleistungstechnisch ist Option 1 unschlagbar, da ich bereits sehr guten DDR4 besitze und diesen eigentlich gerne behalten will. Die anderen Optionen sind einfach kaum zu rechtfertigen. Ich freue mich sehr, sobald der Kram ankommt nehm ich mir erstmal 2 Tage Urlaub bau alles um und handoptimiere den RAM und die CPU mit dem CO :biggrin:

Dorn
2023-03-19, 21:31:53
Ja, der 3600er / 1800MHz Modus bringt den SoC zu höheren Spannungsbedarf.Oh, dann hab ich nichts geschrieben..:wink:
Wäre eine Überlegung bei mir Wert, mal schauen ob ich Lust darauf habe.

Danke für die HWinfo Daten, da liegen schon Welten zu meinen Werten. Wobei Idle gibts bei mir so gut wie nie, da der PC nur zum Spielen angemacht wird...

Der_Korken
2023-03-19, 21:33:18
Finde ich jetzt ohne getestet zu haben etwas arg hoch. Ohne Spannungserhöhung sollte das so gut wie nix ausmachen aber doch keine 10 Watt. :cool:

Doch, 10W können bei Zen 3 schon stimmen. Sobald du den SoC-Takt einen µ höher als 1600Mhz stellst, legt der intern einen Switch um und verbrennt 5-10W extra für nichts. Dagegen macht eine höhere VSoC fast schon wenig aus. Keine Ahnung was AMD da gebaut hat.

Langlay
2023-03-19, 21:33:53
Ja, der 3600er / 1800MHz Modus bringt den SoC zu höheren Spannungsbedarf

Und die Powersavings sind bei >DDR3200 aus, was halt gerade im Idle einen Unterschied macht.

Dorn
2023-03-19, 21:54:17
Ohne Spannungserhöhung? :tongue: Vergleich mal die Spannungen von mir mit denen von Thunder99. ;)

btw.
Hier übrigens mein Screen aus HWiNFO64 @Idle.
https://abload.de/img/5800x3d72ewp.jpg

Mein SoC ist besonders sparsam. ;)
Gerade mal auf 3200 gestellt.

CPU Gesamt-Leistungs-Aufnahme von ca.30 Watt auf 25 Watt.
Gegenüber deinen 15 Watt aber ein ganzen Stück entfernt. CPU läuft mit -30...da muss wohl beim Mainboard noch viel eingestellt werden damit ich auf so einen Wert komme und dass auch noch stabil...

dargo
2023-03-19, 22:19:04
@Dorn

Ich habs jetzt extra für dich markiert. ;)
https://abload.de/thumb/speichertimings42ejj.png (https://abload.de/image.php?img=speichertimings42ejj.png)

Doch, 10W können bei Zen 3 schon stimmen. Sobald du den SoC-Takt einen µ höher als 1600Mhz stellst, legt der intern einen Switch um und verbrennt 5-10W extra für nichts. Dagegen macht eine höhere VSoC fast schon wenig aus. Keine Ahnung was AMD da gebaut hat.
Hört sich für mich nach ziemlichen Quatsch an. Die Boards legen einfach bei höheren Frequenzen @Auto höhere Spannungen an. Sowohl bei SoC als auch den anderen drei Positionen. In Summe kommt da halt schon was zusammen.

Und die Powersavings sind bei >DDR3200 aus, was halt gerade im Idle einen Unterschied macht.
Gibts dafür auch Belege? Hört sich für mich ebenfalls nach Unsinn an.

ianm
2023-03-20, 01:04:46
Gerade mal auf 3200 gestellt.

CPU Gesamt-Leistungs-Aufnahme von ca.30 Watt auf 25 Watt.
Gegenüber deinen 15 Watt aber ein ganzen Stück entfernt. CPU läuft mit -30...da muss wohl beim Mainboard noch viel eingestellt werden damit ich auf so einen Wert komme und dass auch noch stabil...
Ich spare auch gerne Strom und wenn dargos System mit den Einstellungen so läuft, top. Allerdings stimmt es, dass man viel Zeit in die Hand nehmen muss, um das vernünftig auszulooten. Gerade die ganzen Subtimings.

Ich bin mittlerweile froh, dass die Kiste mit 3600 CL16 stabil läuft. Die Stunden um 3200 Timings auszulooten spare ich mir, mein Rechner läuft aber auch nicht 24/7. Potential ist wie man sieht da, aber nur, wenn man bereit ist die Zeit zu investieren. Dafür ist Zen3 zu zickig mit diversen RAM Kombinationen.

Darkearth27
2023-03-20, 04:52:32
@Dargo

Gibts dafür auch Belege? Hört sich für mich ebenfalls nach Unsinn an.

Gibt es, du kannst die uncore Funktion im BIOS nicht mehr deaktivieren, sobald du mehr als 1600MHz RAM/IF Takt anlegst, die wird dann automatisch wieder eingeschaltet, selbst wenn du es im OC Menü deaktivierst und speicherst.

Versuch es mal selbst, wenn es bei dir klappt hast du ein Einhorn.

Der SoC ist dann dauerhaft im OC Modus und kann den Takt nicht mehr senken (warum auch immer AMD das so programmiert hat, aber es ist mindestens seit den 3000er CPUs so - eventuell sogar schon früher, nie drauf geachtet).

dargo
2023-03-20, 07:50:11
Von welchen Takt sprichst du hier gerade? Falls du FCLK meinst... der ist bei mir dauerhaft bei 1600Mhz, auch in Idle. Zumindest wenn HWiNFO64 das korrekt ausliest. UCLK ebenfalls.

Der_Korken
2023-03-20, 08:58:05
Hört sich für mich nach ziemlichen Quatsch an. Die Boards legen einfach bei höheren Frequenzen @Auto höhere Spannungen an. Sowohl bei SoC als auch den anderen drei Positionen. In Summe kommt da halt schon was zusammen.

Meine VSoC habe ich schon immer manuell gesetzt, damit Ergebnisse reproduzierbar bleiben. Ist schon eine Weile her, dass ich da rumgetestet habe, aber den Takt von 1633 auf 1600Mhz zu senken sparte afaik mehr ein, als bei 1633Mhz die VSoC von 1,1V (<- benötige ich für stabile 1866Mhz) auf 0,95V zu senken. Klar bringt das Absenken der Spannung auch nicht wenig, aber dieser Kipppunkt über 1600Mhz ist entscheidend.

Darkearth27
2023-03-20, 10:20:18
@Dargo

So steht es im Tooltip (siehe Bild im Anhang).

Sobald man 3200 überschreitet verbraucht der SoC unverhältnismäßig mehr, egal ob man 3600 mit 1v SoC laufen lässt oder mit 1.1v
Also muss ja zwangsweise etwas geschehen, wenn es auch nicht angezeigt wird.

Ich bin mit dem Ryzen 3800x darauf gestoßen und der Meinung, dass diese Funktion einfach verbugged ist.
Normalerweise sollte es (wenn man das im AMD Overclock Menü einstellt) erst ermöglichen die SoC Spannung zu ändern, die Boardhersteller haben da aber scheinbar Mist gebaut bei der Übernahme, sodass die Funktion dauerhaft enabled wird sobald man über 1600 (IF) einstellt. Auch ein manuelles deaktivieren wird ignoriert, sobald man den Rechner nach der Übernahme im Bios neu startet, steht der Uncore Mode wieder auf Enabled.

Asus hatte es damals geschafft, dass der IF ebenfalls in den Sleep gehen kann, seitdem ich ein MSI Brett eingebaut habe, habe ich das nie wieder gesehen, was darauf schließen lässt, dass es Boardabhängig ist bzw was die Programmierer da machen.

dargo
2023-03-20, 11:34:54
Ähm... das klingt aber schon etwas anders. ;) Wenn bestimmte AIBs Mist in ihren Biosen bauen sollte man es nicht verallgemeinern. :)

Darkearth27
2023-03-20, 11:47:44
Naja, wenn das aber alle so haben (zumindest wenn man den Aussagen glauben kann) dann wird da wohl was dran sein.

Ich sehe es bei mir zumindest, dass am externen Messgerät der Powerdraw um 10w ca. nach oben geht sobald ich mehr als 3200MHz einstelle (mit selber Spannung).

Das ist sowohl beim C6H (mit AGESA 1206B) als auch bei meinem MSI x570s EDGE MAX so.
Man kann also schon darauf schließen, dass die Entwickler des BIOS irgendwann nicht mehr die Muße hatten es umzuschreiben und einfach dabei belassen haben.

Wie das bei Gigabyte ist oder auch bei ASRock weiß ich nicht, aber laut Aussagen in Foren ist es dort genauso.

][immy
2023-03-20, 13:15:01
So, hab Grad den 5800x3d bestellt, da mir der komplette Plattformwechsel aktuell noch zu teuer ist.

Also wenn man das so liest mit dem Mehrverbrauch, dann würden sich niedrigere Timings statt 400mhz mehr auf den Speicher doch besser auswirken.
Gibt es beim 5800x3d überhaupt noch irgendwelche relevanten Zuwächse durch höher getakteten Speicher, jenseits der 1-2%?

Darkearth27
2023-03-20, 13:31:47
Kommt auf die Anwendung und das Spiel an.
Gibt welche da skaliert hoher takt weiterhin Recht gut (10%) gibt aber auch welche die reagieren garnicht oder nur kaum.

Einfach selbst entscheiden was man will. Oder notfalls testen.

Langlay
2023-03-20, 13:36:39
Das ist sowohl beim C6H (mit AGESA 1206B) als auch bei meinem MSI x570s EDGE MAX so.


Ist beim Crosshair 8 Hero auch immernoch so.

Grob über den Daumen gewinnt der 5800X3D ca 1/2 soviel durch RAM-OC als ein normaler 5800X.

Darkearth27
2023-03-20, 13:46:26
@Langlay

Gut zu wissen.
Ich weiß nur, dass ich mit einer ganz frühen agesa (vor der Combo Pi Version) mal einen halbierten fclk und mclk hatte, wenn der PC im idle war.
Das dürfte so 2019? gewesen sein.
Ist nun geraten das Datum aber es ging mal.

Aktuell ist es jedenfalls bei allen scheinbar gleich, wenn mehr als 3200/1600 anliegen verbraucht der soc einfach knappe 10w mehr (Stock).

dargo
2023-03-20, 13:59:27
[immy;13262725']So, hab Grad den 5800x3d bestellt, da mir der komplette Plattformwechsel aktuell noch zu teuer ist.

Also wenn man das so liest mit dem Mehrverbrauch, dann würden sich niedrigere Timings statt 400mhz mehr auf den Speicher doch besser auswirken.
Gibt es beim 5800x3d überhaupt noch irgendwelche relevanten Zuwächse durch höher getakteten Speicher, jenseits der 1-2%?
Falsch gestellte Frage. :) Nicht höhere Frequenzen beschleunigen Games sondern niedrigere Latenzen. Diese kann man natürlich auch mit höheren Frequenzen senken. ;) Ein hoch geprügelter RAM ist nicht automatisch schneller vs. weniger Frequenz + schärfere (Sub)timings. Rest siehe Darkearth27.

aceCrasher
2023-03-20, 14:33:48
Falsch gestellte Frage. :) Nicht höhere Frequenzen beschleunigen Games sondern niedrigere Latenzen. Diese kann man natürlich auch mit höheren Frequenzen senken. ;) Ein hoch geprügelter RAM ist nicht automatisch schneller vs. weniger Frequenz + schärfere (Sub)timings. Rest siehe Darkearth27.
Stimmt, aber der IF macht auch einen Teil der Speicherlatenz aus, und hier lässt sie sich nur mit höherem Takt senken. Du kannst mit 3200MHz RAM sicher die gleiche rohe RAM-Latenz erreichen wie mit 3800MHz, aber der niedrigere IF Takt wird dazu führen dass die overall RAM-Latenz höher sein wird als mit 3800MHz.

Darkearth27
2023-03-20, 15:03:21
Was eben auch angehoben wird ist der Durchsatz, wenn es also an Bandbreite fehlen sollte ist höherer Takt auch von Vorteil, aber im Grunde bleibt es dabei:
Das eine Game profitiert mehr, das andere weniger.

Im Schnitt sind es von 3200 mit straffen Timings zu 3800 mit ebenfalls straffen Timings so um die 5% AVG, also kaum der Rede wert, bemessen an Zeitaufwand zum ausloten und den höheren Spannungen die man ggf. dafür braucht, somit auch automatisch höheren idle Verbrauch..

Muss halt jeder selbst entscheiden. Ich bleib bei meinen 4000 CL15, einfach weil's geht :D

dargo
2023-03-20, 15:12:26
Stimmt, aber der IF macht auch einen Teil der Speicherlatenz aus, und hier lässt sie sich nur mit höherem Takt senken. Du kannst mit 3200MHz RAM sicher die gleiche rohe RAM-Latenz erreichen wie mit 3800MHz, aber der niedrigere IF Takt wird dazu führen dass die overall RAM-Latenz höher sein wird als mit 3800MHz.
Wat? :freak:

Nochmal... die Frequenz ist in erster Linie völlig latte. Die Gesamtlatenz zählt. Ob du diese Latenz mit mehr Frequenz oder schärferen Timings erreicht ist für die Latenz ebenfalls völlig latte. Rohe Frequenzkeule kostet halt nur Effizienz da logischerweise höhere Spannungen nötig.

Ex3cut3r
2023-03-20, 15:35:53
3800Mhz mit niedrigen Latenzen WTF. :freak:

https://abload.de/img/unbenanntbnefs.png

https://abload.de/img/zentimings_screenshot2mccg.png

Der_Korken
2023-03-20, 16:29:16
Wat? :freak:

Nochmal... die Frequenz ist in erster Linie völlig latte. Die Gesamtlatenz zählt. Ob du diese Latenz mit mehr Frequenz oder schärferen Timings erreicht ist für die Latenz ebenfalls völlig latte. Rohe Frequenzkeule kostet halt nur Effizienz da logischerweise höhere Spannungen nötig.

Der Weg der Daten zur CPU besteht nicht nur aus dem RAM selbst, sondern auch aus dem Infinity Fabric. Würdest du bspw. den RAM-Takt und den SoC-Takt halbieren und zusätzlich auch alle Timings halbieren, dann wären die absoluten Latenzen des RAMs selbst genauso wie vorher. Aber das Stück vom Memory Controller zum CCD wäre langsamer, weil zwar der Takt halbiert ist, du aber sozusagen nicht die "Timings" des IFs halbiert hast. Dadurch ist hoher RAM-Takt immer leicht im Vorteil. Beim 3D-Modell kann man allerdings eher drauf verzichten als bei den normalen Modellen.