PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7 5800X3D Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16

aceCrasher
2023-03-20, 16:32:36
Wat? :freak:

Nochmal... die Frequenz ist in erster Linie völlig latte. Die Gesamtlatenz zählt. Ob du diese Latenz mit mehr Frequenz oder schärferen Timings erreicht ist für die Latenz ebenfalls völlig latte. Rohe Frequenzkeule kostet halt nur Effizienz da logischerweise höhere Spannungen nötig.
...du verstehst es nicht. Die Frequenz ist beim RAM in Isolation latte. Aber die IF-Frequenz hängt an der RAM Frequenz, und beim IF kannst du nicht die Timings drücken, daher hängt die Latenz des IFs sehr wohl vom RAM Takt ab. Und die Latenz des IFs ist bekanntlich ein Bestandteil der RAM-Gesamtlatenz.

Nehmen wir diese 2 Szenarien und lassen Subtimings mal außen vor:
1. 3200er RAM CL16, 1600IF 1:1
2. 3800er RAM CL19, 1900IF 1:1

Von diesen Profilen wird Profil 2 zwingend die niedrigere RAM Gesamtlatenz haben, da der IF auch einen Teil der Gesamtlatenz ausmacht. Wenn du nicht 1:1 nutzt kommt auch Latenz dazu. 3200MT/s 16 Zyklen und 3800MT/s 19 Zyklen sind, wenn man den RAM Stick in Isolation betrachtet gleich schnell, aber die Gesamtlatenz wird wegen des niedrigeren IF-Takts beim 3200er höher sein. Das ist einfach ein Fakt :P

dargo
2023-03-20, 16:45:41
Junge, Junge... habt ihr noch mehr künstliche Szenarien auf Lager? :freak: Simples Beispiel... DDR4-3200 ist hier genau so schnell wie DDR4-3600 wenn ich in beiden Fällen den gleichen Speicher nehme und diesen an seine Grenzen @Spannung X bringe. Da ist es völlig latte ob der IF mit 1600Mhz im Beispiel A oder 1800Mhz im Beispiel B läuft.


Nehmen wir diese 2 Szenarien und lassen Subtimings mal außen vor:
1. 3200er RAM CL16, 1600IF 1:1
2. 3800er RAM CL19, 1900IF 1:1

Ist schon völlig hirnverbranntes praxisfremdes Beispiel. Denn bei weniger RAM-Frequenz habe ich mehr Spielraum bei (Sub)timings was die Performance wieder beschleunigt.

nairune
2023-03-20, 16:53:41
Mit meinen Micron E-Dies muss man halt die Frequenz mitnehmen, weil das das ist, was sie können. Mit Timings bekommt man das nicht in gleichem Maße ausgeglichen.
Der Verbrauchsunterschied sind hier (C6H) 7,5W im idle an der Steckdose (47,5W vs 55W).

Langlay
2023-03-20, 17:00:33
Ist schon völlig hirnverbranntes praxisfremdes Beispiel. Denn bei weniger RAM-Frequenz habe ich mehr Spielraum bei (Sub)timings was die Performance wieder beschleunigt.

Jein, du kannst mit den Timings tiefer gehen, aber die Latenz als Zeit bleibt ungefähr gleich.

DDR3200 CL14-14-14-28 (mit entsprechenden Subs) und DDR3600 CL16-16-16-32 (und entsprechenden Subs) sind eben nicht gleich schnell, sondern DDR3600 ist etwas schneller als DDR3200 obwohl die Timings von der Latenz(ns) her gleich sind.

Der_Korken
2023-03-20, 17:03:02
Junge, Junge... habt ihr noch mehr künstliche Szenarien auf Lager? :freak:

Junge, Junge, kannst du technische Fakten auch einfach mal akzeptieren, wenn sie dir schon vorgekaut werden? Der Unterschied zwischen 3200 und 3600 mag am Ende gering sein, aber er ist aus technische Sicht vorhanden und begründbar. Ob er einem die ~10W Strom Wert ist muss jeder selber entscheiden.

dargo
2023-03-20, 17:17:54
Junge, Junge, kannst du technische Fakten auch einfach mal akzeptieren, wenn sie dir schon vorgekaut werden? Der Unterschied zwischen 3200 und 3600 mag am Ende gering sein, aber er ist aus technische Sicht vorhanden und begründbar.
Bullshit! Welche Fakten? Ich habe die Ergebnisse hier bei mir schwarz auf weiß @fps im CPU-Limit und glaube nicht blind jeden Firlefranz aus dem Netz. :rolleyes: Und da ist gar nichts bei DDR4-3200 + scharfe (Sub)Timings langsamer als DDR4-3600 mit entsprechend gelockerten (Sub)timings im Rahmen der Möglichkeiten vom Speicher.

Mit meinen Micron E-Dies muss man halt die Frequenz mitnehmen, weil das das ist, was sie können. Mit Timings bekommt man das nicht in gleichem Maße ausgeglichen.

Ich kann natürlich nur von Samsung B-Die sprechen, anderen Speicher nicht getestet.

Jein, du kannst mit den Timings tiefer gehen, aber die Latenz als Zeit bleibt ungefähr gleich.

DDR3200 CL14-14-14-28 (mit entsprechenden Subs) und DDR3600 CL16-16-16-32 (und entsprechenden Subs) sind eben nicht gleich schnell, sondern DDR3600 ist etwas schneller als DDR3200 obwohl die Timings von der Latenz(ns) her gleich sind.
Manchmal glaube ich ich rede mit ner Wand. X-D Was ist denn mit dem Rest an performance relevanten Timings wie zb. tRFC, tFAW usw.? Oder willst du mir jetzt ersthaft erzählen du kannst den gleichen tRFC Wert bei DDR4-3600 wie bei DDR4-3200 fahren? Oder GDM Enabled/Disabled. Ist ebenfalls ein Unterschied ob man 1T oder "1,5T" fährt. Und bei höheren Frequenzen kannst du GDM Off vergessen. Wie kann man sich nur auf so wenige Timings fixieren bleibt mir ein Rätsel.

Das hier ist alles performance relevant.

tCL
tRCDWR
tRCDRD
tRP
tRAS
tRC
tRRDS
tRRDL
tFAW
tRFC
tWTRS
tWTRL
tWR
tRDRDSCL
tWRWRSCL
tCWL
tRTP
tRDWR
tWRRD

Langlay
2023-03-20, 18:04:30
Manchmal glaube ich ich rede mit ner Wand. X-D Was ist denn mit dem Rest an performance relevanten Timings wie zb. tRFC, tFAW usw.? Oder willst du mir jetzt ersthaft erzählen du kannst den gleichen tRFC Wert bei DDR4-3600 wie bei DDR4-3200 fahren?

In Zyklen nicht, in Zeit schon. rRFC z.b. Bei DDR3200 und einem tRFC von 240 Zyklen macht das einen tRFC von 150ns. Bei DDR3600 ist der Takt 1/8 höher als DDR3200 also müssen die Timing um 1/8 höher damit sie die gleiche Zeit brauchen. Ergo für DDR3600 brauchste für die gleiche Latenz von 150ns tRFC 270 ( 240*1,125).

Und das gleiche machste halt für die anderen Timings auch und fertig. Von den Latenzen der Timings her ist dann alles gleich der Unterschied besteht dann nur im Takt. Und auch unter diesen bedingungen ist schneller Takt über alles leicht schneller. Weil halt der IF schneller ist und der Transfer vom CCD zum IO-Die schneller geht.

Darkearth27
2023-03-20, 18:24:45
Also ich kann GDM OFF 1T mit 4000 nutzen und die sind auch Stable.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83160&stc=1&d=1679332846

Entspräche 3200 CL12 (main timings) die Subs müssten entsprechend angezogen werden, hab ich aber nie versucht, da ich die Bandbreite gerne mitnehme.
Außerdem kommt es sehr auf die ICs an, mit Samung Bolzmann kann man das machen, die Skalieren mit Spannung, mit Micron Rev. E oder B wird es dann schon schwieriger (bezogen auf straffe Timings).
Ich würde auch lieber die Bandbreite mitnehmen (deswegen läuft das bei mir ja so wie oben im Screenshot zu sehen) als 3200 CL12 und dafür 5 - 10w am SoC zu sparen.

Bei unseren GPU Boliden (300w +) machen die paar Watt mehr nun auch nichts mehr aus ;)

dargo
2023-03-20, 18:36:13
Also ich kann GDM OFF 1T mit 4000 nutzen und die sind auch Stable.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83160&stc=1&d=1679332846

Ja nee ist klar... mit 1,56Vdimm. :ulol: Zeig mir das nochmal mit moderaten 1,37Vdimm zum Bleistift. ;)

aufkrawall
2023-03-20, 18:37:21
Was will man bei den Sub-Timings noch groß bei niedrigerem Takt anziehen, außer RFC etwas?
Der ganze Rest Secondary Timings lässt sich auch bei 3800+ noch ziemlich genau so anziehen, und selbst CL14 kann bei 3800 mit etwas Glück noch gehen. Das bisschen Strom aus der Steckdose mehr, omg...

aceCrasher
2023-03-20, 18:38:45
Bullshit! Welche Fakten? Ich habe die Ergebnisse hier bei mir schwarz auf weiß @fps im CPU-Limit und glaube nicht blind jeden Firlefranz aus dem Netz. :rolleyes: Und da ist gar nichts bei DDR4-3200 + scharfe (Sub)Timings langsamer als DDR4-3600 mit entsprechend gelockerten (Sub)timings im Rahmen der Möglichkeiten vom Speicher.


Ich kann natürlich nur von Samsung B-Die sprechen, anderen Speicher nicht getestet.


Manchmal glaube ich ich rede mit ner Wand. X-D Was ist denn mit dem Rest an performance relevanten Timings wie zb. tRFC, tFAW usw.? Oder willst du mir jetzt ersthaft erzählen du kannst den gleichen tRFC Wert bei DDR4-3600 wie bei DDR4-3200 fahren? Oder GDM Enabled/Disabled. Ist ebenfalls ein Unterschied ob man 1T oder "1,5T" fährt. Und bei höheren Frequenzen kannst du GDM Off vergessen. Wie kann man sich nur auf so wenige Timings fixieren bleibt mir ein Rätsel.

Das hier ist alles performance relevant.

tCL
tRCDWR
tRCDRD
tRP
tRAS
tRC
tRRDS
tRRDL
tFAW
tRFC
tWTRS
tWTRL
tWR
tRDRDSCL
tWRWRSCL
tCWL
tRTP
tRDWR
tWRRD

Dargo: 82000 Posts - 0 Ahnung

Die Dreistigkeit mit der du hier Andere mit Unterstellungen wie "hirnverbrannt" beleidigst, obwohl dir Jeder hier sagt dass du schlichtweg falsch liegst, ist schon beeindruckend.

Jetzt nochmal:
- Bei Latenz geht es um Zeit, nicht um Zyklen. Zyklen sind hier nur ein Zwischenschritt
- Natürlich musst du tRFC lockern wenn du den Takt erhöhst, aber nicht überproportional zur Takterhöhung. Bedeutet:
1. 3200 MT/s @300 tRFC -> 188ns Dauer der Operation
2. 3800 MT/s @356 tRFC -> 188ns Dauer der Operation
- Das Selbe gilt für alle anderen Timings, inklusive sub- und tertiären Timings
- Die RAM Latenz wird vom RAM zum Kern gemessen. Hierfür muss das Signal erst durch IMC und dann durch den IF. Sprich: Die Latenz des IMC und des IFs sind inhärenter und nicht wegdiskutierbarer Teil der RAM Latenz
- Man kann nicht einstellen wie viele Zyklen der IF für einzelne Operationen braucht, also ergibt sich eine Reduktion der IF Latenz ausschließlich durch eine Erhöhung des Takts
- Der Takt des IF ist per Teiler an der RAM gekoppelt, alles außer 1:1 kostet weitere Zeit
- Wenn wir also den RAM Takt erhöhen, und ALLE Timings gleichzeit proportional lockern, erhalten wir innerhalb des RAM Moduls die gleiche Latenz, senken aber die Gesamtlatenz, da der Anteil des IFs an der Gesamtlatenz sinkt.

Man könnte meinen ich würde mit V_V diskutieren.

dargo
2023-03-20, 18:41:33
Jetzt hör endlich auf mit deinem Geschwurbel und liefere mir Benchmarks mit konkreten (Sub)timings zum beliebigen Speicher. GDM dabei nicht vergessen! Meine Benchmarks sprechen eine andere Sprache und ich wiederhole mich gerne nochmal... DDR4-3200 ist nicht langsamer als DDR4-3600, beides am Limit mit 1,37Vdimm.

Darkearth27
2023-03-20, 18:44:21
Ja nee ist klar... mit 1,56Vdimm. :ulol: Zeig mir das nochmal mit moderaten 1,37Vdimm zum Bleistift. ;)

1.55v ZT zeigt da etwas zu viel an, aber es wird eben benötigt um die Timings bei dem takt zu schaffen (ggf ginge auch noch weniger aber es läuft so wie es ist seit mehr als einem Jahr)

Du kannst ja Mal 3200 CL12 mit 1.37v testen würde vermutlich auf das gleiche hinauslaufen (startet nicht und geht in failsafe).

Also immer schön tweaken und sich Grenzen setzen, wenn man mehr will muss man auch mehr investieren, ob es sich lohnt..? who cares, es geht! ;)

Intel MLC (Memory latency Checker) (https://github.com/FarisR99/IMLCGui)würde ich hier Mal in den Raum werfen, kannst du das Mal testen?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83164&stc=1&d=1679334782

Ex3cut3r
2023-03-20, 18:59:31
Und auch unter diesen bedingungen ist schneller Takt über alles leicht schneller. Weil halt der IF schneller ist und der Transfer vom CCD zum IO-Die schneller geht.

100% richtig. Am besten hat man beides. Höher RAM/IF Takt mit angezogen Haupt und Subtimings.

aceCrasher
2023-03-20, 19:02:09
Jetzt hör endlich auf mit deinem Geschwurbel und liefere mir Benchmarks mit konkreten (Sub)timings zum beliebigen Speicher. GDM dabei nicht vergessen! Meine Benchmarks sprechen eine andere Sprache und ich wiederhole mich gerne nochmal... DDR4-3200 ist nicht langsamer als DDR4-3600, beides am Limit mit 1,37Vdimm.
Du glaubst doch nicht wirklich dass ich in meiner Freizeit >10h investiere um ein gutes RAM Profil @3200 zu machen, dass ich eh nicht nutzen will, nur damit du mir dann eh nicht glaubst lol. Dass der IF Takt einen Einfluss auf die RAM Latenz bei Ryzen hat ist zur genüge belegt. Dein Profil mag stromsparender sein, aber die beste Latenz hat man immer wenn man die Frequenz wählt, bei der der IMC und Interconnect Takt einer CPU maximal sind und anschließend die Timings so weit es geht drückt. Du darfst glauben was du willst, aber es stimmt trotzdem nicht.

Ex3cut3r
2023-03-20, 19:03:04
Er hat doch einen X3D da kann sich das vermutlich eh sparen und sein Low Power Profil nutzen.

Bei über 320W GPUs am RAM zu sparen, sehe ich nicht ein. Wirkt einfach arg lächerlich IMHO, da sich irgendwie auf Low Power Voltages einen "runterzuholen" Aber muss jeder selbst wissen.

dargo
2023-03-20, 19:05:15
Intel MLC (Memory latency Checker) (https://github.com/FarisR99/IMLCGui)würde ich hier Mal in den Raum werfen, kannst du das Mal testen?

Funktioniert hier nicht. Wüsste aber auch nicht was das bringen soll. Mich interessieren in erster Linie weder Bandbreiten noch Latenzen sondern nur pure fps in Games.

Darkearth27
2023-03-20, 19:09:00
Gut, dann nenne mir bitte ein Game + eine Szene die du gebenched haben möchtest, ich schaue ob ich das Game habe und nachstellen kann und nutze dann 3200 CL14 und 4000 CL15 (beide optimiert).
Oder notfalls auch 3200 CL12 mit angepassten Subs, mir egal hab ein paar Profile gespeichert die stabil sind..

Der_Korken
2023-03-20, 19:14:39
Dargo: 82000 Posts - 0 Ahnung

Die Dreistigkeit mit der du hier Andere mit Unterstellungen wie "hirnverbrannt" beleidigst, obwohl dir Jeder hier sagt dass du schlichtweg falsch liegst, ist schon beeindruckend.

[...]

Man könnte meinen ich würde mit V_V diskutieren.

Dem ist nichts hinzuzufügen. Jetzt kommt er noch mit

beides am Limit mit 1,37Vdimm.

an, obwohl nach so einem Limit überhaupt nicht gefragt wurde, nur um sich alles irgendwie so hinzubiegen, dass nur er alleine Recht hat.

Dass die Daten auch über den IF-Bus müssen, bei dem man den geringeren Takt nicht durch kleinere Timings ausgleichen kann, ist ein technischer Fakt - daran gibt es nichts zu diskutieren und es beantwortet die Frage, ob mehr Takt beim 5800X3D noch mehr Leistung bringt: Ja, weil ich etwas schneller mache ohne etwas anderes langsamer zu machen. Dass nicht alle Szenarien davon profitieren, liegt in der Natur der Sache. Wer aber maximale Leistung will, braucht auch maximalen IF-Takt.

dargo
2023-03-20, 19:35:18
Gut, dann nenne mir bitte ein Game + eine Szene die du gebenched haben möchtest, ich schaue ob ich das Game habe und nachstellen kann und nutze dann 3200 CL14 und 4000 CL15 (beide optimiert).
Oder notfalls auch 3200 CL12 mit angepassten Subs, mir egal hab ein paar Profile gespeichert die stabil sind..
Hast du SotTR? Da hätte ich ein Savegame parat da ich das letztens selbst gebencht hatte als es noch um XMP vs. "optimiert" ging.

Darkearth27
2023-03-20, 19:35:54
Habe ich, ja. Schick rüber das Savegame ;)

dargo
2023-03-20, 19:52:39
Habe ich, ja. Schick rüber das Savegame ;)
Ich hoffe es ist das richtige...
https://www.mediafire.com/file/bzlrk770xia9hnt/save13.zip/file

So sieht es aus.
https://abload.de/thumb/sottr_2023_03_20_19_4hze5o.jpg (https://abload.de/image.php?img=sottr_2023_03_20_19_4hze5o.jpg)

Nach dem Spruch "Alles bestens" einfach nur nach vorne gerade aus gehen. In CapFrameX Benchdauer auf 10 Sekunden einstellen. Bitte mindestens 3 Durchläufe (besser 5) und davon dann den Schnitt ermitteln. Das ganze natürlich mit max. Settings im CPU-Limit, sprich 720p + Auflösungsskalierung von 50% bzw. min. was geht.

Darkearth27
2023-03-20, 20:01:42
Alles MAX = RT und SMAAx4 ebenfalls?
(ich mach erstmal ne Runde ohne RT und AA)

10 Sekunden finde ich arg wenig, aber gut, dann eben 5 Runs mit aggregation.
Wieviel % Abweichung?

Bin gespannt in wie weit die Szene CPU limitiert ist, nutze sonst immer die PCGH Szene.

Ex3cut3r
2023-03-20, 20:29:56
SOTTR skaliert mit dem Cache exzellent, einer der Spiele die ziemlich draufabgehen. Glaube nicht, dass du auch mit getunten RAM herankommen kannst.

Wenn du eine Nvidia hast? Sowieso nicht vergleichbar....da Nvidias DX12 erheblich langsamer ist.

dargo
2023-03-20, 20:34:45
Alles MAX = RT und SMAAx4 ebenfalls?
(ich mach erstmal ne Runde ohne RT und AA)

Sorry... vergessen zu erwähnen. TAA + RT Off, sonst max. Settings.

SOTTR skaliert mit dem Cache exzellent, einer der Spiele die ziemlich draufabgehen. Glaube nicht, dass du auch mit getunten RAM herankommen kannst.
Das ist doch gar nicht das Thema. :freak: Aber ein Vergleich mit einem 5800X3D wäre womöglich doch zielführender. Kann jetzt nicht abschätzen wie sich ein non X3D bei dem Vergleich von Darkearth27 verhält. Aber schauen wir mal. :)

Darkearth27
2023-03-20, 20:36:02
Joar nimmt sich sicher nicht viel, aber ein paar FPS Unterschied gibt es schon.

Ein Spiel wie CP2077 oder Battlefield V (jeweils in der PCGH Szene) gibt sicher größere Unterschiede.

BFV hab ich aber nicht Mal mehr installiert, bleibt als Gegenbeispiel CP2077.

Deswegen schrieb ich ja auch, es kommt ganz auf das Spiel an welches man testet, das eine skaliert mehr mit RAM, das andere weniger. Dort wo Bandbreite gebraucht wird hat man mit mehr Takt eben mehr Gewinn.

Ergebnisse kommen gleich, teste die PCGH Szene direkt noch mit ;)

dargo
2023-03-20, 20:47:31
Aktuell ist es jedenfalls bei allen scheinbar gleich, wenn mehr als 3200/1600 anliegen verbraucht der soc einfach knappe 10w mehr (Stock).
Jetzt habe ich endlich mein System da wo ich es haben wollte. Das ist echt ein Krampf hier teilweise. :freak: Das hier frisst mein System ohne zu mucken mit 1,37Vdimm.
https://abload.de/thumb/ddr4-3600ztily.png (https://abload.de/image.php?img=ddr4-3600ztily.png)

Nehme ich exakt alles gleich, nur DDR4-3266 + FCLK von 1633Mhz kein Boot mehr, da hilft dann nur CMOS-Clear. :usweet:

Worauf ich damit eigentlich hinaus wollte... so sieht das beim SoC bei mir dann aus wobei die Spannungen immer noch etwas höher sind als ich sie bei DDR4-3200 verwende.
https://abload.de/thumb/test_ddr4-3600ibces.jpg (https://abload.de/image.php?img=test_ddr4-3600ibces.jpg)

Also genehmingt sich der SoC mit ähnlichen Spannungen (etwas höher) rund 3,5 Wattchen bei DDR4-3600 mehr als bei DDR4-3200 (dort waren es rund 3,7W).
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13262180&postcount=3226

Mit exakt gleichen Spannungen würde ich das ganze auf ca. 2-2,5W mehr einschätzen. Irgendwelche 10W mehr kann ich jedenfalls nicht bestätigen, zumindest nicht bei meinem ASUS Brett.

Zur Erinnerung... so waren die Spannungen bei DDR4-3200.
https://abload.de/thumb/speichertimings8rfxc.png (https://abload.de/image.php?img=speichertimings8rfxc.png)

aufkrawall
2023-03-20, 20:56:35
Wenn du eine Nvidia hast? Sowieso nicht vergleichbar....da Nvidias DX12 erheblich langsamer ist.
In dem Spiel nicht. Habs eben nochmal mit der 6700 XT getestet:
https://abload.de/thumb/sottr_2023_03_20_20_0ggctb.png (https://abload.de/image.php?img=sottr_2023_03_20_20_0ggctb.png)

~0 Unterschied zur 3060. Kommt also aufs Spiel an (hatte ich schon mehrfach erwähnt). In Fortnite sind die Streaming-Einbrüche mit Nvidia aber wirklich so unfassbar schlecht, dass es quasi wie früher mit D3D11 Nvidia vs. AMD ist. :freak:

Darkearth27
2023-03-20, 21:02:16
So, Comparison zwischen der PCGH Szene (20 Sekunden und dynamischer, weil beweglich, mehr NPCs und im laufen) und deine Szene @Dargo im Vergleich.

Und was das Thema AMD VS NVidia angeht, ich hatte vor meinem Ausbau der 6900XT auch die PCGH Szene getestet, ist auch im Anhang zu sehen.

Dazu die Frameverläufe und alle anderen Sensoren mit deiner Szene.

Die PCGH Szene ist da etwas fordernder, deswegen habe ich die überhaupt noch mit gebenched.
Muss ich leider in extra Links packen, weil hier die Dateilimitierung greift :D

3200 CL12
https://abload.de/img/3200cl12sottrpcghszenu0eod.jpg

3200 CL14
https://abload.de/img/3200cl14sottrpcghszenu9dru.jpg

4000 CL15
https://abload.de/img/4000cl15sottrpcghszenuti0n.jpg

dargo
2023-03-20, 21:18:16
Übrigens... da ich gerade dabei bin. ;)

DDR4-3600...
https://abload.de/thumb/ddr4-36005reb6.png (https://abload.de/image.php?img=ddr4-36005reb6.png) https://abload.de/thumb/sottr_2023_03_20_21_13afzy.jpg (https://abload.de/image.php?img=sottr_2023_03_20_21_13afzy.jpg)

DDR4-3200...
https://abload.de/thumb/ddr4-3200gscsv.png (https://abload.de/image.php?img=ddr4-3200gscsv.png) https://abload.de/thumb/sottr_2023_03_20_19_461cfs.jpg (https://abload.de/image.php?img=sottr_2023_03_20_19_461cfs.jpg)

Richtige Messung folgt noch.

@Darkearth27
Danke für deine Messungen. Nur wenn ich das so sehe fällt das schon praktisch unter Messtoleranz ein. :freak: Auch witzig, dass DDR4-3200CL12 bei dir minimal langsamer sein soll als DDR4-3200CL14. Würde ich auch als Messtoleranz abstempeln. Nüchtern betrachtet hat man dann in der Praxis, also normalen Spielauflösung von den mickrigen Unterschieden gar nichts mehr. ;D

btw.
Ich sehe jetzt erst (danke nochmal für die volle Transparenz :up:), dass du bei DDR4-3200 CL14 eine Vdimm von nur 1,36V verwendest. Bei den anderen beiden Profilen aber >1,5V. Etwas mehr als 1,36V anlegen dann sollte bei diesem Profil GDM Off gehen was noch zusätzlich einen leichten Zuwachs bescheren sollte. ;)

Darkearth27
2023-03-20, 21:28:55
Bei SotTR mag das stimmen, ja (auch da Szenen abhängig wie man ja an der anderen Messung erkennen kann sind dort die Unterschiede dann etwas höher).

Nimmste ein anderes Game sieht das wieder komplett anders aus.

@Dargo
Du bekommst 3200CL12 auch nicht mit 1.35v hin.
Genauso wenig bekommst du 4000 CL15 mit 1.35v hin.

dargo
2023-03-20, 21:37:55
Nur mal so nebenbei... aktualisiere mal deine Sig. was deine Hardware angeht. ;) War schon leicht verwirrt, da ich dort u.a. einen 5900X sehe.

Darkearth27
2023-03-20, 21:38:37
Der ist im zweiten Rechner ;)

dargo
2023-03-20, 21:41:47
@Dargo
Du bekommst 3200CL12 auch nicht mit 1.35v hin.
Genauso wenig bekommst du 4000 CL15 mit 1.35v hin.
Das ist mir schon klar... du bekommst aber GDM Off mit sehr hoher Wahrscheinlichkeit bei 3200 CL14 mit <1,4Vdimm hin. ;) GDM Off hast du übrigens auch in deinem 4000-er Profil, ergo schon ein klein wenig Äpfel/Birnen. ;)

Darkearth27
2023-03-20, 21:46:51
GDM OFF hat wenig mit Spannung zu tun, die Widerstände müssen passen.
Ich hab mir nur einfach keine Mühe mehr gemacht das alles auszuloten weil irgendwann auch keine Lust mehr vorhanden war.

3 Profile reichen und beim 3D ist wie gesagt der RAM oft nicht so wichtig, also hab ich nach dem 4000er GDM OFF aufgehört.

Mag nun blöd klingen, aber ich bleib bei dem Profil, beste Leistung zu jeder Zeit, scheiß auf die paar Watt vom RAM OC, da verbrät die 4090 im Idle mehr...
(man gut dass es keine 7000er AMD oder Ark geworden ist ;D)

dargo
2023-03-20, 22:00:03
GDM OFF hat wenig mit Spannung zu tun, die Widerstände müssen passen.
Ich hab mir nur einfach keine Mühe mehr gemacht das alles auszuloten weil irgendwann auch keine Lust mehr vorhanden war.

Ich verwende bei mir absolut die gleichen Widerstände und nur die Frequenz von DDR4-3600 verhindert bei mir, dass ich dabei GDM Off anwenden kann. Zumindest bei 1,37Vdimm. Ich wüsste jetzt nicht was GDM mit Widerständen zu tun haben sollte. Schon per Default haben kleinere Frequenzen bei Ryzen GDM Off. Schau dir einfach wo GDM bei dir mit DDR4-2133 bsw. @Stock steht. Mit mehr Spannung dürfte es bei dir imho auch gehen. Um aber auf das eigentliche Thema zurück zu kommen... du hast da einfach bei den 3 Profilen einen leichten Äpfel/Birnen Vergleich wegen der zu stark abweichenden Vdimm. Mal angenommen du würdest bei 3200 CL14 mehr Vdimm als deine gewählten 1,36V verwenden werden garantiert auch tWR 10, tRFC 240, tRDRDSCL/tWRWRSCL 3 (wenn nicht sogar 2) gehen. tRTP und tRDWR wirst du sicherlich auch noch etwas schärfer einstellen können. Das alles beschleunigt die CPU noch ein klein wenig in Summe inkl. GDM Off.


Mag nun blöd klingen, aber ich bleib bei dem Profil, beste Leistung zu jeder Zeit, scheiß auf die paar Watt vom RAM OC, da verbrät die 4090 im Idle mehr...
(man gut dass es keine 7000er AMD oder Ark geworden ist ;D)
Mag jeder das verwenden womit er glücklich ist. :) Mir gehen nur die ganzen Spacken auf die Eier die sich festgefahren haben und meinen sehr hohe Frequenzen würden hier zu gravierenden Vorteilen führen. Schon bei dir fehlen zwischen DDR4-4000 CL15 und DDR4-3200 CL14 lächerliche 1-2%. Mit den einzelnen Positionen die ich genannt hatte wird mit hoher Wahrscheinlichkeit gar nichts mehr fehlen.

Darkearth27
2023-03-20, 22:25:49
Du verallgemeinerst das aber auch wieder.
In SotTR ist der Unterschied gering, es gibt aber noch weitere Spiele, die eben mit mehr Takt besser laufen.

Oder Anwendungen bei denen die Bandbreite gebraucht wird..

Tesseract
2023-03-20, 22:45:14
SOTTR ist eines der am stärksten an der latenz hängenden non-simulator-spiele überhaupt, das ergebnis war von vornherein klar.

dargo
2023-03-21, 07:49:53
Du verallgemeinerst das aber auch wieder.
In SotTR ist der Unterschied gering, es gibt aber noch weitere Spiele, die eben mit mehr Takt besser laufen.

Die wären? :) Entschuldige meine Skepsis, aber mir ist da noch nichts dergleichen untergekommen. Eventuell verwende ich aber die falschen Spiele. Habe hier noch ein Beispiel mit CP77, ausnahmsweise nur der spieleigene Benchmark da es schnell ohne großen Aufwand geht. Die Streuung je Durchlauf ist in diesem Benchmark kaum vorhanden. Als Beispiel... mit DDR4-3200 hatte ich einmal 221 avg.fps, beim nächsten mal 222fps. Also nicht der Rede wert.

DDR4-3600 Profil:
https://abload.de/thumb/cyberpunk2077_2023_03x9i1o.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_03x9i1o.jpg)

DDR4-3200 Profil:
https://abload.de/thumb/cyberpunk2077_2023_03otfqy.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_03otfqy.jpg)

Darkearth27
2023-03-21, 10:46:11
Der spielinterne Benchmark ist für'n poppes wenn du die CPU testen willst, da hilft halt einfach Mal alle pcgh Benchmarks zu testen, es gibt auch noch ältere Spiele die positiv auf Durchsatz reagieren, Battlefield hatte ich ja schon erwähnt. Das 2042 ist leider schwer zu benchen, aber auch das profitiert.

Ebenfalls reagiert die UE4 relativ gut auf Timings und Takt.

(CP2077 im Anhang zu finden)

][immy
2023-03-21, 10:51:49
Also vielleicht liegt es an meinem Gedächtnis, aber beim launch von Zen 4 sah der 5800x3d noch deutlich besser aus (könnte nur selten geschlagen werden in Spielen). In den aktuellen Testberichten zu zen4x3d ist er in Spielen doch teils deutlich abgeschlagen gegenüber zen4.
Beispielsweise beim letzten Computerbase Artikel dazu https://www.computerbase.de/2023-03/amd-ryzen-9-7900x3d-test/#abschnitt_spielebenchmarks_in_720p_auf_der_radeon_rx_7900_xtx_update

Hat sich tatsächlich durch Treiber, Windows & co was bei den Spielen zugunsten der neueren Architektur verschoben?


Artikel zum Launch der non-x 7000er
https://www.computerbase.de/2023-01/ryzen-7000-65-watt-test/#abschnitt_leistung_in_spielen_720p
Gut, der Speicher ist mit 5200er ddr5 nun wirklich eine Bremse, daran könnte es natürlich auch liegen, das die Modelle sich bei Spielen aller hinter dem 5800x3d anstellen müssen.

Der Speicher ist es nicht, der ist bei beiden gleich.
Die Unterschiede bei z.b. Cyberpunk sind aber schon seltsam, liegt vielleicht aber am Patch Level.

Tesseract
2023-03-21, 11:25:55
liegt eher an der etwas seltsamen spieleauswahl: CoD und dead space skalieren deutlich mit mehr als 8 cores, diablo 2 skaliert nicht mit cache (weder z3 noch z4) und in forspoken ist generell was faul mit solchen gewaltigen unterschieden zwischen architekturen.

es wirkt so als hätte CB die spiele nicht "blind" ausgewählt und dann getestet sondern gerade wegen performanceeigenheiten in den parkour aufgenommen.

aufkrawall
2023-03-21, 11:38:40
Soll ich CB mal mitteilen, welche weiteren Spiele für den aufgerufenen Preis ebenfalls bescheiden auf dem 5800X3D laufen? ;D
Der Parkour ist völlig legitim...

Tesseract
2023-03-21, 11:45:11
dann erklär mir bitte das system hinter der auswahl.

aufkrawall
2023-03-21, 11:49:26
Welche Seite macht denn das? Es ist eine relevante Größe populärer, relativ aktueller Titel. Die zig alten Schinken und 0x Unreal Engine bei PCGH sind wohl kaum besser.

Tesseract
2023-03-21, 12:04:56
Welche Seite macht denn das?
eigentlich sollte das jede machen, besonders wenn man nicht tausende samples sondern eine hand voll hat und die streuung so groß ist.

Es ist eine relevante Größe
nein, definitiv nicht. man kann den durchschnitt in nahezu jede beliebige richtung manipulieren indem man gezielt ein einzelnes spiel aus dem parkour nimmt. diese auswahl ist extrem volatil, selbst wenn das reiner zufall sein sollte.

dargo
2023-03-21, 13:43:37
Ebenfalls reagiert die UE4 relativ gut auf Timings und Takt.

Naja... definiere gut, denn ich kann dieses "gut" nicht wirklich bestätigen. :) Habe mir dazu ein Savegame aus Days Gone angesehen. Das ganze in 720p + 10% Resolution Scale. Also schon extrem wenig Pixelcount, man kann im Bild kaum noch was erkennen. :D
https://abload.de/thumb/cx_2023-03-21_13-30-18efbw.png (https://abload.de/image.php?img=cx_2023-03-21_13-30-18efbw.png)

Die 0,2% percentiles sind mit Vorsicht zu genießen, denn die streuen teilweise schon extrem. Das ist das Hauptproblem bei Messungen im absoluten CPU-Limit mit Savegames. Je nach Szene extreme Schwankungen zwischen einzelnen Durchläufen. Da tue ich es mir echt schwer sowas überhaupt bewerten zu wollen. Bis zu 33% Varianz ist einfach witzlos. Meiner Meinung nach sind solche Werte überhaupt nicht verwertbar. Insbesondere wenn es so kleine Unterschiede in den Endergebnissen zwischen verschiedenen Speicherprofilen kommt. Oder man müsste solche Messungen auf 10+ Durchläufe ausdehnen damit sie kaum noch im Schnitt relevant sind. Aber dann wäre der Messaufwand nochmals erheblich größer. :freak:
https://abload.de/thumb/cx_2023-03-21_13-37-2wpi4x.png (https://abload.de/image.php?img=cx_2023-03-21_13-37-2wpi4x.png) https://abload.de/thumb/cx_2023-03-21_13-37-446eo1.png (https://abload.de/image.php?img=cx_2023-03-21_13-37-446eo1.png)

btw.
Bei Days Gone musste ich feststellen, dass mein DDR4-3600 Profil nicht ganz stabil ist. Einmal bin ich bei einer Messung noch weich auf dem Desktop gelandet, ein anderes Mal ist mir der Grafiktreiber gecrasht. Ergo muss ich hier für einen fairen Vergleich einzelne (Sub)timings noch minimal entschärfen. Zum benchen habe ich jetzt einfach 1,38Vdimm genommen, das lief dann durch. Durch die Entschärfung der (Sub)timings kannst du grob bei DDR4-3600 von den gemessenen Werten ~1% abziehen. Da bewege ich mich wirklich schon im Messtoleranzenbereich.

Der spielinterne Benchmark ist für'n poppes wenn du die CPU testen willst, da hilft halt einfach Mal alle pcgh Benchmarks zu testen, es gibt auch noch ältere Spiele die positiv auf Durchsatz reagieren, Battlefield hatte ich ja schon erwähnt. Das 2042 ist leider schwer zu benchen, aber auch das profitiert.

Ebenfalls reagiert die UE4 relativ gut auf Timings und Takt.

(CP2077 im Anhang zu finden)
Hast du zufällig das passende Savegame der PCGH für CP77 parat? Dann kann ich mir das auch noch genauer ansehen. Mich interessiert vor allem auch wie stark oder schwach die Szene streut.

Darkearth27
2023-03-21, 14:13:03
Hier sind alle Savegames enthalten die PCGH nutzt.

Settings stehen dazu im Benchmark-FAQ 2023.
https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/PCGH-CPU-Savegames-Anleitung-FAQ-1407798/

Einzig bei CP 2077 ist nun RT Ultra Preset dazu gekommen (erzeugt einfach mehr Last), FSR 2.1 auf Performance, AF aus - Mengendichte hoch.

Einmal "einruckeln" lassen, also einmal die 20 Sekunden fahren, dann das Spiel neu laden und erst dann aufnehmen (caching ist immer wieder ein Thema das nervt).

Lehdro
2023-03-21, 14:25:01
liegt eher an der etwas seltsamen spieleauswahl:
Non-X Review: 5800X vs. X3D = +31% schneller
7900XTX Review: 5800X vs. X3D = +23% schneller

Sind halt bei ersterem zwei Spiele bei die massiv durch den X3D profitieren (DotA 2 und Resident Evil), sonst mittlere Gewinne, kein einziger Stinker. Beim neueren Parcours sind hingegen gleich ein paar Spiele bei die fast gar nicht zulegen: Diablo 2, Fortnite, AoE 4 und mit Forspoken sogar eins was regelrecht allergisch auf Zen 3 reagiert, das drückt den Schnitt doch enorm. Wobei ich mich auch Frage warum da kein Anno bei ist, kein einziges MMO, oder irgendein Sim Game (egal ob Racing, Flightsim o.ä.). Ist halt sehr shooterlastig, aber warum auch nicht, immerhin sind die meisten Spiele da doch sehr populär.

DrFreaK666
2023-03-21, 14:37:13
Vielleicht ist Anno nicht dabei weil es vier Jahre alt ist?
Und mit Forza dürfte demnächst eine Sim hinzukommen

Lehdro
2023-03-21, 14:42:23
Vielleicht ist Anno nicht dabei weil es vier Jahre alt ist?

Wäre für mich ein recht dummer Grund, aber ok. DotA 2 ist übrigens bald 10 Jahre alt. :rolleyes:

DrFreaK666
2023-03-21, 15:18:10
Ok, dann wohl weil es wenige zocken und Dota 2 auf dem zweiten Platz der Steam Charts ist.

Lehdro
2023-03-21, 15:51:18
Ok, dann wohl weil es wenige zocken und Dota 2 auf dem zweiten Platz der Steam Charts ist.
Ich gebe dir Brief und Siegel das Anno nicht das am wenigsten gespielte Spiel dieser Auswahl wäre. Würde da eher auf die Megaflops Forspoken und Ghostwire Tokyo tippen. Anno hat selbst als altes Ubischrottgame(gibt es auch auf anderen Platformen!) durchschnittlich >4k Spieler für die letzten 30 Tage (https://steamcharts.com/app/916440). Ghostwire hat <400 (https://steamcharts.com/app/1475810) und Forspoken nicht einmal 250 (https://steamcharts.com/app/1680880). Nicht Tausend, sondern wirklich 400 und 250. ;)

Also noch mal: Die Auswahl hat weder etwas mit Beliebtheit noch mit dem Alter zu tun. Ich vermute technische Gründe, aber genau dafür wäre halt ein Anno (oder die anderen angemerkten Spiele) wesentlich interessanter als der nächstbeste (gefloppte) AAA-Titel.

Linmoum
2023-03-21, 15:51:26
Ich bin sowieso dafür, dass man primär Spiele testet, bei denen mehr CPU-Leistung auch wirklich nötig ist und nicht ständig den xten Titel, der sowieso schon mit >200fps läuft.

CB hat vier Titel von 14, bei denen das P1 in den zweistelligen Bereich bei aktuellen CPUs droppt und davon wiederum auch nur einer mit <=70fps.

Da bekommt man fast den Eindruck, dass man sowieso alles verbauen kann und das eh irrelevant ist. Aber dann hast du halt mal ein MMO, oder einen MSFS, eine Racing Sim, ein Anno oder Cities und das war's dann mit schönen, hohen fps.

Lehdro
2023-03-21, 15:56:33
Ich bin sowieso dafür, dass man primär Spiele testet, bei denen mehr CPU-Leistung auch wirklich nötig ist und nicht ständig den xten Titel, der sowieso schon mit >200fps läuft.

CB hat vier Titel von 14, bei denen das P1 in den zweistelligen Bereich bei aktuellen CPUs droppt und davon wiederum auch nur einer mit <=70fps.

Da bekommt man fast den Eindruck, dass man sowieso alles verbauen kann und das eh irrelevant ist. Aber dann hast du halt mal ein MMO, oder einen MSFS, eine Racing Sim, ein Anno oder Cities und das war's dann mit schönen, hohen fps.
Das ist eine Meinung die ich so auch teile, wenn es darauf ankommt zeigt sich was in der CPU steckt. Ein Stellaris, Factorio, MMOs, viele Simulatoren und auch richtige RT-Schwergewichte wären viel interessanter als zum Beispiel ein Resident Evil das selbst mit der langsamsten getesteten CPU >200 fps 1% Perzentile hat. Bei Esports Games mag das noch relevant sein, aber sonst? Perlen vor die Säue, also verschwendete Reviewzeit.

DrFreaK666
2023-03-21, 16:09:03
Am Ende ist der Durchschnitt sowieso am wichtigsten
https://m.3dcenter.org/artikel/launch-analyse-amd-ryzen-9-7900x3d-7950x3d/launch-analyse-amd-ryzen-9-7900x3d-7950x3d-seite-

dargo
2023-03-21, 16:56:45
https://download.pcgameshardware.de/asset/binaries/2022/11/_Save-Daten__Prozessor-Benchmarks_PCGH_120841.7z

Hier sind alle Savegames enthalten die PCGH nutzt.

Der Link geht hier nicht.


Da bekommt man fast den Eindruck, dass man sowieso alles verbauen kann und das eh irrelevant ist. Aber dann hast du halt mal ein MMO, oder einen MSFS, eine Racing Sim, ein Anno oder Cities und das war's dann mit schönen, hohen fps.
Überraschung... es gibt unterschiedliche CPU-Lasten in Games. :tongue: Und nicht selten ist auch die eine oder andere Bananensoftware dabei wo die Unfähigkeit der DEVs dies mit noch mehr Brechstange kaschieren soll. :ulol:

Edit:
Hier schon mal die versprochene Messung mit SotTR und meinem Savegame. Wie gehabt 5 Durchläufe in 720p + 20% Resolution Scale, max. Details, RT Off, TAA.

Schnitt:
https://abload.de/thumb/cx_2023-03-21_17-52-3omdxe.png (https://abload.de/image.php?img=cx_2023-03-21_17-52-3omdxe.png)

Einzelmessungen:
https://abload.de/thumb/cx_2023-03-21_17-30-4gof6i.png (https://abload.de/image.php?img=cx_2023-03-21_17-30-4gof6i.png) https://abload.de/thumb/cx_2023-03-21_17-51-529dsu.png (https://abload.de/image.php?img=cx_2023-03-21_17-51-529dsu.png)

Immerhin streuen die 0,2% percentiles hier nicht so extrem wie bei Days Gone. Ich halte diesen Wert allerdings allgemein für etwas fragwürdig. Selbst hier beträgt die max. Abweichung zwischen den Einzelmessungen 8%. Imho ist alles kleiner 1% percentiles viel Lotterie dabei.

Darkearth27
2023-03-21, 18:09:41
Dann schau in die Benchmark FAQ rein, da ist ja der Download Link auch zu finden.

Ich bin nicht zu Hause und kann nicht mein Savegame bereitstellen.

Was deine Messungen angeht, ich finde es seltsam, dass deine 3600er langsamer laufen als die 3200er aber gut, wenn das bei dir so ist, ist das so, geht aber an eigentlich jeder Logik vorbei. (oder die Timings stimmen nicht und deswegen ist das 3600er langsamer).

dargo
2023-03-21, 18:44:45
Was deine Messungen angeht, ich finde es seltsam, dass deine 3600er langsamer laufen als die 3200er aber gut, wenn das bei dir so ist, ist das so, geht aber an eigentlich jeder Logik vorbei. (oder die Timings stimmen nicht und deswegen ist das 3600er langsamer).
Da ist mit hoher Wahrscheinlichkeit nichts langsamer. Es sind imo stinknormale Messtoleranzen. Im Schnitt bei 1% low sind es magere 0,9% Unterschied. Bei den Einzelmessungen streut 1% Low bis zu 2,8%. Die 0,2% percentiles kannst du wie gesagt vergessen, das streut noch mehr. Aus bis zu 8% bleiben im Schnitt immer noch 2,5% übrig durch die Glättung. Bei 0,2% percentiles müsste man wirklich mindestens 10 Durchläufe machen. Je mehr Durchläufe desto stärker gehen solche hohen Ausreißer im Schnitt unter. Nur mal zum Vergleich... die avg.fps streuen nur bis zu mageren 0,6% bei den Einzelmessungen. Diese sind fantastisch reproduzierbar.

Dann schau in die Benchmark FAQ rein, da ist ja der Download Link auch zu finden.

Ich mag ehrlich gesagt die PCGH-Homepage nicht, die ist mir viel zu unübersichtlich aufgebaut. Hab den Download-Link jetzt aber gefunden.

@Darkearth27
Ich bräuchte bitte noch etwas Input. Wie lange soll ich die PCGH Szene messen? Weil irgendwann kommt eine Kurve und dort zu messen macht keinen Sinn. Wenn ich lenken muss bekomme ich nie exakt den gleichen Bildausschnitt zwischen einzelnen Messungen. Noch mehr unnötige, potenzielle Fehlerquellen für Messungen. Zudem wie soll ich am besten in der Testszene fahren? Soll ich versuchen mich möglichst exakt bei der Mittellinie zu halten? Ist ja ein wenig Verkehr da, klappt womöglich nicht immer perfekt.

Edit:
Ok... deine genannten 20 Sekunden reichen bevor die Kurve kommt, das passt insofern.

dargo
2023-03-21, 19:42:09
Ok... habe CP77 fertig.

Messungen mit 720p + FSR 2.1 Ultra Performance, Preset Ultra, RT Off, 1x AF, Menschendichte hoch.

Schnitt:
https://abload.de/thumb/cx_2023-03-21_19-32-1pvi3y.png (https://abload.de/image.php?img=cx_2023-03-21_19-32-1pvi3y.png)

Einzelmessungen:
https://abload.de/thumb/cx_2023-03-21_19-20-38vfme.png (https://abload.de/image.php?img=cx_2023-03-21_19-20-38vfme.png) https://abload.de/thumb/cx_2023-03-21_19-31-3n8f3m.png (https://abload.de/image.php?img=cx_2023-03-21_19-31-3n8f3m.png)

Die Testszene der PCGH kann man nicht nur bei 0,2% percentiles sondern auch schon bei 1% percentiles vergessen. Damit bekommt man keine genauen Ergebnisse hin wie ich mir schon dachte. Da ist zu viel Dynamik drin durch die Testszene. Obwohl ich versuche exakt auf der Mittellinie zu bleiben streuen 0,2% percentiles bis zu 11%. Gleiches gilt für die 1% percentiles, auch dort bis zu 11% Abweichungen.

Darkearth27
2023-03-21, 20:13:00
So, wieder zu Hause.

Ich hatte geschrieben, RT Ultra Preset, FSR Performance 1xAF Mengendichte Hoch.

So testet Dave die Szene und RT deswegen, weil die Last durch RT höher ist (setzt natürlich voraus, man ist nicht da schon im GPU Limit)

Dann hab ich mir deine Ergebnisse angesehen und dann dämmerte es mir.
Du beschneidest deinen 5800X3D ja künstlich auf 4350 MHz (wenn ich das richtig gelesen habe?).

Dazu kommt eben deine Fixierung auf die 1.37v Vdimm (warum eigentlich wenn man schon B-Dies hat nicht ausreizen?).

Und was die Dynamik angeht, so ist das eben in Spielen, es läuft nicht alles statisch ab, deswegen ist es ja genau das, was man im "worst case" sehen will wie die CPU abschneidet.
Was nutzt mir eine Szene die immer gleich abläuft, wenn es im Spiel dann Stellen gibt die, aufgrund der Dynamik, eben weitaus schlimmer sind?

Da hilft dann eben jedes einzelne bisschen Takt oder Timing (sowohl CPU als auch RAM oder GPU).

Naja jedem kann man es eh nicht Recht machen, wenn du deine Hardware so benutzen möchtest ist das ok, die Mehrheit der Tester (Redaktionen) testen mit Stock settings und festen Timings beim RAM (+ bester GPU damit man nicht im (partiellen) GPU Limit landet).

Zu Hause am eigenen Rechner mit Optimierungen sind Vergleiche eh nur dann sinnvoll wenn jeder die gleichen Settings nutzt aber auf seiner optimierten Maschine laufen lässt (man sieht ja schon den FPS Unterschied von deiner zu meiner - sowohl bei SotTR als auch bei CP 2077 - bei dem ich RT Ultra aktiv hatte)..

Wie dem auch sei, ich bin hier dann erstmal raus.

Happy tuning / tweaking.=)

dargo
2023-03-21, 20:29:02
So, wieder zu Hause.

Ich hatte geschrieben, RT Ultra Preset, FSR Performance 1xAF Mengendichte Hoch.

So testet Dave die Szene und RT deswegen, weil die Last durch RT höher ist (setzt natürlich voraus, man ist nicht da schon im GPU Limit)

Ich kann mir kaum vorstellen, dass RT und besonders Ultra hier mit einer RX 6800XT zu irgendeinem sinnvollen Ziel führt. :D ;) Oder im Klartext... GPU-Limit dürfte hier dann überwiegen. ;)

Habe noch Assassin’s Creed Odyssey gemessen - 720p + 50% Resolution Scale, max. Settings. Savegame natürlich.

Schnitt:
https://abload.de/thumb/cx_2023-03-21_20-12-3xui7f.png (https://abload.de/image.php?img=cx_2023-03-21_20-12-3xui7f.png)

Einzelmessungen:
https://abload.de/thumb/cx_2023-03-21_20-02-0wliti.png (https://abload.de/image.php?img=cx_2023-03-21_20-02-0wliti.png) https://abload.de/thumb/cx_2023-03-21_20-12-0gcera.png (https://abload.de/image.php?img=cx_2023-03-21_20-12-0gcera.png)

Hier würde ich tatsächlich dazu tendieren zu sagen DDR4-3600 ist minimal im Vorteil da es kaum Ausreißer bei den avg.fps in den Einzelmessungen gibt und im Schnitt DDR4-3600 dennoch 2,4% schneller ist. Nur nüchtern betrachtet ist es eh witzig worüber wir hier schwadronieren. :D In der eigenen Spielauflösung wird man von diesen mickrigen "Speedvorteilen" eh nichts mehr haben. :ulol:


Und was die Dynamik angeht, so ist das eben in Spielen, es läuft nicht alles statisch ab, deswegen ist es ja genau das, was man im "worst case" sehen will wie die CPU abschneidet.

Du bist schon putzig. :tongue: Wie willst du exakt deine CPU-Performance erfassen zwischen zwei verschiedenen Profilen wenn dir jeder Durchlauf mit gleichen Profil was anderes ausspuckt? ;) In diesem Fall erübrigt sich jede Messung weil sie nur Zufallswerte enthält. Irgendwie muss ich gerade an den Spruch denken "Wer viel misst, misst viel Mist". :D


Dann hab ich mir deine Ergebnisse angesehen und dann dämmerte es mir.
Du beschneidest deinen 5800X3D ja künstlich auf 4350 MHz (wenn ich das richtig gelesen habe?).

Ähm... nur mal als Randnotiz. Dieser Takt ist der Durchschnittstakt eines 5800X3D @Stock in Games. ;) Selbst wenn ich der CPU 4450Mhz erlaube wird das am Delta zwischen den beiden Speicherprofilen nichts ändern.

Darkearth27
2023-03-21, 21:05:59
Deswegen baut man bei den Messungen auch einen prozentualen Wert ein, dessen Abweichung man in Kauf nimmt (Dave nimmt z.b. 5%, ich würde sogar nur 3% nehmen).

Ist bei Spielen mit starker Dynamik der NPCs natürlich schlecht sowas zu messen und man benötigt Unmengen mehr an Messungen sollten die Abweichungen überschritten werden, aber wie du sagtest, wer viel misst, misst Mist.

Was den Takt angeht bei dir, das hatte weniger mit dem RAM zu tun, sondern war nur einfach eine Feststellung meinerseits.
Und bei meiner CPU werden 4450MHz zu jeder Zeit abgerufen, egal ob da ein Offset mit CO drauf ist oder nicht (Silizium Glück und Kühlung würde ich sagen).
In Single Core lastigen Games sogar 4550MHz aber egal..

Aus dem Grund beneide ich die CPU Tester auch nicht, weil immer jemand kommt der es besser weiß ;)

dargo
2023-03-21, 22:34:26
Deswegen baut man bei den Messungen auch einen prozentualen Wert ein, dessen Abweichung man in Kauf nimmt (Dave nimmt z.b. 5%, ich würde sogar nur 3% nehmen).

Sorry für die eventuell blöde Frage aber wer ist dieser ominöse Dave?

Darkearth27
2023-03-21, 23:02:33
Der CPU Tester von PCGH

dargo
2023-03-22, 07:21:58
Und bei meiner CPU werden 4450MHz zu jeder Zeit abgerufen, egal ob da ein Offset mit CO drauf ist oder nicht (Silizium Glück und Kühlung würde ich sagen).

Hast du Wakü? Denn normal ist das bei Lukü nicht. Kann mir aber schon vorsellen, dass es dank Wakü und tieferen Temps. dann höher boostet. Du hast also beim 5800X3D @Stock in meiner Szene von SotTR in 720p + 20% Resolution Scale die vollen 4450Mhz anliegen? Oder beziehst du dich da jetzt auf deine Spielauflösung?

Der CPU Tester von PCGH
Ah... danke.


Aus dem Grund beneide ich die CPU Tester auch nicht, weil immer jemand kommt der es besser weiß ;)
Hehe... ich auch nicht. :D Aber gewisse Basics sollte so ein Tester schon beherrschen. Sonst hat man am Ende nur ein riesen Berg von Messungen mit Null Inhalt. Meiner Erfahrung nach sollte das Delta bei avg.fps, 1% low und 0,2% low immer ähnlich hoch ausfallen. Ist das nicht der Fall hat der Tester einen Fehler gemacht. Hauptgrund dafür sind zu starke Ausreißer in einzelnen Ergebnissen der Testszene oder noch schlimmer ein Tester macht nur einen einzigen lausigen Durchlauf. :freak:

Darkearth27
2023-03-22, 07:34:18
Ja ich hab eine wakü und ja die 4450MHz lagen allzeit an, zumindest wenn ich den Sensoren von CX glauben kann.
Da sich die Taktangabe aber auf den angeforderten Takt beruft ist das eh egal.
Den real anliegenden Takt sieht man ja nur beim "effective clock" (hwinfo) und da ist bei mir meist nie der volle Takt nötig, außer beim shader kompilieren.

dargo
2023-03-22, 07:38:31
Mal was anderes da mir das schon gestern aufgefallen ist. Hat die aktuelle Version von CapFrameX da einen Bug oder sind das irgendwelche Rundungen die ich übersehe? Am Beispiel von AC: O.

Mit DDR4-3600 errechnet mir CapFrameX bei 1% low im Schnitt 103,1fps. Wenn ich die einzelnen Werte addiere und durch 5 teile komme ich auf 103,98fps. Also eigentlich müsste mir das Tool 104fps im Schnitt ausrechnen. Was ist da los? Die avgs. passen komischerweise mit 130fps. Ich komme da auf 130,02fps.

btw.
Die 0,2% percentiles passen auch nicht so ganz. Tool errechnet mir 97,8fps, Einzelwerte ergeben im Schnitt 98,48fps, ergo 98,5fps.

nairune
2023-03-22, 09:57:56
Das ist Open Source, also du kannst nachschauen was es tut und sogar mit deinen konkreten Werten im Debugger die Berechnungen nachvollziehen.

edit: hier, schätze ich
https://github.com/CXWorld/CapFrameX/blob/master/source/CapFrameX.Statistics.NetStandard/FrametimeStatisticProvider.cs
Am naheliegendsten ist wahrscheinlich, dass ein outlier erkannt wurde? Kann man glaube ich einstellen

dargo
2023-03-22, 12:16:04
Daran kann es nicht liegen. Du hast die Option Ausreißer zu inkludieren oder wegzulassen beim Schnitt. Ich inkludiere alles was ich messe.

bestMAN
2023-03-28, 09:20:44
Bin beim Einstellen eines 5800X3d eher vorsichtig und mache da eigentlich nix, also läuft die CPU dann @stock.

Nun gibt es vom AMD Ryzen Master die neue Version 2.10.2.2367.
Ist die mehr auf die X3d-Modelle zugeschnitten?
Und wenn ja, kann ich die als Laie ruhig benutzen?
Oder reicht ein kurzer Ausflug ins MSI-Bios um Combo-Strike einzustellen?

Crazy_Chris
2023-03-28, 09:24:17
Combo-Strike reicht völlig aus.

bestMAN
2023-03-28, 09:54:40
danke für die Info. Werd ich nach Ostern in Ruhe testen und erwarte Fortschritte beim MS2020.

Linmoum
2023-04-01, 16:03:42
5800X3D für 295€ im Mindstar.

Slipknot79
2023-04-01, 17:35:42
Will die CPU "niemand" haben? Dachte die Price dropen bei geringer Nachfrage? (y)

dildo4u
2023-04-01, 17:48:35
Denke mal High-End User warten auf 7800x3d.
Rest kauft unter 200€.

https://twitter.com/TechEpiphany/status/1641468403046031360

HOT
2023-04-01, 17:57:51
Will die CPU "niemand" haben? Dachte die Price dropen bei geringer Nachfrage? (y)
Wenn AMD die ohne Ende in den Markt drückt sinken die Preise trotz Nachfrage. 7nm ftw :D.

MSABK
2023-04-01, 18:26:40
Wenn der 7800x3d bei 300€ angekommen ist wird der 5800x3d verschwinden. Dann noch Boards für 100€ und die Sache sieht anders aus.

dargo
2023-04-01, 18:58:02
Wenn der 7800x3d bei 300€ angekommen ist wird der 5800x3d verschwinden. Dann noch Boards für 100€ und die Sache sieht anders aus.
Warum sollte der verschwinden? Sorry, aber eure Vorhersagen sind einfach bullshit. Solange genug 7nm Volumen da ist wird da gar nichts verschwinden. Das Ding wird frühestens mit Zen5 verschwinden, wenn überhaupt.

Dorn
2023-04-01, 19:28:23
Warum sollte der verschwinden? Sorry, aber eure Vorhersagen sind einfach bullshit. Solange genug 7nm Volumen da ist wird da gar nichts verschwinden. Das Ding wird frühestens mit Zen5 verschwinden, wenn überhaupt.
Wurde nicht mal hier irgendwo geschrieben, dass der 5800x3d relativ schnell wieder vom Markt verschwinden könnte. Gegenteil ist der Fall...

BlacKi
2023-04-01, 19:41:59
Gegenteil ist der Fall...


könnte man meinen. wenn der 7800x3d schon da wäre.



oder man will einfach die lager leeren, weil die margen für einen 7800x3d, welchen denselben cache tragen und die gleichen herstellungskosten haben, ungleich höher sind, weil deutlich schneller.



würde aber nur zutreffen, wenn man wirklich verfügbarkeit sicherstellen könnte.


gerade letzteres stelle ich in frage, daher ist das eher ein gedankenexperiment.

dildo4u
2023-04-01, 19:53:08
Der Cache ist 7nm und dort ist die Kapazität kein Problem, das Limit sind zur Zeit natürlich die 5nm Die und der neue I/O Chip.
Der 5800X3D wird massiv billiger in der Herstellung sein nicht nur weil alles 7nm ist sondern da der I/O Teil keine IGP hat.

dargo
2023-04-01, 20:03:32
Der 5800X3D wird massiv billiger in der Herstellung sein nicht nur weil alles 7nm ist sondern da der I/O Teil keine IGP hat.
Als ob einen Die interessieren würde ob da ne IGP inkludiert ist oder nicht. :facepalm: Kosten ergeben sich aus Fertigungsprozess + Die-Size. Da ist es scheiß egal womit die Fläche gefüllt ist.

ZeroStrat
2023-04-01, 21:40:36
Mal was anderes da mir das schon gestern aufgefallen ist. Hat die aktuelle Version von CapFrameX da einen Bug oder sind das irgendwelche Rundungen die ich übersehe? Am Beispiel von AC: O.

Mit DDR4-3600 errechnet mir CapFrameX bei 1% low im Schnitt 103,1fps. Wenn ich die einzelnen Werte addiere und durch 5 teile komme ich auf 103,98fps. Also eigentlich müsste mir das Tool 104fps im Schnitt ausrechnen. Was ist da los? Die avgs. passen komischerweise mit 130fps. Ich komme da auf 130,02fps.

CapFrameX berechnet keine Mittelwerte von Mittelwerten, sondern bildet ein Aggregat und berechnet dann basierend darauf Mittelwerte. Das ein feiner Unterschied. Der Grund ist, dass die Szenen derart verkettet werden sollen als würde man diese einfach im Spiel ohne Unterbrechnung hintereinander ablaufen (oder fahren).

dargo
2023-04-01, 22:19:58
Da komme ich nicht mit. Kannst du das eventuell so erklären, dass ich Depp das auch verstehe? :D

hq-hq
2023-04-02, 00:26:05
imo werden alle Szenen zusammengefasst als Messreihe und dann der Mittelwert gebildet und nicht jede Szene für sich gemessen und dann die zugehörigen Mittelwerte zusammengefasst und daraus wiederum der Mittelwert gebildet :freak:

BlacKi
2023-04-02, 02:36:35
Der Cache ist 7nm und dort ist die Kapazität kein Problem, das Limit sind zur Zeit natürlich die 5nm Die und der neue I/O Chip.
Der 5800X3D wird massiv billiger in der Herstellung sein nicht nur weil alles 7nm ist sondern da der I/O Teil keine IGP hat.du musst bedenken, der einzigste unterschied ist 12nm+7nm vs 6nm+5nm.


billiger ja, wieviel? + dazu kommt noch das pushen der neuen plattform. 295€ vs 500€ ? da muss man nicht lang nachdenken. die neue cpu bringt mehr geld.


nicht das ich der festen meinung wäre, das amd die 5800x3d cpus raushaut um platz zu machen, möglich wäre es, das amd einfach genug hat um den preis mitzugehen.

dargo
2023-04-02, 07:16:57
imo werden alle Szenen zusammengefasst als Messreihe und dann der Mittelwert gebildet und nicht jede Szene für sich gemessen und dann die zugehörigen Mittelwerte zusammengefasst und daraus wiederum der Mittelwert gebildet :freak:
Jetzt klingelts bei mir. :cop:

Danke! (y)

Thunder99
2023-04-02, 13:52:57
Dachte auch eher der 5800X3D wird früher wieder eingestellt aber wurde eines besseren belehrt. Die CPU wird es wohl so lange geben wie generell die AM4 Plattform supported wird.

][immy
2023-04-02, 14:04:14
Hmm hab ihn für 319€ letzte Tage noch mitgenommen. Dachte nicht das der noch mehr runter geht, da ich davon ausging das der schon im Abverkauf ist um vor dem 7800x3d quasi vom Markt zu sein.

Slipknot79
2023-04-02, 14:52:46
Can mir schon vorstellen, dass die AM4 Plattform noch lange zu haben sein wird, einfach auf Grund der Price.
Solange nicht AM5 preislich in da hood von AM4 dropt, bleibt AM4 eben bestehen. Ist ja mit dem 5800X3D auch keine Kackplattform. (y)
Der 7800X3D wird außerdem sowieso monatelang nicht zu kaufen sein bzw. wenn, dann zu viel zu hohen Scalperpricen was wieder den AM4 berechtigt zu existieren. Ist ya am Grakamarkt nicht anders.

=Floi=
2023-04-03, 07:32:00
Das ist eben die frage, was AMD macht.

Der 5800x3d wirft gutes geld ab, aber wie überall dreht sich das rad weiter.

T86
2023-04-03, 09:16:07
Amd verkackt doch wieder auf ganzer linie mit ihrer Plattform Politik

A620 sag ich nur… nur 65w und Verzicht auf alle neuen Features die am5 ausmachen.
Da kann man eig auch lieber Intel kaufen inzwischen

Ich hab hier ein b550 Board mit 3700x und wenn ich mir die benches mal anschaue mit mittleren bis hohen Grafik Einstellungen lohnt der 5800x3d auch schon nicht mehr so recht.

Vermutlich wird die Schere aber noch aus einander gehen und der 5800x3d ist dann einfach die letze Möglichkeit fürs Gaming einen am4 Rechner noch mal flott zu bekommen

dildo4u
2023-04-03, 09:58:17
Wo hast du A620 kann nur 65 Watt her?Das Hängt doch vom Board ab.


https://www.gigabyte.com/Motherboard/A620M-GAMING-X-AX-rev-10/support#support-cpu

Exxtreme
2023-04-03, 10:18:48
Amd verkackt doch wieder auf ganzer linie mit ihrer Plattform Politik

A620 sag ich nur… nur 65w und Verzicht auf alle neuen Features die am5 ausmachen.
Da kann man eig auch lieber Intel kaufen inzwischen

Ich hab hier ein b550 Board mit 3700x und wenn ich mir die benches mal anschaue mit mittleren bis hohen Grafik Einstellungen lohnt der 5800x3d auch schon nicht mehr so recht.

Vermutlich wird die Schere aber noch aus einander gehen und der 5800x3d ist dann einfach die letze Möglichkeit fürs Gaming einen am4 Rechner noch mal flott zu bekommen

Wenn man billig will dann bekommt man auch billig. Bzw. wenn du bei Intel die gleichen Features haben willst wie bei den größeren AM5-Boards dann zahlst du in etwa die gleichen Preise wie bei AM5. Und MLID meinte mal in einem YT-Video, dass einer seiner MoBo-Hersteller-Kontakte sagte, dass die höheren DDR5-Modi der Preistreiber seien. Die Boards brauchen mehr Layer und elektrisch ist das auch anspruchsvoller bezüglich Leitungslängen-Toleranzen etc.

Bzw. wenn man ein gutes AM4-Board hat mit einem 5800X3D drin dann gibt es tatsächlich fast keinen Grund auf ein A620-Board umzusteigen.

robbitop
2023-04-03, 11:04:37
Naja die Frustration ist schon verständlich wenn man bedenkt, dass die B Serie brauchbare Mainboards mit OC und genug TDP für alle AMD CPUs für unter 100 EUR (AM4) bot und nun die A Serie dort keinen Ersatz bieten sollte und die B Serie Mainboards mit Full ATX zT doppelt so teuer sind. Ja die höhere TDP und das komplexere Routing kostet in den Komponenten sicherlich etwas mehr. Aber doch niemals doppelt so viel.

Windi
2023-04-03, 12:58:49
Ich weiß nicht wie es mit der Lieferkettenkriese im Mainboardbereich aussieht.

Bei uns auf der Arbeit (im Schaltschrankbau) gibt es Teile, die vor über einem Jahr bestellt wurden und wir bekommen immer noch keinen Liefertermin genannt. Wir können noch nicht einmal sicher sein, das wir die Teile bis Ende 2024 bekommen. Bei vielen Neubestellungen sind Teile dabei, die anderthalb Jahre Lieferzeit haben.
Es fehlt immer noch an den Kleinteilen im Elektronikbereich.

Manch ein Mainboardhersteller setzt wohl lieber auf höhere Preise und geringere Stückzahlen, als sich die Finger im Lieferkettenchaos zu verbrennen.

HOT
2023-04-03, 13:06:50
Man kann mit A620 Boards bauen die sehr nah an den günstigen B650ern sind, es gibt halt etwas weniger USB3 und PCIe ist nur 3.0, fehlen aber 4 Lanes, wenn 4 SATA. Ich find die Biostar-Trick gut: ASM1061, nur ein Lane für SATA verschwendet :D.

tammer
2023-04-03, 23:03:11
Ich zerbrech mir schon seit mindestens 1 Monat den Kopf ob ich doch AM4 mit 5800x3d hole und gut ist.
Zwar habe ich zur Zeit nur nen FullHD Monitor, würde aber eher auf WQHD tendieren, geht ja meistens eh um Gaming.

Preis Leistungs mäßig würde sich das eher lohnen statt auf AM5 und 7800x3d zu gehen :(

Mein Geld will ich halt auch nicht so unüberlegt raus haun

Würdet Ihr noch etwas warten bis die AM4 Plattform noch günstiger wird?

MSABK
2023-04-03, 23:23:04
Ich meine die AM4 Plattform wird vom Preis nicht weiter fallen.

Langlay
2023-04-03, 23:25:56
Ich meine die AM4 Plattform wird vom Preis nicht weiter fallen.

Ach in 3 Monaten ist der 5800X3D bestimmt nochmal 12,37€ billiger.

][immy
2023-04-04, 08:36:01
Naja die Frustration ist schon verständlich wenn man bedenkt, dass die B Serie brauchbare Mainboards mit OC und genug TDP für alle AMD CPUs für unter 100 EUR (AM4) bot und nun die A Serie dort keinen Ersatz bieten sollte und die B Serie Mainboards mit Full ATX zT doppelt so teuer sind. Ja die höhere TDP und das komplexere Routing kostet in den Komponenten sicherlich etwas mehr. Aber doch niemals doppelt so viel.
Ja, die Boardpreise sind echt der Hammer. Gamer Nexus hätte da letzte Tage auch nen Rant video zu gemacht https://youtu.be/bEjH775UeNg

Da ging es speziell um Boards mit Ziffernanzeige die Mal normal war und inzwischen nur noch im Bereich von $500 zu finden sind. Was di ein paar Cent für ein Mini Feature alles ausmachen können.
Der Markt hat sich beim Corona hardware-boom ordentlich verteuert und ich glaube kaum das die Preise sobald fallen werden.



Zurück zum Ryzen 5800x3d.
Ich glaube kaum das der noch sonderlich fallen wird, denn die Produktion ist schließlich auch teuerer. Eher wird der eingestellt.
Meine Hoffnung ist, das der die nächsten paar Jahre mehr als ausreichend sein wird und sich die CPU dann auch noch gebraucht gut verkaufen lässt, als quasi höchste Ausbaustufe für Spiele. Gibt zwar noch die 16 Kerner die sind für Spiele aktuell eher uninteressant.

dargo
2023-04-04, 09:12:52
Ach in 3 Monaten ist der 5800X3D bestimmt nochmal 12,37€ billiger.
Ich schmeiße mal 15€ in den Raum. :D

robbitop
2023-04-04, 09:24:27
Ich hab aufgrund des Preises auch tatsächlich ein B450 Board, RAM und den 5800X3d gekauft. Alles neu und alles zusammen deutlich billiger als wenn ich einen 7700X inkl Plattform gekauft hätte. Ein 13600K wäre auch ganz gut gewesen - aber dort hätte es ein teures Z Mainboard für OC gebraucht und Potenzial mit einem B Chipsatz liegen lassen (weil K CPU ohne OC) mag ich nicht.

AM4 ist zwar eine Sackgasse aber bei dem Preisunterschied kann man das gesparte Geld auch zurücklegen und dann später wieder upgraden.
Ich habe mir trotz steigendem Einkommen abgewöhnt High End HW zu kaufen um "länger Ruhe" zu haben.
In Summe hat man mehr davon lieber etwas öfter zu kaufen aber immer Preis/Leistungsoptimiert.

Leider ist Preis/Leistung aktuell bei GPUs furchtbar - egal was man kauft.

Einzig halbwegs brauchbar ist gebrauchte Last Gen wenn es deutliche Preisabschläge gibt. (3080 für 500€ / 6800 für 450 € / 6800XT für 530 € - ebay sofort kaufen Preise von heute - schon traurig, dass man für so alten Kram noch einen halben Tausender latzen muss - aber es ist aus P/L Sicht die weniger schlimme Option)
Die 4070 wirkt auf den ersten Blick mit ihren 600 USD wieder wie HW die man kaufen könnte - aber wenn man sich anschaut, was drin ist (Leistung/Shaderunits), sieht man dass das nicht der Fall ist:

1.) 600 USD für eine "70" ist schon ziemlich teuer (aus historischer Sicht)
2.) ist die 4070 nur 1/3 vom großen Chip von den SMs (eine 70 wäre wenigstens ein halber Chip). Und das ist historisch also eher eine verkappte "60". Also in Wahrheit bekommt man eine 4060 zum doppelten Preis wie sonst. Meh. Beschissene Zeiten.

Auf AMD braucht man wahrscheinlich auch nicht mehr zu hoffen. Die GPUs sind zwar etwas günstiger, nähern sich aber auch relativ an ihrem Wettbewerber an. Navi 32 könnte interessant werden - aber nur wenn AMD auch die Preise interessanter macht. Zumindest N31 finde ich noch überteuert. Und Ada sowieso.

aceCrasher
2023-04-04, 09:54:01
Ich zerbrech mir schon seit mindestens 1 Monat den Kopf ob ich doch AM4 mit 5800x3d hole und gut ist.
Zwar habe ich zur Zeit nur nen FullHD Monitor, würde aber eher auf WQHD tendieren, geht ja meistens eh um Gaming.

Preis Leistungs mäßig würde sich das eher lohnen statt auf AM5 und 7800x3d zu gehen :(

Mein Geld will ich halt auch nicht so unüberlegt raus haun

Würdet Ihr noch etwas warten bis die AM4 Plattform noch günstiger wird?
Ich würde dir raten den 5800x3d zu kaufen, außer du bist wirklich an *maximaler* CPU Leistung interessiert. Preis-Leistungstechnisch ist das auf jeden Fall sinnvoller als einen 7800X3D zu kaufen. Besonders interessant ist AM4 natürlich, falls du schon ein gutes DDR4 Kit hast.

rentex
2023-04-04, 13:20:03
Bei den Mengen an 5800X3D, die beim Mindstar verkloppt werden, kauft keiner mehr ZEN4 CPUs...oder doch?

dildo4u
2023-04-04, 13:29:33
Gibt sich nicht viel da du für ein AM5 7600X System weniger für die CPU aber mehr für das Board/Ram zahlst.

https://youtu.be/ghZaQ3T0CRg?t=1227

7700X/7600X sind grad vor dem 5800x3D bei MF.

https://www.mindfactory.de/Hardware.html

HOT
2023-04-04, 13:40:06
Das sind halt dann eher keine Spieler. Ich glaube, dass viele neue Systeme direkt mit DDR5 kaufen und die Plattform aufgrund der Langlebigkeit für sehr attraktiv halten, hinzu kommt die Energieeffizienz. Die Zahlen sprechen da ja ne ziemlich eindeutige Sprache. Grade nicht-Spieler scheinen die Intels doch eher zu meiden momentan. Es ist erstaunlich, wie gut sich Zen4 verkauft.

dildo4u
2023-04-04, 13:52:48
Wenn sich die AM5 Systeme gut verkauft hätten es im März keine Rabatte für die Mainboards gegeben, Nachfrage ist vermutlich so schlecht wie vor 3 Jahren.(Vor der Pandemie)

https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Ryzen-7000-Kombi-Deals-CPU-Board-RAM-1415342/

rentex
2023-04-04, 13:57:50
Wenn sich die AM5 Systeme gut verkauft hätten es im März keine Rabatte für die Mainboards gegeben, Nachfrage ist vermutlich so schlecht wie vor 3 Jahren.(Vor der Pandemie)

https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Ryzen-7000-Kombi-Deals-CPU-Board-RAM-1415342/

Zum Glück. Asus B650E-F für 265€ und 32GB DDR5 6000 CL30 für 152€ geholt...nur die X3D CPUs zieren sich noch.

Nightspider
2023-04-04, 19:00:41
Wurde eigentlich schon mal ein X3D Chip abgeschliffen und die einzelnen Ebenen freigelegt?

TobiWahnKenobi
2023-04-04, 23:10:22
ja klar, das ist schon ein richtiges business. irgendwer hat das gerücht gestreut dass die dinger ein stück kohle drin haben und jetzt grillen alle ihre prozessoren mit überspannung und erhöhen massiv den anpressdruck der kühlkörper, weil sie nachm abschleifen diamanten in der cpu erwarten.


(..)

mfg
tobi

pnume
2023-04-04, 23:35:12
ja klar, das ist schon ein richtiges business. irgendwer hat das gerücht gestreut dass die dinger ein stück kohle drin haben und jetzt grillen alle ihre prozessoren mit überspannung und erhöhen massiv den anpressdruck der kühlkörper, weil sie nachm abschleifen diamanten in der cpu erwarten.


(..)

mfg
tobi
;D;D;D

Thunder99
2023-04-07, 12:41:51
Wurde eigentlich schon mal ein X3D Chip abgeschliffen und die einzelnen Ebenen freigelegt?
Finde zwar auf die schnelle nichts aber meinte, ja wurde schon gemacht. OC_Burner hatte nicht auch mal ein Bild geteilt? :confused:

@TobiWahnKenobi ;D;D;D

exzentrik
2023-04-12, 15:44:24
Ryzen 7 5800X3D zurzeit für 289 Euro (https://www.mindfactory.de/product_info.php/AMD-Ryzen-7-5800X3D-8x-3-40GHz-So-AM4-WOF_1447835.html) bei Mindfactory.

Nostalgic
2023-04-12, 17:54:41
Ryzen 7 5800X3D zurzeit für 289 Euro (https://www.mindfactory.de/product_info.php/AMD-Ryzen-7-5800X3D-8x-3-40GHz-So-AM4-WOF_1447835.html) bei Mindfactory.
So, magische 300€ Grenze unterschritten :biggrin:

Wie ist denn der 5800X3D bei Anwendungen?

Ich mein jetzt nicht ob der Cache Vorteile bringt, das wird er wohl nur bei Games haben, sondern ob es da (starke) Nachteile bei Kühlung, Undervolting etc. gibt.

sulak
2023-04-12, 20:17:33
5800x3D als Tray bei 279, wie der 7700X, ebenfalls Tray
https://www.mindfactory.de/product_info.php/AMD-Ryzen-7-5800X3D-8x-3-40GHz-So-AM4-TRAY_1452418.html

joe kongo
2023-04-12, 21:10:19
5800x3D als Tray bei 279, wie der 7700X, ebenfalls Tray
https://www.mindfactory.de/product_info.php/AMD-Ryzen-7-5800X3D-8x-3-40GHz-So-AM4-TRAY_1452418.html

363.47

Lyka
2023-04-12, 21:17:01
ja

die haben das Produkt 2x
Warum auch immer (B-Ware in teuer?)

Artnr: 73117
AMD Ryzen 7 5800X3D 8x 3.40GHz So.AM4 WOF
€ 289,-*

Artnr: 73360
AMD Ryzen 7 5800X3D 8x 3.40GHz So.AM4 TRAY
€ 363,47*

über 190 verkauft

dargo
2023-04-12, 21:17:56
363.47
Du musst auch Mindstar anklicken. ;)

Lehdro
2023-04-12, 22:59:40
So, magische 300€ Grenze unterschritten :biggrin:

Wie ist denn der 5800X3D bei Anwendungen?

Ich mein jetzt nicht ob der Cache Vorteile bringt, das wird er wohl nur bei Games haben, sondern ob es da (starke) Nachteile bei Kühlung, Undervolting etc. gibt.
Es ist halt ein etwas schwächerer 5800X. Vernünftige Kühlung wenn man kein CO -30 fährt sollte man schon haben (Vollauslastung mit >100W vorausgesetzt).

Nostalgic
2023-04-12, 23:23:16
Es ist halt ein etwas schwächerer 5800X. Vernünftige Kühlung wenn man kein CO -30 fährt sollte man schon haben (Vollauslastung mit >100W vorausgesetzt).
ok, nach ein paar Benchmarks mit Unterschied <10% eher <5% scheint sich das ja noch im Rahmen zu halten.

Also von Kühlung geh ich grundsätzlich immer von Tower-Kühlern wie Scythe Mugen 5 /Fuma 2 oder gleich Noctua NH-D15 aus :biggrin:

Curve Optimizer - 30 les ich auch oft muss aber mal schauen was das genau ist:redface:

dargo
2023-04-13, 06:31:07
Curve Optimizer - 30 les ich auch oft muss aber mal schauen was das genau ist:redface:
Nichts weiter als eine Senkung der Spannung je Taktstufe. Im Endeffekt senkst du damit bei höheren, negativen CO Werten den Verbrauch. Im ersten Schritt beschleunigst du die CPU minimal da sie bei kleineren, negativen CO-Werten etwas höher bis zu 4450Mhz bei MT boosten darf. Senkst du weiter die Spannung mit CO wird halt der Verbrauch fallen da sie nicht mehr höher boostet.


Also von Kühlung geh ich grundsätzlich immer von Tower-Kühlern wie Scythe Mugen 5 /Fuma 2 oder gleich Noctua NH-D15 aus :biggrin:

Die Kühlung bei einem einzigen Chiplet wird imho überbewertet. Ich habe selbst einen Mugen 5 und trotzdem wird die CPU wenn der 3D Cache gefordert wird gut warm. Lasse zwar den Lüfter mit max. 900RPM laufen, aber selbst wenn ich den auf 1350RPM testweise aufdrehe ändert sich kaum was an den Temps. Dann gewinne ich ca. 3°C, was im Vergleich zur Geräuschkulisse einfach lächerlich ist. Die Wärmekonzentration bei diesen kleinen Chiplets ist einfach schwer ab einer bestimmten Wattage vernünftig zu kühlen bzw. abzuleiten. Man merkt das auch wenn man den Mugenkühler anpackt. CPU zeigt bsw. 60-70°C und die Kühlerlamellen fühlen sich fast kalt an.

dargo
2023-04-13, 07:20:14
dp

Nostalgic
2023-04-13, 12:25:09
Danke.

Also "klassisches" Undervolting?

Hab als Silentfan immer schön auf möglichst große Kühler und Lüfter gesetzt.
Allein schon um im Idle quasi einen unhörbaren PC zu haben.

dargo
2023-04-13, 17:44:55
Rein aus Neugier... wie verlässlich ist der Corecycler?

Megamember
2023-04-13, 17:45:03
Ich habe gerade den Kühler (Deepcool AK620) ein eigendlich sehr potenter CPU Kühler mit der 280er AIO von meinem Haupt PC getauscht. Mit AK620 hatte ich stets um die 80 Grad und mehr beim Flight Simulator, selbst mit abgesenkter Spannung auf -30. Jetzt mit der AIO stets unter 60 Grad!!!, eher 50.:confused:. Wie geht das denn?
Hab den AK auch schon mehrfach neuinstalliert aber immer dasselbe. Ich kann mir das nicht erklären wieso der jetzt derart kühl bleibt. Taktraten sind konstant 4450 also alles normal. Hab den Sharkoon Nighshark als Gehäuse vollgepackt mit Lüftern. Scheinbar war der absolut nicht auf Lukü ausgelegt.

dargo
2023-04-13, 17:48:46
Bei so großen Unterschieden würde ich blind auf den Kühlerboden tippen. Eventuell passt der neue viel besser zum HS vom 5800X3D. Stichwörter... konkav und konvex. Den WLP-Abdruck mal genauer unter die Lupe nehmen.

Megamember
2023-04-13, 17:53:38
Der Abdruck war absolut normal meiner Meinung nach. Eigendlich waren 80 Grad ja auch relativ normale Temps beim 5800X3d bei starker CPU Last. Im Cinebench geht er auch auf knapp80 Grad also da gibts keine grossen Verbesserungen.

Achill
2023-04-13, 18:07:39
Unwahrscheinlich, aber eine der Heatpipes könnte ein Loch haben und die Flüssigkeit in dieser verdampft / verloren gegangen ..

Megamember
2023-04-13, 18:10:24
Hmm, ja ich werd den AK620 mal auf meinen 12700K schnallen und dann schauen.
Edit: Auf dem 12700k performt der AK top, ähnlich wie die AIO.

Linmoum
2023-04-14, 19:39:31
https://www.caseking.de/amd-ryzen-7-5800x3d-3-4-ghz-vermeer-am4-boxed-ohne-kuehler-hpam-237.html

Bei Caseking gerade für 279,90€.

dargo
2023-04-16, 13:37:12
Gibt es eigentlich offizielle Angaben ab welcher Temperatur ein 5800X3D anfängt den Takt zu drosseln? Nach meinen Beobachtungen passiert das ab ca. 83°C. Kann man wunderbar mit CB23, HWiNFO64 und dem PBO2-Tuner den genauen Punkt ermitteln da man den max. Boost mit dem PBO2-Tuner variabel "on the fly" wählen kann.

btw.
Bis -50mV Offset gibt es bei mir kein Clockstretching bei der CPU, über 50mV Offset macht sich langsam Clockstretching bemerkbar.

Edit:
Hmm... in Games würde ich sogar sagen die CPU fängt bereits ab 80°C zu drosseln. :uponder: In TLOU wird mir der 5800X3D zu heiß.
https://abload.de/thumb/2023.04.17-13.10y1cpz.jpg (https://abload.de/image.php?img=2023.04.17-13.10y1cpz.jpg)

Das höchste was ich bisher gesehen habe waren 82°C bei >90W. Hier wird auch sehr viel gestreamt, deshalb der hohe Verbrauch trotz CO -30 und -50mV Offset. Und wie man sieht geht der Takt schon auf 4,4Ghz runter, erlaubt sind max. 4,45Ghz. Ich muss wohl den Mugen 5 nochmal demontieren und mir das Bild vom WLP-Abdruck genauer anschauen. Habe momentan die MX4 drauf, aber so richtig überzeugt mich diese Paste nicht.

Ops... da hat sich noch GPU-Voltage eingeschlichen die eh nicht mitgeloggt wurde. :tongue: Nochmal richtig mit CPU-Voltage. Schon nicht schlecht wie sich 200mV weniger und 450Mhz weniger bemerkbar machen. Insbesondere bei der Temperatur. 25W mehr ergeben 16°C mehr Temperatur.
https://abload.de/thumb/2023.04.17-14.04ptf4r.jpg (https://abload.de/image.php?img=2023.04.17-14.04ptf4r.jpg) https://abload.de/thumb/2023.04.17-14.05wfc0z.jpg (https://abload.de/image.php?img=2023.04.17-14.05wfc0z.jpg)

Kleiner Chiplet + zusätzliche Abwärme vom 3D-Cache = keine so super tolle Kombination für Wärmeabtransport. :D

dargo
2023-04-19, 10:53:10
Da ich momentan eh nichts besseres zu tun habe (krank) habe ich mich mit dem 5800X3D noch genauer beschäftigt. Anfangs als ich den gekauft habe hatte ich völlig vergessen HWiNFO64 nebenher laufen zu lassen. Erst damit ist mir aufgefallen, dass sobald der SoC und/oder VDDG CCG/VDDG IOD unter 800mV liegen kommt es zu WHEA Fehlern. Stehen die drei Sachen bei 800mV ist alles safe.
83562

Dabei muss man schauen was das Brett macht. Denn 800mV im Bios bedeuten bei meinem Brett keine 800mV real. Ich musste eine Spannungsstufe im Bios anheben damit ich die 800mV auch tatsächlich bekomme, ergo 806,25mV im Bios. Nicht über das XMP-Profil wundern. In der Testphase verwende ich das XMP-Profil um eventuelle Fehler im Speichertuning definitiv ausschließen zu können. Mit diesen Settings bin ich also schon beim Optimum was den Verbrauch angeht angekommen. In Idle sind es 46,xW bis 47,xW hinter dem Netzteil für das gesamte System, SoC alleine liegt laut HWiNFO64 bei ~3,4W. Ob die CLDO VDDP Spannung noch was nennenswertes hier bringt muss ich mir noch anschauen. Default legt das Brett @Auto bei DDR4-3200 900mV an, min. gehen bis zu 700mV.

Edit:
CLDO VDDP mit 700mV läuft einwandfrei. Games zicken nicht rum und HWINFO64 meldet auch keine WHEA Fehler. In Idle bringt es nur marginal was, bin jetzt bei 45,xW bis 46,xW hinter dem NT. Bei Last bringt es womöglich etwas mehr Einsparung. Keine Ahnung... müsste ich noch untersuchen. Aber selbst mit diesen Optimierungen habe ich hier in TLOU keine Chance ein thermisches Drosseln zu verhindern sofern ich max. 4450Mhz zulasse. Die CPU läuft trotzdem irgendwann in 80°C rein. Erst mit max. Boost von 4350Mhz bekomme ich das in den Griff. Der Unterschied zwischen 4450Mhz und 4350Mhz ist auch recht heftig. Hatte hier eine Szene wo ich mit 4350Mhz bei ~72W war, gleiche Szene mit 4450Mhz waren es 86W. Diese ca. +50mV die da automatisch innerhalb der Spannungskurve bei +100Mhz angelegt werden heizen schon ganz gut. Ich vermisse echt bei Zen3 ein CO von bis zu -50. :usad: Dabei wäre es sicherlich ein Klacks das in die AGESA zu gießen für AMD.

Bei der thermischen Drosselung ist mir noch was interessantes aufgefallen was ich bisher so noch nicht kannte. Der 5800X3D drosselt schon ab 80°C, aber nur wenn 4450Mhz zugelassen werden. Da ich in der Regel max. 4350Mhz zulasse fängt eine Drosselung später an. Das war irgendwas mit 83°C meine ich. Offenbar hat jeder Taktstufe ein eigenes thermisches Limit.

dargo
2023-04-23, 18:45:30
Jetzt habe ich endlich mein System da wo ich es haben wollte. Das ist echt ein Krampf hier teilweise. :freak: Das hier frisst mein System ohne zu mucken mit 1,37Vdimm.
https://abload.de/thumb/ddr4-3600ztily.png (https://abload.de/image.php?img=ddr4-3600ztily.png)

Nehme ich exakt alles gleich, nur DDR4-3266 + FCLK von 1633Mhz kein Boot mehr, da hilft dann nur CMOS-Clear. :usweet:

Lol... ich habe herausgefunden woran das liegt. :D Meine Speicherkombination mag überhaupt nicht ungerade Frequenzen bei >DDR4-3200. Da muss man erstmal drauf kommen. :usweet: DDR4-3200, DDR4-3400, DDR4-3600 gehen. DDR4-3333 mit gleichen (Sub)timings wie bei DDR4-3400 kein Boot. :ulol:

btw.
Aktuell fahre ich das hier da GDM Off mit den alten (Sub)timings in TLOU zu einem Bluescreen geführt hatte.
83656

Das ganze weiterhin mit 1,37Vdimm.

TLOU ist imo ideal dafür geeignet um zu schauen ob Speichertuning korrekt funzt. So konnte ich recht schnell herausfinden, dass tRFC 246 hier ideal ist. Bei tRFC 242 gabs einen Freeze Ingame und der Rechner hatte sich verabschiedet. Bei tRFC 244 hatte sich dann TLOU nur auf den Desktop verabschiedet.

Mortalvision
2023-04-23, 19:03:29
Das mit den ungeraden RAM Latenzen war schon beim 3600X so. Die 3733/3866 haben immer mehr gezickt als 3600 oder 3800, in 1:2 Ratio zum IF Takt.

dargo
2023-04-23, 20:46:17
Ungerade RAM-Latenzen? Du meinst sicherlich ungerade Speicherfrequenzen oder? :tongue:

Edit:
Das läuft hier auch.
83660

Bringt aber auch keine messbaren Performance-Vorteile gegenüber meinem DDR4-3200 Preset. Ich denke mit dem DDR4-3200 Preset habe ich schon das Optimum aus Performance/Watt rausgequetscht. Es sieht nämlich folgendermaßen hier in Idle aus.

DDR4-3600 = 55-56W 50-51W
DDR4-3400 = 50-51W
DDR4-3200 = 46-47W

Die Presets über DDR4-3200 bringen hier gar nichts, außer mehr Verbrauch.

Edit:
DDR4-3600 konnte ich noch auf 50-51W durch die bekannten Spannungen bei SOC, VDDG und CLDO absenken.

dargo
2023-04-24, 08:45:15
Mal eine Frage zum 5800X3D. Wo genau ist der CCD mit dem 3D V-Cache wenn ich das Bild als Referenz nehme und man auf den Sockel bzw. die CPU so schaut? Oben links oder unten rechts?
https://diit.cz/sites/default/files/strixb550f-17.jpg
https://diit.cz/sites/default/files/strixb550f-16.jpg

[MK2]Mythos
2023-04-24, 19:31:36
Hier stand Blödsinn.

Achill
2023-04-24, 19:37:42
Mythos;13290081']Laut Igor gibt es zur Zeit einzelne 5800X3D, die abfackeln.

https://youtu.be/UUVSP6DZARw

Mythos, wahrscheinlich verlesen? Im Video geht es um die 7800X3D ..

[MK2]Mythos
2023-04-24, 19:40:33
Mythos, wahrscheinlich verlesen? Im Video geht es um die 7800X3D ..
Hoppla. Das kommt davon wenn man auf dem Handy Videos schaut. Forget it.

dargo
2023-04-26, 06:55:40
Mal eine Frage zum 5800X3D. Wo genau ist der CCD mit dem 3D V-Cache wenn ich das Bild als Referenz nehme und man auf den Sockel bzw. die CPU so schaut? Oben links oder unten rechts?
https://diit.cz/sites/default/files/strixb550f-17.jpg
https://diit.cz/sites/default/files/strixb550f-16.jpg
Weiß das echt niemand? :freak: Zur besseren Orientierung... unten links ist diese quadratische Aussparung wo auf der CPU eine Markierung ist.

user77
2023-04-26, 07:38:20
Weiß das echt niemand? :freak: Zur besseren Orientierung... unten links ist diese quadratische Aussparung wo auf der CPU eine Markierung ist.

ich denke mal auf dem CCD:

https://abload.de/img/bwiua3a2egbpchxud26ndimfi5.jpg

dargo
2023-04-26, 07:50:47
Ich verstehe deine Antwort nicht.

Hier nochmal ein Bild vom 5800X3D wo die Markierung unten links ist.
https://pics.computerbase.de/1/0/3/0/7/4-cdf709b6f651f32e/article-1280x720.47185860.jpg

Ist der Chiplet jetzt oben links oder unten rechts?

user77
2023-04-26, 07:56:32
Ich verstehe deine Antwort nicht.

Hier nochmal ein Bild vom 5800X3D wo die Markierung unten links ist.
https://pics.computerbase.de/1/0/3/0/7/4-cdf709b6f651f32e/article-1280x720.47185860.jpg

Ist der Chiplet jetzt oben links oder unten rechts?

Ich dachte du könntest das selbst lösen, aber hier: :biggrin:

https://abload.de/img/strixb550f-17ihiay.jpg

dargo
2023-04-26, 08:03:28
Ist offenbar noch zu früh dafür. :freak: Lol... dann habe ich den an völlig falschen Stellen vermutet. X-D Ich frage deshalb weil ich den Verdacht habe, dass entweder mein Mugen 5 Kühler minimal konkav ist oder der Heatspreader von der CPU minimal konvex. Ich hatte den Chiplet oben links vermutet und hatte beim letzten Mal an dieser Stelle etwas mehr WLP aufgetragen. Falsch getippt. :freak: Die Beschriftung auf dem Heatspreader ist auch etwas blöd gemacht muss ich sagen, die ist ja dann um 90° gedreht.

Edit:
So sah der WLP-Abdruck bei mir letztens aus als ich den zur Kontrolle demontiert habe, also nicht wirklich gleichmäßig verteilt. Insbesondere hat der Chiplet da kaum was abbekommen.
https://abload.de/thumb/wlptkdvh.jpg (https://abload.de/image.php?img=wlptkdvh.jpg)

Nur bin ich mir nicht sicher ob man davon vernünftige Rückschlüsse ziehen kann. Denn direkt vor der Kühlerdemontage wärme ich die CPU immer gut mit einem Stresstest auf und bei der Demontage drehe ich den Kühler auch leicht hin und her um ein Verbiegen der Pins zu vermeiden. Einfach nur den Kühler gerade abziehen ist mir bei AM4 etwas zu riskant.

Ungefähr dieser Bereich ist also der wichtigste... *check. :)
https://abload.de/thumb/wlpb8fb7.jpg (https://abload.de/image.php?img=wlpb8fb7.jpg)

Denniss
2023-04-26, 10:43:12
Scythe Kühler hatten bisher nie einen flachen Kühlerboden sondern immer eine leichte Ausformung für Intel-CPU.
Ist aber gut zu wissen das das Chiplet diagonal gegenüber der Markierung liegt.

HOT
2023-04-26, 13:07:07
Das ist schon seit Zen2 so. Es gibt aber Varianten, bei denen das 2. Chiplet aktiv ist und das erste deaktiviert. So einen 3800X hatte ich mal ;). Dann wäre das Chiplet nämlich unten links, hab mich bei dem Ding immer über die Temparatur gewundert, bis ich das mal gecheckt hab, hat gedauert :D. Und ich bin mir auch sicher, dass AMD das auch bei den aktuellen Zen4 noch so macht, deswegen muss man ein bisschen aufpassen bei den aktuellen 7700 und 7600.
Beim X3D ist das aber sicherlich immer unten rechts, weil man das X3D-CCD immer dort bestücken wird.
Scythe ist mit dieser "Intel-Optimierung" kacke. Ich hab noch Ninja3 zuhause, die noch flach sind, aber alle neuen AFAIK nicht mehr. Da gibts echt besseres. Ich mag ja immer noch den Macho rev.A, das ist einfach ein extrem guter Kühler für AM4/5.
http://thermalright.com/product/macho-rev-a/

dargo
2023-04-26, 13:39:14
Das ist schon seit Zen2 so. Es gibt aber Varianten, bei denen das 2. Chiplet aktiv ist und das erste deaktiviert. So einen 3800X hatte ich mal ;). Dann wäre das Chiplet nämlich unten links, hab mich bei dem Ding immer über die Temparatur gewundert, bis ich das mal gecheckt hab, hat gedauert :D.
Du sorgst hier gerade für maximale Verwirrung. :freak: Wenn ein 16 Threader 2 Chiplets hat und aus welchen Gründen auch immer nicht das erste Chiplet sondern das zweite aktiv ist dann wäre dieses aktive Chiplet unten rechts auf den Sockel schauend wie in meinen Sockelbildern.


Beim X3D ist das aber sicherlich immer unten rechts, weil man das X3D-CCD immer dort bestücken wird.

Oben rechts bitte. ;) Auf den Sockel richtig schauend, siehe Sockelbeschriftung.

HOT
2023-04-26, 13:45:27
Ok, ich meine natürlich, wenn ich vor dem Board stehe, nicht, wenn das auf der Seite liegt, wie in deinem Bild :D. Nach deinem Bild meine ich:

1 CCD-Bestückung oben rechts
2 CCD mit Deaktiverung unten rechts
X3D immer oben rechts

dargo
2023-04-26, 15:15:36
Scythe ist mit dieser "Intel-Optimierung" kacke. Ich hab noch Ninja3 zuhause, die noch flach sind, aber alle neuen AFAIK nicht mehr. Da gibts echt besseres. Ich mag ja immer noch den Macho rev.A, das ist einfach ein extrem guter Kühler für AM4/5.
http://thermalright.com/product/macho-rev-a/
Ich kaufe mir doch nicht auf Verdacht einen neuen Kühler wo ich nicht mal weiß ob der besser abschneidet. Und dann noch für >50€. :ucrazy: Selbst 2-3°C weniger wären Blödsinn für so eine Investition. Da schmiere ich liebe minimal mehr Paste drauf. :tongue:

aufkrawall
2023-04-26, 15:32:53
Wie viel schlimmer ist denn ein 3D als ein 5700X mit PBO max und jeweils CO -30? Hab keine Probleme mit dem 5700X und Mugen 5. Wird natürlich schnell heiß, aber <85°C 115W bei deutlich <1000rpm 1x 120mm Lüfter sind kein Problem.

Langlay
2023-04-26, 15:41:13
Wie viel schlimmer ist denn ein 3D als ein 5700X mit PBO max und jeweils CO -30? Hab keine Probleme mit dem 5700X und Mugen 5. Wird natürlich schnell heiß, aber <85°C 115W bei deutlich <1000rpm 1x 120mm Lüfter sind kein Problem.

Ein 5800X3D wird mit Prime95 90°C warm, nur Takt und damit Leistungsaufnahme unterscheiden sich. Mein 5800X3D mit CO -30 macht so ~4.3GHz bei ~130W Leistungsaufnahme in Prime.

joe kongo
2023-04-26, 16:01:19
Ich kaufe mir doch nicht auf Verdacht einen neuen Kühler wo ich nicht mal weiß ob der besser abschneidet. Und dann noch für >50€. :ucrazy: Selbst 2-3°C weniger wären Blödsinn für so eine Investition. Da schmiere ich liebe minimal mehr Paste drauf. :tongue:

Hab Pastete gelesen und an Brötchen gedacht. Ergibt auch Sinn. :D


p.s. Bei mir liegt ein 5800X3D, Noctua Topblower, 2x 16GB, ITX Mobo, Mini Tower, SFX Netzteil und M2 SSD schon seit > 1 Monat rum
und ich komm einfach nicht zum Zusammenbau. :uhammer2:

dargo
2023-04-26, 16:41:54
Wie viel schlimmer ist denn ein 3D als ein 5700X mit PBO max und jeweils CO -30? Hab keine Probleme mit dem 5700X und Mugen 5. Wird natürlich schnell heiß, aber <85°C 115W bei deutlich <1000rpm 1x 120mm Lüfter sind kein Problem.
Wattage alleine sagt nicht so viel aus. Bei mir sieht es mit dem 5800X3D mit CO-30 + 50mV negativ Offset + max. Boost 4350Mhz folgendermaßen aus.

Stresstest CPU-Z mit 16 Threads (sollte schon ~5 Minuten laufen):
max. 90W
max. 75°C
max. 900RPM am CPU-Lüfter vom Mugen 5 (kein Originallüfter, der war Müll)
~1131mV reale Spannung an der CPU

Bei TLOU erreicht die gleiche Konfiguration manchmal wenn da dieses starke Streaming zum Einsatz kommt die CPU bei ca. 82W ihre 80°C. Ich denke der 3D-VCache wärmt zusätzlich etwas und natürlich saugt die CPU auch die erwärmte Luft der Graka auf wodurch die Temps. dann höher trotz weniger Wattage sind. Die Wärmeaufteilung beim Chiplet dürfte in so einem Stresstest wie die 16 Threads von CPU-Z auch vorteilhafter sein als in Games wo sich die Wärme auf eine kleinere Fläche konzentriert. Mich triggern diese 80°C etwas, keine Ahnung warum. :freak: TLOU ist auch das einzige Game hier mit so hohen CPU-Temps.

Edit:
Sowas hier ist dann worst case.
https://abload.de/thumb/tlou-i_2023_04_26_17_ine4h.jpg (https://abload.de/image.php?img=tlou-i_2023_04_26_17_ine4h.jpg)

Ist natürlich kein Dauerzustand, gibt genug Szenen mit 50+W, 60+W und 70+W.

Wartest du einige Sekunden bis das Streaming fertig ist siehts dann so aus. :D
https://abload.de/thumb/2023.04.26-17.31czey3.jpg (https://abload.de/image.php?img=2023.04.26-17.31czey3.jpg)

PS: ab 60°C lasse ich die vollen 900RPM beim CPU-Lüfter anlegen.
https://abload.de/thumb/luftersteuerungtreva.jpg (https://abload.de/image.php?img=luftersteuerungtreva.jpg)

][immy
2023-04-27, 02:28:12
Mhh.. ich muss zugeben, ich verstehe das Kühlverhalten des 5800x3D nicht ganz.
Immer wieder geht der Kühler zwischendurch auf >80% Leistung. So ist der eingestellt (im MSI Command Center) wenn er eine Temperatur von >70°C erreicht. HWInfo zeigt aber ein Max von 65°C an. Einen kurzen Moment später ist Stürzt die Temperatur plötzlich um 20°C und der Kühler geht langsam wieder runter. Die CPU läuft dabei durchgehend mit 4450 MHz.
Ich kann mir eigentlich nur vorstellen, das hier ein Auslesefehler in der Systemsoftware vorliegt. Denn solche plötzlichen Temperatursprünge sollte es eigentlich nicht geben.
Auf der anderen Seite, ich nutze nach wie vor den Kühler den ich schon beim Ivy bridge verwendet habe. Da der auf 120W ausgelegt und mit einem Upgrade-Kit auch mit AM4 verwendet werden konnte hab ich es immer dabei belassen. Gut möglich das heutige Kühler da etwas besser sind und die Temperatur etwas flotter abführen, aber ich finde das Verhalten schon seltsam. Der 3700x hatte dieses Phänomen noch nicht

dargo
2023-04-27, 07:20:05
Ich kenne jetzt nicht den MSI Command Center. Aber die meisten Apps der AIBs sind viel zu primitiv gestaltet. Ich kann dir da nur Fan Control ans Herz legen. Damit hast du alle Möglichkeiten die man für eine hochwertige Lüftersteuerung braucht.
https://github.com/Rem0o/FanControl.Releases

Bezüglich dem Temperaturverhalten vom 5800X3D... das kann ich so ähnlich bestätigen. Der wird bei mir auch wärmer als mein voriger 5800X. Beide CPUs wurden natürlich undervoltet. Den 5800X konnte ich sogar noch besser undervolten mit custom P-State. Das geht beim X3D leider nicht mehr. Da du 4450Mhz verwendest wundert mich das Verhalten von deinem X3D überhaupt nicht. Denn damit wird die Spannung trotz CO -30 weiterhin bei ca. 1200mV oder sogar knapp drüber liegen. Ein 5800X3D ist bsw. bei knapp unter 1100mV deutlich harmloser. Das erreiche ich hier mit CO -30 + 50mV negativ Offset + max. Boost 4300Mhz. Noch besser gefällen mir 1000-1050mV beim 5800X3D, damit ist das Ding dann völlig harmlos. Blöderweise erreicht man das dann nur mit noch weniger Frequenz weil AMD einem mit nur max. CO -30 einen unnötigen Bremsklotz vorschiebt.

Edit:
Noch ein wichtiger Hinweis zu Fan Control!

Du kannst jeden Sensor aus HWiNFO64 nach Fan Control mit folgendem Plugin importieren.
https://github.com/Rem0o/FanControl.HWInfo

Das ist besonders bei einem Ryzen vorteilhaft. Mein ASUS-Brett hat einen Temperatursensor im Sockel. Das habe ich mir nach Fan Control importiert (wie man es macht steht alles im Link) und das ist ein riesen Vorteil bei Ryzen da dieser Sensor im Sockel träger im Anstieg und Abstieg reagiert als Tdie und du dadurch sehr schnelle Wechsel in der Lüftersteuerung (dieses schnelle rauf/runter was je nach Lüfter nerven kann) vermeidest. Bei so einem Sensor musst du nur an das Delta zwischen Tdie und diesen Sensor denken und entsprechend deine Lüftersteuerung anpassen. Bei meinem ASUS-Brett beträgt das Delta ca. 11°C.
https://abload.de/thumb/sockelsensorfudb3.jpg (https://abload.de/image.php?img=sockelsensorfudb3.jpg) https://abload.de/thumb/fancontroleleto.jpg (https://abload.de/image.php?img=fancontroleleto.jpg)

Denniss
2023-04-27, 12:21:04
Lüfterkurven bitte im Bios einstellen, die Software vom Boardhersteller sollte man höchsten nutzen um damit geänderte Werte zurückzusetzen und um die software dann zu deinstallieren.
Bei Tempwerten über 70 Grad braucht kein Lüfter hochzudrehen, erst so ab 80-85 Grad. Ist halt auch immer so eine Sache wie langsam der bei niedrigen Temperaturen eingestellt ist.

Nostalgic
2023-04-27, 12:32:45
Ist offenbar noch zu früh dafür. :freak: Lol... dann habe ich den an völlig falschen Stellen vermutet. X-D Ich frage deshalb weil ich den Verdacht habe, dass entweder mein Mugen 5 Kühler minimal konkav ist oder der Heatspreader von der CPU minimal konvex. Ich hatte den Chiplet oben links vermutet und hatte beim letzten Mal an dieser Stelle etwas mehr WLP aufgetragen. Falsch getippt. :freak: Die Beschriftung auf dem Heatspreader ist auch etwas blöd gemacht muss ich sagen, die ist ja dann um 90° gedreht.

Edit:
So sah der WLP-Abdruck bei mir letztens aus als ich den zur Kontrolle demontiert habe, also nicht wirklich gleichmäßig verteilt. Insbesondere hat der Chiplet da kaum was abbekommen.
https://abload.de/thumb/wlptkdvh.jpg (https://abload.de/image.php?img=wlptkdvh.jpg)

Nur bin ich mir nicht sicher ob man davon vernünftige Rückschlüsse ziehen kann. Denn direkt vor der Kühlerdemontage wärme ich die CPU immer gut mit einem Stresstest auf und bei der Demontage drehe ich den Kühler auch leicht hin und her um ein Verbiegen der Pins zu vermeiden. Einfach nur den Kühler gerade abziehen ist mir bei AM4 etwas zu riskant.

Ungefähr dieser Bereich ist also der wichtigste... *check. :)
https://abload.de/thumb/wlpb8fb7.jpg (https://abload.de/image.php?img=wlpb8fb7.jpg)
Scythe Kühler hatten bisher nie einen flachen Kühlerboden sondern immer eine leichte Ausformung für Intel-CPU.
Ist aber gut zu wissen das das Chiplet diagonal gegenüber der Markierung liegt.
Jetzt mal ehrlich, das ist doch Voodoo oder?

Die Bilder sagen doch nichts dazu aus wenn der Kühler unter Druck mit WLP als Ausgleichsmasse auf der CPU sitzt.

aufkrawall
2023-04-27, 12:42:34
Mich triggern diese 80°C etwas
Sollten sie aber nicht. 80-90°C sind harmlos und die Lebensdauer dürfte durch das UV sowieso deutlich erhöht sein.

Lehdro
2023-04-27, 13:02:25
Da du 4450Mhz verwendest wundert mich das Verhalten von deinem X3D überhaupt nicht. Denn damit wird die Spannung trotz CO -30 weiterhin bei ca. 1200mV oder sogar knapp drüber liegen.
Bei CO -30 legt mein Board mit stock LLC maximal 1.17V an, unter schwerer Last fällt das dann sogar noch leicht ab. Die 1.2V kann ich nicht bestätigen.

Langlay
2023-04-27, 13:17:55
Bei CO -30 legt mein Board mit stock LLC maximal 1.17V an, unter schwerer Last fällt das dann sogar noch leicht ab. Die 1.2V kann ich nicht bestätigen.

Ist mir letzt auch schon aufgefallen, das Dargos 5800X3D mit CO-30 und -50mV Offset ungegefahr da rauskommt bei der Spannung wo ich nur mit CO-30 rumgurke.

https://i.imgur.com/h5kPRPR.jpg

dargo
2023-04-27, 13:43:40
Prime95 kannst du da imo als Maßstab vergessen. Der Vdroop ist da schon nicht ohne. In Prime95 sehe ich hier mit 4450Mhz + 50mV Offset + CO-30 1163mV. In TLOU sind es bis zu 1200mV bei gleicher Frequenz. Nee... gerade eben sogar bis zu 1212mV in TLOU gesehen. Ist jedenfalls schon einiges höher, im Schnitt würde ich ca. 40-50mV Unterschied schätzen.

Edit:
Nochmal HWiNFO gecheckt, höchster Wert lag bei 1231mV in TLOU bei etwas daddeln.

HOT
2023-04-27, 13:46:33
Ich kaufe mir doch nicht auf Verdacht einen neuen Kühler wo ich nicht mal weiß ob der besser abschneidet. Und dann noch für >50€. :ucrazy: Selbst 2-3°C weniger wären Blödsinn für so eine Investition. Da schmiere ich liebe minimal mehr Paste drauf. :tongue:
So war das ja auch nicht gemeint ;).

Lehdro
2023-04-27, 13:55:53
Prime95 kannst du da imo als Maßstab vergessen. Der Vdroop ist da schon nicht ohne. In Prime95 sehe ich hier mit 4450Mhz + 50mV Offset + CO-30 1163mV. In TLOU sind es bis zu 1200mV bei gleicher Frequenz.
Das heißt du siehst mit deinem extra UV schon mehr Spannung als Langlay mit "normalem" CO UV. Beides in P95. Übervoltet dein Board so stark dass du die extra -50mV brauchst um annähernd auf unsere Spanungen mit nur CO -30 zu kommen?

Bei RT-Games (>80W CPU) habe ich im Schnitt 1.15-1.16V, Single Core Boosts die besagten 1.17V. Mehr sehe ich nie.

Langlay
2023-04-27, 14:00:59
Prime95 kannst du da imo als Maßstab vergessen. Der Vdroop ist da schon nicht ohne. In Prime95 sehe ich hier mit 4450Mhz + 50mV Offset + CO-30 1163mV. In TLOU sind es bis zu 1200mV bei gleicher Frequenz. Nee... gerade eben sogar bis zu 1212mV in TLOU gesehen. Ist jedenfalls schon einiges höher, im Schnitt würde ich ca. 40-50mV Unterschied schätzen.

Hast du eine bestimmte Szene in The Last of us, ich hänge gerade noch bei den Gebäudeshadern.

robbitop
2023-04-27, 14:05:38
Ist bei mir auch so. 1,13 - 1,17V in den Spielen. Meist aber eher Richtung 1,15. Bei 4450 MHz.

dargo
2023-04-27, 14:08:37
Das heißt du siehst mit deinem extra UV schon mehr Spannung als Langlay mit "normalem" CO UV. Beides in P95. Übervoltet dein Board so stark dass du die extra -50mV brauchst um annähernd auf unsere Spanungen mit nur CO -30 zu kommen?

Keine Ahnung. Denkbar wäre es denn ich vernehme hier kein Leistungsverlust mit einem Offset von -50mV im Gegensatz offenbar zu anderen. Mit CB20 und CPU-Z gemessen, CB23 ist da schon etwas schwierig da ab ca. 80°C die 4450Mhz gedrosselt werden. Oder es sind stinknormale Fertigungstoleranzen bei den CPUs. Siehe Video von Roman.
https://youtu.be/7-w1upXu4Tk?t=433

Hast du eine bestimmte Szene in The Last of us, ich hänge gerade noch bei den Gebäudeshadern.
Schwer zu sagen da ich eigentlich mit max. 4350Mhz spiele. Ich denke aber es ist egal. Einfach ne halbe Stunde daddeln und die Spannungen bei HWiNFO64 mitloggen. Der max. Wert ist ja inkludiert.

Langlay
2023-04-27, 14:26:41
Schwer zu sagen da ich eigentlich mit max. 4350Mhz spiele. Ich denke aber es ist egal. Einfach ne halbe Stunde daddeln und die Spannungen bei HWiNFO64 mitloggen. Der max. Wert ist ja inkludiert.

Ich bin jetzt ne 15Min durch die Gegend gelatscht, max war bei 1.181V laut HWINFO.

dargo
2023-04-27, 14:29:40
Dann wirds wohl silicon lottery sein.

btw.
Bevor das einer wieder falsch versteht... niedrigere Spannungen innerhalb verschiedener CPUs der gleichen Klasse bedeutet nicht automatisch weniger Verbrauch, nochmal der Verweis auf Romans Video. ;)

Ist bei mir auch so. 1,13 - 1,17V in den Spielen. Meist aber eher Richtung 1,15. Bei 4450 MHz.
Vorsicht bei solchen Aussagen... ACO. ;)
https://abload.de/thumb/acorigins_2023_04_27_37czq.jpg (https://abload.de/image.php?img=acorigins_2023_04_27_37czq.jpg)

Und wenn du dann jemanden hast der nur mit 60fps spielt wirds noch lustiger. :D
https://abload.de/thumb/acorigins_2023_04_27_znf0b.jpg (https://abload.de/image.php?img=acorigins_2023_04_27_znf0b.jpg)

Aber wie gesagt... ich gehe auch von einer gewissen Streuung je 5800X3D aus.

Ich bin jetzt ne 15Min durch die Gegend gelatscht, max war bei 1.181V laut HWINFO.
Ich sehe gerade du hast ein ASUS Crosshair 8 Hero, das ist ja nochmal gutes Stück über einem Strix ROG B550-F Gaming. Möglicherweise ist das Delta bei deinem Brett @Stock kleiner zwischen min. und max. Voltage. Ist immer schwierig unter verschiedenen Brettern zu vergleichen. Und wenn dann noch silicon lottery der CPU dazu kommt wirds nahezu unmöglich. Aber trotzdem danke für die Info.

dargo
2023-04-28, 08:41:04
Mit dem neuen Adrenalin 23.4.3 musste jetzt mein 5800X3D beim Kompilieren der Shader in TLOU mit bis zu 99W im Peak schwitzen, im Peak 87°C. :D Den Peak nicht ganz erwischt, aber das hier.
https://abload.de/thumb/tlou-i_2023_04_28_08_s1itp.jpg (https://abload.de/image.php?img=tlou-i_2023_04_28_08_s1itp.jpg)

][immy
2023-05-02, 19:52:05
Habe den Grund gefunden, warum mein CPU Lüfter zwischendurch immer wieder aufheult. Es ist das E-Mail abfragen. Seit einiger Zeit fährt der Windows Defender voll darauf ab und Thunderbird braucht dann etwa 1-2 Minuten volle Rechenzeit je Mail.
Was auch immer da wieder mit einem Update schief gelaufen ist.

dargo
2023-05-04, 10:10:32
Ich stelle gerade fest, dass die Verbrauchsangaben von HWiNFO64 doch nicht exakt verlässlich sind.

Damit bin ich in Idle hinter dem NT bei 44,x-45,xW für den ganzen Rechner.
83780

Übrigens sind das da oben rechts schon die minimalsten Spannungen, weniger geht nicht mehr. :tongue:

HWiNFO64 zeigt damit 3,3W beim SoC.

Gleiche Settings, nur DDR4-3200 und SoC sowie die beiden VDDGs @800mV sind es hinter dem NT 46,x-47,xW. HWiNFO64 zeigt dann beim SOC 3,6W an.

Edit:
Puh... das ist heftig. Ich hatte bisher gedacht ein Offset von -50mV würde keine Auswirkungen auf die Performance haben, falsch gedacht. :freak:

https://abload.de/img/cx_2023-05-05_06-33-3fqdje.png

Ist der integrierte Benchmark von CP77 mit 66 Sekunden Messdauer. Je 3 Durchläufe, davon der Schnitt. Echt interessant finde ich das Ergebnis denn ich konnte bei Multicoremessungen keinen Nachteil mit einem Offset von -50mV feststellen. Allerdings hatte ich da nicht mit 4450Mhz sondern 4350Mhz verglichen. Hmm... :uponder:

Lol... Odyssey verhält sich völlig anders. ;D Der einzige "Unterschied" hier ist nur, dass die Messungen mit "5800X3D - CO-30/Offset -50mV" von gestern sind, an der Konfiguration und Treibern hat sich nichts geändert. Je 6 Einzelmessungen, davon dann der Schnitt. Abweichungen von >3% werden nicht beim Schnitt verrechnet.

https://abload.de/img/cx_2023-05-05_07-16-1tvc66.png

Kann mir das einer erklären? Das ist doch völlig gaga. :usweet:

PingpiN
2023-05-05, 10:03:46
Bin echt überrascht wie gut mein alter Ben Nevis den 5800x3d kühlt. Mit Kombo Strike 3 habe ich 80 C im cinebench. Hatte eigentlich gedacht das ich mir noch ein neuen kühler kaufen muss.

Gibt es eigentlich ein unterschied in der performance zwischen 3000 mhz und 3200 MHz cl16 beim Gaming im GPU Limit ?

aceCrasher
2023-05-05, 12:50:11
Gibt es eigentlich ein unterschied in der performance zwischen 3000 mhz und 3200 MHz cl16 beim Gaming im GPU Limit ?
Einen Geringen Unterschied in den 0.1% und 1% lows wird es schon geben, diesen würde ich aber als vernachlässigbar einstufen.

dildo4u
2023-05-05, 12:53:00
Bin echt überrascht wie gut mein alter Ben Nevis den 5800x3d kühlt. Mit Kombo Strike 3 habe ich 80 C im cinebench. Hatte eigentlich gedacht das ich mir noch ein neuen kühler kaufen muss.

Das Problem ist der kleine Chip der Kühler kann noch so ein Monster sein die kleine Fläche ist das Limit.
Daher sitzen fast alle Kühler bei 80° ohne Undervolting.

Nostalgic
2023-06-01, 13:04:30
Nutzt jemand den 5800X3D auch mal für längeres 1080p video encoding?

Hält die CPU das von der Hitze her aus?

dildo4u
2023-06-01, 13:21:14
Ich würde sagen bis 85° sind normal die Frequenz bewegt sich nicht wirklich, laut Spec sind 90° max.

https://youtu.be/ajDUIJalxis?t=525


Das ganze lässt sich mit undervolting entschärfen.

3-vlfTzFRns

Crazy_Chris
2023-06-01, 14:05:43
Was soll da auch kaputt gehen? Wenn die 90°C erreicht werden dann wird der Takt etwas gedrosselt um die Temperatur zu halten ohne das es da irgendwelche Probleme gibt. Ist doch kein Athlon XP mehr. :freak:

Nostalgic
2023-06-01, 14:30:17
Naja, was heisst kaputt gehen?

Denke schon das halbwegs moderne CPU sich runterdrosseln oder notfalls abschalten.
Leistungstechnisch wäre das aber schon doof da kann man ja gleich zu schwächeren CPU greifen.

dildo4u
2023-06-01, 14:35:06
Es kommt drauf an welche Video Programme du nutzt die modernen skalieren eher mit der GPU als der CPU.

Der 16 Core ist hier z.b nur 20% schneller.

https://youtu.be/hBFNoKUHjcg?t=1213

Crazy_Chris
2023-06-01, 14:53:51
Naja, was heisst kaputt gehen?

Denke schon das halbwegs moderne CPU sich runterdrosseln oder notfalls abschalten.
Leistungstechnisch wäre das aber schon doof da kann man ja gleich zu schwächeren CPU greifen.

Der effektive Performanceverlust ist kaum der Rede wert. Werden die 90°C erreicht dann pendelt sich der Takt so bei 4.2Ghz statt 4.45Ghz ein. Durch gute Kühlung, Glück beim Heatspreader oder Pbo2 Tuner mit -30 werden diese Temperaturen kaum erreicht.

Achill
2023-06-01, 20:58:49
Nutzt jemand den 5800X3D auch mal für längeres 1080p video encoding?

Hält die CPU das von der Hitze her aus?

Ja kann die CPU, von der Leitung ist diese gleich auf mit einer 5800X CPU, siehe unter Encoding: https://www.anandtech.com/show/17585/amd-zen-4-ryzen-9-7950x-and-ryzen-5-7600x-review-retaking-the-high-end/14

--

Es kommt drauf an welche Video Programme du nutzt die modernen skalieren eher mit der GPU als der CPU.

Der 16 Core ist hier z.b nur 20% schneller.

https://youtu.be/hBFNoKUHjcg?t=1213

Beim Einsatz von Adobe-Produkten schneiden Intel-CPUs historisch schon immer gut ab, wie man aber sieht bekommt der 5800X3D den Job gestämmt, dauert nur länger.

Raff
2023-06-06, 13:38:13
Ich find's immer wieder interessant, was für eine Wundertüte der 5800X3D ist. Zwei aktuelle Beispiele:

Diablo 4: https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/
System Shock: https://www.pcgameshardware.de/System-Shock-Spiel-36361/Specials/Remake-Review-Benchmarks-Test-Release-1420994/2/

System Shock skaliert bruuutal mit dem Cache (anscheinend passt "das ganze Spiel" rein ;)), sodass er am 13900KS vorbeikommt. Bei Diablo 4 sind die Average-Werte zwar auch sehr gut, allerdings saugt der 5800X3D bei den Perzentilen. Erst der 7800X3D läuft konstant exzellent (wie der 13900KS, nur ohne den Durst), wie es scheint.

MfG
Raff

aufkrawall
2023-06-06, 13:53:25
Zen 3 hat leider offenbar so eine Art Streaming-Schwäche, da reißt der Cache auch nichts. Der 3D brilliert dann immer (oder zumindest vornehmlich) bei Spielen mit Berechnungen, die kaum Datengescheffel zu haben scheinen, wie MMORPGS oder RTS mit Müll-MT etc.
Dafür würde ich keine 250€ mehr bezahlen. Dem 7600 könnte man wahrscheinlich auch via RAM-Timings zusätzlich Beine machen, dann sähe es in Diablo noch schlechter für Zen 3 3D aus.

M4xw0lf
2023-06-06, 14:00:16
Ich find's immer wieder interessant, was für eine Wundertüte der 5800X3D ist. Zwei aktuelle Beispiele:

Diablo 4: https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/
System Shock: https://www.pcgameshardware.de/System-Shock-Spiel-36361/Specials/Remake-Review-Benchmarks-Test-Release-1420994/2/

System Shock skaliert bruuutal mit dem Cache (anscheinend passt "das ganze Spiel" rein ;)), sodass er am 13900KS vorbeikommt. Bei Diablo 4 sind die Average-Werte zwar auch sehr gut, allerdings saugt der 5800X3D bei den Perzentilen. Erst der 7800X3D läuft konstant exzellent (wie der 13900KS, nur ohne den Durst), wie es scheint.

MfG
Raff
Sind ja immer noch 125 FPS bei Perzentil 0.2, da könnte ich jetzt mit leben ^^

][immy
2023-06-06, 14:59:28
Ich find's immer wieder interessant, was für eine Wundertüte der 5800X3D ist. Zwei aktuelle Beispiele:

Diablo 4: https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/
System Shock: https://www.pcgameshardware.de/System-Shock-Spiel-36361/Specials/Remake-Review-Benchmarks-Test-Release-1420994/2/

System Shock skaliert bruuutal mit dem Cache (anscheinend passt "das ganze Spiel" rein ;)), sodass er am 13900KS vorbeikommt. Bei Diablo 4 sind die Average-Werte zwar auch sehr gut, allerdings saugt der 5800X3D bei den Perzentilen. Erst der 7800X3D läuft konstant exzellent (wie der 13900KS, nur ohne den Durst), wie es scheint.

MfG
Raff

Ja, der 5800x3d ist schon brutal effizient.
Da ich immer mit vsync und 60hz spiele bremst da nix und der wird auch nicht all zu heiß. Hoffe ich habe noch lange was von dem.

Lehdro
2023-06-07, 11:25:39
Erst der 7800X3D läuft konstant exzellent (wie der 13900KS, nur ohne den Durst), wie es scheint.

Vor allem wenn man bedenkt dass der anscheinend voll gegen das FPS Cap rennt. Wäre mal interessant zu sehen, wie weit der ohne Limit kommen würde.

Pirx
2023-06-07, 12:26:30
...
Erst der 7800X3D läuft konstant exzellent (wie der 13900KS, nur ohne den Durst), wie es scheint.

MfG
Raff
und wenn man dann noch mit einbezieht, daß der 7800X3D mit DDR4 lief...;)

Savay
2023-06-07, 14:34:26
Bei Diablo 4 sind die Average-Werte zwar auch sehr gut, allerdings saugt der 5800X3D bei den Perzentilen.

Mal mit ner AMD und Intel GPU gegen gecheckt? :wink:

Vielleicht liegt es mal wieder am nV Treiber... :freak:

Zen 3 hat leider offenbar so eine Art Streaming-Schwäche, da reißt der Cache auch nichts.

Woran genau machst du das fest?

Döner-Ente
2023-06-07, 14:40:24
Der Prozessor war mein bester Hardware-Kauf und größtes Upgrade der letzten xy Jahre.
Naürlich auch dem Umstand geschuldet, dass ich mit dem Prozessor-Neukauf so lange gewartet habe, bis der in die Jahre gekommene 2600 in immer mehr Spielen teilweise nur noch 40 Fps und GPU-Auslastung 50% abgeliefert hat, aber der Sprung nach vorne in vorher CPU-limitierten Spielen/Stellen ist gewaltig.

aufkrawall
2023-06-07, 14:50:16
Woran genau machst du das fest?
Die 1% low lassen angesichts des Mehrpreises oft zu wünschen übrig gegen den 5700X:
XGYJe-xVqjM

Ex3cut3r
2023-06-07, 15:02:40
Das Zen 3 3D eine ziemlich schwankende Performance je nach Game bietet, sollte eigentlich bekannt sein. Leider wird das Ding selbst hier täglich empfohlen, selbst wenn man schon Zen 3 mit RAM Tuning nutzt, siehe z.B. einen Beratungskauf Thread von mir. :redface:

dildo4u
2023-06-07, 15:07:02
Er hat mehr Sinn gemacht als Ram sehr teuer war jetzt muss man es natürlich neu berechnen wenn ich eh wegen der ganzen grottigen PC Ports auf 32GB aufrüsten muss kann man sich X3D vielleicht sparen.
Wobei ich kein Fan davon bin wenn ich für High-End Ram hohe SOC Spannungen fahren muss das ist für mich keine Dauerhafte Lösung.

Langlay
2023-06-07, 15:13:34
Wobei ich kein Fan davon bin wenn ich für High-End Ram hohe SOC Spannungen fahren muss das ist für mich keine Dauerhafte Lösung.

Muss man ja nicht, in 99% der Fälle läuft das Maximum (DDR3600-3800) mit <=1.05V SoC. Standardspannung ist glaub ich 1.1V.

Ich hatte ewige Zeiten DDR3800 mit 1.025V SoC Voltage am laufen.

Das Zen 3 3D eine ziemlich schwankende Performance je nach Game bietet, sollte eigentlich bekannt sein. Leider wird das Ding selbst hier täglich empfohlen, selbst wenn man schon Zen 3 mit RAM Tuning nutzt, siehe z.B. einen Beratungskauf Thread von mir. :redface:

Natürlich wird das Ding hier empfohlen, es ist die schnellste AM4 Gaming CPU. Das Teil kostet 100€ mehr als ein 5700X. Wenn du jetzt also von einem z.b.2700X und na 1080ti, aufrüsten willst ist halt 5800X3D + 4080 nicht wirklich teurer als 5700X + 4080.

Aber kann natürlich auch 1000€ statt 100€ mehr ausgeben und sich dann einen 7800X3D kaufen der dann 20% schneller ist.

Lehdro
2023-06-07, 15:33:29
Die 1% low lassen angesichts des Mehrpreises oft zu wünschen übrig gegen den 5700X:

Zwar wird der 5700X einiges aufholen gegenüber dem X3D, aber eine fast schon negative Skalierung wie in einigen seiner Tests halte ich für abwegig. Selbst die Seiten die mit schnellerem RAM testen (zb. HWUB @ 3800 MHz) (https://www.youtube.com/watch?v=sw97hj18OUE) haben nachgewiesen dass auch der X3D profitiert, wenn auch nicht immer in dem Maße. Im Schnitt waren das immer noch 20% bessere low FPS, gegenüber +15% avg fps. Wobei das, wie schon angesprochen, natürlich extrem schwankt, je nach Game. Ob einen dass die >+50% Preisaufschlag wert ist - Ansichtssache, da low Fps eh nie linear skalieren und meistens eher der Knackpunkt sind als avg. FPS heutzutage. Man muss aber bedenken: Jede weitere Leistungssteigerung wäre mit einem Plattformwechsel verbunden, weswegen viele gleich zum Ultima Ratio greifen - dem X3D.

Dass der 5800X3D gerade beim Streaming abkacken soll halte ich auch für ein wenig übergeneralisiert, gerade im Hinblick auf seine Performance in MMOs. Dem wird wohl eher woanders die Puste ausgehen, gut zu erkennen an den Extremfällen wo der 7800X3D plötzlich richtig zuschlägt. Siehe auch hier @11:54 (https://www.youtube.com/watch?v=Evj1tX8yFUU).

aufkrawall
2023-06-07, 16:22:01
Dem wird wohl eher woanders die Puste ausgehen, gut zu erkennen an den Extremfällen wo der 7800X3D plötzlich richtig zuschlägt. Siehe auch hier @11:54 (https://www.youtube.com/watch?v=Evj1tX8yFUU).
Da ist der Streaming-Alptraum Hogwarts mit RT ganz oben auf der Liste und TLOU auch. :confused: Du kannst mal davon ausgehen, dass dieses Bild über die Breite noch ausgeprägter wäre, würden Benchmarks nicht ständig eher isolierte Level-Bereiche betrachten, wo nicht unbedingt am meisten nachgeladen wird. Die TLOU-Szene ist etwa ziemlich lächerlich für CPUs.

Savay
2023-06-07, 16:59:58
Alles bisher auf nV Karten.

Ich wüsste keine logische Erklärung warum ausgerechnet streaming ein Problem für Zen 3 sein soll.

Die einzige Gemeinsamkeit ist bisher der nV DX12 Treiber, von dem ja tatsächlich bekannt ist dass er insbesondere auf alten Ryzen nicht so toll performt.

HOT
2023-06-07, 18:33:07
DDR4 RAM und sonstige Bandbreiten.

ChaosTM
2023-06-07, 19:06:49
Er hat mehr Sinn gemacht als Ram sehr teuer war jetzt muss man es natürlich neu berechnen wenn ich eh wegen der ganzen grottigen PC Ports auf 32GB aufrüsten muss kann man sich X3D vielleicht sparen.
Wobei ich kein Fan davon bin wenn ich für High-End Ram hohe SOC Spannungen fahren muss das ist für mich keine Dauerhafte Lösung.


16 GB machen schon längere Zeit wenig Spaß, außer man dreht beim Spielen alles andere ab..

Mortalvision
2023-06-07, 19:11:40
Satisfactory klatscht mir mit meiner nicht fertigen Megafabrik 16 GB voll (mit OS etc.), Stellaris Endgame 14,5 GB. Das ist lebensmüde, nur 16 GB zu haben.

dargo
2023-06-07, 21:44:19
Die 1% low lassen angesichts des Mehrpreises oft zu wünschen übrig gegen den 5700X:
https://youtu.be/XGYJe-xVqjM
Was hat der Typ da in FC6 gemessen oder liegts am Geforce Treiber?

5800X3D @4,35Ghz + optimierter DDR4-3200 CL14 + RX 6800XT im High-Preset
84181

Langlay
2023-06-07, 22:55:47
oder liegts am Geforce Treiber?


Daran allein kann es nicht liegen.

5800X3D CO-30 DDR3200 Micron E-Die XMP und ne 4090 :

https://i.imgur.com/INdil0m.jpg


Mit geileren RAM Settings ist sicherlich noch einiges drin. Ich muss mir bei Gelegenheit mal ein gebrauchtes 2x16GB B-Die Kit zulegen.

aufkrawall
2023-06-07, 23:12:24
Jedi Survivor P0.2-fps:
5800XD vs. 5700X: +15%
13900K mit DDR5 5600-Handbremse vs. 5800X3D: +28%
https://www.pcgameshardware.de/Star-Wars-Jedi-Survivor-Spiel-73723/Specials/Tech-Test-PC-Review-Benchmarks-1418501/4/
Bestimmt auch wieder ein bedauerlicher Einzelfall oder absichtliche 5800X3D-Sabotage (scheint für Zen 4 anhand anderer Tests dann ja nicht zu greifen...) des Nvidia-Treibers. :freak:

user77
2023-06-08, 06:19:49
Jedi Survivor P0.2-fps:
13900K mit DDR5 5600-Handbremse vs. 5800X3D: +28%...

200€ cpu gegen 300€ Cpu (+50%) = "nur" 15% bessere Lows
300€ cpu gegen 620€ Cpu (+106%) = "nur" 28% bessere Lows

PS:
13900K + offiziellen DDR5-5600 (620€) vs. i5-13400F mit Handbremse DDR5-4400 (215€): +22% bessere Lows :freak:

dildo4u
2023-06-08, 06:33:35
Ist halt komplett kaputt wenn der 3300X genau die Hälfte der 13900k Performance schafft.

Davon ab das E-cores/HT Regression erzeugen also Ideal ist hier keine Kombination.

https://youtu.be/vyRodlFgHt4?t=385

dargo
2023-06-08, 07:27:43
Daran allein kann es nicht liegen.

5800X3D CO-30 DDR3200 Micron E-Die XMP und ne 4090 :

https://i.imgur.com/INdil0m.jpg

Dann kann eigentlich nur noch das Testsystem von diesem Youtuber kaputt sein.

Jedi Survivor P0.2-fps:
5800XD vs. 5700X: +15%
13900K mit DDR5 5600-Handbremse vs. 5800X3D: +28%
https://www.pcgameshardware.de/Star-Wars-Jedi-Survivor-Spiel-73723/Specials/Tech-Test-PC-Review-Benchmarks-1418501/4/
Bestimmt auch wieder ein bedauerlicher Einzelfall oder absichtliche 5800X3D-Sabotage (scheint für Zen 4 anhand anderer Tests dann ja nicht zu greifen...) des Nvidia-Treibers. :freak:
Deine Polemik kannst du stecken lassen. :) Ich würde einfach empfehlen nicht jedem bullshit im Netz blind zu vertrauen wie man am Beispiel von mir und Langlay mit FC6 sehen kann.

robbitop
2023-06-08, 08:40:13
Das Problem mit Youtube. Jeder kann einen Channel aufmachen und wenn der Videocontent gut genug aussieht, ist nicht zu unterscheiden, wer ein Experte ist und wer keiner ist. Da können manchmal auch seltsame Zahlen bei herauskommen. Wenn mehrere Quellen allerdings zum gleichen Ergebnis kommen, wird es immer wahrscheinlicher, dass die Zahlen stimmen. :)

dargo
2023-06-08, 09:16:27
Am besten ist es immer wenn man eine Testszene selbst auf dem eigenen System nachstellen kann. Alles andere ist mehr oder weniger blindes Vertrauen. Und von 0,2% Percentiles nehme ich fast generell Abstand. Viel zu flüchtig die Ergebnisse selbst mit dem selben System je nach Game und Testszene. 1% low gehe ich noch mit, aber selbst hier muss der Tester schon penibel aufpassen, dass er keinen bullshit misst. Immer schön auf gute Reproduzierbarkeit achten.

aufkrawall
2023-06-08, 10:20:26
Die Reproduzierbarkeit ist ein Problem, aber 1% low sind oft auch zu unempfindlich für Aussagen über die Frame Times.
Wobei es in Fortnite anders ist (der HWUB-Werte im GPU-Limit sind offensichtlich für den Hintern):
https://abload.de/thumb/fnd8e5s.png (https://abload.de/image.php?img=fnd8e5s.png)
https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_spielebenchmarks

Zen 4 ist hier nicht nur allgemein ordentlich schnell, sondern der Cache skaliert damit auch viel besser. Das Streaming in UE-Spielen hat über verschiedene Spiele hinweg eigentlich ziemlich ähnliche Performance-Charakteristika.

dargo
2023-06-08, 12:34:13
Fortnite kann ich nicht nachstellen da ich es nicht habe. Ich kann gerne noch andere angebliche "Ausreißer" mit meinem System nachstellen bei Gelegenheit. Sowas wie FC6 war natürlich optimal da kaum Aufwand dank integriertem Benchmark.

Edit:
Lol... sehe gerade im EGL, dass ich Fortnite doch habe. Hatte es wahrscheinlich irgendwann eingetütet als es umsonst war. :ulol: Kann ich Fortnite einfach nachbenchen? "Einfach" ist hier allerdings das Stichwort denn bei dem tollen Wetter habe ich keine Lust mich hier lange mit Benchmarks am PC zu beschäftigen. Völlig falsche Jahreszeit für sowas.

nairune
2023-06-08, 12:40:40
CB hat Diablo IV CPU-Benchmarks hinzugefügt
https://www.computerbase.de/2023-06/diablo-iv-benchmark-test/3/#abschnitt_cpubenchmarks_mit_insgesamt_14_prozessoren_update

3D-Cache geht vorwärts und skaliert auch bei 1% gut/genauso.

Exxtreme
2023-06-08, 12:58:00
3D-Cache geht vorwärts und skaliert auch bei 1% gut/genauso.

Beim 1% Perzentil skaliert der Cache sogare besser. Diablo 4 ist da 28% schneller. :)

aufkrawall
2023-06-08, 13:28:31
Kann ich Fortnite einfach nachbenchen?
Nicht wirklich. Test-Seiten nehmen Replays, die aber auch mit zukünftigen Patch-Versionen inkompatibel sind.
Und diese Tests sind meist auch sehr schlecht darin, die Streaming-Einbrüche für längeres Map-Traversal abzubilden.

Ich kann aber den Unterschied zwischen 5800X3D und 13700K + RAM-OC auf einer 4090 aber aus erster Hand, und er ist ziemlich groß. Der Nvidia D3D12-Treiber macht das durch seine schlechtere Frame Time-Varianz noch schlimmer gegenüber Radeon, aber ist halt trotzdem ein legitimer Win für die schnellere CPU.

Lurtz
2023-06-08, 13:34:06
Lol... sehe gerade im EGL, dass ich Fortnite doch habe. Hatte es wahrscheinlich irgendwann eingetütet als es umsonst war. :ulol:
Fortnite ist F2P.

Slipknot79
2023-06-18, 23:47:28
Yo, habe für nen Froind seinem budget entsprechend nen 5800X3D System gebastelt.

Welche BIOS Settings machen für die CPU Sinn? Es sollten Settings sein, die man schnell einstellen kann und etwas bringen und wo man sagen kann "das funzt ziemlich sicher", ohne ewig rumtesten und anpassen zu müssen (wie zB RAM sub timings). Es soll vernünftig sein.
CPU soll nicht oced werden, eher Richtung undervolting, aber wie gesagt, ohne viel rumtesten zu müssen. Settings die sofort stabil reinhauen, gefragt sind nobrainer. (y) Oder gibt es eine AMD Software, mit der man schnell Hand anlegen kann und wo man sich darauf verlassen kann, dass es stabil läuft?
Stock scheint die CPU auf 100W begrenzt zu sein, zumindest geht in prime nicht moar. 100W ok?
Der PC soll fürs Gaming, aber auch für home office (meist also idle) genutzt werden. CPU wird luftgekühlt.

Thunder99
2023-06-19, 08:39:12
Auf CPU Seite alles auf Auto und wenn verfügbar den CO auf -20 (Stufe 2 bei MSI) einstellen.
RAM, sofern guter vorhanden, im 3600er CL16 Modus laufen lassen.

Bei Interesse gerne PM an mich was für sinnvolle Settings gesetzt werden können beim RAM ohne viel zu testen :)

robbitop
2023-06-19, 08:55:38
Jap -20 für alle Kerne sollte mit sehr hoher Sicherheit stabil gehen. Idealerweise das neuste BIOS installieren. Wenn man Glück hat gibt es ein AGESA 1208 BIOS. Damit geht dann CO auch für Nicht Gigabyte Boards und die CPU fährt nochmal 100 MHz mehr Takt (zumindest auf einem Kern dann statt 4450 MHz dann 4550 MHz - kA ob das dann auch für alle Kerne geht).

Crazy_Chris
2023-06-19, 09:32:30
Jap -20 für alle Kerne sollte mit sehr hoher Sicherheit stabil gehen. Idealerweise das neuste BIOS installieren. Wenn man Glück hat gibt es ein AGESA 1208 BIOS. Damit geht dann CO auch für Nicht Gigabyte Boards und die CPU fährt nochmal 100 MHz mehr Takt (zumindest auf einem Kern dann statt 4450 MHz dann 4550 MHz - kA ob das dann auch für alle Kerne geht).

Das kann ich bei MSI mit -30 im BIOS (oder auch mit Pbo2 Tuner) nicht beobachten. :confused:

Slipknot79
2023-06-19, 09:59:33
Ok thx werde die settings berücksichtigen. Ist tatsächlich nen MSI Mobo. B550 gaming plus.
RAM ist 3200MHz CL16, werde noch 3600MHz versuchen und mit etwas moar voltage, wird aber wohl mehr Glück sein ob das hinhaut.

BIOS Update bittet sich an:

- AGESA ComboAm4v2PI 1.2.0.8. update.

und danach, also aktueller:

- AGESA ComboAm4v2PI 1.2.0.A. update.

robbitop
2023-06-19, 10:31:25
Das kann ich bei MSI mit -30 im BIOS (oder auch mit Pbo2 Tuner) nicht beobachten. :confused:

1208er AGESA?

Thunder99
2023-06-19, 10:33:08
Nimm das .A, sicher ist sicher (wegen TPM Update)
Nennt sich übrigens bei MSI "KomboStrike" das Feature. Auf Stufe 2 sind das -20. -30 aka Stufe 3 läuft nicht immer oder bei jeden Nutzer stabil.

Crazy_Chris
2023-06-19, 10:34:34
1208er AGESA?

Nee 1.2.0.7. :wink: Wäre natürlich der Knaller wenn der mit der neueren höher boostet.

DevilX
2023-06-19, 12:06:46
ASRock könnte echt Mal ein Update bringen...

robbitop
2023-06-19, 12:11:59
Nee 1.2.0.7. :wink: Wäre natürlich der Knaller wenn der mit der neueren höher boostet.
Erst ab 1208 soweit ich das verstanden habe.

ASRock könnte echt Mal ein Update bringen...
Jap mein ASROCK B450 Gaming K4 ist auch immernoch auf 1207
Andere B450 Boards haben schon 1208 bei ASrock

DevilX
2023-06-19, 12:21:03
Beim X570 PG Velocita passiert auch nichts 😕

Langlay
2023-06-19, 12:30:44
Erst ab 1208 soweit ich das verstanden habe.


Das ging schon immer, allerdings halt wirklich nur bei Last auf 1 Kern.

Beim Cachebenchmark von Aida64 und der Singlecore von CB da sieht man den Takt manchmal bei 4550MHz.

Crazy_Chris
2023-06-19, 13:48:01
Das ging schon immer, allerdings halt wirklich nur bei Last auf 1 Kern.

Beim Cachebenchmark von Aida64 und der Singlecore von CB da sieht man den Takt manchmal bei 4550MHz.


stimmt. :eek: Habe eben noch einen Screenshot vom testen im letzten Jahr rausgesucht und auch mit 1.2.0.7 und MSI x370 Board boostet der auch auf 4550 Mhz.

robbitop
2023-06-19, 13:54:02
Das ging schon immer, allerdings halt wirklich nur bei Last auf 1 Kern.

Beim Cachebenchmark von Aida64 und der Singlecore von CB da sieht man den Takt manchmal bei 4550MHz.
IIRC wurde da bei 1208 aber was verbessert, so dass die 4550 MHz auch in der Praxis anliegen.

Döner-Ente
2023-06-19, 13:56:15
Wie oft hat man denn im Alltag wirklich nur Last auf einem Kern, so dass da der Maximaltakt anliegt?

Crazy_Chris
2023-06-19, 13:59:04
Wie oft hat man denn im Alltag wirklich nur Last auf einem Kern, so dass da der Maximaltakt anliegt?

Windows Updates? ;D

Na ich würde mal behaupten bei so ziemlich jedem Programmstart kurzzeitig. Besonders Praxisrelevant ist es jetzt aber sicher nicht bei den paar Mhz.

Langlay
2023-06-19, 14:09:19
IIRC wurde da bei 1208 aber was verbessert, so dass die 4550 MHz auch in der Praxis anliegen.

Das mag ja sein das dort was verbessert wurde, meiner Erfahrung nach hat sich das Boostverhalten vom 5800X3D über die AGESA Versionen allerdings nicht großartig geändert.

Die 4550 MHz sieht man quasi kaum und 4450MHz hat man quasi immer Anliegen solange die Temperaturen passen.

robbitop
2023-06-19, 14:12:58
Na ich hätte angenommen, dass in Spielen dann auf 1x Core 4550 MHz anliegen und beim Rest 4450 MHz. Aber mangels AGESA 1208 kann ich das nicht bestätigen. Reine SC Last gibt es ja heute nicht mehr.

Langlay
2023-06-19, 14:24:02
Na ich hätte angenommen, dass in Spielen dann auf 1x Core 4550 MHz anliegen und beim Rest 4450 MHz. Aber mangels AGESA 1208 kann ich das nicht bestätigen. Reine SC Last gibt es ja heute nicht mehr.

Ich hatte seit Ende letzten Jahres die 1208 auf dem Crosshair 8 Hero und hab jetzt auch die 1208 auf meinem Gigabyte B550I. Jedenfalls so verhält sich meine CPU nicht, beim Zocken gibt es maximal 4450 MHz bei allem was mit mehr als 1 Kern was anfangen kann. Und daran hat sich in dem letzten gut einem Jahr auch nichts verändert. Das war bei Release so und ist auch immernoch so.

robbitop
2023-06-19, 14:44:18
Trotz negativem CO?

Langlay
2023-06-19, 14:50:35
Trotz negativem CO?

Yap, mein 5800X3D läuft immer mit CO -30. Allerdings nutze ich noch PBO2 Tuner über ne Batchdatei im Autostart und nicht die BIOS Einstellung. Glaub aber nicht, dass das einen Unterschied macht. Ich hatte es damals halt so eingerichtet weil es übers BIOS noch nicht ging und danach nimmer geändert weil es halt funktioniert hat.

=Floi=
2023-06-19, 16:31:25
meiner kann auch nur 4450 und ich werde davon nicht sterben.

Leonidas
2023-07-10, 08:47:55
Spiele-Performance des Ryzen 5 5600X3D:
https://www.3dcenter.org/news/news-des-89-juli-2023

Döner-Ente
2023-07-10, 13:24:42
Hmm. Selbst wenn es ihn hierzulande gäbe:
Bei ~40 € Unterschied wäre die Frage, ob man im klassischen "AM4 jetzt noch letztmalig aufrüsten"-Szenario zum 5600X3D greifen sollte, weil kaum Perfomance-Unterschied zum 5800X3D jetzt oder ob man doch eher die 40 € mehr für 2 Kerne mehr investiert in der Erwartung, dass die sich in der Restlaufzeit des AM4-Systems noch rentieren werden.
Glaskugeln müsste man haben...

Semmel
2023-07-10, 13:30:07
Der 5600X3D ist weitgehend sinnlos.
Wegen seiner Seltenheit sollte man ihn eher in originalversiegelter OVP in die Vitrine stellen. :D

Nostalgic
2023-07-10, 14:27:10
Die zwei Kerne kann man woanders sicher nutzen.

Wer sich wegen 40 € ins Hemd macht sollte sich ein anderes Hobby suchen ;)

Tesseract
2023-07-10, 14:57:15
ziemlich sinnloses teil. wer AM4 älterer generationen nochmal revitalisieren wollte hat das wohl schon vor monaten gemacht, wer in etwas fernerer zukunft ein "notupgrade" machen will/muss wird wohl kaum zu einem 6-kerner greifen wollen und die zeit neuer AM4-budgetbuilds ist auch eher vorbei bzw. diese CPU dafür zu teuer.

aufkrawall
2023-07-10, 14:58:44
Die zwei Kerne kann man woanders sicher nutzen.

Auch bei Gaming.

Lehdro
2023-07-10, 15:06:53
die zeit neuer AM4-budgetbuilds ist auch eher vorbei bzw. diese CPU dafür zu teuer.
Sehe ich anders. GN hat das sehr schön beleuchtet, was für krasse Deals es dort mit den Kombiangeboten gibt: Du kriegst teilweise Speicher oder Board kostenlos zur CPU dazu. Das muss man mit S1700 oder AM5 erst einmal schlagen, rein vom P/L her. Bleibt aber halt auf lokale Microcenter beschränkt, weil es nur Vorort-Angebote sind.

robbitop
2023-07-10, 15:13:24
Ich in 5850x3d wäre wenn dann interessant für ggf einige AM4 Besitzer gewesen. Am besten unlocked.

Ex3cut3r
2023-07-10, 20:04:08
5800X3D und 7800X3D sind ziemlich schwach beim MT gegen einen preisgleichen 13700k. Da Shader Compiling vor Spielstart nun immer öfters auftretet, wartet man mit einem 13700k erheblich weniger. Last of Us ist z.B. so ein Fall. Hoffe AMD kann bei Zen 5 im Preisbereich von 400-500€ mehr als 8C/16T anbieten.

Crazy_Chris
2023-07-10, 20:41:05
Bei Last of us kann man aber problemlos starten bevor der fertig ist. Zumindest der 5800x3d bügelt das locker weg und man merkt beim spielen nichts. Die haben das aber auch mit diversen Patches stetig verbessert.

Ex3cut3r
2023-07-10, 20:44:25
Wurde immer empfehlen die Shader Kompilierung abzuwarten, außer man steht natürlich auf Ruckler/Spikes oder merkt diese nicht, gibt ja erstaunlich vieler solcher Leute.

Lurtz
2023-07-10, 22:09:52
Bei Last of us kann man aber problemlos starten bevor der fertig ist. Zumindest der 5800x3d bügelt das locker weg und man merkt beim spielen nichts. Die haben das aber auch mit diversen Patches stetig verbessert.
Den Stutter, wenn ein Shader benötigt wird, kann er aber auch nicht kompensieren.

robbitop
2023-07-11, 08:46:50
Ist das shader compiling denn immer hoch parallelisiert mittlerweile? Ich hatte auch von Spielen gehört wo das nur auf einem Kern lief.
IMO könnte man das auch eleganter machen: Spiele haben ja heutzutage Downloadgrößen von 100 gb. Dauert also ne Weile. Dann könnte man doch parallel dazu shadercompiling machen.

IMO ist es auch total ineffizient dass jeder seine shader selbst kompiliert. Was da an Strom verschwendet wird. Nv/AMD und oder Steam/Epic/EA könnten ja eine Art Datenbank mit kompilierten Shadern für entsprechende Treiberversionen und Spielversionen machen. So dass wenn man das Spiel hat auch gleich die Shader mit gedownloaded werden.

Wenn ich bei einem IHV was zu sagen hätte wäre das eines der Feature-SW Initiativen die ich machen würde und damit bei großen youtubern wie DF werben würde wie geil das ist. Ich bin mir sicher, dass wenn man mal brainstormt gibt es von dieser Art noch viele viele Ideen.