PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7 5800X3D Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16

robbitop
2022-12-03, 11:02:11
Alles Geldverschwendung die man nicht braucht. AM4 Board für 70-80 eur oder günstiger gebraucht kaufen, flashen und gut. Performance ist identisch und diese ganzen Spielkramfeatures bringen eh kaum was.

HOT
2022-12-03, 11:07:32
Alles Geldverschwendung die man nicht braucht. AM4 Board für 70-80 eur oder günstiger gebraucht kaufen, flashen und gut. Performance ist identisch und diese ganzen Spielkramfeatures bringen eh kaum was.
Jo das würd ich auch so sehen. Ein B450 mit 2. m.2 kaufen, wenn man das brauchen sollte, gibt ja ein paar.

Übrigens kommt der X3D beim recht neuen Luxx-Test extrem gut weg:
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/59978-cpu-tests-nachgereicht-core-i7-13700k-und-ryzen-7-5800x3d-gaming-benchmarks.html

Crazy_Chris
2022-12-03, 11:27:46
Wenn ich im Bios Kombostrike 3 auswählen kann? Brauche ich das nicht mehr extra über Debug-cli machen? Oder gibts da unterschiede? Danke.


Ja. Nein.

Traxx
2022-12-03, 11:44:51
Danke für die Infos betreffend Undervolten, dass es da keinen Unterschied macht per Software. Jup, Geldverschwenden bringt auch nix. Ich würde z.B das Asus Rog Strix B550-F hier nach Cashback neu für ca. 119.-- kriegen. Nicht wegen Blingbling, wäre aber aber als Option nicht so schlecht oder? Kenne die AM4 überhaupt nicht bisher ;).

Achill
2022-12-03, 11:53:59
Eine Frage zum PBO2-Tuner für den 5800X3D da ich gerade dieses Video hier sehe.
https://youtu.be/3-vlfTzFRns?t=574

Wenn man den max. Boost reduziert (bsw. 4,2Ghz) funktioniert das ordnungsgemäß? Wird die gesamte Spannungskurve dadurch ebenfalls gesenkt?

Ja, wenn man mit den PBO2-Tuner den Takt oder das max. PPT limitiert wird auch die Spannung gesenkt. Ich weiß nur nicht, ob man beim PBO2-Tuner auch den max. Turbo oder PPT via Parameter setzen kann.

Keine Limitierung:
https://i.imgur.com/lNTVccB.jpg


Max 4200MHz:
https://i.imgur.com/IlnlfrG.jpg


Max 95W PPT:
https://i.imgur.com/2mU5lBA.jpg

Traxx
2022-12-03, 12:13:53
So, Basteldrang hat gesiegt. Bin auch bald dabei ;)

BrannigansLaw
2022-12-03, 12:38:57
Dito + FOMO war zu groß...

Mein 3700X geht direkt an meine Eltern, weil deren 2200G kein Windows11 Support hat (ein Athlon 3000er oder 300er aber schon :freak: :crazy:)

ChaosTM
2022-12-03, 13:17:26
Hab jetzt auch einen bestellt. Beim FS2020 steigt die (minimale) Bildrate in komplexen Situationen bis zu 50% im Vergleich zum 5900X. Eigentlich ein irres Sidegrade( 8 vs 12 Kerne ) aber schau wir mal. Die 4080er ist heillos unterfordert in 99% der Fälle und DLSS3 funktioniert aus welchen Gründen auch immer leider nicht. -> Ausgegraut.
Für VR braucht man jedes letzte % an Performance.

add.: beim CB23 werde ich massig Leistung verlieren, aber das "spiele" ich sehr selten. :)

Asaraki
2022-12-03, 13:53:05
Grad für meine Freundin zu Weihnacht einen in den Warenkorb gelegt T_T

Ihr seid echt die Letzten! Feiert das Ding hier ständig ab da krieg selbst ich FOMO ^^

add.: beim CB23 werde ich massig Leistung verlieren, aber das "spiele" ich sehr selten. :)

Ich selbst behalte den 5900X, ist einfach zu viel Zeit die ich sonst verliere wenn ich grosse Musikprojekte exportiere. Dauert schon mit 24T mehrere Minuten, respektive solange, dass es sich lohnt von 6C auf 12C zu wechseln wenn ich noch im Gamingmode war ^^
Aber der 3DX ist einfach perfekt um die AM4 Plattform meiner Freundin noch mehrere Jahre zock-kompatibel zu halten :) GPUs bekommt sie sowieso immer meine alte, die dürfte jeweils adäquat sein, also demnächst die 3080Ti.

StevenB
2022-12-03, 13:57:29
Irgendwie bekomme ich es nichts hin den PBO2 Tuner in den Autostart zu packen. Also gem. Github, Task erstellen etc. und praktisch den Wert mitgeben was er auf die Cores geben soll.

https://github.com/PrimeO7/How-to-undervolt-AMD-RYZEN-5800X3D-Guide-with-PBO2-Tuner/blob/main/README.md#6-how-to-set-pbo2-tuner-automatically-with-every-system-bootrestartwakeup

In Kurzform beim Systemstart:

Aktion: Programm starten "C:\etc\PBO2 tuner.exe" -30 -30 -30 -30 -30 -30 -30 -30

Er startet damit zwar das Programm, aber trägt keine Werte in das Programm ein, die Felder bei Core0 bis Core7 bleiben auf 0 stehen.
Was mache ich falsch?

Mortalvision
2022-12-03, 14:05:32
Warum das zweite " direkt nach der .exe?

Rolsch
2022-12-03, 14:12:55
. Die 4080er ist heillos unterfordert in 99% der Fälle und DLSS3 funktioniert aus welchen Gründen auch immer leider nicht. -> Ausgegraut.


Haste Hardwarebeschleunigte GPU-Planung in den Windows Grafikeinstellunjgen an?

Mortalvision
2022-12-03, 14:15:54
Juhu, die Nachfolger wurden bei computerbase schon mal erwähnt. Aber ob es sich überhaupt lohnen wird, steht noch in den Sternen. Ein 7950X3D müsste schon mit 5,5 GHz allcore daherkommen, damit sich in Games der Abstand zum 5800X3D lohnt.

StevenB
2022-12-03, 14:16:25
Ich halte mich praktisch nur an die Anleitung

https://user-images.githubusercontent.com/106172193/170519780-4835e046-82fc-49fe-8a9f-e1ded1144638.jpg

user77
2022-12-03, 14:20:17
Warum das zweite " direkt nach der .exe?

Damit leerzeichen egal sind.
Starten als admin/ mit hohen Rechten?

Langlay
2022-12-03, 14:27:50
Irgendwie bekomme ich es nichts hin den PBO2 Tuner in den Autostart zu packen. Also gem. Github, Task erstellen etc. und praktisch den Wert mitgeben was er auf die Cores geben soll.

https://github.com/PrimeO7/How-to-undervolt-AMD-RYZEN-5800X3D-Guide-with-PBO2-Tuner/blob/main/README.md#6-how-to-set-pbo2-tuner-automatically-with-every-system-bootrestartwakeup

In Kurzform beim Systemstart:

Aktion: Programm starten "C:\etc\PBO2 tuner.exe" -30 -30 -30 -30 -30 -30 -30 -30

Er startet damit zwar das Programm, aber trägt keine Werte in das Programm ein, die Felder bei Core0 bis Core7 bleiben auf 0 stehen.
Was mache ich falsch?


https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13015525#post13015525

StevenB
2022-12-03, 14:29:14
Hat sich erledigt, die Version von GitHub hat irgendwie nicht funktioniert.

https://www.hardwareluxx.de/community/threads/ryzen-7-5800x3d-der-erste-gaming-benchmark-ist-vielversprechend.1316389/post-29446267

Die von dem Post schon, nun wird der Tuner gestartet, Werte eingetragen und beendet. (Meine Version ist jetzt vom Juli 2022)
Bzw. gibt es eine Offizielle Homepage von dem Tool?

@Langlay jep, hatte ich von dir gesehen allerdings führt der Link zu Overclock.net nun ins leere, allgemein sind einige Links zu dem Tool plötzlich down / tod.

https://www.overclock.net/threads/corecycler-tool-for-testing-curve-optimizer-settings.1777398/page-39#post-28979881

ChaosTM
2022-12-03, 14:44:31
Haste Hardwarebeschleunigte GPU-Planung in den Windows Grafikeinstellunjgen an?


HAGS ist natürlich an. Das Problem haben einige lt. reddit. Auch die dort gepostetet Tricks mit *ini Dateien haben nichts gefruchtet.

dargo
2022-12-03, 19:33:51
Ja, wenn man mit den PBO2-Tuner den Takt oder das max. PPT limitiert wird auch die Spannung gesenkt. Ich weiß nur nicht, ob man beim PBO2-Tuner auch den max. Turbo oder PPT via Parameter setzen kann.

Keine Limitierung:
https://i.imgur.com/lNTVccB.jpg


Max 4200MHz:
https://i.imgur.com/IlnlfrG.jpg


Max 95W PPT:
https://i.imgur.com/2mU5lBA.jpg
Super, ich danke dir. :up:

CompuJoe
2022-12-03, 21:44:00
Gerade mal wieder bei Satisfactory reingeschaut, hatte damals immer so 75-100fps mit dem 3900X, mit dem X3D sind es 120-140fps. Das ist so derb oO
Auch Escape from Tarkov profitiert massiv, besonders bei den 99%ern, das Spiel ist nun Butterweich und die kleinen Stotterer sind nun komplett weg.

Dorn
2022-12-04, 10:30:37
Jedenfalls CO -30 senkt nicht nur den Verbrauch/Temps sondern ich halte die 4450 MHz halt auch bei schwerer Last auf allen Kernen wo er ohne CO-30 vorher noch runtergetaktet hat auf 4.2-4.3 Ghz.Bei relativ leichter Last beim Spielen hat meiner ohne -30 auch auf ca. 4,2 teilweise runtergetaktet. Mit -30 liegt ständig der max. takt an. Siehe auch "paar Hundert" Posts weiter vorne von mir...

robbitop
2022-12-04, 10:32:12
Hat jemand OC mit BCLK probiert? Erfahrungen?

r3ptil3
2022-12-04, 11:39:52
Juhu, die Nachfolger wurden bei computerbase schon mal erwähnt. Aber ob es sich überhaupt lohnen wird, steht noch in den Sternen. Ein 7950X3D müsste schon mit 5,5 GHz allcore daherkommen, damit sich in Games der Abstand zum 5800X3D lohnt.

Man kauft auch keinen 7900X3D/7950X3D fürs Gaming, sondern das Modell mit nur einer CCD.

Langlay
2022-12-04, 15:57:42
Hat jemand OC mit BCLK probiert? Erfahrungen?

Ich habs versucht, aber das Crosshair 8 Hero scheint dafür nicht geeignet zu sein. Sobald ich BCLK >100MHz habe geht er auf Multiplikator 38 und egal was du sonst so im Bios einstellen kannst ich hab nicht hinbekommen.

Traxx
2022-12-04, 16:58:53
Gerade gesehen dass mit dem "neuen" Asus Bios 2806 nun der Curve Optimiser im Bios bei einigen Boards anscheinend funktioniert.

https://www.reddit.com/r/Amd/comments/z7qw2z/asus_released_updated_bios_that_now_allows_to_use/

Achill
2022-12-04, 18:34:04
Hat jemand OC mit BCLK probiert? Erfahrungen?

Ich habs versucht, aber das Crosshair 8 Hero scheint dafür nicht geeignet zu sein. Sobald ich BCLK >100MHz habe geht er auf Multiplikator 38 und egal was du sonst so im Bios einstellen kannst ich hab nicht hinbekommen.

Ein schneller Test von mir (nachdem dies im Netz vor einiger Zeit Thema war) hat gezeigt das irgendwo bei 101.25 oder so Schluss ist und das System nicht mehr bootet. Soll wohl MBs geben die eine externe Clock nutzen, mein MSI MB hat es nicht. Würde für nicht einmal effektiv 1% mehr Leistung da nicht rum spielen wollen.

aufkrawall
2022-12-04, 23:18:50
In Fortnite mit Nanite/Lumen scheint der 3D leider eine Gurke zu sein, spiegelt weitgehend die Performance in Wonderlands mit 130 vs. 110fps des 11400F. :(

Mortalvision
2022-12-04, 23:44:09
Man kauft auch keinen 7900X3D/7950X3D fürs Gaming, sondern das Modell mit nur einer CCD.

Oh, ist das Cache pro CCD? Das wäre ja schade…

DennisO2
2022-12-05, 03:13:06
Beim FS2020 steigt die (minimale) Bildrate in komplexen Situationen bis zu 50% im Vergleich zum 5900X.
DAS klingt doch sehr scharf! Von was auf was springen sie bei dir?

DennisO2
2022-12-05, 03:16:06
Wenn man für den x3d jetzt noch ein Mobo holt, welches würdet ihr empfehlen? Lese oft dass Kombostrike MSI praktisch wäre, bin sonst ASUS user... Kommt nicht auf den letzten Taler an, unnötigen Luxus brauchts aber auch nicht um noch eine "alte" Plattform zu bauen. USB-C klar, anständige Anbindung der GPU auch ;).
Ich hab vorher nur ASUS gekauft und bin jetzt mit ein paar Hauptplatinen auf MSI gewechelt. Wirklich glücklich bin ich nicht. Beide Hersteller liefern laufende Platinen, aber ASUS ist komfortabler. Das Bios sieht auch professioneller aus als das Kinder-Bling-Bling bei MSI. Allerdings war das MSI-Mainboard eines der wenigen ohne RGB im höheren Preissegment, das hat mir wiederum gefallen.

Kurz gefasst: Wenn beide Mainboards halbwegs gleich sind und den Ansprüchen genügen, würde ich immer ASUS nehmen, auch, wenn es 50€ mehr kostet. Darüber hinaus würde ich erst ins Grübeln kommen.

aufkrawall
2022-12-05, 04:30:52
"Bling Bling"? Komisch, ist mir mit diversen MSI-Boards noch gar nicht aufgefallen. Einfach F7 fürs erweiterte Menü drücken und alles wie gehabt einstellen...

Freestaler
2022-12-05, 06:07:59
Hat jemand OC mit BCLK probiert? Erfahrungen?

Mit dem Asrock x370 Taichi komme ich auf 105. 106 ist wackelig.

M4xw0lf
2022-12-05, 08:44:51
Mit dem Asrock x370 Taichi komme ich auf 105. 106 ist wackelig.
Bekommst du dann auch unter Last die +225 MHz?
(Allerdings sind das ja gerade mal 5%, also sowieso nicht weltbewegend.)

DennisO2
2022-12-05, 10:47:02
"Bling Bling"? Komisch, ist mir mit diversen MSI-Boards noch gar nicht aufgefallen. Einfach F7 fürs erweiterte Menü drücken und alles wie gehabt einstellen...
Trotz F7 ist es recht unhübsch bei mir (X570 Unify). Oben riesige XMP-"Knöpfe", unten rechts und links jeweils drei riesige Logos (s. Anhang)


ASUS war da (zumindest vor den 570er-Chipsätzen) wesendlich aufgeräumter.

Bei ASUS klappt es auch, das Biosupdate direkt aus dem Bios übers Netz zu laden, bei MSI muss ich nen Stick benutzen.

Sind, wie gesagt, nur Nuancen, nichts Weltbewegendes. Wer den Unterschied nicht kennt, wird auch mit MSI glücklich - oder mag es sogar etwas weniger "nüchtern".

dildo4u
2022-12-06, 11:02:53
PCGH hat das neue WOW Addon gebencht 5800x3D sieht gut aus, Raptor Lake scheint hier massiv durch DDR5 zu gewinnen.
Würde Gerne noch den 7700X sehen.


https://www.pcgameshardware.de/World-of-Warcraft-Dragonflight-Spiel-73654/Specials/WoW-Dragonflight-Benchmarks-Anforderungen-1408516/2/

aufkrawall
2022-12-06, 14:34:10
Ich betreib jetzt den Aufwand und hab mir wieder ein Board für den Intel bestellt. Mal gucken, ob AMD wirklich so kacke ist, oder ob es nicht doch nur an Windows 11 lag und ich mich hier zum Affen mache. :freak:
*uh-uh-ah-ah*
https://abload.de/thumb/dyinglightgame_x64_rwmye7b.png (https://abload.de/image.php?img=dyinglightgame_x64_rwmye7b.png)

Kein Ryzen-Problem. Hab deshalb schon überlegt, ob ich das Board für einen 5800X3D irgendwann im nächsten Jahr behalte. Aber die Skalierung in einigen Spielen ist einfach zu mies gegenüber dem 11400F. Sei es Far Cry 6 mit 85 vs. 97fps oder Wonderlands mit 110 vs. 130, das ist vermutlich ultra slow gegen RAM-ausgemaxte ADL/RTL...

Darkearth27
2022-12-06, 16:01:03
@aufkrawall
Welches Game ist das?

Solche Spikes habe ich damals mit dem 5900X bei "Medium" auch gehabt, lag / liegt an der Engine.

Der_Korken
2022-12-06, 16:02:49
PCGH hat das neue WOW Addon gebencht 5800x3D sieht gut aus, Raptor Lake scheint hier massiv durch DDR5 zu gewinnen.
Würde Gerne noch den 7700X sehen.


https://www.pcgameshardware.de/World-of-Warcraft-Dragonflight-Spiel-73654/Specials/WoW-Dragonflight-Benchmarks-Anforderungen-1408516/2/

Irgendwas sieht da für mich fishy aus bei der Differenz zwischen 12900K und 13700K. Bei CB, wo Raptor Lake extrem gut weggekommen ist in Games, sind da teilweise auch so extreme Differenzen drin. Nicht nur zwischen 12000er und 13000er, sondern oft auch zwischen 12000er DDR4 vs DDR5. Wenn ich langeweile hätte, würde ich Korrelationen zwischen den einzelnen CPUs plotten, um zu sehen welche Modelle ähnliche Stärken und Schwächen haben. Gefühlt verhält sich Alder Lake (v.a. mit DDR5) ähnlich zum Ryzen 5800X3D, d.h. der gegenüber Rocket Lake vergrößerte Cache und DDR5 haben ähnliche Effekte wie der 3D-Cache bei AMD. Nur scheint Intel den Cache effektiver zu nutzen und irgendwie profitiert Intel deutlich mehr von DDR5 als AMD, wobei man das leider nicht prüfen kann, weil es kein Zen 4 mit DDR4 gibt.

aufkrawall
2022-12-06, 16:06:44
@aufkrawall
Welches Game ist das?

Solche Spikes habe ich damals mit dem 5900X bei "Medium" auch gehabt, lag / liegt an der Engine.
Dying Light 2 mit Nvidia-Limiter. Hatte ich gestern nach zwei Programm-Starts nacheinander, nach einer Neu-Anmeldung war es weg. Bei Bros System mit 5800X3D tritt es auch manchmal auf. Ich hake es jetzt als unerklärlich ab und drauf geschissen.

Der Ausflug mit dem 5500 war nicht völlig uninteressant, in einigen Spielen bietet der echt dem 11400F Paroli. In HotS mit DXVK versagt der aber leider ziemlich: Kackt auf bis zu 90fps ein, während der 11400F quasi 100% der Zeit das 120fps-Limit hält. Immerhin kann der 5800X3D hier sogar 140fps bei prima Frame Time-Varianz halten. Wenn der mal überall so gut laufen würde. :redface:

Darkearth27
2022-12-06, 22:59:17
Schade das Game hab ich nicht, sonst hätte ich es bei mir testen können ob es ein generelles Problem ist oder überhaupt bei mir aufrtitt.

Vielleicht hole ich mir das Spiel aber irgendwann noch, dann geb ich bescheid (falls überhaupt noch nötig).

aufkrawall
2022-12-06, 23:02:19
Mach dir wegen mir keine Umstände. Im Spiel geht die CPU-Last hoch, wodurch dann aus dem regelmäßigen nur noch unregelmäßige, sporadische Spikes werden, die schwer zuzuordnen sind. Besser nicht deswegen verrückt machen.

aufkrawall
2022-12-08, 21:10:41
In DL2 RT mit der neuen 300% Extra-Sichtweite läufts nur magere 10% schneller als auf dem 11400F:
https://abload.de/thumb/dyinglightgame_x64_rwuwf0w.png (https://abload.de/image.php?img=dyinglightgame_x64_rwuwf0w.png) https://abload.de/thumb/dyinglightgame_x64_rwufcwd.png (https://abload.de/image.php?img=dyinglightgame_x64_rwufcwd.png)

Bei schlechterer Effizienz als der 14nm Intel, was zur Hölle ist da los? ;D
Mag sich das mal jemand anschauen? Ggf. auch mit anderer Ryzen-CPU, etwa 5700/5800.

dman
2022-12-08, 21:22:04
Nö,in DL2 bringt der Cache halt nix.
https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/2.html

aufkrawall
2022-12-08, 23:58:00
Ja, gut. Aber warum sind Performance und Verbrauch so mies vs. den alten LowEnd-Gammel? Die CPU-Auslastung ist ja auch fett, verballert Taktzyklen für offenbar nichts. Liegt auch nicht an HT.
WD Legion läuft auf demselben System rasend schnell, sollte also nichts verkorkst sein.

CompuJoe
2022-12-09, 00:36:18
Was für ne GPU hast du?
Habe bei DL2 so um die 70-80 Watt und Takt liegt bei 4400Mhz - 4450Mhz mit Curve auf -30

Bei dem Game Limitiert die GPU, da bringt dir die beste CPU nix. Reduziere die GPU-Lastigen Sachen und du wirst mehr und mehr einen Unterschied sehen.

aufkrawall
2022-12-09, 00:46:23
Du hast auch "nur" eine 3080, Bro hat eine 4090. Dieser Screenshot aus dem Benchmark ist jetzt nicht gerade der Worst Case aus dem Spiel und mit den neuen Sichtweiten-Details kannst du die alten Benchmarks eher vergessen. Leider stellt sich immer mehr der Eindruck ein, dass der 5800X3D deutlich zu langsam für eine 4090 ist, wenn man trotz 4k auch mal mit Upsampling >100fps ausfahren will (will man mit der Hardware und 144Hz eigentlich immer). Versagt einfach zu oft.

CompuJoe
2022-12-09, 01:03:34
Du hast auch "nur" eine 3080, Bro hat eine 4090. Dieser Screenshot aus dem Benchmark ist jetzt nicht gerade der Worst Case aus dem Spiel und mit den neuen Sichtweiten-Details kannst du die alten Benchmarks eher vergessen. Leider stellt sich immer mehr der Eindruck ein, dass der 5800X3D deutlich zu langsam für eine 4090 ist, wenn man trotz 4k auch mal mit Upsampling >100fps ausfahren will (will man mit der Hardware und 144Hz eigentlich immer). Versagt einfach zu oft.

Bro, ich habe das Spiel gestern gespielt, bei dem Spiel bringt dir keine CPU was, das ist komplett durch die GPU und die schrottige Software limitiert, deswegen bekommst auch keine gute Auslastung auf GPU und CPU hin, es gibt nicht nur GPU und CPU Limit, auch die kack Software kann limitieren.
Das Spiel ist generell kacke optimiert.

Ein Tip um die Spikes zu reduzieren, kein Browser oder Explorerfenster darf offen sein, das Spiel hat nen Problem mit einer hohen Last durch die dwm.exe (Desktopfenster-Manager) wie so viele!

aufkrawall
2022-12-09, 01:27:21
Irgendwie scheint Nicht-4090-Besitzern gehörig die Fantasie zu fehlen, wann etwas CPU-limitiert ist. :freak:
Schon mal 120fps mit RT auf einer 3080 gesehen? Glaube nicht.

CompuJoe
2022-12-09, 01:46:05
Irgendwie scheint Nicht-4090-Besitzern gehörig die Fantasie zu fehlen, wann etwas CPU-limitiert ist. :freak:
Schon mal 120fps mit RT auf einer 3080 gesehen? Glaube nicht.

Schau dir mal auf deinen Screenshots die Auslastung der GPU und CPU an (btw. zwei verschiedene Auflösungen), da siehst du was limitiert, etwas anderes oder die schrottige Software.
Das game ist einfach kacke optimiert! Ist ähnlich bei New World was ich gerade spiele, da bekommst weder GPU noch CPU gescheit ausgelastet weil Software kacke.

Btw. hatte schon diverse 4090 in der Hand und auch im Betrieb weil Kundenrechner auch unter Last getestet werden, gerade heute auch ne 7900XTX (noch keine Treiber) ^^

aufkrawall
2022-12-09, 01:59:51
Ja, die 3060 kratzt knapp am GPU-Limit. Die 4090 langweilt sich bei 100fps aber einen ab, weil extrem im CPU-Limit bei einer harmlosen Szene (wäre mit maximalen Details in 4k DLSS Performance genau das Gleiche). Ob der Entwickler für Ryzens irgendwas verkackt hat: Kann sein, gibt einem leider auch keine Gratis-fps.
Schau dir mal den Changelog des Patches von heute an:

LOD Range Multiplier – this feature is available in the Advanced video menu, but watch out, survivor, it takes a heavy toll on your performance!
Ray-tracing effects range is extended by 20%

https://dyinglightgame.com/news/update-1-8-is-live/
CPU-Auslastung steigt trotz niedrigerer fps im GPU-Limit mit der 3060 deutlich an, bei extrem aufgebohrter Sichtweite:
https://abload.de/thumb/dyinglightgame_x64_rwawcf5.png (https://abload.de/image.php?img=dyinglightgame_x64_rwawcf5.png) https://abload.de/thumb/dyinglightgame_x64_rwpdf41.png (https://abload.de/image.php?img=dyinglightgame_x64_rwpdf41.png)

Ich sags nochmal: Du kannst alle alten Werte/Tests komplett vergessen, auch die von gestern.
Und ja, bei dem Spiel besser Auflösung via DLSS runterschrauben und LOD reinknallen. Die Screenshots oben sind ja eindeutig, wer will darauf verzichten (vielleicht nicht 300%, aber schon mindestens 150%). Besonders in 4k.

Wir sollten einen Thread für CPU (RT) Werte im Benchmark-Forum aufmachen und dann hoffentlich sehen, wie Ryzens/Intels im Vergleich abschneiden.

CompuJoe
2022-12-09, 02:39:22
Hää, jetzt kommst du mit ner 3060 die absolut im GPU Limit hängt.
Warum kommst du von alten werten und Tests wenn ich das Game gerade selber spiele und sehe das ein Upgrade vom 3900X zum 5800X3D fast nichts gebracht hat, weder GPU noch CPU werden annähernd ausgelastet hier.
Wenn deine 4090 im CPU (Software) Limit hängt, dann musst du wohl noch etwas warten auf die nächsten Generationen CPUs die dann wohl auch nicht mehr viel bringen wird da der Flaschenhals wo anders liegt. Es gibt in dem Spiel Szenen wo weder GPU noch CPU schwitzen, es hakelt vor sich hin und man weiß nicht warum, da bringt die beste Hardware nix.

Btw. wurde ja schon gesagt das dieses Spiel null vom Cache profitiert.

aufkrawall
2022-12-09, 03:01:47
Es gibt in dem Spiel Szenen wo weder GPU noch CPU schwitzen, es hakelt vor sich hin und man weiß nicht warum, da bringt die beste Hardware nix.

Sorry, aber einfach nur nein. Selbst Gothic 2 Khorinis profitiert noch von neuen CPUs.

CompuJoe
2022-12-09, 03:05:33
Es geht hier aber nicht um Gothic 2!

aufkrawall
2022-12-09, 03:28:28
Und woher nimmst du die Gewissheit, dass DL2 kaputt wäre und deshalb nicht skalieren könne? Ich habe jedenfalls noch kein ADL/RTL-Ergebnis von der Stelle oben im CPU-Limit gesehen (und auch sonst so ziemlich niemand).

Spring
2022-12-09, 03:44:05
Es geht hier aber nicht um Gothic 2!

Mach Dir nichts draus, er weiß es immer besser.
Name ist Programm.

Er würde wahrscheinlich von vielen hier mehr gehört werden, wenn er nicht so eine ätzende Argumentation hätte (unabhängig von Kenntnis von DLSS und co oder der sinnvolle Vorschlag Vsync mit Fps-Limiter unter den Hz des Monitors anzumachen).

Ich glaube die meisten sinnvollen Vorschläge gehen allgemein wg der Art der Diskussion (fast egal wer, ist jetzt keiner speziell gemeint) unter, zumal dann irgendeiner wieder ein NV/AMD/INTEL Fass aufmacht und dann gehts richtig zu Sache (meist dann nach paar h oder Tagen unterbrochen/beendet durch Verwarnen und Aufräumen der Mods).

Würde mal gerne dargo und ihn im Ring sehen, das wäre hier das Highlight für das gesamte Forum, da würde sich nichts geschenkt werden ;D
Oder Ungard vs sunman :wink:

Sry 4 OT & wünsche allen einen ruckelfreien Tag (egal welches BIAS du hast)

user77
2022-12-09, 17:16:49
Falls noch wer einen günstigen Unterbau braucht:

ASUS ROG Strix B450-F Gaming II für 109€ bei NBB.de
https://www.notebooksbilliger.de/asus+rog+strix+b450+f+gaming+ii+mainboard+sockel+am4+786142

dildo4u
2022-12-10, 11:40:08
Q53rT4WxCWk

user77
2022-12-10, 12:34:35
Btw. hatte schon diverse 4090 in der Hand und auch im Betrieb weil Kundenrechner auch unter Last getestet werden, gerade heute auch ne 7900XTX (noch keine Treiber) ^^

Du hast für nen Kunden auch schon ne 7900xtx zu Hand? Die gibt's ja noch nicht zu kaufen?

w0mbat
2022-12-10, 13:18:28
Ist Verkaufstart nicht am Dienstag? Dann sind die Karten natürlich schon im Laden.

gedi
2022-12-10, 18:12:29
https://youtu.be/Q53rT4WxCWk

Habe mir das Video bereits heute morgen angeschaut. Leider wurde der 7600x noch mit Agesa 1003 getestet. 1004 bringt gleiche Performance bei weniger Verbrauch. Ich liebe AM5!

BlacKi
2022-12-10, 18:25:28
interessant, das der 5800x3d auch in titeln die mit 8 kernen einen vorteil haben sollten, langsamer ist als der 6 kerner mit zen4.

gedi
2022-12-10, 19:48:57
interessant, das der 5800x3d auch in titeln die mit 8 kernen einen vorteil haben sollten, langsamer ist als der 6 kerner mit zen4.

Ach ja, dank neues Treiber kann die iGPU auch 120Hz in 4k! Leider ist der HDR-Modus nicht zu gebrauchen, der sieht so scheiße wie auf NV-Karten aus!

Zen4 ist abartig schnell, vor allem abseits Gaming. Mein 7900x steckt meinen ex 5950 so etwas von in die Tasche, abartig! Wenn jemand mal mit Cubase files transformed in ein selbst-edited Song-Edit getan hat, ähm ja-definiv eine neue Generation! Zudem ein no Brainer, sofern man Fast-Boot im Bios deaktiviert hat!

BlacKi
2022-12-10, 20:47:15
ich halte den 7900x eher für schwierig. für die manche games ist das ein 6 kerner. für games gibts eigentlich nichts besseres als die 8 kerner, alternativ im game mode der 16kerner, der ja kaum aufpreis ggü. dem 7900x kostet.

natürlich sind die cpus für gaming obsolet, wenn die x3d varianten nächsten monat kommen. aber auch dort gilt, 8 und 16 kerne. der rest ist eher suboptimal. was anderes wäre es , wenn der 7900x 8+4 kerne hätte.

dargo
2022-12-10, 21:18:58
Was laberst du da wieder für einen bullshit? :|

1. Kostet der 7900X aktuell 489€.
https://www.alternate.de/AMD/Ryzen-9-7900X-Prozessor/html/product/1861523?zanpid=11731_1670703262_687d94ea76086319a838a19cefddf703&awc=11731_1670703262_687d94ea76086319a838a19cefddf703&partner=dezanoxtextlink&campaign=AF/DeZanox/Textlinks/Alternate

Zusätzliche 117€ für den 7950X sind also kaum Aufpreis?
https://www.ebay.de/itm/304710468646?var=0&mkevt=1&mkcid=1&toolid=20006&mkrid=707-53477-19255-0&campid=5337412747&customid=qLxeTcTKqQ5EqrDEznZAEg

2. Was ist an einem 12 Kerner bzw. 24 Threader suboptimal? :lol: Entweder skaliert eine Applikation mit vielen Threads/Kernen oder halt nicht. Wenn letzteres zutrifft ist ein 16 Kerner genauso Grütze.

robbitop
2022-12-10, 21:20:20
Iirc profitiert Cubase gar nicht unbedingt von vielen Theads. Eher von pro Threadleistung und guten Latenzen / viel Cache. Und da ist Zen 4 halt deutlich schneller als Zen 3. Gute 25%. Ein 7700X wäre dort wahrscheinlich kaum von Nachteil.

gedi
2022-12-10, 22:20:11
Iirc profitiert Cubase gar nicht unbedingt von vielen Theads. Eher von pro Threadleistung und guten Latenzen / viel Cache. Und da ist Zen 4 halt deutlich schneller als Zen 3. Gute 25%. Ein 7700X wäre dort wahrscheinlich kaum von Nachteil.

Bei Kompilaon sehr wohl! Insbesondere wenn man die Parameter auf seinen Style programmiert. Die Erklärung fällt in diesem Forum etwas schwierig.

Trotzdem: Jede(!) AM5 CPU outperformed a AM4-Platform in every regular scenerie!

BlacKi
2022-12-10, 22:38:23
Was laberst du da wieder für einen bullshit? :|

1. Kostet der 7900X aktuell 489€.
https://www.alternate.de/AMD/Ryzen-9-7900X-Prozessor/html/product/1861523?zanpid=11731_1670703262_687d94ea76086319a838a19cefddf703&awc=11731_1670703262_687d94ea76086319a838a19cefddf703&partner=dezanoxtextlink&campaign=AF/DeZanox/Textlinks/Alternate

Zusätzliche 117€ für den 7950X sind also kaum Aufpreis?
https://www.ebay.de/itm/304710468646?var=0&mkevt=1&mkcid=1&toolid=20006&mkrid=707-53477-19255-0&campid=5337412747&customid=qLxeTcTKqQ5EqrDEznZAEg

2. Was ist an einem 12 Kerner bzw. 24 Threader suboptimal? :lol: Entweder skaliert eine Applikation mit vielen Threads/Kernen oder halt nicht. Wenn letzteres zutrifft ist ein 16 Kerner genauso Grütze.


1.ja


2. kennst du nicht die benches wo der 7700x vor dem 7950x liegt? kennst du nicht benches, wo der game mode(2.ccd deaktviert) schneller ist als alle cores active? im game mode profitiert man wenigstens noch von den höheren boost clocks ggü. dem 7700x.

dildo4u
2022-12-11, 05:22:51
interessant, das der 5800x3d auch in titeln die mit 8 kernen einen vorteil haben sollten, langsamer ist als der 6 kerner mit zen4.
Nicht wirklich verwunderlich dank IPC plus Takt hat der 7600X mehr Rechenleistung.
PCGH hat ihn sogar vor 5800X.

https://abload.de/img/7600xbbi3v.png

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/2/

robbitop
2022-12-11, 08:11:14
Bei Kompilaon sehr wohl! Insbesondere wenn man die Parameter auf seinen Style programmiert. Die Erklärung fällt in diesem Forum etwas schwierig.

Trotzdem: Jede(!) AM5 CPU outperformed a AM4-Platform in every regular scenerie!

Musikproduktion als „programmieren“ zu bezeichnen finde ich weit hergeholt. Mehr als parametrieren und ab und zu was zu skripten ist das nicht.
Ist das auch das was du neulich mit „beruflich simulieren“ meintest?
Beide Begriffe treffen in dem Kontext nicht zu.

Warum kann man das Kind nicht beim Namen nennen? Musikproduktion.

Zu letztem ja das ist genau was ich meine. Zen 4 ist allgemein deutlich schneller als Zen 3.

dargo
2022-12-11, 08:34:11
2. kennst du nicht die benches wo der 7700x vor dem 7950x liegt? kennst du nicht benches, wo der game mode(2.ccd deaktviert) schneller ist als alle cores active? im game mode profitiert man wenigstens noch von den höheren boost clocks ggü. dem 7700x.
Du beziehst dich hier nicht zufällig auf das kaputte Windows 11?
https://www.techpowerup.com/299959/amd-ryzen-9-7950x-posts-significantly-higher-gaming-performance-with-a-ccd-disabled?cp=1#comments


Zu letztem ja das ist genau was ich meine. Zen 4 ist allgemein deutlich schneller als Zen 3.
Dummerweise aber auch deutlich durstiger, zumindest die 2 CCD CPUs. Unter Fortschritt verstehe ich was anderes. Wo soll das ganze hinführen? Zen 6 bzw. AM6 dann mit bis zu 300W?

robbitop
2022-12-11, 09:46:51
Dummerweise aber auch deutlich durstiger, zumindest die 2 CCD CPUs. Unter Fortschritt verstehe ich was anderes. Wo soll das ganze hinführen? Zen 6 bzw. AM6 dann mit bis zu 300W?

Naja das sind Betriebspunkte der SKUs. Hat mit Zen 4 als uArch nichts zu tun. AMD hat ja selbst gezeigt, dass Zen 4 bei gleicher TDP (insbesondere bei geringen TDPs) Zen 3 zum Frühstück auffrisst. Ergo ist betriebspunktnormiert Zen 4 als uArch deutlich energieeffizienter als Zen 3. Auch die reviews zeigen das. Entsprechend kann man bessere Betriebspunkte nach gusto setzen.

Alternativ: Es kommen die non X SKUs mit niedrigeren Betriebspunkten ja noch raus.

Asaraki
2022-12-11, 10:17:10
Musikproduktion als „programmieren“ zu bezeichnen finde ich weit hergeholt. Mehr als parametrieren und ab und zu was zu skripten ist das nicht.
Ist das auch das was du neulich mit „beruflich simulieren“ meintest?
Beide Begriffe treffen in dem Kontext nicht zu.

Warum kann man das Kind nicht beim Namen nennen? Musikproduktion.

Zu letztem ja das ist genau was ich meine. Zen 4 ist allgemein deutlich schneller als Zen 3.

Den Begriff "kompilation" gibt es zumindest nicht im Musikjargon, ich gehe davon aus er benutzt irgendein komplexeres Resampling-Plugn. Wenn du da 40-120 Spuren reinfütterst, dann kann man das schon stark parallelisieren und dauert je nach Algo schon auch sehr lange.

Aber ich hab auch ein Projekt das dauert knappe 4 Minuten zum öffnen und knapp 10 zum exportieren auf eine Stereospur. Ist ja egal, in der Zeit spiele ich mich warm oder hole einen Kaffee. Da man sowieso viele Pausen machen muss, wenn man Musik mischt oder abhört passt das gut ^^

@gedi : Würde mich aus reiner Neugier schon interessieren, was da bei dir so viel Leistung braucht :)

P.S: Die R Analysen meiner Freundin brauchen deutlich mehr CPU Power ^^ Bin gespannt wie sich da der X3D gegenüber dem alten 3800X schlägt.

robbitop
2022-12-11, 10:24:34
Ich finds immer putzig wie viele Berufsgruppen das was sie tun als „Programmieren“ bezeichnen. Auch Techniker die Steuerungen (im Sinne einer SPS) konfigurieren/parametrieren. Oder irgenswelche PKW Tuner - von denen die Allermeisten auch nur zusammenklicken und parametrieren.

Das ist vielleicht alles „Programmieren“ im Sinne von „ich programmiere den Videorekorder die Sportschau aufzuzeichnen“. X-D
(Natürlich übertreibe ich damit bewusst)

Asaraki
2022-12-11, 10:27:30
Ich finds immer putzig wie viele Berufsgruppen das was sie tun als „Programmieren“ bezeichnen. Auch Techniker die Steuerungen (im Sinne einer SPS) konfigurieren/parametrieren.

Das ist vielleicht alles „Programmieren“ im Sinne von „ich programmiere den Videorekorder die Sportschau aufzuzeichnen“. X-D

Absolut einverstanden :) macht ja nix aber ist durchaus süss (aus den Augen eines Programmierers)
Für den Entwickler des Compilers/Framework bin ich ja auch nur ein Codemonkey

Ich hab mal einen reverb programmiert, lief aber nie richtig ^^=

aufkrawall
2022-12-13, 19:57:19
Witzig, in Miles Morales ist der Zen 8C HT-Bug offenbar gefixt. Das schien inkls. RT um die 50% schneller als das ältere Spiel zu laufen. :freak:
Mit MSI B550 gibt es ja eine Option für negativen Vcore-Offset, -100mV gehen einfach so. Darüber hinaus scheint aber die Leistung abzunehmen. Zusätzlich gehen aber weiterhin -30 in PBO2 Tuner. Komplett hirnrissig von AMD gewesen, das im Bios zu sperren. Die knallen so eine BS-Spannung auf jede ihrer CPUs, einfach nur wtf...
Beim 5500 waren es für 4,2GHz AC auch kranke 1,35V, was rauchen die...

Sumpfmolch
2022-12-13, 21:21:13
Witzig, in Miles Morales ist der Zen 8C HT-Bug offenbar gefixt. Das schien inkls. RT um die 50% schneller als das ältere Spiel zu laufen. :freak:
Mit MSI B550 gibt es ja eine Option für negativen Vcore-Offset, -100mV gehen einfach so. Darüber hinaus scheint aber die Leistung abzunehmen. Zusätzlich gehen aber weiterhin -30 in PBO2 Tuner. Komplett hirnrissig von AMD gewesen, das im Bios zu sperren. Die knallen so eine BS-Spannung auf jede ihrer CPUs, einfach nur wtf...
Beim 5500 waren es für 4,2GHz AC auch kranke 1,35V, was rauchen die...

Scheiße ich hatte mir vorgenommen einfach auf -30 zu setzen (im MSI B550 Beta Bios "Kombo Strike") und jetzt lese ich sowas. Gleich mal spielen gehen...

edit: Hier kosten schon die -0.05V Leistung bei gleichzeitig PBO -30. Ohne Spannungssenkung ist im R23 die Maximalspannung bei 1.219V und der Durchschnitt bei 1.157V.

[MK2]Mythos
2022-12-14, 00:40:39
Für mein ROG Crosshair VIII bietet ASUS bisher leider noch nicht das neue Bios mit dem Curve Optimizer an.
Wenn ich dem X3D im Bios auch nur -10mv offset verpasse, boostet er schon nicht mehr so hoch. Bei -0.100 eiert er irgendwo bei 4.2 Ghz allcore rum und verbraucht ~64Watt. :freak:
Standardmäßig boostet er bei mir auf rund 4.35 Ghz @ 74°C.
Per PBO2 Tuner mit allcore -30 ist er allcore unter Last auf 4.450 Ghz festgetackert und wird ca 69/70° warm.
Wenns für mich kein Bios gibt, spare ich mir das Geeier mit dem Tool und verzichte auf ~2% Performance.

Langlay
2022-12-14, 00:45:23
Mythos;13188388']Für mein ROG Crosshair VIII bietet ASUS bisher leider noch nicht das neue Bios mit dem Curve Optimizer an.



https://www.overclock.net/threads/asus-rog-x570-crosshair-viii-overclocking-discussion-thread.1728796/page-637#post-29085007

Hier kriegste das 1.2.0.8 Bios fürs Impact

[MK2]Mythos
2022-12-14, 00:53:49
https://www.overclock.net/threads/asus-rog-x570-crosshair-viii-overclocking-discussion-thread.1728796/page-637#post-29085007

Hier kriegste das 1.2.0.8 Bios fürs Impact
Nice, danke! :)

aufkrawall
2022-12-14, 00:57:34
edit: Hier kosten schon die -0.05V Leistung bei gleichzeitig PBO -30. Ohne Spannungssenkung ist im R23 die Maximalspannung bei 1.219V und der Durchschnitt bei 1.157V.
Hm, in Spielen war bislang keine Performance-Verschlechterung festzustellen. Auch nochmal CB testen...

hq-hq
2022-12-17, 08:35:42
etwas verspätet hab ich mir jetzt auch einen x3d geholt...

bei den integrierten Benchmarks sind die Erfolge für den x3d bislang ausgeblieben, beim alten FinalFantasy Endwalker Benchmark hat er jetzt einen Pluspunkt (in 1080p) gesammelt

5800x___[CO-30] = 100% (33860)
5800x3d__[CO-0] = 111% (37640)
5800x3d_[CO-30] = 112% (37826)


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81918&stc=1&d=1671261626

CO-30 beim 5800x3d machen ca. 100mV aus, man spart ca. 12Watt und bekommt keinen bis einen marginalen Leistungszuwachs in Games

4450MHz allcore ist etwas mau, der 5800x (auch wenns vielleicht nicht ganz stimmt weil er nur 4x4825MHz schnell hin und herschiebt) zeigt mitunter bis zu 4825Mhz allcore an

5800x lief zuletzt mit DDR4 3800 Cl 15 16 16 32 (4x8GB),
5800x3d bis jetzt "nur" mit 3600 Cl 14 15 15 30 (4x8GB)

Sardaukar.nsn
2022-12-17, 08:46:47
Schau dir doch noch mal die Leistungsaufnahme und damit die Effizienz der neuen CPU an. Das ist schon ein enormer Fortschritt. Bin ja auch vom 5800x auf den 3D gewechselt und der kann jetzt erstmal noch ein bisschen bleiben.

Den Vergleich kennst du? https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/2.html

hq-hq
2022-12-17, 09:43:13
CO-30 hilft dem 5800x halt viel mehr als dem x3d in Games, IMHO verschiebt sich die Techpowerup Aufstellung bis zu +8% für den alten 5800x der in einigen Fällen den x3d abhängt... ja die Effizienz ist halbwegs outstanding

jetzt mal ne runde Cyberpunk zocken :freak:

Ätznatron
2022-12-17, 13:00:27
CO-30 h

Ernsthaft? ;)

hq-hq
2022-12-17, 17:05:24
Ernsthaft? ;)
:biggrin:
ja also... beim 5800x3d ändert sich nur der Verbrauch, erst bei extremer Last wie bei CB23 bricht ohne CO -30 der allcore Takt ein (also unter 4450MHz)
+4% durch Takt würde ich dem altem 5800x zusprechen, ohne die Vorteile durch RAM OC die ebenfalls stärker ins Gewicht fallen

cyberpunk läuft mit dem 5800x3d tatsächlich besser, deutlich weniger Stuttering selbst bei Gebietswechsel, cache magic sauce

Sardaukar.nsn
2022-12-17, 18:04:50
Ich hatte mit Curve Optimizer Allcore -30 leider hier und da mal einen Crash. Mit -20 ist aber auch alles gut. Der Cache bügelt gefühlt einfach viele Unebenheiten weg. Funktioniert ja auch gut mit alten oder nicht top-optimierten Engines.

Da mir die gesamte Situation mit den aktuellen Mainboards inkl. DDR5 egal ob AMD oder Intel nicht gut gefällt, war der Umstieg auf X3D für mich recht klar. Jetzt kann ich erstmal ganz in Ruhe beobachten wohin sich der Markt entwickelt.

aufkrawall
2022-12-17, 18:09:33
Der Cache bügelt gefühlt einfach viele Unebenheiten weg.
Du wirst eher gegenüber der alten CPU aus dem CPU-Limit raus oder weiter von ihm entfernt sein, was den Frame Times fast immer zugutekommt. Hat nichts speziell mit dem Cache zu tun, sondern einfach mit den fps im CPU-Limit.

user77
2022-12-17, 19:17:16
etwas verspätet hab ich mir jetzt auch einen x3d geholt...

bei den integrierten Benchmarks sind die Erfolge für den x3d bislang ausgeblieben, beim alten FinalFantasy Endwalker Benchmark hat er jetzt einen Pluspunkt (in 1080p) gesammelt

5800x___[CO-30] = 100% (33860)
5800x3d__[CO-0] = 111% (37640)
5800x3d_[CO-30] = 112% (37826)


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81918&stc=1&d=1671261626

CO-30 beim 5800x3d machen ca. 100mV aus, man spart ca. 12Watt und bekommt keinen bis einen marginalen Leistungszuwachs in Games

4450MHz allcore ist etwas mau, der 5800x (auch wenns vielleicht nicht ganz stimmt weil er nur 4x4825MHz schnell hin und herschiebt) zeigt mitunter bis zu 4825Mhz allcore an

5800x lief zuletzt mit DDR4 3800 Cl 15 16 16 32 (4x8GB),
5800x3d bis jetzt "nur" mit 3600 Cl 14 15 15 30 (4x8GB)

12% mehr Leistung bei 60% Energieaufnahme ist nicht gut?:freak:

hq-hq
2022-12-17, 20:27:23
12% mehr Leistung bei 60% Energieaufnahme ist nicht gut?:freak:

ich hätte lieber 17% mehr Leistung bei gleichem Verbrauch und dafür bis zu 4700MHz allcore in Games :freak:

Der Verbrauch ist mir fast egal

@Sardaukar.nsn den CO hab ich eh nie verstanden beim MSI x570 Tomahawk, sobald ich was anderes als PBO OFF eingestellt hatte gabs bei mir auch Crashes, beim X3D hab ich erst garnix anderes probiert als PBO OFF und CO -30, sogar OCCT läuft

in cyberpunk fühlt sich der 5800x3d mit oder ohne CO -30 schneller an als der alte 5800x, nur messen wird man kaum was können...

EDIT zu Cyberpunk, https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13192055&postcount=35
wie erwartet kann man keinen Unterschied messen, die min fps sind vielleicht ein paar % höher

und auch in Cyberpunk ist es egal ob man CO -30 einstellen kann oder nicht, der FPS Zuwachs bei -30 geht in der Messungenauigkeit unter
leider hatte ich keinen Vergleich beim alten 5800x gemacht wieviel % CO -30 bringt

user77
2022-12-18, 10:00:15
Der Verbrauch ist mir fast egal

--> Intel Core i9-13900K

Traxx
2022-12-18, 11:44:04
So, Build ist ready. In den ersten kurzen Tests macht der genau da wofür ich den Prozzi holte richtig was her im Vergleich zum auch nicht gerade schlechten 10900k@5.1.
MSFS ist ein Traum mit dem x3d und Frame Generation. Z.B. im Final auf die Piste 07R in Frankfurt auf VATSIM 2 - 3x soviele Frames. Vorher oft unter 15. Coole Kiste, echt.
In SC ist die Auslastung der GPU auch höher. Klar, belastbar messen ist da nicht. Aber gefühlt wesentlich besser. Die Spikes / Stotterer sind immer noch nervig. Aber in Szenen (z.B. beim Retaliator Wrack) wo vorher üble Drops waren ist die Mehrleistung deutlich spürbar.
Danke euch für die Infos und Tipps in diesem Thread, war lange nicht mehr bei AMD, so läuft der nun zufrieden Allcore -30 bei ca. 55° und festgetackerten 4450.

hq-hq
2022-12-18, 12:29:25
--> Intel Core i9-13900K

mein Gedanke :biggrin: und mehr shoop hättes es auch gegeben :biggrin:

mich ärgert der politische Multiplikatorlock beim 5800x3d, mehr ist es nicht :rolleyes:

robbitop
2022-12-18, 12:57:16
Ich glaube, dass die Aussage von AMD eher eine Ausrede war. Man hätte eine maximale Spannung festlegen können - man hat aber den Multiplikator gelockt. Ich glaube man wollte Zen 4 nicht zu sehr torpedieren. Einzelne Kerne würden sicherlich knappe 5 GHz schaffen. Zen 4 wäre damit kompromisslos in vielen Anwendungen und Spielen zurück bleiben.

Wenn Zen4x3d raus ist könnten sie ja ein „bro“ sein und das freischalten. Aber ggf sind auch die Mainboardhersteller dagegen weil die AM5 Kasse machen wollen.

Traxx
2022-12-18, 15:45:36
mich ärgert der politische Multiplikatorlock beim 5800x3d, mehr ist es nicht :rolleyes:
Jup... mich auch. Bleibt nur mal mit dem BCLK etwas zu experimetieren, wenn der Spieltrieb siegt...

robbitop
2022-12-18, 16:04:57
Das ist idR enttäuschen. Hab bei mir 102 MHz - also ganze 2% - probiert: kein boot. Yay…

=Floi=
2022-12-18, 16:52:02
wenn die temp stock 95 grad hat, wird es einfach technische gründe haben. Eventuell senkt man bei der 7000er serie die dicke ab. Man hätte ihn auch garnicht bringen müssen oder hätte ihn längst auslaufen lassen können.
Es ist und bleibt auch so ein tolles produkt und er ist mit abstand am effizientesten.

robbitop
2022-12-18, 17:16:23
Trotzdem ist der Multiplikatorlock unnötig. Meiner läuft abseits von Powerviren (normale Anwendungen und Spielen) übrigens unter 60C.

Zum Selbstzweck hat AMD das sicher nicht gemacht sondern als Konter zu ADL. Eine Obergrenze für Voltage und Temperatur und TDP ist technisch sinnvoll aber ein Multiplikatorlock nicht. Man wollte sich schlicht nicht selbst zu viel Konkurrenz machen.

ElectricLeaf
2022-12-18, 18:40:00
Wenn der 3D einen freien Multi hätte würde sich doch bis zum 7700x kein Mensch mehr AM5 kaufen.

robbitop
2022-12-18, 19:10:50
So ist es.

Langlay
2022-12-18, 19:29:56
. Man hätte eine maximale Spannung festlegen können - man hat aber den Multiplikator gelockt. Ich glaube man wollte Zen 4 nicht zu sehr torpedieren. Einzelne Kerne würden sicherlich knappe 5 GHz schaffen. Zen 4 wäre damit kompromisslos in vielen Anwendungen und Spielen zurück bleiben.


Was hat auch richtig hart, ist dass die 5800X3D richtige gute Chiplets bekommen. Mein 5800X3D (mit CO-30) geht mit <1.2V auf 4.45GHz Allcore, mein alter coalsample Releasedate 5800X hat die 4.5GHz Allcore bei 1.33V stabil gemacht.

Ich kann verstehen wieso man das mit dem Multi gemacht hat, aber ich find die Lösung auch nicht unbedingt im Sinne vom Kunden.

Traxx
2022-12-18, 19:31:01
Trotzdem ist der Multiplikatorlock unnötig. Meiner läuft abseits von Powerviren (normale Anwendungen und Spielen) übrigens unter 60C.



Jup. Bei mir hängt er an einer 420er Aio und ist beim zocken meist bei 55°. Das mit dem BCLK habe ich auch kurz probiert - ohne Erfolg, muss mich da einlesen wegen den Ram-Speeds. Könnte auch daran hängen.

robbitop
2022-12-18, 19:33:58
Was hat auch richtig hart, ist dass die 5800X3D richtige gute Chiplets bekommen. Mein 5800X3D (mit CO-30) geht mit <1.2V auf 4.45GHz Allcore, mein alter coalsample Releasedate 5800X hat die 4.5GHz Allcore bei 1.33V stabil gemacht.

Ich kann verstehen wieso man das mit dem Multi gemacht hat, aber ich find die Lösung auch nicht unbedingt im Sinne vom Kunden.
Die X3D schaffen soweit ich das so wahrnehme eigentlich fast alle -30. Meiner auch. :)

robbitop
2022-12-18, 19:35:17
Jup. Bei mir hängt er an einer 420er Aio und ist beim zocken meist bei 55°. Das mit dem BCLK habe ich auch kurz probiert - ohne Erfolg, muss mich da einlesen wegen den Ram-Speeds. Könnte auch daran hängen.

Angeblich soll ohne mvme ssd mehr bclk gehen. Aber selbst wenn 105 MHz gingen (was schon am super höchsten Bereich des Spektrums ist was ich so mitbekomme) sind das nur 5%. Mess- aber nicht spürbar.

Traxx
2022-12-19, 18:04:30
Sobald ich die bclk erhöhe, testweise auf 101, boostet er nicht mehr hoch, also Multi bleibt auf 34. Beim ASUS ROG Crosshair VIII Extreme wäre das wohl die Einstellung "Core Performance Boost". Bei meinem Strox B-550 F Gaming finde ich diese Option nicht. Booten geht, der höhere bclk wird auch in cpu-z angezeigt, aber der multi geht nicht mehr hoch unter last.

O.k, CPU Core Ratio und ccx oc rauf auf 45, dann boostet er hoch. Im Cinebench wird er aber wärmer und läuft langsamer als vorher...

r3ptil3
2022-12-19, 18:22:07
Die Info weiter oben, dass -30 CO alle schaffen, kann ich nicht bestätigen.

Mein erstes Modell konnte das nicht auf alle Kerne. Das zweite nun schon.
Wenn man auf Reddit schaut, gibt's einige die das nicht hinkriegen.

Langlay
2022-12-19, 18:33:39
Sobald ich die bclk erhöhe, testweise auf 101, boostet er nicht mehr hoch, also Multi bleibt auf 34. Beim ASUS ROG Crosshair VIII Extreme wäre das wohl die Einstellung "Core Performance Boost". Bei meinem Strox B-550 F Gaming finde ich diese Option nicht. Booten geht, der höhere bclk wird auch in cpu-z angezeigt, aber der multi geht nicht mehr hoch unter last.


Ja, das ist bei Asus Boards so, das ist auch kein Bug das ist ein Feature, laut Asus Support.

Das Verhalten hab ich mit dem C8H auch.

Und @Barth nicht jeder X3D schafft -30 aber sehr viele, also die Chiplets sind auf dem X3D schon ein gutes Binning.

Traxx
2022-12-19, 18:42:10
Ja, das ist bei Asus Boards so, das ist auch kein Bug das ist ein Feature, laut Asus Support.


Achso, danke, dann habe ich mal wieder etwas dazu gelernt was bei Asus so als Feature zu verstehen ist ;).

dargo
2022-12-19, 19:42:50
Und @Barth nicht jeder X3D schafft -30 aber sehr viele, also die Chiplets sind auf dem X3D schon ein gutes Binning.
Würde ich nicht unbedingt so sehen, eher spielt dem X3D der niedrige Takt in die Karten. Mit Allcore 4450Mhz kommt mein 5800X mit weniger als 1,15V aus. Der X3D bewegt sich in einem viel besseren Betriebspunkt direkt vom IHV.

sChRaNzA
2022-12-19, 19:56:28
Jup. Bei mir hängt er an einer 420er Aio und ist beim zocken meist bei 55°. Das mit dem BCLK habe ich auch kurz probiert - ohne Erfolg, muss mich da einlesen wegen den Ram-Speeds. Könnte auch daran hängen.

Also unter Luft seh ich bei mir öfter die 88°C+.

robbitop
2022-12-19, 20:24:47
In Powerviren oder auch in Spielen?

Langlay
2022-12-19, 21:35:23
Würde ich nicht unbedingt so sehen, eher spielt dem X3D der niedrige Takt in die Karten. Mit Allcore 4450Mhz kommt mein 5800X mit weniger als 1,15V aus. Der X3D bewegt sich in einem viel besseren Betriebspunkt direkt vom IHV.

Nein, du hast einfach ein sehr gutes Chiplet erwischt und schliesst von dem auf alle anderen 5800X. Beim 5800X gibt es aber auch CPUs die absolut bescheiden sind. Ich hab noch einen 5800X hier der schafft mit 1.35V maximal 4550 MHz Allcore stabil. Und auch Fmax +50 MHz schafft diese CPU nicht stabil. Achso CO-10 läuft auch nicht auf allen Kernen bei der CPU ^^.

Aber das Thema hatten wir beide auch schon 1-2 Mal.

Dorn
2022-12-19, 21:50:17
Nein, du hast einfach ein sehr gutes Chiplet erwischt und schliesst von dem auf alle anderen 5800X. Beim 5800X gibt es aber auch CPUs die absolut bescheiden sind.Dargo seiner ist die absolute Speerspitze in Sachen UV. Meiner war nicht mal halb so gut. Da ist ein 5800x3d mit übergroßem Abstand viel besser, bzw. Standard -30 halt wie bei allen.

Langlay
2022-12-19, 21:54:12
Dargo seiner ist die absolute Speerspitze in Sachen UV. Meiner war nicht mal halb so gut. Da ist ein 5800x3d mit übergroßem Abstand viel besser, bzw. Standard -30 halt wie bei allen.

Ja das gleiche hier. Ich hatte am Releaseday 2 5800X gekauft, beide waren absoluter Trash. Man hätte meinen können die beiden CPUs haben nebeneinander aufm Wafer gelegen(Produktionswoche waren aber unterschiedlich). Beide CPUs fmax +50 MHz instabil, 1.35V und 4.6 GHz Allcore haben sie auch beide nicht stabil geschafft. Das einzige was war der eine hat FCLK1900 gemacht bei dem anderen war FCLK 1866 das Ende.

Die Oberkrücke ist auch noch im Rechner von meiner Frau drin.

sChRaNzA
2022-12-20, 07:44:34
In Powerviren oder auch in Spielen?

Auch in Spielen. Nicht optimiert, Alpha, aber spielbar. Star Citizen bei CO-30 gerne mal in den mittleren bis höheren 80ern.

Freestaler
2022-12-20, 08:34:46
5800x3d, blck 105 und CO -30, 3780 Cl16. Leider geht dann der Boost nicht mehr und ich bleibe auf 4672mhz. Kennt da einer nen Trick für den Pbo2 boost? Board asrock x370 taichi. Würde die 105mhz mehr gerne noch mitnehmen

robbitop
2022-12-20, 08:47:55
Krass 105 bclk… Hast du krine nvme ssd? Meiner bootet nicht mal bei 102.

hq-hq
2022-12-21, 01:26:00
dafür hab ich zuviele Festplatten angeschlossen (aktuell 6 Stück), wenn 105MHz laufen würden - ich glaub 102 war auch bei mir die Grenze - könnte ich über den Multi-Lock hinwegsehen...

... jedenfalls war bei mir bzgl. UV immer der Wurm drin, negativer Offset oder PBO oder CO mit individuellen Werten für einzelne Kerne oder auch +50MHz max Boost führten immer zur Instabilität (5800x) - einzig PBO OFF und alle Kerne selber Wert im CO funktionieren, dann sogar -30. Beim 5800x3d ist aber auch der CO egal ... ich sehe keinen Unterschied beim Boosten (in Games) ob mit -30 oder mit +/- 0; nur der Verbrauch geht deutlich runter... ein 5800x3d lässt viele Rätsel erst garnicht entstehen, die einfachste CPU der Welt.

Asaraki
2022-12-21, 02:33:59
Welchen technischen Grund gibt es eigentlich, dass das man das nicht einfach entkoppeln kann? (ist mir schon klar dass der BASE clock die BASE ist, aber warum hängt PCIe da zwangsläufig mit dran?)

Freestaler
2022-12-21, 06:37:23
Krass 105 bclk… Hast du krine nvme ssd? Meiner bootet nicht mal bei 102.
Ne Samsung 980 Pro NVme, neben 2 Sata Ssd und 2 Sata Hdd.

Crazy_Chris
2022-12-21, 11:36:54
Ich hätte ja bei bclk Overclocking + Nvme SSD Schiss vor Datenverlust und würde daher die Finger von lassen. :biggrin:

robbitop
2022-12-21, 11:42:59
Das bräuchte einen separaten Taktgeber.

Freestaler
2022-12-21, 19:44:17
Ich hätte ja bei bclk Overclocking + Nvme SSD Schiss vor Datenverlust und würde daher die Finger von lassen. :biggrin:
Ja, die Frage hab ich mir auch gestellt, als es um meine "Familienfotos" ging. Aber hey das war im letzten Jahtausend. Und jetzt ist sowieso alles dreifach gesichert. Und solange das Foto auch im Cloudspeicher richtig angezeigt wird ist okay.
Und ehrlich, wer sich beim Ram/IF-OC traut kann auch blck schrauben. Beides ist ohne ein Backup, sofern wichtig, einfach falsch.

MSABK
2022-12-21, 20:10:36
https://www.techspot.com/review/2592-ryzen-5800x3D-vs-ryzen-7600x/

7600X gegen 5800X3d. Der 3d schlägt sich gut.

r3ptil3
2022-12-21, 21:10:19
https://www.techspot.com/review/2592-ryzen-5800x3D-vs-ryzen-7600x/

7600X gegen 5800X3d. Der 3d schlägt sich gut.

Sieht immer besser aus mit Zen4, aber wieso nutzen die jetzt plötzlich langsamen CL16 RAM für den 5800X3D gegen die Maximaulausbaustufe (6000 Mhz / CL30) für Zen4?

Ein paar Tests davor wurde noch 3600er CL14 verwendet.

Tesseract
2022-12-21, 22:32:05
ich verstehe den sinn dieses tests nicht wirklich. der 5800X3D ist ein upgradepfad für AM4 und als solcher im verhältnis deutlich billiger als hier suggeriert wird. für ein vollupgrade macht keiner der beiden sinn, da wartet man auf Zen 4 3D. ein 7600X-build bei dem board und ram jeweils fast so viel kosten wie die CPU selbst ist fast schon obszön.

iamthebear
2022-12-22, 01:25:08
Es soll auch Leute geben, die kein AM4 Board haben. Und in dem Fall ist die Frage schon legitim, ob man bei einem Gaming System lieber auf einen 7600X oder 5800X3D setzt.
Beide sind vergleichbar beim Preis (7600X billigere CPU dafür teureres Board + RAM), z8emlich ähnlich in MT und Gaming Performance, bei der ST Performance dürfte aber der 7600X vorne sein.

Aber ehrlich gesagt würde ich derzeit eher auf die Zen4 VCache Modelle warten oder Intel kaufen (z.B. 13600K mit B660 Board und DDR4).

CompuJoe
2022-12-22, 02:46:34
Da gerade viele in meinem Bekanntenkreis aufrüsten wollen.

Habe jetzt 5 5800X3D in den letzten 2 Wochen verbaut, meiner ausgenommen, alle haben die -30 geschafft.

Einzig bei der Temperatur gibt es massive unterschiede, der eine rennt Problemlos unter last bei 65-70°c, während ein anderer durchgehen bei 85-90°c trotz -30 hängt.
Scheint beim HS da noch große Unterschiede zu geben.

hq-hq
2022-12-22, 02:56:04
tja evtl. Lufteinschlüsse in der Lotverbindung, haben ihren Prozess vielleicht bis heute nicht im Griff

Tesseract
2022-12-22, 10:38:31
Es soll auch Leute geben, die kein AM4 Board haben. Und in dem Fall ist die Frage schon legitim, ob man bei einem Gaming System lieber auf einen 7600X oder 5800X3D setzt.

wie gesagt: in diesem fall würde ich sowieso auf den 3D warten der - notfalls auch mit günstigerem ram - den 7600X völlig auseinandernehmen wird. beim 7600X stimmen einfach die systemkosten nicht, ganz besonders mit diesem teuren ram.

Langlay
2022-12-22, 10:39:41
tja evtl. Lufteinschlüsse in der Lotverbindung, haben ihren Prozess vielleicht bis heute nicht im Griff

Die Lotverbindung würde ich eigentlich ausschließen, dann müsste das Phänomen in der Ausprägung auch bei den normalen Ryzen CPUs auftreten. Ich denke der Wärmeübergang zwischen dem CPU- und dem Cachesilizium ist nicht optimal.

Dafür spricht bei meiner CPU das die L3 Temperatur (wobei ich nur vermute dass das die Temp vom Cachechiplet ist) kaum über 40°C kommt und wenn die Last weg ist sinkt die CPU Temperatur auch deutlich langsamer als bei meinen früheren Ryzencpus.

Dagegen spricht das CPU- und Cachesilizium über van der Wals Kräfte aneinander geheftet werden und diese nur auf sehr sehr kleine Entfernungen wirken, daher wenn da ein Spalt wäre würde das Chiplet wohl nicht halten.

https://abload.de/img/tempsaeem.png

P.S. brauchbaren DDR5 RAM gibt es ab 120€ das ist jetzt imo schon im normalen Rahmen, die Mainboards sind eher das Problem.

robbitop
2022-12-22, 11:00:52
Meh 4800er. Wenn man schon RAM kauft will man auch was ordentliches. Bei ddr4 kauft man ja jetzt auch keinen 2400 RAM. Da bekommst du für 100€ 3600er 32 gb ram.
Entsprechend will man bei ddr5 auch schon was besseres. 6000er. Gibts dann grob für das Doppelte.

Langlay
2022-12-22, 11:47:58
Meh 4800er. Wenn man schon RAM kauft will man auch was ordentliches. Bei ddr4 kauft man ja jetzt auch keinen 2400 RAM. Da bekommst du für 100€ 3600er 32 gb ram.
Entsprechend will man bei ddr5 auch schon was besseres. 6000er. Gibts dann grob für das Doppelte.

Naja aber die Preise jetzt für 32GB DDR5 sind imo auf einen ähnlichen/niedrigeren Niveau wie 16GB DDR4 2017. Darin seh ich weniger ein Problem.


Das wäre das DDR5 Kit was ich mir kaufen würden -> https://geizhals.de/kingston-fury-beast-dimm-kit-32gb-kf560c36bbek2-32-a2812835.html

Da sind Hynix A-Dies drauf und es kostet ungefähr das gleiche was 16GB Samsung B-Die DDR4 3200 CL14 2017 gekostet hat. Die billigste DDR4 16GB Kits haben damals auch so 100-120€ gekostet.

aufkrawall
2022-12-22, 12:00:14
Da sind Hynix A-Dies drauf und es kostet ungefähr das gleiche was 16GB Samsung B-Die DDR4 3200 CL14 2017 gekostet hat. Die billigste DDR4 16GB Kits haben damals auch so 100-120€ gekostet.
So viel hatte ich 2017 für meine 16GB B-Die bezahlt, da kehrte nach Mondpreisen über erste Angebote langsam wieder Normalität ein.
So oder so, mit DDR5 ist momentan erstmal einiges an zusätzlichem Geld für quasi nichts futsch. Genau wie für diese Gaga-Mainboard-Preise.
Bro hat mein 70€ B550 Board für PCIe 4.0 erhalten, läuft der 5800X3D auch ohne Drosselung drauf, inkls. 3800 CL15 RAM. :freak:

robbitop
2022-12-22, 12:12:16
Naja aber die Preise jetzt für 32GB DDR5 sind imo auf einen ähnlichen/niedrigeren Niveau wie 16GB DDR4 2017. Darin seh ich weniger ein Problem.


Das wäre das DDR5 Kit was ich mir kaufen würden -> https://geizhals.de/kingston-fury-beast-dimm-kit-32gb-kf560c36bbek2-32-a2812835.html

Da sind Hynix A-Dies drauf und es kostet ungefähr das gleiche was 16GB Samsung B-Die DDR4 3200 CL14 2017 gekostet hat. Die billigste DDR4 16GB Kits haben damals auch so 100-120€ gekostet.
Als Endkunde vergleicht man aber keine historischen Preise sondern Optionen die es jetzt zu kaufen gibt :)

hq-hq
2022-12-22, 18:50:42
Die Lotverbindung würde ich eigentlich ausschließen, dann müsste das Phänomen in der Ausprägung auch bei den normalen Ryzen CPUs auftreten. Ich denke der Wärmeübergang zwischen dem CPU- und dem Cachesilizium ist nicht optimal.

Dafür spricht bei meiner CPU das die L3 Temperatur (wobei ich nur vermute dass das die Temp vom Cachechiplet ist) kaum über 40°C kommt und wenn die Last weg ist sinkt die CPU Temperatur auch deutlich langsamer als bei meinen früheren Ryzencpus.

Dagegen spricht das CPU- und Cachesilizium über van der Wals Kräfte aneinander geheftet werden und diese nur auf sehr sehr kleine Entfernungen wirken, daher wenn da ein Spalt wäre würde das Chiplet wohl nicht halten.

https://abload.de/img/tempsaeem.png

P.S. brauchbaren DDR5 RAM gibt es ab 120€ das ist jetzt imo schon im normalen Rahmen, die Mainboards sind eher das Problem.


na es gab doch immer wieder CPUs aus der 5000er Serie die bei der Temp durchgegangen sind :biggrin:

neben einen ungünstig geformten HS wäre es eine einfache Erklärung

also mein L3 wird wärmer und taktet sich runter auf 4100MHz, damit sinkt der effektive Takt auf 4100MHz obwohl der globale Takt bei 4300MHz liegt
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81979&stc=1&d=1671731415

Langlay
2022-12-22, 19:00:49
na es gab doch immer wieder CPUs aus der 5000er Serie die bei der Temp durchgegangen sind :biggrin:

neben einen ungünstig geformten HS wäre es eine einfache Erklärung


Okay, das war mir nicht so bewusst. Die Information hats dann irgendwie nicht in meine Bubble geschafft.


also mein L3 wird wärmer und taktet sich runter auf 4100MHz, damit sinkt der effektive Takt auf 4100MHz obwohl der globale Takt bei 4300MHz liegt
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81979&stc=1&d=1671731415

Komisch. Möglichkeit C ist es gibt beide Phänomene. Einmal blöd verlötet und blöd das Chiplet "aufgeklebt".

Da kann man dann nur hoffen, das eine CPU die beide Probleme hat es nicht durchs Testing schafft.

hq-hq
2022-12-22, 19:23:44
Okay, das war mir nicht so bewusst. Die Information hats dann irgendwie nicht in meine Bubble geschafft.



Komisch. Möglichkeit C ist es gibt beide Phänomene. Einmal blöd verlötet und blöd das Chiplet "aufgeklebt".

Da kann man dann nur hoffen, das eine CPU die beide Probleme hat es nicht durchs Testing schafft.

war das jemand bei AMD der geschrieben hatte, dass bis 95°C unter hoher Last normal ist :freak:

robbitop
2022-12-22, 20:10:01
Zen 4 war iirc sogar bis 115C freigegeben.

Thunder99
2022-12-22, 20:10:36
Meiner wird unter nicht CPU lastigen Spielen 70°C+ warm. Ob gut, schlecht oder normal weiss ich nicht.
Paste ist ne 0815, da meine gute schon leer war :usad: (heute endlich verbaut)

Unter AIDA Stress Test kommt sie sofort auf 89°C+

Hoschi75
2022-12-22, 21:19:36
Ich glaube, dass die Aussage von AMD eher eine Ausrede war. Man hätte eine maximale Spannung festlegen können - man hat aber den Multiplikator gelockt. Ich glaube man wollte Zen 4 nicht zu sehr torpedieren. Einzelne Kerne würden sicherlich knappe 5 GHz schaffen. Zen 4 wäre damit kompromisslos in vielen Anwendungen und Spielen zurück bleiben.

Wenn Zen4x3d raus ist könnten sie ja ein „bro“ sein und das freischalten. Aber ggf sind auch die Mainboardhersteller dagegen weil die AM5 Kasse machen wollen.

Da ich mit meinem Mainboard bis ca. 110Mhz BCLK testen kann, weiß ich, dass bei ca. 1.3V VCore der !stabile! Takt eines einzelnen Kerns bei ca. 4750Mhz liegt. Noch mehr Spannung ist kontraproduktiv. Selbst bei 4.7Ghz muss ich je nach Kernqualität bereits in den positiven CO Bereich. Sicher wäre es mit freiem Multi einfacher, die Grenzen auszuloten doch schon der schlechtere Wärmeübergang lässt einen hohen Takt ähnlich dem des 5800x einfach nicht zu.

robbitop
2022-12-22, 22:20:50
Stichprobengröße 1. ;)
Aber 4.75 GHz sind auch schon eine Menge mehr als 4,2 GHz out of the box. ;)

Was ist das für ein krasses Board und warum geht da so viel bclk? Separater Taktgeber? :)

Hoschi75
2022-12-22, 23:31:56
Stichprobengröße 1. ;)
Aber 4.75 GHz sind auch schon eine Menge mehr als 4,2 GHz out of the box. ;)

Was ist das für ein krasses Board und warum geht da so viel bclk? Separater Taktgeber? :)


Ok, ok - Punkt für Dich.
Ich hatte bisher nur zwei 5800x3d im Sys und beide CPUs gingen +-50Mhz gleich. Sie wurden kurz nach Release gekauft und so kann es natürlich sein, das aktuelle Batches da besser skalieren.

Das Mobo ist ein Asus ROG Crosshair VIII Dark Hero und hat einen externen Taktgeber. Es gibt natürlich Hardware, die einen höheren BCLK verhindern kann. Ich hatte beispielsweise eine RTX 3090 im Sys, welche das Booten ab 102.3Mhz verhinderte. Eine 6900XT und auch die aktuelle 7900XTX laufen problemlos auch mit 108Mhz. Ab 103.6Mhz wurde dann meine 2. SSD (Silicon Power P34A80 2TB) nicht mehr erkannt. Eine Corsair MP600 Pro und auch eine Samsung 980Pro laufen hingegen bei 108Mhz noch anstandslos.
Sämtliche onBoard-Geräte (WLAN, BT, USB ect.) wie auch meine PCIe Soundkarte funktionieren wie sie sollen.

Langlay
2022-12-23, 00:49:52
Ok, ok - Punkt für Dich.
Ich hatte bisher nur zwei 5800x3d im Sys und beide CPUs gingen +-50Mhz gleich. Sie wurden kurz nach Release gekauft und so kann es natürlich sein, das aktuelle Batches da besser skalieren.

Das Mobo ist ein Asus ROG Crosshair VIII Dark Hero und hat einen externen Taktgeber. Es gibt natürlich Hardware, die einen höheren BCLK verhindern kann. Ich hatte beispielsweise eine RTX 3090 im Sys, welche das Booten ab 102.3Mhz verhinderte. Eine 6900XT und auch die aktuelle 7900XTX laufen problemlos auch mit 108Mhz. Ab 103.6Mhz wurde dann meine 2. SSD (Silicon Power P34A80 2TB) nicht mehr erkannt. Eine Corsair MP600 Pro und auch eine Samsung 980Pro laufen hingegen bei 108Mhz noch anstandslos.
Sämtliche onBoard-Geräte (WLAN, BT, USB ect.) wie auch meine PCIe Soundkarte funktionieren wie sie sollen.

Okay, frage wie hast du es hinbekommen den BCLK anzuheben und Turbo gleichzeitig zu haben?

Wenn ich beim C8H den BCLK anhebe geht nur noch der 34x Multi.

Was mir laut Support als gewünschtes Verhalten erklärt wurde.

Traxx
2022-12-23, 07:01:52
Okay, frage wie hast du es hinbekommen den BCLK anzuheben und Turbo gleichzeitig zu haben?

Wenn ich beim C8H den BCLK anhebe geht nur noch der 34x Multi.

Was mir laut Support als gewünschtes Verhalten erklärt wurde.

Bei mir:

"Selbstquote:" CPU Core Ratio und ccx oc rauf auf 45, dann boostet/bleibt er hoch. Im Cinebench wird er aber wärmer und läuft langsamer als vorher...

Habe aber nur 102 kurz getestet, das lief. Der CurveOptimizer scheint da aber nicht mehr zu greiffen und die CPU wird wegen den Temp im Cinebench auf 4,3 irgendwas gedrosselt.

Hoschi75
2022-12-23, 09:51:25
Okay, frage wie hast du es hinbekommen den BCLK anzuheben und Turbo gleichzeitig zu haben?

Wenn ich beim C8H den BCLK anhebe geht nur noch der 34x Multi.

Was mir laut Support als gewünschtes Verhalten erklärt wurde.

Ich bin mir nicht sicher, ob das C8H überhaupt einen externen Clock Generator besitzt?? Zu C6E, C7H, C8DH und C8E findet man schnell die Info, dass diese Mobos über einen externen Clock Generator verfügen doch in Verbindung mit dem C8H taucht die Phrase "external clock generator" nicht auf. :confused:

Ansonsten würde ich mal die Methode von Traxx probieren..

Langlay
2022-12-23, 10:08:19
LOL.

Es funktioniert, einfach BCLK ändern. Dann ist das mit einem der letzen Biose passiert, als der 5800X3D rausgekommen ist hatte ich das schonmal versucht und nix hat geklappt.

Jetzt hab ich ich einfach Core Performance Boost auf Enable gestellt und BCLK auf 101 und es klappt. Das war als ich den 5800X3D neu hatte definitiv noch nicht so.

robbitop
2022-12-23, 10:10:11
Ok, ok - Punkt für Dich.
Ich hatte bisher nur zwei 5800x3d im Sys und beide CPUs gingen +-50Mhz gleich. Sie wurden kurz nach Release gekauft und so kann es natürlich sein, das aktuelle Batches da besser skalieren.

Das Mobo ist ein Asus ROG Crosshair VIII Dark Hero und hat einen externen Taktgeber. Es gibt natürlich Hardware, die einen höheren BCLK verhindern kann. Ich hatte beispielsweise eine RTX 3090 im Sys, welche das Booten ab 102.3Mhz verhinderte. Eine 6900XT und auch die aktuelle 7900XTX laufen problemlos auch mit 108Mhz. Ab 103.6Mhz wurde dann meine 2. SSD (Silicon Power P34A80 2TB) nicht mehr erkannt. Eine Corsair MP600 Pro und auch eine Samsung 980Pro laufen hingegen bei 108Mhz noch anstandslos.
Sämtliche onBoard-Geräte (WLAN, BT, USB ect.) wie auch meine PCIe Soundkarte funktionieren wie sie sollen.

Ok also ein externer Taktgeber aber es wird trotzdem alles mit übertaktet. Dann verstehe ich den Sinn des externen Taktgeber (bis auf Marketing) nicht :D

Langlay
2022-12-23, 12:18:01
102 MHz BCLK laufen nimmer bei mir. Gut wenn ich irgendwann mal richtig in Bastellaune bin müss ich mal die beiden NVME SSDs ausbauen und schauen ob dann mehr geht.

Hoschi75
2022-12-24, 09:53:35
102 MHz BCLK laufen nimmer bei mir. Gut wenn ich irgendwann mal richtig in Bastellaune bin müss ich mal die beiden NVME SSDs ausbauen und schauen ob dann mehr geht.


Wie äußert sich das bei Dir - kein Bild oder werden die SSDs lediglich nicht mehr erkannt?

Wie hoch ist der FCLK bei den eingestellten 102 Mhz?

Freestaler
2022-12-24, 09:57:06
Stellt mal pcie eine Version runter, evtl hilfts.

grobi
2022-12-24, 10:03:17
Würde der 5800X3D einen Vorteil in Minecraft bringen gegenüber einem 5800X?

mfg grobi

hq-hq
2022-12-24, 16:41:36
Würde der 5800X3D einen Vorteil in Minecraft bringen gegenüber einem 5800X?

mfg grobi

nach https://howmanyfps.com/en-de/games/minecraft

wäre der 5800x3d in 1080p minimal langsamer :biggrin:

r3ptil3
2022-12-24, 16:51:54
nach https://howmanyfps.com/en-de/games/minecraft

wäre der 5800x3d in 1080p minimal langsamer :biggrin:

Gemäss der Seite ist ein 5800X schneller als ein 5800X3D mit einer 4090.

Siehe Techspot sind die Werte oben totaler schwachsinn:
https://static.techspot.com/articles-info/2451/bench/Fortnite.png

Langlay
2022-12-24, 16:57:19
doppelpost

Langlay
2022-12-24, 16:58:53
Wie äußert sich das bei Dir - kein Bild oder werden die SSDs lediglich nicht mehr erkannt?

Wie hoch ist der FCLK bei den eingestellten 102 Mhz?

Kein Bild & Post Code 41. bei eingestellten 102 MHz sollten 101.98MHz anliegen. Aber ich habs auch nicht weiter getestet, läuft jetzt wieder mit 100 MHz. Nach Weihnachten werd ich mich nochmal dran setzten.

hq-hq
2022-12-24, 17:01:12
Gemäss der Seite ist ein 5800X schneller als ein 5800X3D mit einer 4090.

Siehe Techspot sind die Werte oben totaler schwachsinn:
https://static.techspot.com/articles-info/2451/bench/Fortnite.png

hm, jagut die Seite nimmt ja wohl keiner gänzlich ernst oder :confused:

die tollen Vorteile vom 5800x3d VS 5800x sehe ich in meiner Gamingwelt leider nicht :freak:

robbitop
2022-12-24, 22:35:18
Es gibt Spiele bei denen macht es extremst viel aus bei anderen nicht. Kann man in jedem review sich anschauen. ;)

Thunder99
2022-12-24, 22:46:54
Und wenn es nichts bringt, geringeren Stromverbrauch hat man dennoch :)
Merke aktuell auch nichts vom X3D, was mir aber klar war. Dennoch geholt da ich 1. Den unbedingt haben wollte und der Preis in Ordnung war :)
Wenn ich dann Mal zu Spiele komme die mehr CPU Power benötigen als GPU merke ich es dann :D

Ex3cut3r
2022-12-24, 23:35:08
hm, jagut die Seite nimmt ja wohl keiner gänzlich ernst oder :confused:

die tollen Vorteile vom 5800x3d VS 5800x sehe ich in meiner Gamingwelt leider nicht :freak:

+1

5700X -30 CO + DDR4 3800 Mhz Tuned. Alles, was ich bisher (hier) gesehen habe, ist +10% für den X3D vs meinen 5700X.

32GB B-Die habe ich mir damals 2019 mit dem R5-3600 geholt. Hatte ich also eh schon. Meiner Meinung nach, kann man sich den X3D komplett sparen, wenn man B-Die hat und was von RAM Tuning versteht.

https://abload.de/img/unbenanntbnefs.png

https://abload.de/img/zentimings_screenshot2mccg.png

Langlay
2022-12-25, 00:38:21
+1

5700X -30 CO + DDR4 3800 Mhz Tuned. Alles, was ich bisher (hier) gesehen habe, ist +10% für den X3D vs meinen 5700X.



Haste du schon, aber scheinbar verdrängt.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13177630#post13177630

Aber wenigstens haben wir die Diskussion Zen4 wird den X3D immer und überall schlagen hinter uns gelassen.

aufkrawall
2022-12-25, 00:51:01
Aber wenigstens haben wir die Diskussion Zen4 wird den X3D immer und überall schlagen hinter uns gelassen.
Was aber leider auch daran liegt, dass bei Zen 4 offenbar die Performance kaum auf RAM-OC anschlägt. :(

Langlay
2022-12-25, 02:09:19
Was aber leider auch daran liegt, dass bei Zen 4 offenbar die Performance kaum auf RAM-OC anschlägt. :(

Selbst würde Zen4 den X3D nur im Mittel deutlicher schlagen aber in einigen Spielen wäre der 3D wahrscheinlich immernoch der King.

Ex3cut3r
2022-12-25, 02:12:43
Haste du schon, aber scheinbar verdrängt.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13177630#post13177630

Aber wenigstens haben wir die Diskussion Zen4 wird den X3D immer und überall schlagen hinter uns gelassen.

Sry, war keine Absicht, dann eben 20% ist bei dem Preisaufschlag trotzdem ein Witz. ;)

robbitop
2022-12-25, 09:18:26
+1

5700X -30 CO + DDR4 3800 Mhz Tuned. Alles, was ich bisher (hier) gesehen habe, ist +10% für den X3D vs meinen 5700X.

32GB B-Die habe ich mir damals 2019 mit dem R5-3600 geholt. Hatte ich also eh schon. Meiner Meinung nach, kann man sich den X3D komplett sparen, wenn man B-Die hat und was von RAM Tuning versteht.

https://abload.de/img/unbenanntbnefs.png

https://abload.de/img/zentimings_screenshot2mccg.png
Naja du hattest aber auch das goldene Lotterielos beim RAM gezogen. Das ist nicht gerade repräsentativ. ;)

Meiner macht bei dem Takt nur CL18 und ist >10 ns langsamer.

Langlay
2022-12-25, 12:58:22
Naja du hattest aber auch das goldene Lotterielos beim RAM gezogen. Das ist nicht gerade repräsentativ. ;)

Meiner macht bei dem Takt nur CL18 und ist >10 ns langsamer.

Ich glaube Exe hat ein sehr gutes Kit getroffen, aber du hast glaub ich auch richtig Pech gehabt.

Mit 1.5V aufm RAM sieht das bei mir so aus :

https://i.imgur.com/syMD8EI.png

Ex3cut3r
2022-12-25, 14:47:37
Ein "Trick" für dich Langlay.

BIOS suche nach L2 stream hw prefetcher auf disabled stellen. L1 bleibt an. Save and Exit. -> Profit -> Aida Run ca 3 ns besser. In Spielen bringt es aber (hier) keinen Unterschied.

Ob ich so Glück mit dem RAM hatte, wage ich auch zu bezweifeln, ich hatte 2 Stück davon hier, weil mein erstes Kit eine defekte RGB Beleuchtung hatte, und ich nach 4 Wochen eine RMA beauftragt habe, 1 Woche später hatte ich mein Ersatz Kit hier, was ziemlich genauso gut ging im OC, minimal schlechter. Ist halt B-Die der besseren Art (Preis) (G.Skill)

Langlay
2022-12-25, 15:01:39
Ein "Trick" für dich Langlay.

BIOS suche nach L2 stream hw prefetcher auf disabled stellen. L1 bleibt an. Save and Exit. -> Profit -> Aida Run ca 3 ns besser. In Spielen bringt es aber (hier) keinen Unterschied.


Ich weiss, aber nur für Aida brauch ichs nicht.


Ob ich so Glück mit dem RAM hatte, wage ich auch zu bezweifeln, ich hatte 2 Stück davon hier, weil mein erstes Kit eine defekte RGB Beleuchtung hatte, und ich nach 4 Wochen eine RMA beauftragt habe, 1 Woche später hatte ich mein Ersatz Kit hier, was ziemlich genauso gut ging im OC, minimal schlechter. Ist halt B-Die der besseren Art (Preis) (G.Skill)

Meine Kits sind eins der besten G.Skill Kits die es damals (2017/2018) gab.

https://www.gskill.com/product/165/168/1536202856/F4-3600C15D-16GTZ-EOL

Ist DDR3600 CL15 mit 1.35V. Ich bin allerdings etwas gehandicapt weil ich 4x8GB nutze.

Meine Frau hat auch ein DDR3200 CL14 und ein DDR3600 CL16 Kit und die gehen beide etwas schlechter als meine beiden Kits, wobei bei mir das neuere Kit auch etwas besser geht als das ältere.

horn 12
2022-12-25, 15:28:13
Habe die AMD Flare X 3200 CL 14 (Samsung BiSize)
mit dem 5800X3D
und alles läuft OHNE Zutun prächtig!

Megamember
2022-12-25, 15:49:36
Habe die AMD Flare X 3200 CL 14 (Samsung BiSize)
mit dem 5800X3D
und alles läuft OHNE Zutun prächtig!
Warum sollte es auch anders sein?

Thunder99
2022-12-25, 16:46:43
+1

5700X -30 CO + DDR4 3800 Mhz Tuned. Alles, was ich bisher (hier) gesehen habe, ist +10% für den X3D vs meinen 5700X.

32GB B-Die habe ich mir damals 2019 mit dem R5-3600 geholt. Hatte ich also eh schon. Meiner Meinung nach, kann man sich den X3D komplett sparen, wenn man B-Die hat und was von RAM Tuning versteht.

https://abload.de/img/unbenanntbnefs.png

https://abload.de/img/zentimings_screenshot2mccg.png
Nein ist nicht so, da es nicht verallgemeinern lässt. Meine B DIE sind zickig. Der X3D rentiert sich umso mehr. Hab zwar nicht intensiv mit RAM OC befasst aber das stundenlange Testen war es mir dann nicht Wert. Lieber +5% sicher als 10% die dann mühsam erreichen.
Von einem 5800X zu wechseln ist auch was anderes als von einem Zen 2.

Dennoch Glückwunsch wenn du mir dem 5700X zufrieden bist.

aufkrawall
2022-12-25, 17:14:56
Nein ist nicht so. Meine B DIE sind zickig.
Kann ich kaum glauben. Würd da nochmal mit CR2, aktuellem Bios und mehr Spannung schauen.

Thunder99
2022-12-25, 17:17:22
Kann ich kaum glauben. Würd da nochmal mit CR2, aktuellem Bios und mehr Spannung schauen.

Hab soeben mein Kommentar leicht angepasst. Hab mich auch nicht stundenlang mit RAM OC befasst. Daher ist der X3D am Ende die bessere Wahl :)

Ex3cut3r
2022-12-25, 17:44:57
Jedes 3200 CL14 oder 3600 CL14 RAM Kit hat immenses OC Potenzial, ich hab noch nie ein Kit gesehen. Das nicht die 3800 CL14 oder CL 16 mit scharfen Timings schafft, man darf nur keine Angst haben auch 1.5 - 1.55 Volt reinzuknallen. Und muss gegebenenfalls darauf achten, dass die DIMMS kühl bleiben beim Stresstest (Gaming)

Thunder99
2022-12-25, 17:49:28
Meins ist halt "nur" CL16 vom Werk aus. Da liegt halt das "Problem"

Langlay
2022-12-25, 17:56:04
Meins ist halt "nur" CL16 vom Werk aus. Da liegt halt das "Problem"

DDR3200 oder DDR3600?

Die DDR3600 CL16 Kits sind eigentlich ganz gut.

Aber irgendwelchen mit 2017ern DDR3200 CL16 Kits kann man auch mal Pech haben, aber auf DDR3200 CL16 waren B-Dies eh nie garantiert.

Thunder99
2022-12-25, 19:26:37
Sind 3600er CL16 (F4-3600C16-16GTZN)

Aber seis drum, mache da nicht mehr rum sondern lasse es bei sanften RAM sub timing OC :)

Raspo
2022-12-25, 20:37:33
Wie kann man auf nem B550 die subtimings am Besten ausreizen?
Da gabs doch mal das Tool von usmus aber leider nicht für B550.
Hab Gskill 3600 Neo, 2x 16GB.

aufkrawall
2022-12-25, 20:51:29
Chipsatz ist egal, die Timings gehen selbst mit Intels.

Tangletingle
2022-12-25, 21:21:39
Jedes 3200 CL14 oder 3600 CL14 RAM Kit hat immenses OC Potenzial, ich hab noch nie ein Kit gesehen. Das nicht die 3800 CL14 oder CL 16 mit scharfen Timings schafft, man darf nur keine Angst haben auch 1.5 - 1.55 Volt reinzuknallen. Und muss gegebenenfalls darauf achten, dass die DIMMS kühl bleiben beim Stresstest (Gaming)
Na dann hast du meine ripjaws noch nicht kennengelernt ;D

Ex3cut3r
2022-12-25, 22:22:13
Soweit ich weiß selektiert G.Skill am stärksten von allen Herstellern. Ripjaws waren meiner Meinung immer "billiger" als die Trident Z Reihe. Von daher wundert es mich nicht, dass die Rip Jaws sich schlechter ocen lassen. Aber ein totaler Ausfall können die doch auch nicht sein, oder? ^^

aufkrawall
2022-12-25, 22:32:21
Wie gesagt, laufen hier 3200 CL15 RipJaws mit 3600 CL14...

Tangletingle
2022-12-25, 22:39:42
Aber ein totaler Ausfall können die doch auch nicht sein, oder? ^^
Mit Ryzen 1 war ich froh überhaupt 3200cl16 beim cl14 Kit lauffähig bekommen zu haben. Subtimings müssten auch ziemlich lax sein. Mit dem 3600x hab ich einfach drauf geschissen und die laufen seit dem Einbau der neuen CPU mit 3000mhz. Hab glaub ich das schlechteste kit das verkauft wurde ;D

Muss aber auch sagen, dass ich in den letzten 1,5 Jahren quasi gar nicht gespielt habe. Wenn ich bedenke, dass ich bis dahin quasi jede freie Stunde mit zocken verbracht habe. 1500 Stunden PUBG sprechen bände.

robbitop
2022-12-26, 12:14:42
Ich glaube Exe hat ein sehr gutes Kit getroffen, aber du hast glaub ich auch richtig Pech gehabt.

Mit 1.5V aufm RAM sieht das bei mir so aus :

https://i.imgur.com/syMD8EI.png
Ich hab halt einfach das billigste ddr4-3600er Kit genommen. :) B-Die hat nicht jeder und billig sind die auch nicht. Dank vcache wahrscheinlich relativ egal. :)

Thunder99
2022-12-26, 15:30:21
Wie kann man auf nem B550 die subtimings am Besten ausreizen?
Da gabs doch mal das Tool von usmus aber leider nicht für B550.
Hab Gskill 3600 Neo, 2x 16GB.
Im AMD Hilfe-Sub Forum gibt es einen Thread wo es auch einen Link gibt zu einer Tabelle was so prinzipiell möglich ist.
Ansonsten frag dort Mal nach :). Das Kit dürfte das von mir sein welches Potenzial hat aber nicht unbedingt das Beste vom Besten ist. Hab dort auch meine Werte gepostet welches du als Grundlage nehmen kannst für weitere Optimierungen

Ex3cut3r
2022-12-26, 15:34:34
Wie gesagt, laufen hier 3200 CL15 RipJaws mit 3600 CL14...

Na das ist doch gar nicht mal so übel, da kann man nicht motzen. ;)

Mit Ryzen 1 war ich froh überhaupt 3200cl16 beim cl14 Kit lauffähig bekommen zu haben. Subtimings müssten auch ziemlich lax sein. Mit dem 3600x hab ich einfach drauf geschissen und die laufen seit dem Einbau der neuen CPU mit 3000mhz. Hab glaub ich das schlechteste kit das verkauft wurde ;D

Muss aber auch sagen, dass ich in den letzten 1,5 Jahren quasi gar nicht gespielt habe. Wenn ich bedenke, dass ich bis dahin quasi jede freie Stunde mit zocken verbracht habe. 1500 Stunden PUBG sprechen bände.

Für Ryzen 1 war/ist das ziemlich normal, der Memory Controller in Zen 1 war Ultra zicking, erst durch Bios Updates und Zen + wurde die Sache erheblich besser, aber 3433 MHz waren selbst mit B-Die das höchste der Gefühle. Erst Zen 2 hat die Sache erheblich vereinfacht. Und ich bin auch "erst" bei Zen 2 eingestiegen. Zen 1 war für mich kein Upgrade von einem getunten Haswell (4770k) damals.

Ich hab halt einfach das billigste ddr4-3600er Kit genommen. :) B-Die hat nicht jeder und billig sind die auch nicht. Dank vcache wahrscheinlich relativ egal. :)

Natürlich, ist auch völlig richtig mit dem X3D. ;)

Schönen 2. Weihnachtstag euch. :smile:

Raspo
2022-12-26, 20:20:39
Im AMD Hilfe-Sub Forum gibt es einen Thread wo es auch einen Link gibt zu einer Tabelle was so prinzipiell möglich ist.
Ansonsten frag dort Mal nach :). Das Kit dürfte das von mir sein welches Potenzial hat aber nicht unbedingt das Beste vom Besten ist. Hab dort auch meine Werte gepostet welches du als Grundlage nehmen kannst für weitere Optimierungen
Du hast nicht zufällig nen Link zur Tabelle zur Hand?
Hab sie nicht finden können.

Thunder99
2022-12-26, 20:55:44
Auf die schnelle den Thread aus dem CB Forum ist eine gute Anlaufstelle:
https://www.computerbase.de/forum/threads/amd-ryzen-ram-oc-community.1829356/

Die Liste selbst habe ich nicht mehr gefunden, aber der Thread ist da auch sehr gut da gut struktruiert

Langlay
2022-12-26, 21:28:25
Dank vcache wahrscheinlich relativ egal. :)

Ich hatte mal getestet für das Zeug das ich so mache, als der X3D gelauncht wurde.

DDR3200 CL16 (2x16GB Micron Rev. E) mit XMP vs. 4x8GB Samsung B-Die DDR3800 CL14 mit optimierten Subtimings. Und das hat so bis zu 7% Mehrleistung gebracht, beim normalen 5800X ist der Unterschied in etwa doppelt so groß gewesen, also es gab Zuwächse bis ~15% in einzelnen Spielen.

Aber ich hab mein 24/7 Setting mit dem Wechsel vom 5800X auf den 5800X3D auch von DDR3800 CL16 auf DDR3600 CL16 gesenkt spart halt nochmal 2-3W beim SoC sein und du kannst den Unterschied kaum messen, geschweige den spüren. Wenn man richtig beim SoC sparen möchte müsste man halt auf DDR3200 zurückgehen, aber das mir der Spass dann für 5W weniger Verbrauch auch nicht wert.

hq-hq
2022-12-27, 02:20:52
ich hatte immer den Eindruck, dass GDM=Enabled zwar Vorteile bei den Latenzen und/oder Takt bringt, es die CPU trotzdem langsamer macht als wenn man z.B. von 4000 auf 3800MHz mit GDM=Disabled runtergeht

Thunder99
2022-12-27, 12:00:02
GDM enable kostet Leistung.
Die Vorteile hast du aber schon gesagt welche in der Summe mehr bringen als GDM Off.
Wurde schon ausgiebig diskutiert und getestet im AMD Hilfe Sub-Forum Thread

Langlay
2022-12-27, 12:18:53
Yap, ich muss zugeben ich habs beim 5800X3D nicht getestet, aber mein alter 5800X hat mit GDM Off keine DDR3600 gemacht mit GDM on DDR3800, was over all schneller war.

Ex3cut3r
2022-12-27, 15:59:41
GMD Off mit Command Rate auf 1 ging hier bei 3800Mhz auch nicht. Habe sogar verschiedene/empfohlene Widerstände/Ohms probiert, ohne Erfolg. Erst mit 2 gibt es einen Boot. CmdR 1 und GDM On ist aber ein guter Kompromiss, weil dann sozusagen 1,5 läuft, also die goldene Mitte.

Acid-Beatz
2022-12-27, 16:05:58
Guten Abend,
mein Ryzen 5800X3D wurde heute bestellt, jetzt grüble ich gerade, ob ich auch noch einen neuen Lüfter brauche, aktuell steckt auf meinem 3600er ein BeQuiet Pure Rock 2.

Reicht der oder sind wir da eher an der Grenze? Thx für Euren Input!

P.S: Vllt zur Orientierung, mir fehlen da ansonsten bisschen die Erfahrungswerte: Der aktuelle 3600er läuft beim normalen "Betirieb" aktuell zwischen 40 und 50*C, beim Zocken bin ich bei 70*C, R23 10 Minuten Benchmark bisschen über 80*C aber ich weiß, dass das ein Sonderfall ist ;)

r3ptil3
2022-12-27, 16:12:20
Guten Abend,
mein Ryzen 5800X3D wurde heute bestellt, jetzt grüble ich gerade, ob ich auch noch einen neuen Lüfter brauche, aktuell steckt auf meinem 3600er ein BeQuiet Pure Rock 2.

Reicht der oder sind wir da eher an der Grenze? Thx für Euren Input!

P.S: Vllt zur Orientierung, mir fehlen da ansonsten bisschen die Erfahrungswerte: Der aktuelle 3600er läuft beim normalen "Betirieb" aktuell zwischen 40 und 50*C, beim Zocken bin ich bei 70*C, R23 10 Minuten Benchmark bisschen über 80*C aber ich weiß, dass das ein Sonderfall ist ;)

Dann kannst du für den 5800X3D einfach noch 10-15K draufrechnen.

Es wird funktionieren, unter maximaler Last wird die CPU einfach bei 90° stärker runtertakten.

Raspo
2022-12-27, 18:21:50
Tolle CPU, trotz Beschränkung auf PPT 88, geht der allcore auf ca. 4,1- 4,2 Ghz im CB23 loop.
PPT-Begrenzung und max. Curve Optimizer im Bios scheint die ideale Kombi für nen Effizienz Moster zu sein.
Temp bei 67 Grad.

P.S. Von den RAM subtimings hab ich erstmal die Finger gelassen. DOCP und gut ist.

r3ptil3
2022-12-27, 18:31:29
Tolle CPU, trotz Beschränkung auf PPT 88, geht der allcore auf ca. 4,1- 4,2 Ghz im CB23 loop.
PPT-Begrenzung und max. Curve Optimizer im Bios scheint die ideale Kombi für nen Effizienz Moster zu sein.
Temp bei 67 Grad.

P.S. Von den RAM subtimings hab ich erstmal die Finger gelassen. DOCP und gut ist.

Mit 67° meinst du den ersten Temp-Sensor der CPU, der ist aber irrelevant, weil die Lüfterkurve nicht nach dem geht.

Das ist auch der Grund weshalb die ASUS Boards in den Reviews deutlich Kühler sind als die anderen Boards. Keiner ausser ASUS (vielleicht auch ASRock) nimmt diesen Temp-Sensor als Basis, sondern die CPU-Package.

Auf den ASUS Boards ist auch die CPU-Package dann deutlich höher und entspricht exakt der ersten CPU-Temperatur auf Gigabyte und MSI Boards.

Raspo
2022-12-27, 18:48:15
Mit 67° meinst du den ersten Temp-Sensor der CPU, der ist aber irrelevant, weil die Lüfterkurve nicht nach dem geht.

Das ist auch der Grund weshalb die ASUS Boards in den Reviews deutlich Kühler sind als die anderen Boards. Keiner ausser ASUS (vielleicht auch ASRock) nimmt diesen Temp-Sensor als Basis, sondern die CPU-Package.

Auf den ASUS Boards ist auch die CPU-Package dann deutlich höher und entspricht exakt der ersten CPU-Temperatur auf Gigabyte und MSI Boards.
Ich seh nur CPU-Temps unter 70 Grad.

r3ptil3
2022-12-27, 19:42:13
Ich seh nur CPU-Temps unter 70 Grad.

Interessant, danke! Womit kühlst du den?

Raspo
2022-12-27, 20:31:34
Interessant, danke! Womit kühlst du den?
Mit ner AiO bequiet silent loop 280.

robbitop
2022-12-27, 20:55:11
Temps sind bei meinem 5800x3d auch so. Aber custom loop wakü.

CompuJoe
2022-12-27, 21:40:07
Ist aber auch Lotterie beim X3D, kommt drauf an wie plan der HS ist.
Ich hatte Glück, bekomme auch nur Temps zwischen 70 und 75°c, allerdings mit einem Luftkühler. Habe einige verbaut in letzter Zeit, einige sind nicht richtig Plan, da bekommst auch keine guten Temps hin egal welcher Kühler.

Freestaler
2022-12-27, 22:38:00
Köpfen und planschleifen? Fänd das irgendwie spannend.

Ätznatron
2022-12-27, 22:54:25
Temps sind bei meinem 5800x3d auch so. Aber custom loop wakü.

Ja, sieht bei mir auch ähnlich aus, allerdings mit einer 280er AiO.

Acid-Beatz
2022-12-28, 12:37:44
Hat irgendwer Erfahrung, ob man den reinen Kühlkörper auf dem Die noch irgendwie "vorbearbeiten" kann, ggF. mit Hilfe maschineller Unterstützung?

hq-hq
2022-12-29, 02:43:05
Ich seh nur CPU-Temps unter 70 Grad.

und nur max 90Watt :freak:

ich hab nach 10min max 81°C (~79°C) bei max 118Watt (~115Watt) bei 4400MHz (AiO Eisbär 280)

robbitop
2022-12-29, 09:55:35
Die -100mV durch pbo2tuning reduzierte Leistungsaufnahme - das hilft definitiv den Temps. Ist damit eine flotte, kühle, effiziente CPU. Erinnert mich sehr an den i7 5775c (mit Crystallwell eDRAM L4 Cache).

aufkrawall
2022-12-29, 10:08:19
UVe mal einen ADL/RPL bei 4,5GHz + RAM-OC + ~90W Power-Korsett. Imho wird der 3D da weder bei Spielen, noch bei MT-Crunching gewinnen. Ich will die CPU niemandem madig machen, aber die Kommentare wirken oft wie von einem anderen Stern, nur, weil bei Intel einige Modelle ootb wie verrückt saufen. Und Effizienz ist halt eine relative Metrik und wird erst durch solche Vergleiche definiert. Von der Effizienz im real eher anzutreffenden GPU-Limit mal ganz zu schweigen.

robbitop
2022-12-29, 10:31:08
Also ich hab das nicht in Relation gesetzt.

Ernst gemeinte Frage: der 12900K schafft es ja out of the box zumindest in den Spiele CPU Ratings einen out of the box kaum 5800x3d (out of the box) zu schlagen. Ich würde annehmen da man beide CPUs undervolten kann gleicht sich das grob aus und beide sind am Ende ähnlich schnell und ähnlich effizient im groben Schnitt über viele Spiele. Dank UV rennt der X3D ja auch mit knapp 4,5 GHz all core.

Am Ende ist es für die Effizienz aller CPUs und GPUs sinnvoll UV zu betreiben. :)

Lowkey
2022-12-29, 11:35:12
Also man nehme einen Raptor Lake, setze den Takt auf 4500?, takte den Speicher hoch, deaktiviere die E-Kerne und setze das PL auf 90w?

robbitop
2022-12-29, 11:43:55
Wobei für RTL eher Zen4 bzw Zen4x3d der Gegenspieler bezüglich Energieeffizienz sein sollte.

Lowkey
2022-12-29, 12:01:08
Grob hat aufkrawall recht, wenn ich das Ergebnis von hq-hq darüber sehe.

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581419&page=55

robbitop
2022-12-29, 13:47:56
Naja der VCache hilft beim Encoding kaum und ist nicht wirklich repräsentativ für Spiele. Ich wette da sieht es anders aus. Encoding kann man ja heutzutage mit nvenc wesentlich schneller mit der GPU machen. Ist bei gleicher Qualität etwas größer als mit CPU aber das spielt bei heutigen Bandbreiten und HDD Größen IMO kaum noch eine Rolle.

Lowkey
2022-12-29, 13:55:02
Tja welches Spiel nimmt man da?

Es geht ja auch nur um einen Effizienzvergleich.

Darkearth27
2022-12-29, 13:59:47
Kannst du jedes X beliebige nehmen.

Benchmarkszene aus dem PCGH CPU Index (Savegames stehen ja zum dl bereit) nehmen und dann einfach mit CapframeX aufzeichnen, dann die maximale Leistungsaufnahme der CPU vergleichen.

Ist nicht 100% genau, aber schon sehr nah am echten Verbrauch.

Tesseract
2022-12-29, 14:15:43
maximaler verbrauch ist unsinn, wenn dann müsste man den verbrauch pro frame ermitteln.

Darkearth27
2022-12-29, 14:59:00
Man kann sich auch die Graphen über jede Sekunde anzeigen lassen.

Hier mal anhand SotTR CPU Szene von PCGH (3 Runs)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82056&stc=1&d=1672322301

Freestaler
2022-12-29, 15:10:58
maximaler verbrauch ist unsinn, wenn dann müsste man den verbrauch pro frame ermitteln.

Und das im GPU Limit, denn das wäre realistisch. Und dann wären die Plattformen, die weniger brauchen im Modus "leichte" Last im Vorteil. Dann zählt der RGB Lüfter plötzlich doch.

robbitop
2022-12-29, 15:16:00
Tja welches Spiel nimmt man da?

Es geht ja auch nur um einen Effizienzvergleich.

Ich finde die Performance Indizes am besten. Ein breiter Schnitt über viele Spiele.

Tesseract
2022-12-29, 15:19:45
Und das im GPU Limit, denn das wäre realistisch. Und dann wären die Plattformen, die weniger brauchen im Modus "leichte" Last im Vorteil. Dann zählt der RGB Lüfter plötzlich doch.
im GPU-limit misst du aber nicht die CPU um die es hier geht sondern zig andere sachen. ingame details hoch (am besten mit RT) aber die auflösung extrem runter bis man deutlich im CPU-limit ist, dann den verbrauch der CPU pro frame ermitteln. das ist dann die effizienz der CPU mit spielecode.

Freestaler
2022-12-29, 15:48:05
Aber auch das gibt unrealistische Lasten wieder (720p spielt keiner). Dann können wir bei TimeSpy bleiben.

Tesseract
2022-12-29, 16:00:52
es geht darum störfaktoren zu vermeiden, ins CPU-limit kann man je nach spiel, einstellung und GPU schon deutlich früher kommen. auf 720p ist man übrigens schon mit DLSS-P bei 1440p. ich glaube du unterschätzt wie schnell man mit einer halbwegs potenten GPU im CPU-limit ist wenn man DLSS/FSR einschaltet.

hq-hq
2022-12-29, 16:31:14
Die -100mV durch pbo2tuning reduzierte Leistungsaufnahme - das hilft definitiv den Temps. Ist damit eine flotte, kühle, effiziente CPU. Erinnert mich sehr an den i7 5775c (mit Crystallwell eDRAM L4 Cache).

ein TDP/EDC Limit ist doch kein Tuning :freak:

von CO = 0 auf CO = -30 sinkt bei mir auch die Leistungsaufnahme ab, vornehmlich weil der Multiplikator nur 4450MHz erlaubt oder später die Temperatur/Strom den Takt drückt

CO = 0 https://abload.de/thumb/co_null_r23d2er3.jpg (https://abload.de/image.php?img=co_null_r23d2er3.jpg)

CO = -30 https://abload.de/thumb/co_-30_r23gafpi.jpg (https://abload.de/image.php?img=co_-30_r23gafpi.jpg)


*edit: evtl. hilft eine neueres Bios, dass der L3 Takt nicht so schnell fällt und den eff. Takt runterzieht

Raspo
2022-12-29, 16:58:39
und nur max 90Watt :freak:

ich hab nach 10min max 81°C (~79°C) bei max 118Watt (~115Watt) bei 4400MHz (AiO Eisbär 280)
Hatte doch geschrieben, ich hab den auf 88W im PPT begrenzt :confused:

robbitop
2022-12-29, 17:03:47
ein TDP/EDC Limit ist doch kein Tuning :freak:

von CO = 0 auf CO = -30 sinkt bei mir auch die Leistungsaufnahme ab, vornehmlich weil der Multiplikator nur 4450MHz erlaubt oder später die Temperatur/Strom den Takt drückt

CO = 0 https://abload.de/thumb/co_null_r23d2er3.jpg (https://abload.de/image.php?img=co_null_r23d2er3.jpg)

CO = -30 https://abload.de/thumb/co_-30_r23gafpi.jpg (https://abload.de/image.php?img=co_-30_r23gafpi.jpg)


*edit: evtl. hilft eine neueres Bios, dass der L3 Takt nicht so schnell fällt und den eff. Takt runterzieht
Naja ist halt das Einzige was beim 5800x3d geht. ;)
Bei mir wird er schneller und kühler und verbraucht 20 W weniger. Laut PCGH ist er out of the box so schnell wir ein 12900K in Spielen und war schon einer der effizientesten CPUs im Test. Mit -30 wird er nochmal ein bisschen schneller.

Ich habe da nicht viel zu meckern außer dass ich gern den Multi selbst einstellen will. Wird aber nicht kommen. :)

Darkearth27
2022-12-29, 17:18:28
Hab mal einen 12700k mit 4000 CL16 RAM OC
einen 5800X mit den selben Timings und einen 5800X3D mit ebenfalls den selben Timings angehangen.

SotTR nach PCGH CPU Benchmark gebenched ("Kuwaq Yaku")
Das sind Settings rein im CPU Limit (also GPU = 0% Limit)

Anhand der Daten ist der 3D der sparsamste von den dreien und bringt in dem Test auch die meisten FPS.

Wenn man das nun in 1440p macht, dann ggf. noch mit FPS Limit und die CPU Last geht nach unten (ist ja auch klar, weil die GPU limitieren wird und die CPU die Last für 200 FPS nicht aufbringen muss).
Alltags Benchmarks sind sicher nicht verkehrt, aber es spiegelt eben nicht die Tatsächliche Leistungsaufnahme dar, wenn nur die CPU limitert. Deswegen kauft man sich ja auch bessere GPUs damit man die FPS die man in 720p mit max Details, dann auch in UHD bekommt.

Setzt man bei allen CPUs ein FPS Limit von sagen wir mal 120FPS, dann muss die CPU auch weniger arbeiten.

Habe auch noch CP2077, BFV oder Stray z.B. falls jemand noch mehr Daten haben möchte.

Freestaler
2022-12-29, 17:38:45
@Darkearth27, cool. Geht evtl auch 12700 mit 4500 max 1v und 5800x3d -30?

Darkearth27
2022-12-29, 17:43:32
Wenn ich den Besitzer des 12700er frage ob er mir ein Run aufzeichnet sicher.
Geht auch mit 13900k (der würde vermutlich eher reagieren)

Wobei der 13k dann mit DDR5 unterwegs ist.

Oder jemand anderes nimmt einfach einen Run auf, nachsehen kann man die Daten auch selbst.

hq-hq
2022-12-29, 18:29:10
Naja ist halt das Einzige was beim 5800x3d geht. ;)
Bei mir wird er schneller und kühler und verbraucht 20 W weniger. Laut PCGH ist er out of the box so schnell wir ein 12900K in Spielen und war schon einer der effizientesten CPUs im Test. Mit -30 wird er nochmal ein bisschen schneller.

Ich habe da nicht viel zu meckern außer dass ich gern den Multi selbst einstellen will. Wird aber nicht kommen. :)


also Symptombekämpfung :biggrin:

schön, 88Watt PPT Limit ist ungefähr soviel wie die CPU bei mir in CPU lastigeren Games braucht

meistens liegts darunter wie in Cyberpunk...https://abload.de/thumb/cyberpunk2077_2022_125jfen.jpg (https://abload.de/image.php?img=cyberpunk2077_2022_125jfen.jpg)

robbitop
2022-12-29, 19:15:56
Also ich setze gar kein Limit. Wirklich nur die -30 CO. Aber PPT ist 142W. Aber er nutzt halt nur einen Bruchteil.

Freestaler
2022-12-29, 21:01:08
Geht aktuell nicht um die Aussage von "aufkrawall"? ADL/RPL soll auf 4500MHz mit max UV und PLimit 90W mehr Frames liefern, als 5800X3D je kann. Und das stimmt mMn nicht. Bereits in X264/X265 Benchmark (siehe anderen Thread) kommt der 5800x3d ran und dort hilft ihm der Cache meines Wissen nach nicht so viel wie dies in Games der Fall ist. Daher doch die Test.

Darkearth27
2022-12-29, 21:54:54
Kommt immer auf das Game an, gibt ja auch welche, die nicht vom Cache profitieren da hilft dann das RAM OC (was beim 3D weniger gut wirkt)

Aber wenn mir die Daten vom 13900k zugesteckt werden, werde ich das hier bereitstellen.

Allerdings nur erstmal SotTR, die anderen Games muss er erst noch laden. ;)

hq-hq
2022-12-29, 22:10:59
Geht aktuell nicht um die Aussage von "aufkrawall"? ADL/RPL soll auf 4500MHz mit max UV und PLimit 90W mehr Frames liefern, als 5800X3D je kann. Und das stimmt mMn nicht. Bereits in X264/X265 Benchmark (siehe anderen Thread) kommt der 5800x3d ran und dort hilft ihm der Cache meines Wissen nach nicht so viel wie dies in Games der Fall ist. Daher doch die Test.

ähm ja Engine abhängig, FarCry 5 und 6 wird der 5800x3d zurückstecken... in anderen Games reichen dem 5800x3d die 88Watt leicht um vorne zu bleiben... ich mein 88Watt reizt der auch ohne co -30 nicht so oft aus

Darkearth27
2022-12-29, 22:44:10
So, 13900k @ 4500 Allcore - E Cores Off - RAM @ 8000 C36 sieht dann so aus.

https://media.discordapp.net/attachments/790255031692820491/1058137740765577226/image.png
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82062&d=1672350209


Und hier im Vergleich der 5800X3D -30 CO - RAM OC @4000 CL16
https://cdn.discordapp.com/attachments/790255031692820491/1058138562983383122/image.png

Daredevil
2022-12-29, 22:48:18
So, 13900k @ 4500 Allcore - E Cores Off - RAM @ 8000 C36 sieht dann so aus.

https://media.discordapp.net/attachments/790255031692820491/1058137740765577226/image.png
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82062&d=1672350209


Und hier im Vergleich der 5800X3D
https://cdn.discordapp.com/attachments/790255031692820491/1058138562983383122/image.png
Darf ich dich mal kurz um was anderes bitten, falls du Lust hast?
Mich würde mal interessieren, wie der Chart aussieht, wenn du nur 8 E-Cores nutzt. :>
Würde ich sehr spannend finden, auch wegen der Performance.

Freestaler
2022-12-29, 22:53:44
Wie hoch war die VCore beim 4500 Run? UV optimiert?

Darkearth27
2022-12-29, 22:56:06
Vcore war auf 1v festgelegt wie gewünscht.

E-Cores only (16 threads) macht er nun (aber unoptimiert, mit Vcore auf auto weil nicht ausgelotet was bei den E-Cores geht).

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82063&d=1672351694

https://cdn.discordapp.com/attachments/790255031692820491/1058144576038248620/image.png

Freestaler
2022-12-29, 23:13:17
Konnten die 4500 immer gehalten werden? Schneller wird er nimmer, aber mit noch tieferer VCore allenfalls effizienter als ein 5800x3d.

Darkearth27
2022-12-29, 23:17:36
Hat er nicht getestet, wurde ja drum gebeten mit 1v.

Effizienter würde ich ihn dann auch nicht nennen, denn selbst wenn er die 4500 nicht halten konnte liefert er ja weniger FPS ab.

Gut er verbraucht dann etwas weniger aber wenn man das weiter "spinnt" dann wäre das optimieren auf 4500MHz immer schlechter bei den FPS (0.2%til mal ausgenommen, das kommt aber vom RAM OC).

Freestaler
2022-12-29, 23:25:44
Update: Blub, hier war Mist, sehe gerade unter 90w. selbst mit Vcore 1v braucht er die 90W nicht. Also wenn er nun mit 0,9 noch weniger braucht, da wäre er doch effizienter? Wobei 8000Cl36 wohl eher auch am oberen Limit ist ;-) Lass mich raten, kein Board für unter 500€?

Darkearth27
2022-12-29, 23:32:59
Joar schon, ein bisschen..
Apex z790 :D

Aber wie gesagt, effizienter würde ich sagen ist er, wenn er die selben FPS mit weniger Verbrauch hinbekommt.
Oder:
Wenn er den Verbrauch noch mehr drücken könnte, das müsste man dann ins Verhältnis setzen und ausrechnen, aber wer einen 13900k hat, lässt den ja nicht mit 4500 allcore laufen :D

hq-hq
2022-12-30, 00:06:50
gibt es auch Werte mit z.B. 5500MHz P Cores ohne Powerlimit?

Darkearth27
2022-12-30, 00:09:56
Sicher irgendwo, könnte ihn gleich noch drum bitten, ist noch online. ;)

Er macht das gleich, aktuell zockt er BF2024 mit 5,5 allcore (ecores on) und hat so im Schnitt 130w in 4k

robbitop
2022-12-30, 00:12:00
Ui und das war schon ein super schweres Geschütz. Raptorlake mit 8000er DDR5 :O. Der muss sich eher gegen Zen4 und Zen 4 x3d halten.

hq-hq
2022-12-30, 00:14:51
das volle Potential bei dem RAM OC wär schon klasse, würd schon gern sehen von wo der 13900k kommt wenn er auf 90Watt gezüchtigt wird ^^

Darkearth27
2022-12-30, 00:18:40
Ach du meinst 5,5GHz allcore nur P-Cores aber 90w limited?

hq-hq
2022-12-30, 00:23:28
Ach du meinst 5,5GHz allcore nur P-Cores aber 90w limited?

nein nein, Powerlimit offen, P-Core 5.5GHz oder mit OC, damit man sieht was möglich ist

Also von wo der 13900k kommt wenn er "normal" läuft :freak:

Darkearth27
2022-12-30, 00:24:45
Alles klar, hab ich ihm weiter gegeben.

Werd dann hier den Vergleich posten.


5.7GHz P-Cores / E-Cores off / RAM @ 8000 C36

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82066&d=1672358772

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82067&d=1672358873

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82068&d=1672358994

hq-hq
2022-12-30, 02:54:06
wenn ich es richtig zusammenkopiert hab... die AVG Watt der CPU (zu jedem Bench) wären natürlich nice to have, wobei auch klar ist, dass eine potentere CPU die AVG Watt der GPU erhöhen kann

720p
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82070&stc=1&d=1672365079

edit: ja die E-Cores ... wer spart schaltet die P-Cores jetzt ab ? :uwoot:

aufkrawall
2022-12-30, 03:26:28
5800X3D:

HZD ungelockt:
https://abload.de/thumb/horizonzerodawn_2022_j4e3a.png (https://abload.de/image.php?img=horizonzerodawn_2022_j4e3a.png)
171fps 91W

Treiber-Limiter:
https://abload.de/thumb/horizonzerodawn_2022_h6f8j.png (https://abload.de/image.php?img=horizonzerodawn_2022_h6f8j.png)
100fps 76W

Hitman 2 ungelockt:
https://abload.de/thumb/hitman2_2022_12_30_0084co2.png (https://abload.de/image.php?img=hitman2_2022_12_30_0084co2.png)
139fps 81W

Treiber Limiter (AB-Screenshots sind manchmal mit D3D12 abgeschnitten...):
https://abload.de/thumb/hitman2_2022_12_30_006md1w.jpg (https://abload.de/image.php?img=hitman2_2022_12_30_006md1w.jpg)
100fps 70W

Skyrim SE dynamisch ungelockte fps + Treiber-Limiter NULL:
https://abload.de/thumb/skyrimse_2022_12_30_0afen8.png (https://abload.de/image.php?img=skyrimse_2022_12_30_0afen8.png)
138fps 55W



11400F:

Hitman 2 ungelockt:
https://abload.de/thumb/hitman2_2022_12_30_02wdccd.png (https://abload.de/image.php?img=hitman2_2022_12_30_02wdccd.png)
114fps 74W

Treiber-Limiter:
https://abload.de/thumb/hitman2_2022_12_30_02zud2s.png (https://abload.de/image.php?img=hitman2_2022_12_30_02zud2s.png)
100fps 70W

HZD ungelockt:
https://abload.de/thumb/horizonzerodawn_2022_wlduf.png (https://abload.de/image.php?img=horizonzerodawn_2022_wlduf.png)
112fps 77W

Treiber-Limiter:
https://abload.de/thumb/horizonzerodawn_2022_yye87.png (https://abload.de/image.php?img=horizonzerodawn_2022_yye87.png)
100fps 69W

Skyrim:
https://abload.de/thumb/skyrimse_2022_12_30_0h3i9o.png (https://abload.de/image.php?img=skyrimse_2022_12_30_0h3i9o.png)
138fps 47W

Der 5800X3D verbrät in Spielen bei gleichen fps bzw. im GPU-Limit oft mehr als ein höher ausgelasteter Intel 6C in 14nm. Wie "effizient". :freak:
Ja, HZD ragt im kompletten CPU-Limit positiv hervor. Das geht für den 3D aber auch in die andere Richtung in DL2 RT (hatte ich ja hier schon gepostet) oder Spiderman RT.

dildo4u
2022-12-30, 05:20:27
Nutz du bestimmte Settings laut dem ist DL2 massiv GPU Limit und der X3D bringt in 1080p 160fps mit einer 4090.

https://youtu.be/Q53rT4WxCWk?t=492


Du hast aber recht bei Spider-Man crusht der Nvidia Treiber den x3D, die 7900XTX hat massiv bessere Mins.
PC Gameing ist echt für Lutscher 1000€+ GPU und es ruckelt und zuckelt selbst mit vermeitlich dicker Hardware.

https://abload.de/img/spider-rt5jdn4.png

https://youtu.be/zuQJ3tNS8Bc?t=44

Wenn sich da durchzieht muss ich vermutlich eine andere CPU suchen da ich eine 4070 Ti im Auge habe.