Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 9000 Review-Thread
Seiten :
1
2
3
4
5
6
7
8
9
10
11
[
12]
13
Lehdro
2024-11-22, 16:49:30
Sieht gut aus :up:
Wie groß ist da der Unterschied zu 6000 CL30 EXPO ohne weiters RAM Timing Tuning?
XMP 6000 CL30:
https://i.imgur.com/a31sAKN.jpeg
6000 CL28 mit Tuning:
https://i.imgur.com/klJi3Yg.jpeg
Ist schon heftig.
Badesalz
2024-11-22, 16:49:42
Booten ging ja, schrieb er :wink:
Ja und MemTest für eine halbe Stunde auch.
Und ich schrieb auch, dass ich nicht ausschließen kann dass der MemTest Fehler beim ersten kurzen Versuch mit tFRC 288 nicht vom Wechsel von CL30 auf CL28 kommt, den ich zuvor nur 2h mit MemTest getestet hatte. Ich lasse die nächsten Nächte weitere Tests laufen und berichte :)
Es gibt ja schon erste AGESA 1.2.0.2b Beta UEFIs.
https://docs.google.com/spreadsheets/d/12zg6yT_H7H-W1voyw1ZoIrj0GSE7WI4Ug-uLlv-Asa8/edit?pli=1&gid=937453961#gid=937453961
Hat die schon jemand getestet ob damit die Verschlechterung der RAM Latenz wieder weg ist? Ich warte lieber bis das Beta BIOS zumindest auf der offiziellen Support Website bei Asus landet. ;)
Badesalz
2024-11-22, 16:59:33
Ist schon heftig.Sär Tschön :up:
Fiel mir aber schon davor irgendwie auf, daß Copy in Mem steigt, aber auf dem L2 sinkt :confused:
1. Was ist/war der MemCopy ohne alles und auch ohne XMP/EPO? (aber auf 6000 halt)
2. Was ist jetzt mit 6100? :naughty:
Hat die schon jemand getestet ob damit die Verschlechterung der RAM Latenz wieder weg ist? Da sollte imho auf Darkearth27 Verlass sein =)
https://www.guru3d.com/story/msi-releases-agesa-1202b-bios-update-for-amd-am5-motherboards-to-improve-memory-and-processor-perf/
Wenn Lehdro dadurch aber halb von vorne anfangen muss, dann bin ich hier raus :ulol:
Darkearth27
2024-11-22, 17:52:14
Also 1202b bei den 7000er CPUs hat ein tRCD Bug, Timings werden nicht übernommen, da tRCD wieder getrennt einstellbar ist.
Bei den 9000er geht es, aber Latenzen sind nicht viel besser geworden.
Ja es gibt von MSI mittlerweile eine "reduziere mir die Latenz" Option, aber ob das alles so klappt wie gewollt, kA.
Badesalz
2024-11-22, 18:30:41
Hört sich nach kannste auch auslassen an.
XMP 6000 CL30:
https://i.imgur.com/a31sAKN.jpeg
6000 CL28 mit Tuning:
https://i.imgur.com/klJi3Yg.jpeg
Ist schon heftig.
Das ist dieser Kingston RAM, richtig?
https://geizhals.de/kingston-fury-beast-schwarz-dimm-kit-64gb-kf560c30bbek2-64-a3164913.html?hloc=at&hloc=de
Ist gerade wieder im Angebot.
Cubitus
2024-11-22, 19:13:14
Sind das die HynixM Dinger?
Allgemein find ich die Latenz schon krass, bei den DDR5..
Aber so um die Mitte ~65 sind wohl okay..
Finds halt schade, 48ns wie bei meinen DDR4 wären toll.
Aber dafür ist ja der 9800X3D schnell genug :freak:
Hynix A-Die müsste das sein.
Lehdro
2024-11-22, 20:26:36
Sär Tschön :up:
Fiel mir aber schon davor irgendwie auf, daß Copy in Mem steigt, aber auf dem L2 sinkt :confused:
Die L2 Werte könnten genauso gut auch gewürfelt sein. Ich kann gerne solange die Werte doppelclicken bis sie "passen", aber sehe den Sinn irgendwie nicht.
1. Was ist/war der MemCopy ohne alles und auch ohne XMP/EPO? (aber auf 6000 halt)
Das habe ich nie getestet :redface:
2. Was ist jetzt mit 6100? :naughty:
Erst trfc und dann gehe ich vom Takt her nach oben.
Wenn Lehdro dadurch aber halb von vorne anfangen muss, dann bin ich hier raus :ulol:
Da kenn ich nix. Ich habe mein olles 5800X3D UEFI ewig lang nicht geupdated, weil nie etwas dabei war, was relevant war. Erst der Sinkclose Fix war relevant, da waren aber die Verkaufspläne schon in Stein gemeißelt. Wenn also für mich nichts Performance oder Sicherheitsrelevantes dabei ist, bleibt 1202A drauf.
Das ist dieser Kingston RAM, richtig?
https://geizhals.de/kingston-fury-beast-schwarz-dimm-kit-64gb-kf560c30bbek2-64-a3164913.html?hloc=at&hloc=de
Ist gerade wieder im Angebot.
Jop, genau der. Läuft gut, kann ich nur empfehlen. Bei mir ist das A-Die - Gott sei dank.
Mortalvision
2024-11-22, 21:31:49
So, läuft jetzt zum ersten Mal. Hat wirklich am Anfang a weng gedauert mit dem Memory Training und erstem BootUp. Dann hat er auch noch wegen tmp-Korruption gemeckert. Aber da musste ich nur Y drücken und er hat Windows neu drauf eingestellt.
Hynix A-Die müsste das sein.Sind die Toll? Bei meinen G.Skill sind die auch verbaut.
Darkearth27
2024-11-22, 22:07:54
H16A ist aktuell das schnellste was man bekommen kann (tRFC 120ns im Schnitt), danach kommen H24M (bei nicht so geringer tRFC - 160ns Minimum) aber weit aus mehr Takt möglich (neuste CU Dimms setzen auch meistens auf H24M), dann H16M (ebenfalls ca 160ns Minimum) aber schaffen maximal 7200 MT/s bei AMD.
Anmerkung zu H16A, es gibt auch "Downbins" die schaffen dann nicht ganz so geringe tRFC Werte (meistens so um die 145 - 155ns).
Zossel
2024-11-23, 06:47:41
Ja und MemTest für eine halbe Stunde auch.
Eine halbe Stunde Memtest ist lächerlich.
Mortalvision
2024-11-23, 07:51:42
Sodele, Expo I läuft stabil mit 6000-28-36-36-96 etc. 70,9ns Zugriffszeit. Werde heute mal die Werte von der letzten Seite probieren. Speicher ist ein Hynix 41
Ätznatron
2024-11-23, 08:19:35
Sodele, Expo I läuft stabil mit 6000-28-36-36-96 etc. 70,9ns Zugriffszeit. Werde heute mal die Werte von der letzten Seite probieren. Speicher ist ein Hynix 41
Hm, 6000-30-36-36-76 ergeben bei mir eine Latenz von 68,0 ns.
Mortalvision
2024-11-23, 10:16:50
Ich update nachher nochmal
Badesalz
2024-11-23, 10:19:00
Werde heute mal die Werte von der letzten Seite probieren. Speicher ist ein Hynix 41Ja. Und die aktuellen immer mitposten ("ZenTimings")
@Zossel
Der Kontext an der Stelle war IMHO, daß es damit halt nicht läuft ;)
Badesalz
2024-11-23, 11:52:08
Also 1202b bei den 7000er CPUs hat ein tRCD Bug, Timings werden nicht übernommen, da tRCD wieder getrennt einstellbar ist.
Bei den 9000er geht es, aber Latenzen sind nicht viel besser geworden.Ich hab die Story ehrlich gesagt komplett verpeilt :redface: Was ist die Referenzgröße dabei?
Hatten sie schon kurz was anderes für Zen5 gehabt, es ertmal versemmelt und versuchen grad mühsam zurückzudrehen oder geht es um Vergleiche mit Zen4?
(nicht nur wegen tRCD)
Darkearth27
2024-11-23, 12:53:03
Ich hab die Story ehrlich gesagt komplett verpeilt :redface:
AGESA 1202 (alle nicht 3D Bios Versionen) haben bei allen ZEN5 gut 8ns weniger Latenz (AIDA Memory bench)
AGESA 1202A (3D BIOS) hat es dann versemmelt und alle Zen5 haben nun eine um 8ns höhere Latenz (AIDA Memory Bench).
(Zen4 war nicht betroffen)
Mit AGESA 1202B gibt es keine Besserung der Latenzen für Zen5, einige Hersteller (darunter MSI) haben aber "neue" Optionen ins Bios integriert die angeblich die Latenz wieder verbessern sollen (wodurch auch immer -> keine Dokumentation)
Dabei wurde aber bei AGESA 1202B bei den 7000er ein Register so versemmelt, dass die tRCD (wr und rd) nicht übernommen werden, egal ob via EXPO / DOCP / XMP Profil oder manuell eingestellt.
Dadurch natürlich auch hohe Latenzen weil es immer auf den maximalen Wert der Taktstufe eingestellt wird vom Board.
Latenzen werden eventuell bei Zen5 wieder gefixed, während bei Zen4 die tRCD Werte wieder greifen sollen (müssen!) aber wann genau ein neues Bios kommt, das genau das alles angeht ist nicht gesagt.
Kommt auch auf den Hersteller an, bei ASUS besteht jedenfalls das Problem der tRCD bei Zen4 und bei Zen5 die hohen Latenzen mit dem neuesten Beta Bios noch (Stand gestern).
Badesalz
2024-11-23, 13:37:46
DANKE :smile:
Wenn man mit Zentimings mit 2 DS-Modulen auf AGESA 1202 startet sagt mir das Programm, dass diese AGESA-Version mit DS-Modulen verbugt ist. Von daher ist das bei 1202A ein grober Fix dafür. Wenn B auch verbugt ist, lässt man es besser erst mal auf 1202A, bis das gefixt ist. Ich seh aber auch bislang keine finalen oder betaversionen mit 1202B, wirds wohl auch nicht geben. Vielleicht 1202Ba oder sowas.
Slipknot79
2024-11-23, 14:45:58
Can man die AGESA Version irgendwo auslesen?
x-force
2024-11-23, 14:52:31
Can man die AGESA Version irgendwo auslesen?
cpu-z
zentimings
Exxtreme
2024-11-23, 14:55:12
HWInfo kann es. Einfach auf Hauptplatine klicken. Da sieht man die Agesa Version.
Eine halbe Stunde Memtest ist lächerlich.
Ach was. Das war nur als Antwort darauf dass die Settings nicht nur booten sondern auch einige Durchläufe memtest standhalten, was schonmal ein großer Unterschied ist. Mehr Zeit hatte ich zu dem Zeitpunkt nicht. Ich schrieb doch dass ich länger testen werde.
latiose88
2024-11-23, 15:47:52
verstehe die schlechten Latenzen sind eher schlecht für Spiele aber bei Anwendung ist es egal weil nicht so empfindlich sind. Also wie am anfang von Zen 5. Wobei am Anfang waren es ja cpu latenzen gewesen die zu hoch waren und nun ist es der RAM. So kann es gehen.
Mortalvision
2024-11-23, 16:10:13
Pff, was für ein Ramsch ist das denn wieder mit AGESA? War ja bei Zen3 auch so schlimm. Ich kann mich noch gut erinnern. Ich kümmere mich erst um stabile Subtiminigs, wenn ich weiß, dass das AGESA stimmt, ansonsten kann ich ja nach jedem Bios-Update wieder alle Werte neu einpflegen...
Darkearth27
2024-11-23, 16:12:58
Witzigerweise ist die Spiele-Leistung gar nicht so gering wie man vermutet, der 9800X3D rasiert immer noch alles weg was ihm in den Weg kommt (getuned noch mehr als Stock).
Es kann nur besser werden.
Hauptsache nicht wieder zu lange Zeit lassen wie in der Vergangenheit, dann kommen die 16 Kerne mit einem neuen BIOS (nur für die Tester) und rasieren, eine Woche später gibt es dann das BIOS zum Download und der 8 Kerner ist wieder vorbei am 16 Kerner.. (so wie beim 7000er Launch).
Ätznatron
2024-11-23, 16:24:46
Pff, was für ein Ramsch ist das denn wieder mit AGESA? War ja bei Zen3 auch so schlimm. Ich kann mich noch gut erinnern. Ich kümmere mich erst um stabile Subtiminigs, wenn ich weiß, dass das AGESA stimmt, ansonsten kann ich ja nach jedem Bios-Update wieder alle Werte neu einpflegen...
Mir fällt jetzt auf die Schnelle tatsächlich kein Spiel ein, dessen 1% Lows so miserabel sind, dass es den stundenlangen Aufwand wert wäre, unbedingt die Subtimings verbessern zu müssen, um in dem Bereich vielleicht nocht ein klein wenig mehr Leistung herauszukitzeln.
Zumal ja alles mit demn nächsten BIOS-Update hinfällig sein düfte und das ganze Procedere wieder von vorne losgeht.
Aber gut, wer Spass dran hat...
RoughNeck
2024-11-23, 16:53:48
Früher hatte ich auch spaß dran, heute bin ich zu faul / bequem geworden.
Der Rechner muss laufen, ich undervolte wenn CPU / GPU aber auch nicht um das letzte Watt einzusparen, sondern damit alles schön leise bleibt.
Aber ja, ich versteh jeden der Stunden / Tagelang damit verbringt seine Hardware zu optimieren.
Nightspider
2024-11-23, 17:09:09
Hier mal eine detaillierte Analyse zur Performance in Star Citizen:
pDns9lyKwys
Star Citizen profitiert weiterhin vom 3D Cache hauptsächlich dann, wenn weniger CPU Last anliegt und es ist weiterhin extrem von der Speichergeschwindigkeit abhängig.
Je mehr RAM Tuning, desto besser die fps. Nach wie vor scheint es so zu sein, das der V-Cache zu klein ist für Star Citizen.
Badesalz
2024-11-23, 17:11:29
Je mehr RAM Tuning, desto besser die fps. Nach wie vor scheint es so zu sein, das der V-Cache zu klein ist für Star Citizen.Der V-Cache ist nur für schlechte Engines zu klein.
@all
Das Ding mit dem Speichertuning...
1. Wo nochmal steht das festgeschreibene Gesezt stehen, daß man mit dem neuen Agesa komplett von vorne Anfangen kann? Wenn mand afür so ein Problem hat dreht man erstmal nur am Takt und den Primären. Das langt vorerst auch.
2. Wenn der erste damit anfängt und berichtet (und zeigt) wie sich seine 1%lows um 14% verbessert haben und bei den Frametimes man nahezu schon von einer Konstanz sprechen kann, dann schläft man 2-3 Tage drüber, aber man fängt dann doch irgendewann selbst damit an. Auch wenn man nur die bis dato - andere arbeiten lassen... - die grob sicheren abtippert.
IMMER :wink: Erzählt mir also nichts über Lust oder Bedarf oder euren Alter :up:
Nightspider
2024-11-23, 17:15:45
Der V-Cache ist nur für schlechte Engines zu klein.
Lässt sich von außen bestimmt einfach sagen, wenn man keinen Einblick in die Engine hat.
Badesalz
2024-11-23, 17:25:59
@Nightspider
Wäre ohne Vergleichsmöglichkeiten natürlich nicht möglich. Stimmt schon... SC kopiert zuweilen wie bekloppt im Hauptspeicher rum. Kann man sogar von innen sehen :usweet: Wenn man das Werkzeug für sowas hat und wenn man weiß was man sich da grad anschaut :up:
Wofür war der Cache nochmals auch zu klein...(?) War das nicht ein Assassin’s Creed? Bis für Ubisoft ultrapeinlich, jemand es auseinandernahm und feststellte, das Ding macht pro Sekunde statt paar Kilo an DrawCalls, Tonen davon. Mit dem illegal-illegal Patch dagegen rannte/rennt das ganz anders mit den X3D. Da war der V-Cache plötzlich wieder groß genug.
Exxtreme
2024-11-23, 17:30:06
Die SC-Engine ist womöglich ziemlich schlecht im jetzigen Zustand. Man sollte bedenken, dass das mehr oder weniger Developer-Builds sind, die man so bekommt. Da ist wahrscheinlich Debug-Code einkompiliert und viele Kompileroptimierungen sind womöglich auch aus weil ansonsten der Debug-Code nicht mehr funktioniert.
Und ja, bei sowas helfen Caches sehr gut.
Und nein, mir macht das keine Sorgen, dass nur ein CCD den größeren Cache abbekommt. Die CPU wird trotzdem sehr gut werden.
x-force
2024-11-23, 17:50:03
Die SC-Engine ist womöglich ziemlich schlecht im jetzigen Zustand.
das spiel ist seit 11 jahren spielbar :freak:
Badesalz
2024-11-23, 18:00:34
@x-force
Ja... Wenn man die Idee oder den Content usw. nimmt, mag das für Fans des Genres auch sehr schön sein. Und finds ehrlich gesagt auch selbst.
Das sagt aber nichts über den, je nach Version, Zustand der Engine. Oder eher, den Skills dahinter. Einfach bisschen mitlesen...
Und nein, mir macht das keine Sorgen, dass nur ein CCD den größeren Cache abbekommt.Ja alter Schwede...
https://x.com/AnhPhuH/status/1860318542534783146
Radeonfreak wird mich sowas von auseinandernehmen... :redface: Irgendwie freu ich mich drauf :ulol:
Lehdro
2024-11-23, 20:22:13
Die geringe Verbesserung stimmt mich nachdenklich, aber das soll wohl so:
https://i.imgur.com/AzpQraH.jpeg
Tesseract
2024-11-23, 20:42:55
muss es nicht, AIDA ist synthetischer schrott ohne praxisrelevanz.
Badesalz
2024-11-23, 20:48:25
muss es nicht, AIDA ist synthetischer schrott ohne praxisrelevanz.Ja Lehdro, jetzt den Allgemeinbericht zu den RL Leistungen :wink:
Oder nochmal kurz 6100?
Slipknot79
2024-11-23, 23:45:03
cpu-z
zentimings
HWInfo kann es. Einfach auf Hauptplatine klicken. Da sieht man die Agesa Version.
Thx e high 5. Ist wohl noch 1201A bei mir.
3 runs habe ich mal mit +200 und CO-50 durchgeballert. Mehr als -50 lässt das Mobo nicht zu. :mad:
Temp ist 72°C bei ca 128-130W.
RAMsch auf Expo I.
https://www.hardwareluxx.de/community/attachments/1732399797425-png.1048701/
Unuphängig von den runs, ist der 9800X3D wirklich eine sehr steife CPU, kann man nicht meckern. Ballert in Kingdom Come Delivarance alle limits weg in den Städten. (y) Extrem flüssiges gaming am Start vs 9900k. (y) MOAR!
Lehdro
2024-11-24, 00:41:39
Ja Lehdro, jetzt den Allgemeinbericht zu den RL Leistungen :wink:
Na denn, Spoiler zu zuvor:
Ich habe gestern den 9800X3D eingebaut und direkt XMP 6000CL30 geladen, sonst noch nichts weiter eingestellt/optimiert.
Die Unterschiede in Black Desert Online gegen einen bis an die Kotzgrenze getriebenen 5800X3D sind absurd:
1440p, Remastered alles auf max. Details außer TAA und DoF, 1h Grind in Yzrahid
5800X3D + CO -30 + 3800CL14 opt. Subtimings
60-65W CPU
175 avg FPS
90 fps 1% low
9800X3D + 6000CL30 XMP
75-85W CPU
230 avg FPS +31%
170 fps 1% low +89 %
Ich bin jetzt größtenteils im GPU Limit, die Steigerungen könnten also noch größer sein. :)
Wieder Black Desert Online:
9800X3D + 6000CL28 tuned
80-90W CPU
235 avg FPS +34%
185 fps 1% low +106 %
Jetzt hängt es wirklich dauernd an der GPU, Engine/Serverruckler ausgenommen.
Darktide: 1% lows sind nochmal gestiegen, bei den avgs. tut sich quasi nix. Drops unter 80 sind extrem selten geworden. Allerdings muss ich da noch paar Maps spielen damit ich das genauer verorten kann, die Variabilität in dem Game ist halt schon sehr groß.
Stellaris: Meine 10.000 Sterne Galaxie im Lategame ist jetzt spielbar auf 1x Speed - unfassbar was da abgeht. Sogar das Laden in die Galaxie ist ca. 50% schneller. Stellaris war übrigens eines der sehr wenigen Games in dem mein 5800X3D @ CO -30 tatsächlich mal >90W geschluckt hat. Und zwar jedes mal beim Laden der Galaxie. Der 9800X3D verhält sich da anders, der steckt diese "Hochlastphase" sehr schnell weg und dümpelt dann meist weit unter dem Maximum rum.
TWWH3: Selbst 3 Armies vs 3 Armies ist jetzt durchgehend mit dreistelligen FPS drin, Kollege mit dem 5700X3D braucht in unserer Multiplayersession teilweise fast 2 Minuten länger(!) um initial in die Kampagne reinzuladen. Timeout ist bei 600 Sekunden :cool:
Rundenwechsel ist deutlich beschleunigt (wenn man alle Kameramovements für Aktionen ausschaltet), kriege da jetzt immer Laganzeige vom Kollegen, weil dem sein PC nicht hinterherkommt - dabei wird alles bei mir berechnet :freak:
Tiny Tina's Wonderlands: Das Spiel hat deutlich weniger Probleme wenn man im DX11 Modus spielen wollen würde, vorab aber: Es läuft mit DX12 sooo viel besser. An der Stelle in Bright Hoof, Bliickrichtung Hafen vom Tor zum Soringbrunnen hatte mein 5800X3D 70 fps, der 9800X3D hat dort 109 FPS -> +56 %. In DX12 klebe ich sowieso immer im GPU-Limit. Laden geht aber noch schneller als eh schon. Kann jetzt bequem meine Mates trollen in dem ich die Karte wechsel bevor die fertig reingeladen sind - die Hüpfen dann von Ladescreen zu Ladescreen ohne eine Chance den Mapwechsel abzubrechen :freak:
10/10 Trollpunkten :redface:
Vemintide 2: stellenweise >300 FPS 1% low mit DLSS Q/FG in 1440p - komplett GPU limitiert. Sind ca 100 FPS mehr als der 5800X3D schaffte. Ohne DLSS/FG hatte ich vorher im Keep 170 FPS avg und 145 FPS 1% low. Jetzt sind es 265 FPS avg. und 190 FPS 1% low. Oder anders: Was vorher nur mit FG erreichbar war, schafft man jetzt ohne FG. +56% bzw. +31%.
Vermintide 1: Tatsächlich schafft man nun ~144 FPS 1% low. Unfassbar, das Game ist notorisch für seine CPU Nuckelei und schlechte Optimierung. Mit dem 5800X3D waren dreistellige 1% lows Zahlen von denen man träumte.
Civ 6 Gathering Storm AI Benchmark: Habe das noch nie so schnell gesehen, leider finde ich meine Werte vom 5800X3D nicht mehr. Die CPU gönnt sich dabei stellenweise aber mal richtig, habe mehr als 120W gesehen. 23.15s pro Zug ist übrigens das Endergebnis, keine Ahnung wie das vergleichbar ist, scheint kaum jemand zu benchen. Habe auf die Schnelle auch nichts aktuelles gefunden.
Oder nochmal kurz 6100?
Vielleicht bastel ich mir noch ein 6400CL30 Setting zusammen, mal schauen. :cool:
Radeonfreak
2024-11-24, 00:53:00
Du bislt bald fällig. Denk dran :tongue:
Glaub ich nicht, Tim.
Ryzen 9 9950X3D und 9900X3D: Traum der Spieler platzt wohl (https://www.pcgameshardware.de/CPU-CPU-154106/News/Ryzen-9-9950X3D-und-9900X3D-ohne-doppelten-Cache-1460241/)
latiose88
2024-11-24, 00:53:29
es gibt bestimmt noch mehr schlechte games wie Star Citizen.
Also wo auch eher ne schlechte Performance hat ist sowas wie Universe At war angriff mission Erde.
Das hat 4 Patches bekommen,aber es läuft teilweise wie auf einer Banane.MS hat das Game echt in Hose gesenkt.
Was auch seid Windows 10 super schlecht Läuft ist Kane & Lynch Dead Men.Das läuft so als ob ich die Ultra Settings aktiviert habe,die Optik sieht wie immer aus.Es ruckelt wie sau mit 30 fps schankend nach oben und unten.
Hier wird gewiss auch der Extra Cache auch nix bringen.DIe GPU ist unterfordert weil dies ja ein DX9 Game ist.
Teilweise habe ich auch mit Red Faction Gurilla so meine Probleme gehabt.Es stürzte öfters ab,hin ab und zu mal und es gab nie einen einzigen Patch für das Game.
Es gibt bestimmt noch viel mehr Spiele die einfach nicht gut liefen.Nen Wunder erwarte ich von nem extra Cache auch nicht mehr,wenn selbst die GPU unterfordert ist.
Was auch Probleme machte und gewiss im CPU limit ist trotz das es nur 2-3 Kerne wirklich Nutzt ist Saiints Row 3. Das hat immer wieder Ruckler und fps Einbruch. Und wenn man bei einem ne falsche GPU drinnen ist,dann hängt man an maximal 40-50 fps dran.Obwohl es zu zeiten von einer gtx 560 schon so schlecht gelaufen war.Eigentlich sollte die gtx 750 ti nun auch nicht so viel schlechter sein.Es lief nur dennoch um einiges schlechter als ich in Erinnerung habe.
Schade das da kein Extra L3 Cache weiter helfen kann.
aufkrawall
2024-11-24, 01:38:40
Tiny Tina's Wonderlands: Das Spiel hat deutlich weniger Probleme wenn man im DX11 Modus spielen wollen würde, vorab aber: Es läuft mit DX12 sooo viel besser. An der Stelle in Bright Hoof, Bliickrichtung Hafen vom Tor zum Soringbrunnen hatte mein 5800X3D 70 fps, der 9800X3D hat dort 109 FPS
Das kommt mir wenig vor. Kannst du einen Screenshot der Stelle posten?
Btw. hat FSR in dem Titel wohl weiterhin einen Bug, dass es die CPU-Performance reduzieren kann.
Slipknot79
2024-11-24, 01:57:03
Soeben folgende Beob8ung gem8:
RAMsch manuell optimiert, AIDA m8 67ns latency
CB23 ballert 22,5k Punkte
RAMsch auf Expo I, AIDA m8 74ns latency
CB23 ballert 23,7k Punkte
Ist sowas zu erwarten? Oo
x-force
2024-11-24, 02:00:39
Soeben folgende Beob8ung gem8:
RAMsch manuell optimiert, AIDA m8 67ns latency
CB23 ballert 22,5k Punkte
RAMsch auf Expo I, AIDA m8 74ns latency
CB23 ballert 23,7k Punkte
Ist sowas zu erwarten? Oo
nach lehrbuch :up:
Nightspider
2024-11-24, 02:01:32
Glaub ich nicht, Tim.
Ryzen 9 9950X3D und 9900X3D: Traum der Spieler platzt wohl (https://www.pcgameshardware.de/CPU-CPU-154106/News/Ryzen-9-9950X3D-und-9900X3D-ohne-doppelten-Cache-1460241/)
Wieso verlinkst du das werbeverseuchte PCGH Gelaber, was schon in diesem und im anderen Zen5 Thread per Tweet mit ~10 Worten erzählt wurde? :confused:
...
Slipknot79
2024-11-24, 02:05:48
nach lehrbuch :up:
K, was ist dann für Spiele-fps besser? Latency oder CB23? (Ich vermute latency?)
----------------------------
https://www.hardwareluxx.de/community/attachments/1732420668585-png.1048745/
K, muss aber noch gememtestet werden. Viel moar wird da auch nicht mehr rauszuholen sein nehme ich mal an. Vllt irgendwas mit 6200 oder 6400MHz?
dildo4u
2024-11-24, 07:39:54
Cyberpunk immer noch CPU limitiert in 1440p ohne RT, der Benchmark taugt nix der zeigt 200fps.
vPHpYH7m9OE
Badesalz
2024-11-24, 08:23:03
Glaub ich nicht, Tim.
Ryzen 9 9950X3D und 9900X3D: Traum der Spieler platzt wohl (https://www.pcgameshardware.de/CPU-CPU-154106/News/Ryzen-9-9950X3D-und-9900X3D-ohne-doppelten-Cache-1460241/)Zu spät :wink:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13655935&postcount=2788
@Nightspider
1. Geht es um einen Korb? Was fällst du wegen einem kack Einzeiler + Link so über sie her? :|
2. Hast du mal alleine die Tabellen von PCGH durchgeklickt, wieviele Optionen die haben? Das ist ARBEIT. Sollen sie das für dich ehrenamtlich machen?
Freestaler
2024-11-24, 08:30:15
Soeben folgende Beob8ung gem8:
RAMsch manuell optimiert, AIDA m8 67ns latency
CB23 ballert 22,5k Punkte
RAMsch auf Expo I, AIDA m8 74ns latency
CB23 ballert 23,7k Punkte
Ist sowas zu erwarten? Oo
CB Punkte werden trotz deutlich besseren latenz weniger? Komisch für mich.
Badesalz
2024-11-24, 08:43:47
@Freestaler
CB ist mit den 2024 Launches als Bench eh durchgefallen. Man konnte wunderbar nachverfolgen wie das NULL Bezug zu irgendeiner Realität hat und für nichts mehr außer Marketing taugt -> Müll -> Mülleimer.
Na dennNa top. Dein Weg scheint beendet :)
Kann jetzt bequem meine Mates trollen in dem ich die Karte wechsel bevor die fertig reingeladen sind - die Hüpfen dann von Ladescreen zu Ladescreen ohne eine Chance den Mapwechsel abzubrechen :freak:Aha. Impertinente Kaufempfehlungen ohne darüber je gesprochen zu haben :tongue:
Vielleicht bastel ich mir noch ein 6400CL30 Setting zusammen, mal schauen. :cool:Wenn du dann für 6400 gucken willst was max. an Timings geht, solltest du jetzt erstmal gucken was max. an Takt mit den aktuellen Timings geht :wink:
@slipi
Ich würde das auf Latenzen hin optimieren. CB... (s.o.)
Der_Korken
2024-11-24, 10:57:28
Soeben folgende Beob8ung gem8:
RAMsch manuell optimiert, AIDA m8 67ns latency
CB23 ballert 22,5k Punkte
RAMsch auf Expo I, AIDA m8 74ns latency
CB23 ballert 23,7k Punkte
Ist sowas zu erwarten? Oo
Die logischste Erklärung bei sowas wäre für mich, dass du beim manuellen Optimieren deutlich höhere Spannungen am IMC und SoC anliegen hast, sodass vom Powerbudget weniger für die Kerne übrig bleibt. Das setzt aber voraus, dass du bei CB23 PPT-limitiert bist und auch tatsächlich die Spannungen hochgeballert hast ...
fondness
2024-11-24, 11:05:49
Ich möchte nicht wissen, wie viele Leute hier durch OCing Performance verlieren. Es wurde eh schon ein paar mal erwähnt hier, dass man die sehr gute Fehlerkorrektur bei AMD nicht unterschätzen sollte. Lange bevor es instabil wird, wird es langsamer....bei jedem Ocing-Versuch immer auch die Performance kontrollieren.
Radeonfreak
2024-11-24, 11:11:13
Wieso verlinkst du das werbeverseuchte PCGH Gelaber, was schon in diesem und im anderen Zen5 Thread per Tweet mit ~10 Worten erzählt wurde? :confused:
...
Hab ich überlesen, sorry.
Radeonfreak wird mich sowas von auseinandernehmen... :redface: Irgendwie freu ich mich drauf :ulol:
Ich hab das schon vor einem halben Jahr so gesagt weils einfach logisch war. Auseinandernehmen nicht notwendig, eher ein herabschauendes müdes Lächeln.
fondness
2024-11-24, 11:11:40
Die logischste Erklärung bei sowas wäre für mich, dass du beim manuellen Optimieren deutlich höhere Spannungen am IMC und SoC anliegen hast, sodass vom Powerbudget weniger für die Kerne übrig bleibt. Das setzt aber voraus, dass du bei CB23 PPT-limitiert bist und auch tatsächlich die Spannungen hochgeballert hast ...
Powerbudget ist beim 9800X3D defacto unendlich.
Freestaler
2024-11-24, 11:13:19
Und genau darum muss man Gegentesten. CB sollte nicht reagieren auf Ram Latenzen. Wenn doch, dann stimmt doch was nicht. Mag sein das CB wie auch CPUZ nicht ideal sind aber für vorher,nachher kurzcheck taugten sie bis dato.
Lehdro
2024-11-24, 11:51:46
Das kommt mir wenig vor. Kannst du einen Screenshot der Stelle posten?
Habe nur den Ausschnitt davon gesaved, der OSD ist bei mir rechts oben in der Ecke. Damit kann man den Blickwinkel aber ganz gut nachstellen.
5800X3D:
https://i.imgur.com/ht70ReO.png
9800X3D im Ganzen:
https://i.imgur.com/GTizsin.jpeg
Btw. hat FSR in dem Titel wohl weiterhin einen Bug, dass es die CPU-Performance reduzieren kann.
FSR hatte ich nie an. FOV auf 105, alles max außer 2x Motion Blur, das bleibt aus. Auflösungsskalierung 150% von 1440p ausgehend.
Ui 36 FPS mehr, sehr nice.
Badesalz
2024-11-24, 12:41:04
Ich hab das schon vor einem halben Jahr so gesagt weils einfach logisch war.Ich hab irgendwie nie die Begründung dafür gesehen, warum genau das am logischsten wäre. Hab ich das vercheckt? :redface:
Ich möchte nicht wissen, wie viele Leute hier durch OCing Performance verlieren. Es wurde eh schon ein paar mal erwähnt hier, dass man die sehr gute Fehlerkorrektur bei AMD nicht unterschätzen sollte. Hier fehlt mir tatsächlich ein "Event". Wenn das z.B. über 1s andauert, sowas wie "ich laufe zwar weiterhin sauber, aber ich korrigiere bereits!".
Darkearth27
2024-11-24, 13:26:12
Wo ich es gerade lese.
Star Citizen ist gerade wieder free für 2 Wochen, kann da ein Spieler berichten ob man eine Stelle schnell erreichen kann die man für Benchmarks nutzen kann?
Würde es dann tatsächlich mal laden und benchen.
Hakim
2024-11-24, 13:56:26
Mal blöd gefragt, da der Takt jetzt ja bei den neuen X3Ds CCDs gleich zu den nonX3D CCDs ist, würde man das Problem nicht einfach lösen wenn immer zuerst der X3D CCD angesteuert wird und alles darüber dann halt weiter?
dildo4u
2024-11-24, 14:00:59
Der Takt ist nicht gleich der 9800x3D hat nur 5.2Ghz Boost,9950X 5.7 Ghz.
Daher wird es immer eine Die ohne x3D geben.
Lehdro
2024-11-24, 14:02:05
Mal blöd gefragt, da der Takt jetzt ja bei den neuen X3Ds CCDs gleich zu den nonX3D CCDs ist, würde man das Problem nicht einfach lösen wenn immer zuerst der X3D CCD angesteuert wird und alles darüber dann halt weiter?
Ja. Aber nur wenn die Anwendung/Spiel tatsächlich mehr von den extra Kernen profitiert und der Malus der Cross CCD Latenz das nicht wieder auffrisst.
Exxtreme
2024-11-24, 14:21:04
Mal blöd gefragt, da der Takt jetzt ja bei den neuen X3Ds CCDs gleich zu den nonX3D CCDs ist, würde man das Problem nicht einfach lösen wenn immer zuerst der X3D CCD angesteuert wird und alles darüber dann halt weiter?
Bei Spielen wird das schon so gemacht. Die landen auf CCD0 und alles darüber hinaus auf CCD1.
Und nein, der Boosttakt ist womöglich nicht gleich bei beiden CCDs.
Badesalz
2024-11-24, 14:45:31
Der Takt ist nicht gleich der 9800x3D hat nur 5.2Ghz Boost,9950X 5.7 Ghz.Und der 9700X 5.5GHz. Schön portioniert ;)
TheCounter
2024-11-24, 14:55:38
Star Citizen ist gerade wieder free für 2 Wochen, kann da ein Spieler berichten ob man eine Stelle schnell erreichen kann die man für Benchmarks nutzen kann?
So einfach ist das nicht. In SC kannst du nicht reproduzierbar benchen. Du kannst nur schauen wie es so ungefähr läuft.
Dazu eigenen sich die großen Städte auf den Planeten am besten, auf denen spawnst du auch direkt. Die Messe ist aktuell auf Microtech in New Babbage, sollte anhand der vielen Spieler schon recht fordernd sein. Ansonsten auch Orison oder Area 18.
Nightspider
2024-11-24, 15:01:56
Man sollte schon mindestens 5 Durchläufe machen und abbrechen, wenn die Serverperformance zu stark schwankt.
Dann kommt man auch auf reproduzierbare Werte.
Ich habe doch gestern ein Video verlinkt, wo er auch erklärt, wie man Star Citizen benchen kann.
Es kostet aber Zeit.
garantiert instabil
So, habe länger getestet, aber mit CL30 anstatt CL28 und anscheinend waren die CL28 das Problem und nicht tRFC 288 / 96ns.
Folgende Tests sind stabil durchgelaufen.
1,5h TestMem5: 1usmus_v3 (leider falsch konfiguriert, sollte eigentlich über Nacht laufen)
3h Prime95 Large FFT
4-5h Gaming
16h TestMem5: DDR5 Ryzen3D @ anta777
Ich würde jetzt nicht so weit gehen und das "garantiert stabil" nennen, aber fürs erste sieht das ganz gut aus ;)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90327&stc=1&d=1732473934
Mal gucken ob mit etwas mehr Spannung auch CL28 stabil zu bekommen sind. 6200MHz werde ich auch mal testen.
Anschließend muss ich dann noch verifizieren was davon (abseits von AIDA64) wirklich am schnellsten ist.
Armaq
2024-11-24, 20:04:23
Pff, was für ein Ramsch ist das denn wieder mit AGESA? War ja bei Zen3 auch so schlimm. Ich kann mich noch gut erinnern. Ich kümmere mich erst um stabile Subtiminigs, wenn ich weiß, dass das AGESA stimmt, ansonsten kann ich ja nach jedem Bios-Update wieder alle Werte neu einpflegen...
Sag das nur nicht zu laut, dass AMD irgendwie die Kinderkrankheiten der Vorgänger wiederholt, sonst kommen ein paar Mods und probieren dich Bukake-Style zu korrigieren. ;)
Slipknot79
2024-11-24, 21:50:36
Moderne CPU trifft auf old school WaKü, dunno wie alt der ist, 10 Jahre? Passt dank Umrüstsatz noch auf AM5. (y)
https://www.hardwareluxx.de/community/attachments/1732481169730-png.1048983/
DR.DEATH
2024-11-25, 00:50:33
Letzte Woche einen 9800X3D ergattert, dann Board (AsRock B650 Steel Legend Wifi) und RAM bestellt. Kam zum Glück alles bis zum Freitag. Schön auf Bastel/Tuning-WE eingestellt, alles zerlegt und Wakü zerpflückt für den Einbau, gut Zeit gelassen und alles rein gesetzt.
Stunde der Wahrheit und nüscht. CPU LED bleibt rot. Flashback scheint zu gehen, bringt aber auch nix. Nur ein Riegel abswechselnd bringt auch nix. Keine weiteren Teile für AM5/DDR5, noice.
Ab zu einem Händler und CPU checken lassen. Die ist zum Glück fein aber das Board will auch mit anderer CPU nicht aber Hauptsache die scheiss bunte LED Kacke leuchtet und wechselt fröhlich die Farben. :P
Der RAM wollte im anderen Board/CPU aber auch nicht, lag hoffentlich am älteren EFI. Fängt super an, mal gucken was die RMA vom Board macht und wie lang das nun dauert. WE für die Katz und alles wieder zurück gebaut.
Badesalz
2024-11-25, 07:49:01
Mini-Beifang von 1202B auf Asus beobachtet:
20-25Mhz mehr bei Allcore :ulol:
Ätznatron
2024-11-25, 08:00:50
. Flashback scheint zu gehen, bringt aber auch nix.
Ihr habt verschiedene USB-Sticks ausprobiert? Die Boards sind ziemlich wählerisch, was das angeht. Bei mir funktioniert ein Flashback nur mit einem uralten 1GB-Stick, alle neueren und viel tolleren versagen.
Und der Vorgang kann schon mal länger dauern, 10 Minuten und mehr kann man durchaus einplanen.
latiose88
2024-11-25, 08:52:26
Man ist das denn beta, das ist ja schrecklich wie sich diese Plattform so verhält. Wird AMD das jemals in den Griff bekommen bzw die Mainboard hersteller.
Badesalz
2024-11-25, 09:47:57
Die geringe Verbesserung stimmt mich nachdenklich, aber das soll wohl so
Für die 6000 jedenfalls:
tWRRD = 2?
tRDRDSD = 4?
tWRWRSD = 4?
tWRWRDD = 6?
tRFC = 372? (ns 124)
Sweepi
2024-11-25, 10:06:58
Wahrscheinlich spät zu der Party, aber gerade im TPU Test zum 9800X3D festgestellt, das es bei den AI Benchmarks wirklich alle vorstellbaren Kombinationen an Resultaten gibt
MC - skaliert mit mehr als 8 Kernen
NPU (nur Intel) - profitiert von der NPU (aka Ultra 7 und 9 gleichauf und vorne)
X3D - skaliert mit Cache: 9800x3D (weit) vor 9700x / 7700x
No | Name | MC | NPU | X3D
Test 1 | AI Inference — GPT2 |❌|✅|❌
Test 2 | AI Inference — Stable Diffusion |✅|✅|(✅)
Test 3 | AI / Inference — Image Upscaling |✅|❌|✅
Test 4 | AI Training — Natural Language Processing |✅|(✅)|✅
Test 5 | AI Training — Image Classification |✅|✅❌(??)|✅
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/ai-inference-gpt2.png
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/ai-inference-stable-diffusion.png
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/ai-topaz-photo-ai.png
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/ai-training-nlp.png
https://tpucdn.com/review/amd-ryzen-7-9800x3d/images/ai-training-classify.png
Gipsel
2024-11-25, 10:08:28
Ihr habt verschiedene USB-Sticks ausprobiert? Die Boards sind ziemlich wählerisch, was das angeht. Bei mir funktioniert ein Flashback nur mit einem uralten 1GB-Stick, alle neueren und viel tolleren versagen.Formatierst Du die "neueren und viel tolleren" Sticks vielleicht auch mit neueren Dateisystemformaten? Die Sticks müssen meist FAT oder FAT32 formatiert sein, damit das funktioniert. NTFS kann das BIOS nicht lesen.
DR.DEATH
2024-11-25, 10:15:55
Ihr habt verschiedene USB-Sticks ausprobiert? Die Boards sind ziemlich wählerisch, was das angeht. Bei mir funktioniert ein Flashback nur mit einem uralten 1GB-Stick, alle neueren und viel tolleren versagen.
Und der Vorgang kann schon mal länger dauern, 10 Minuten und mehr kann man durchaus einplanen.
Ja schon, hatte auch erst die Formatierung verhunzt und da konnte ich gleich den Fehlerfall vom Flashback testen. (Ist zumindest im Handbuch gut genug beschrieben: blinket paar mal und geht dann auf Dauerleuchten)
Wie Gipsel schon sagte, das alles auf 'ne kleine Partition mit FAT/32 gepackt und der Flaschback läuft. Mit exfat hab ich es nicht probiert. Meine Aussage war eher so zu verstehen, dass auch ein anderes BIOS nichts am Problem ändert, also Flashback geht aber Resultat bleibt gleich.
Man ist das denn beta, das ist ja schrecklich wie sich diese Plattform so verhält. Wird AMD das jemals in den Griff bekommen bzw die Mainboard hersteller.
Einfach mal die Kirche im Dorf lassen. AMD kann auch nichts dafür wenn ein Thrid-Party Board DOA ist. Wenn dann muss sich AsRock an die Nase fassen.
Ätznatron
2024-11-25, 10:22:32
Formatierst Du die "neueren und viel tolleren" Sticks vielleicht auch mit neueren Dateisystemformaten? Die Sticks müssen meist FAT oder FAT32 formatiert sein, damit das funktioniert. NTFS kann das BIOS nicht lesen.
Nein, die fürs Flashen hatte ich immer mit FAT32 formatiert.
Lehdro
2024-11-25, 10:36:06
Ich fasse mal alle Stolpersteine zusammen:
- kleine Partition/Stick
- FAT32
- direkt ins Maindirectory, keine Unterordner o.ä.
- Datei richtig umbenennen
- richtigen USB Steckplatz identifizieren
- Flashback unbedingt ohne CPU durchführen
- Board nicht starten, der Flashback läuft im Standby!
Dann:
- Clear CMOS direkt danach
- Full reboot nach Stromtrennung abwarten (kann ewig dauern wegen Training)
Bei mir ging das ohne Probleme, habe das aber auch 1:1 laut Lehrbuch gemacht.
Für die 6000 jedenfalls:
tWRRD = 2?
tRDRDSD = 4?
tWRWRSD = 4?
tWRWRDD = 6?
Dazu habe ich widersprüchliche Angaben bekommen wegen DS/SS Riegeln...
tRFC = 372? (ns 124)
Kann man noch probieren. Steht auf der Liste. ;)
Badesalz
2024-11-25, 10:42:25
Dazu habe ich widersprüchliche Angaben bekommen wegen DS/SS Riegeln...Darum geht es ja. Das ist heutzutage so. Alles muss man alleine abchecken :wink:
Kann man noch probieren. Steht auf der Liste. ;):up:
x-force
2024-11-25, 10:46:32
vielleicht nutzt amd mit einem zen4c ccd die elegante möglichkeit x3d mit 16 kernen zu verbauen
Tesseract
2024-11-25, 11:09:22
Nein, die fürs Flashen hatte ich immer mit FAT32 formatiert.
manche (alle?) biose haben für flashes ein seltsames limit von... ich glaube es war 32GB für den stick, auch wenn es FAT32 ist.
Ätznatron
2024-11-25, 12:08:32
manche (alle?) biose haben für flashes ein seltsames limit von... ich glaube es war 32GB für den stick, auch wenn es FAT32 ist.
Mit neueren Sandisks-Sticks verschiedener Kapazität hatte ich kein Glück, es funktionierte einfach nicht.
Nur das alte NoName-Teil von ~ 2005(?), das funktionierte auf Anhieb.
Badesalz
2024-11-25, 17:35:09
Was die sich im ArrowLake Thread gegenseitig in die Taschen erzählen... :freak:
(wollte nur schauen, ob da schon wer was gebencht hat ->)
-> Jetzt alle ufpasse hier. Intel rollt den angedrohten Fix anscheinend aus. 285k 13% mehr in FF MMO-Bench. Der Fix scheint endlich shice was auf Effizienz anzugehen. Also, Rolle rückwärts oder so...
Mit "ordentlichem RAM" könnten es ggf. +130% bei 1%lows sein :ulol:
Die Spannung ( :biggrin: ) steigt
https://www.asrock.com/news/index.asp?iD=5548
edit:
Erst garnicht darüber nachgedacht... Zuwächse bis zu 2 Nachkomastellen exakt, in Prozent. Hammer :uking:
La Junta
2024-11-25, 21:04:24
So bin nun auch umgestigen und bisher zufrieden. Kleine Probs hatte es paar , aber egal. Kurz RAM eingestellt (hatte keine langen Boot sequenzen wie hier beschrieben) und vorerst zufrieden . https://i.ibb.co/Nmq4tvh/222.jpg (https://ibb.co/Nmq4tvh)
aufkrawall
2024-11-25, 21:35:02
Habe nur den Ausschnitt davon gesaved, der OSD ist bei mir rechts oben in der Ecke. Damit kann man den Blickwinkel aber ganz gut nachstellen.
5800X3D:
https://i.imgur.com/ht70ReO.png
9800X3D im Ganzen:
https://i.imgur.com/GTizsin.jpeg
FSR hatte ich nie an. FOV auf 105, alles max außer 2x Motion Blur, das bleibt aus. Auflösungsskalierung 150% von 1440p ausgehend.
Danke. Ich schaus mir morgen mit dem Schimmel-Zen 3 mal an. Im Screenshot steht D3D11. Dein Post las sich für mich so, als wäre es 12 gewesen.
Colin MacLaren
2024-11-26, 06:10:37
Ich will nächstes Jahr mit Blackwell wieder einen Desktop bauen. Meint ihr, es lohnt sich, da jetzt zu versuchen einen 9800X3D zu sichern, bevor die wieder ein halbes Jahr lang ausverkauft sind?
Der wird nicht ausverkauft sein, war der 7800X3D auch nicht.
Wenn der 3D-Cache diesmal wirklich über alle Kerne geht, dürften die 12- und 16-Kern Varianten eh interessanter sein.
Schade übrigens. Ich habe auf Dich gehört :freak:
Badesalz
2024-11-26, 06:30:18
Schade übrigens. Ich habe auf Dich gehört :freak:Musst dich nun dafür nicht so abkämpfen wie die Leute zu Anfang, um den 9800X3D zu bekommen :up:
M4xw0lf
2024-11-26, 07:09:46
Schade übrigens. Ich habe auf Dich gehört :freak:
Die Verfügbarkeit wird sich sicher wieder stabilisieren. Kann aber gut sein dass es noch Monate dauert bis der Launch-Preis wieder erreicht bzw unterboten wird.
Colin MacLaren
2024-11-26, 07:26:25
Ja, mal schauen. Evt. nutze ich die 5090 erstmal als eGPU und kaufe dann bei Verfügbarkeit die restlichen Komponenten. Oder die 5090 kostet 3.000 EUR und ich lasse es :freak:
Schade übrigens. Ich habe auf Dich gehört :freak:Ja, hier hat die Glaskugel komplett versagt.
Ausverkauft und der 3D-Cache beim 12er & 16er gibt es auch nicht in der doppelten Ausführung.
Radeonfreak
2024-11-26, 08:29:36
Ja, hier hat die Glaskugel komplett versagt.
3D-Cache beim 12er & 16er gibt es auch nicht in der doppelten Ausführung.
Hab ich schon vor nem halben Jahr geschrieben. :tongue: Ich sollte Lotto spieien.
Twodee
2024-11-26, 09:07:50
Hab ich schon vor nem halben Jahr geschrieben. :tongue: Ich sollte Lotto spieien.
Wer würde nicht Lotto spielen, wenn die Chancen bei 50:50 stehen? :freak:
Slipknot79
2024-11-26, 10:12:49
Ja, mal schauen. Evt. nutze ich die 5090 erstmal als eGPU und kaufe dann bei Verfügbarkeit die restlichen Komponenten. Oder die 5090 kostet 3.000 EUR und ich lasse es :freak:
Wo ist das Problem? ;)
Kaufen, 2 Jahre ballern, 1-2 Monate vor der 6090 wieder zum Fast-Einkaufs-Preis verkaufen und diese 1-2 Monate mit GeFurz Now überbrücken.
Aktuell wird man die 4090 auch gut los, fast zum Einkaufspreis. (y)
Lawmachine79
2024-11-26, 10:15:17
Wo ist das Problem? ;)
Kaufen, 2 Jahre ballern, 1-2 Monate vor der 6090 wieder zum Fast-Einkaufs-Preis verkaufen und diese 1-2 Monate mit GeFurz Now überbrücken.
Aktuell wird man die 4090 auch gut los, fast zum Einkaufspreis. (y)
Dann muss man aber trotzdem 1-2 Monate leben wie ein Tier. Eher würde ich es mit Fernabsatzkarten überbrücken. Damit das nicht zu aufwändig ist, muss man aber näher am 5090-Release verkaufen.
Was die sich im ArrowLake Thread gegenseitig in die Taschen erzählen... :freak:
(wollte nur schauen, ob da schon wer was gebencht hat ->)
Lol die alten Intel-Plebs. Kühlen die noch oder Gamen die schon?
Badesalz
2024-11-26, 11:14:19
Lol die alten Intel-Plebs. Kühlen die noch oder Gamen die schon?Nee. Die Zeiten sind jetzt andere. Da gehts nicht mehr um 580er WaKüs... Während hier schon langsam das Geld für die 5090 zusammengekratzt wird, wird da für 18000 Kuhdümms gespart.
La Junta
2024-11-26, 11:30:18
Nee. Dei zeiten sind jetzt andere. Da gehts nicht mehr um 580er WaKüs... Während hier schon langsam das Geld für die 5090 zusammengekratzt wird, wird da für 18000 Kuhdümms gespart.
Habe ich noch nie verstanden. Du stellst die wakü auf eine bestimmte Wassertemperatur ein und da ist es egal für die CPU welche Radifläche du hast. Wassertemp wird gehalten(mehr Fläche = braucht weniger RPM und länger). Am Delta/K ändert es aber nichts.
Badesalz
2024-11-26, 11:38:28
Läuft ggf. leiser ;)
fondness
2024-11-26, 12:10:17
CB mal wieder mit einem Test: 9800X3D vs. 7800X3D & 7600X3D im Test: Die günstigsten AMD Ryzen „X3D“ für Sockel AM5 im Vergleich
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-9800x3d-7800x3d-7600x3d-test.90308/
Schon beeindruckend, dass ein 7600X3D 6 Kerner um 289 EUR ausreicht, um die gesamte Intel-Riege zu schlagen.
Badesalz
2024-11-26, 13:02:53
Schon beeindruckend, dass ein 7600X3D 6 Kerner um 289 EUR ausreicht, um die gesamte Intel-Riege zu schlagen.
1. Und trotzdem haben sie nicht die Klöten dazu das Leistungsrating FPS auch in 1%lows zu zeigen :rolleyes:
2. Und, deren "DDR5-OC" ist 7800CL38 :facepalm: Lehdro kriegt dann + >100% mit RAM in 1%lows gegen den 5800X3D, die mit Mühen&Not knapp an die 50% :uup:
Daher sag ich auch immer, alleine forschen und checken ist WELTEN besser als sich auf die Journalie zu verlassen. Die machen nur so wie es für sie passt. Nicht wie es für euch passt.
Darkearth27
2024-11-26, 13:09:11
Der Malus ist gar nicht mehr so hoch.
Irgendwas haben die da im AGESA geändert (selbst bei den 7000ern sind das nur wenige Prozente durch async).
Badesalz
2024-11-26, 13:15:25
@Darkearth27
Gar nicht mehr so hoch?
Ich verstehe das trotzdem so - vielleicht bin ich aber mittlerweile zu viel Alte Schule - daß man RAM-OC macht, um möglich viel Gesamtleistung rauszubekommen.
Sei es von mir aus unter gewissen "Prämissen" wie z.B. keine halsbrecherischen Spannungen am I/O oder den Riegeln selbst.
UND NICHT, wieviel Takt bekommt man maximal stabil am RAM hin, ohne viel zu verlieren. Was ist das denn für eine goile OC-Idee?
Darkearth27
2024-11-26, 13:26:45
Naja RAM OC ist ja weit mehr als nur Takt anheben und die CL zu senken.
Ringbus / FCLK
tREFI tRFC
Das sind halt die welche am meisten bringen.
Und wenn online irgendwo RAM OC getestet wrid schlage ich immer die Hände vor das Gesicht, außer bei Dave, der hat sich aber auch Rat eingeholt ;)
Hier mal mein Vergleich bei Cyberpunk 2077 zwischen EXPO (nur Maintimings) angehobenen FCLK und manuellen Werten.
https://cdn.discordapp.com/attachments/1233488348706766861/1310936734443507784/image.png?ex=67470879&is=6745b6f9&hm=e8d3d4db7cb77c419689680fb7a7031ef0b6bb7b5ab436f363f8dfc9c5f37b37&
Als Zusatz dann noch Asynchron 8000C34 vs 6600C28
https://cdn.discordapp.com/attachments/1233488348706766861/1310942950032937020/image.png?ex=67470e43&is=6745bcc3&hm=adec1cb0424a35568cc0d1329a0468f3bde5f6293f9fb623b2b61c5d8dbb67b9&
Vom schlechtesten zum besten Wert sind es bei den P0.2 dann 30.5%
https://cdn.discordapp.com/attachments/1233488348706766861/1310944253920411711/image.png?ex=67470f7a&is=6745bdfa&hm=2f46219c9ae7af4c949b3d99a2794ceefea51640cd587fbda36e87e5766359d2&
P1 immerhin noch 28.3%
Ausgehend von Stock werten die Dave da hatte...
https://cdn.discordapp.com/attachments/987035535820349530/1310938947068760124/image.png?ex=67470a89&is=6745b909&hm=e73838e4a252e36f6fbe0e341bfb9795d35677a39b3881fa1f93bdac234b63c1&
Also RAM OC kann man echt vergessen von CB Redakteuren.
Badesalz
2024-11-26, 13:33:17
Also RAM OC kann man echt vergessen von CB Redakteuren.Danke. Mehr meinte ich damit auch nicht :wink:
Lehdro
2024-11-26, 14:51:33
Danke. Ich schaus mir morgen mit dem Schimmel-Zen 3 mal an. Im Screenshot steht D3D11. Dein Post las sich für mich so, als wäre es 12 gewesen.
In DX12 gibt es überhaupt keine Probleme, existiert rein mit DX11 (warum auch immer das voreingestellt ist). Sorry wenn das vorher verwirrend geschrieben war.
x-force
2024-11-26, 15:47:12
Als Zusatz dann noch Asynchron 8000C34 vs 6600C28
https://i.imgur.com/9Gd2ADU.jpeg
wo glaubst du müsste ich einsteigen, um schneller zu sein?
mit der alten agesa nach soc fix auf 1,3v lief nur 7800 halbwegs auf dem board.
alternativ könnte ich 6400 noch einen neuen versuch geben, allerdings gefällt mir am größeren teiler, dass man mit der soc spannung runter könnte, damit mehr fclk geht, oder?
Darkearth27
2024-11-26, 16:36:18
FCLK ist entkoppelt, fällt also aus deiner Rechnung raus.
Wenn 6400 nicht 1:1 laufen, dann belass es so wie es ist.
aufkrawall
2024-11-26, 22:25:35
Habe nur den Ausschnitt davon gesaved, der OSD ist bei mir rechts oben in der Ecke. Damit kann man den Blickwinkel aber ganz gut nachstellen.
5800X3D:
https://i.imgur.com/ht70ReO.png
Habe da 64fps mit D3D11, mit D3D12 vermutlich ~115 (hatte Letzteres nur mit Standard-FOV getestet, damit waren es 128fps).
Ganz netter Sprung.
https://s20.directupload.net/images/241126/temp/a6vbc96o.png (https://www.directupload.eu/file/d/8750/a6vbc96o_png.htm)
(Aber schon wieder nicht gerade ein gigantischer Sprung vom 3D gegen non-3D mit getweaktem Billig-B-Die.)
Lehdro
2024-11-27, 05:31:25
(Aber schon wieder nicht gerade ein gigantischer Sprung vom 3D gegen non-3D mit getweaktem Billig-B-Die.)
Klingt realistisch, wenn ich von den Borderlands 3 Benchmarks interpoliere. tuned vs. tuned wird da den Unterschied weiter verkürzen.
Slipknot79
2024-11-28, 01:25:55
Sehr horny CPU, muss man wiederholt sagen.
CO-50 derzeit stabil, Langzeiterfahrung fehlt naturgemäß. Keine weitere Steigerung möglich, da Mobo nur bis -50 geht.
Top power für den frametime-graphen.
Temps auch top zB OCCT linpack: 65°C bei 123W, (Wassertemp 22,9°C.)
https://www.hardwareluxx.de/community/attachments/1732753688385-png.1049717/
MOAR! (y)
CO-50 derzeit[/URL]
Auf deinem Bild steht 1.13 Volt (Maximum?) Interessant bei 5400 MHz. (Ohne dein Bild wüsste ich jetzt nicht, das du übertaktest.)
Bei mir sind es Stock MHz bei -15 CO auch 1.13 Volt.
Gibt es hier auch Leute wie mich die nicht übertakten und nur die Spannung senken?
Wie tief könnt ihr relativ stabil Co einstellen? Bitte max Volt dazuschreiben.
Der_Korken
2024-11-28, 10:00:33
Haben die CO-Ticks eigentlich bei allen Boards die gleiche Bedeutung? Bei Zen 3 waren -30 (=Minimum) schon sehr viel, über 100mV UV und nur auf wenigen Kernen stabil (abseits vom taktlimitierten 5800X3D). Hier im Thread hatten einige schon Probleme mit -20, Slipknot hat -50 laufen trotz +200Mhz Offset (je höher der Takt desto weniger UV-Spielraum hatte bisher immer die gespeicherte V/f-Kurve) und irgendwo hatte ich hier Thread sogar mal was von -100 gelesen.
@Slipknot: Wieviel mehr Spannung liegt an, wenn du CO-25 und ohne CO laufen lässt? Nur so als Richtwert.
Eher die Frage ob -50 mit OCCT Core Cycling stabil ist?
Linpack ist ja nur perma-100% Geböllere^^.
Badesalz
2024-11-28, 13:27:43
Ich würde das auch erstmal ziemlich sehr anzweifeln :wink:
MiamiNice
2024-11-28, 14:13:01
Ihr seht das alle immer sehr eng. Die meisten sind ootb mit co-40 unterwegs. Wenn nicht -40, dann -35. Meiner macht auf -35 noch die + 200 und 105 Bustakt mit. Das sind 5700 mit co-35.
1 co waren imo was um 3mv? Wir sprechen bis -50 von ungefähr 0,045 Volt.
Das nennt man schlicht Luck in der Lotterie und lässt ein GZ für den Mate da ;)
Der_Korken
2024-11-28, 14:28:04
Ihr seht das alle immer sehr eng. Die meisten sind ootb mit co-40 unterwegs. Wenn nicht -40, dann -35. Meiner macht auf -35 noch die + 200 und 105 Bustakt mit. Das sind 5700 mit co-35.
1 co waren imo was um 3mv? Wir sprechen bis -50 von ungefähr 0,045 Volt.
Das nennt man schlicht Luck in der Lotterie und lässt ein GZ für den Mate da ;)
Was heißt eng sehen. Wenn einer rockstable testet und einer nur semi-stable, kann man die OCs und UVs hinterher nicht vergleichen. Bei Zen 3 war ein CO-Tick 3-5mV. Deswegen halt meine Frage, ob das bei Zen 5 immer noch so ist, denn 150-250mV UV trotz PBO-Offset kommt mir viel zu viel vor.
MiamiNice
2024-11-28, 14:34:04
Ja, kann ich verstehen. Aber die gehen halt alle in der Range :). Der Mate hat scheinbar nur einen noch etwas besseren bekommen :D
Die 3 mV sind imo ziemlich fix pro co Punkt.
RoughNeck
2024-11-28, 16:23:43
Ich betreib meinen mit -30 und +200 MHZ, macht in keinen Szenario Probleme.
MiamiNice
2024-11-28, 16:31:31
Das nennt man Streuung :wink: Du hast einen eher schlechteren erwischt, wenn bei +200 bei -30 Ende ist. Ist kein Beinbruch, ist auch so schon fett aber die Silikon Lotterie ist halt real. In Masse, von den Leuten die online posten, ist -35 bis -40 bei +200 relativ normal.
Badesalz
2024-11-28, 16:32:06
Ihr musst das auch so testen wie Lehdro ;)
PS:
Nicht, daß wir dann wieder bei der Sig von Zossel landen :up:
MiamiNice
2024-11-28, 16:53:18
Ne Salty, das sehe ich ganz anders :)
Jeder hat seinen Usecase und damit auch eigene Anforderungen an Stabilität. Ich habe schon CPU & Ram Kombis gesehen, die in Korhu nach 10 Sekunden aussteigen aber problemlos und ohne Absturz ein Gaming Wochenende, z.b. in Anno 1800, überstehen.
Zossel z.b., weil Du ihn bringst, nimmt es sehr ernst, ist aber auch wohl weniger ein Spieler. Mir persönlich ist es egal ob z.b. CB anstürtzt, so lange meine Games laufen. Rockstable muss es sein.
Auch wenn wir hier alle ein Hobby bzw. Interessen teilen, wir machen alle unterschiedliche Dinge mit der HW. Mir persönlich ist das vollkommen recht in der Sig von Zossel zu landen. Er sieht es halt anders als ich, ist, für mich, absolut OK. Ich habe ebenfalls eine andere Sichweise auf einige Dinge.
Daredevil
2024-11-28, 16:57:36
Stabilität ist wie Miami schon sagte subjektiv, solange man nicht explizit erwähnt, was das für einen bedeutet. Das jeder bei solchen scheinbar banalen Fragen eine andere Meinung haben könnte, zeigt imho ziemlich gut die Sonntagsfrage von CB, wo die Leser "Was ist der Idlezustand?" definieren sollten.
Ich persönlich dachte, das ist ziemlich easy. Kein Programm offen und Desktop. Der Realitycheck war für mich sehr überraschend.
Wenn es hier aber schon so weit auseinander geht, dann ist "Mein CPU ist stable" sicherlich die Box der Pandora ohne deutlich mehr Informationen. :D
https://s20.directupload.net/images/241128/g5ja56tn.png
Badesalz
2024-11-28, 17:04:26
Ne Salty, das sehe ich ganz anders :)
[...]Ich kann das verstehen. Könnte sogar mal nicken, aber irgendwie war das jetzt nicht die Story die in Zossels Sig steht :wink:
MiamiNice
2024-11-28, 17:29:32
Basiert aber darauf. Ist ganz schnell erklärt. Stichwort UE5 und Abstütze bei Intel. Ich war der Meinung meine Kiste ist rockstable, weil JEDES andere Spiel darauf läuft und ein paar UE5 Titel nicht, mit dem bekannten Hinweis Grafikkartenspeicher zu knapp also CPU Problem. Ich argumentiere die Software ist schuld weil jedes andere Game läuft. Auch UE5 Games die diese eine Addon nicht nutzen. Zossel fand das die Aussage wohl lustig ist und packt diese in seine Sig. Kann man so und so sehen, imo :) Klar kann ich ihm folgen, ich kann aber auch mir folgen. Wenn alle Titel laufen, auch UE5 Titel, nur die Titel die dieses eine UE5 Addon nutzen nicht (weiß den Namen nicht mehr), kann man imo auch argumentieren, das dass Addon mies/unsauber/unvorteilhaft /what ever programmiert ist.
Da ich selber kein Entwickler bin, konnte ich bisher nicht ergründen was daran witzig ist. Für mich klingt das logisch :D
x-force
2024-11-28, 17:31:06
Das nennt man Streuung :wink: Du hast einen eher schlechteren erwischt, wenn bei +200 bei -30 Ende ist. Ist kein Beinbruch, ist auch so schon fett aber die Silikon Lotterie ist halt real. In Masse, von den Leuten die online posten, ist -35 bis -40 bei +200 relativ normal.
ich bezweifle, dass die streuung zu beginn einer serie innerhalb des gleichen modells so groß ist.
amd weiß ganz genau was die einzelnen dies leisten können, wenn sie vom wafer gefallen sind, zufall im sinne der lotterie ist da nichts.
amd wird die besten dies für 12 und 16 kern cpus zurückhalten, da die auch offiziell höher boosten.
amd selbst selektiert in 100mhz boost schritten. wenn also ein 9800x3d easy 5,7ghz macht... warum ist er kein großer geworden?
das wäre nur so, wenn amd ohne ende gute dies hat. aber dann hätten sie insbesondere zu release der generation die gaußkurve einfach 100mhz nach rechts verschoben, alle modelle hätten mehr takt und gut ist.
bei der gleichen spannung liegen alle 9800x wahrscheinlich realistisch betrachtet höchstens innerhalb von 200mhz, mehr geht zu lasten der stabilität, auch wenn mans im alltag nicht merkt.
Der_Korken
2024-11-28, 17:51:38
Da ich selber kein Entwickler bin, konnte ich bisher nicht ergründen was daran witzig ist. Für mich klingt das logisch :D
Weil ein Programmierer absolut null für Stabilität der Hardware zuständig ist bzw. nicht mal einen Einfluss darauf hat. Es ist sogar eher andersrum, dass eine hohe Auslastung der Hardware für gute Programmierung spricht. Man könnte die UE5-Compiler sicher auch absichtlich schlecht programmieren, sodass er zu 95% nur auf den RAM wartet und nur zu 5% der Zeit rechnet. Damit läuft auch das letzte Gurken-OC noch stabil, aber dafür dauert die Kompilierung dann 10x so lange dauert als wenn man die CPU einfach um 200Mhz runtertaktet und den guten Code ballern lässt.
aufkrawall
2024-11-28, 17:56:35
Stabilität ist wie Miami schon sagte subjektiv, solange man nicht explizit erwähnt, was das für einen bedeutet.
Äh, nein. Wenn auch nur irgendeine Anwendung durch Tuning abschmiert, ist es komplett nicht stabil.
Und wird dann imho in Fortnite unter realen Bedingungen früher oder später auch mit hoher Wahrscheinlichkeit durchfallen. Hab ich über die Jahre wirklich oft genug erlebt. Wer das anders sieht, dem fehlt offenbar so ein Schlüsselerlebnis.
Deisi
2024-11-28, 19:30:00
Sehr horny CPU, muss man wiederholt sagen.
CO-50 derzeit stabil, Langzeiterfahrung fehlt naturgemäß. Keine weitere Steigerung möglich, da Mobo nur bis -50 geht.
Top power für den frametime-graphen.
Temps auch top zB OCCT linpack: 65°C bei 123W, (Wassertemp 22,9°C.)
https://www.hardwareluxx.de/community/attachments/1732753688385-png.1049717/
MOAR! (y)
Mit deiner Kühlung dürfte er auch ohne CO immer den PBO Takt halten, da macht es keinen Unterschied ob 0 oder -50 :freak:
MiamiNice
2024-11-28, 22:09:26
Äh, nein. Wenn auch nur irgendeine Anwendung durch Tuning abschmiert, ist es komplett nicht stabil.
Und wird dann imho in Fortnite unter realen Bedingungen früher oder später auch mit hoher Wahrscheinlichkeit durchfallen. Hab ich über die Jahre wirklich oft genug erlebt. Wer das anders sieht, dem fehlt offenbar so ein Schlüsselerlebnis.
Ich habe sicherlich im vierstelligen Stundenbereich Fortnite auf dem 6ghz allcore 13900k incl. 8000er Rams mit manuellen Timings gespielt. Der selbe PC, mit den selben Einstellungen, der bei manchen UE5 Games auf 5Ghz runter musste später, damit das Spiel überhaupt startete.
Weil ein Programmierer absolut null für Stabilität der Hardware zuständig ist bzw. nicht mal einen Einfluss darauf hat. Es ist sogar eher andersrum, dass eine hohe Auslastung der Hardware für gute Programmierung spricht. Man könnte die UE5-Compiler sicher auch absichtlich schlecht programmieren, sodass er zu 95% nur auf den RAM wartet und nur zu 5% der Zeit rechnet. Damit läuft auch das letzte Gurken-OC noch stabil, aber dafür dauert die Kompilierung dann 10x so lange dauert als wenn man die CPU einfach um 200Mhz runtertaktet und den guten Code ballern lässt.
Das verstehe ich schon, nicht der Punkt. Der Punkt ist, dass andere UE5 Spiele liefen mit voll OC. Es lag an irgendeinem UE5 Addon. Meine Frage ist, warum kann man das Addon nicht so schreiben, dass es so läuft "wie überall anders". Selbst wenn man einen mieseren Job macht, weil der Prozess nur mit 95% Speed läuft, dafür läuft er überall durch. Man könnte auch sicherlich eine HW Abfrage einbauen und dann entsprechend kompilieren. In anderen Branchen wäre das so üblich.
Der_Korken
2024-11-28, 22:34:00
Das verstehe ich schon, nicht der Punkt. Der Punkt ist, dass andere UE5 Spiele liefen mit voll OC. Es lag an irgendeinem UE5 Addon. Meine Frage ist, warum kann man das Addon nicht so schreiben, dass es so läuft "wie überall anders". Selbst wenn man einen mieseren Job macht, weil der Prozess nur mit 95% Speed läuft, dafür läuft er überall durch. Man könnte auch sicherlich eine HW Abfrage einbauen und dann entsprechend kompilieren. In anderen Branchen wäre das so üblich.
Weil das für den Programmierer vollkommen unersichtlich ist. Intel hat ja offenbar selber monatelang gesucht, bis sie verstanden was da genau in ihren Chips abgeht. Wie sollen irgendwelche Programmierer das ohne die Tools und ohne das Knowhow das reverse engineeren? Zumal das Verhalten der Intel-CPUs in dem Fall wahrscheinlich nichtmal deterministisch war, d.h. bei jedem Run ist die Berechnung wahrscheinlich an einer anderen Stelle kaputt gegangen, nur immer mit dem gleichen Resultat: Crash.
Was du forderst, wäre im Prinzip so, als wenn analog die Spieleprogrammierer irgendwelchen Mist bauen, dass unter bestimmten Umständen bestimmte Spieler an bestimmten Stellen durch den Boden glitchen, aus der Map fallen und sterben und die Spieler sollen dann reverse engineeren, was im Spielecode wohl falsch ist und von sich aus vermeiden in eine Situation zu kommen, wo sie wegglitchen.
Badesalz
2024-11-28, 23:38:12
Leute... :ulol: Ok. Die Auflösung:
Wenn es für ihn funktioniert, und solange es funktioniert, funktioniert es :rolleyes:
ICH HAB DAS :freak: hier nur kurz dazwischen platziert, falls das mit einem Addon für UE 5.8 doch nicht mehr will :wink: und dann AMD schuld ist :wink:
Jetzt lasst ihn wieder in Ruhe :tongue:
Zossel
2024-11-29, 08:14:40
Stabilität ist wie Miami schon sagte subjektiv, solange man nicht explizit erwähnt, was das für einen bedeutet.
Klingt nach schönsaufen.
https://www.youtube.com/watch?v=mN8WHtJTv5s
Zossel
2024-11-29, 08:18:31
Weil das für den Programmierer vollkommen unersichtlich ist. Intel hat ja offenbar selber monatelang gesucht, bis sie verstanden was da genau in ihren Chips abgeht. Wie sollen irgendwelche Programmierer das ohne die Tools und ohne das Knowhow das reverse engineeren? Zumal das Verhalten der Intel-CPUs in dem Fall wahrscheinlich nichtmal deterministisch war, d.h. bei jedem Run ist die Berechnung wahrscheinlich an einer anderen Stelle kaputt gegangen, nur immer mit dem gleichen Resultat: Crash.
Sich an jemanden abzuarbeiten der das Problem sowieso nicht versteht ist sinnlos.
Wahrscheinlich hat Miami noch nicht mal verstanden was es bedeuten kann wenn ein Compiler richtig aggresiv nach Spec optimiert.
Angiesan
2024-11-29, 08:19:23
:freak::biggrin:
aufkrawall
2024-11-29, 08:49:04
Ich habe sicherlich im vierstelligen Stundenbereich Fortnite auf dem 6ghz allcore 13900k incl. 8000er Rams mit manuellen Timings gespielt.
Sollte dann ja im Epic Launcher stehen.
https://s20.directupload.net/images/241129/temp/aln7aztm.png (https://www.directupload.eu/file/d/8753/aln7aztm_png.htm)
Bestimmt sehr glaubwürdig, dass du die letzten zwei Jahre quasi nichts anderes gespielt haben willst, ohne es hier vorher einmal erwähnt zu haben. Junge, Junge...
:facepalm:
The_Invisible
2024-11-29, 08:54:43
Ja Stabilität ist schon ein Hund, da zockst zig Stunden und lässt die ganze Nacht irgendwelche Stabilitätsprogramme übers Wochenende laufen und dann kackt dir die Maschine direkt nach dem öffnen einer IDE beim Indexierungsprozess ab. :D
Lehdro
2024-11-29, 09:43:20
Man sollte halt beachten was UV mit CO tatsächlich bedeutet: Ein Offset über die ganze Breite der V/F Curve. Wenn ich jetzt Prime/Linpack mit CO -50 als "stabil" definiere, aber real in irgendwelche Limits ballere (TDC/EDC/PPT/Temperatur), dann habe ich auch nur diesen spezifischen Betriebspunkt abgeklopft. Genau deswegen soll man ja Corecycler Pro Kern und verschiedene Programme testen, damit auch Lastwechsel und andere Last/Teilszenarien geprüft werden. Das wird dann ganz schön komplex, erst Recht wenn man auf die neuen Arten von CO (Curve Shaper) schielt, die dann richtig fein justierbar sind. Und dann muss das System noch den Alltag überleben...
Zossel
2024-11-29, 10:03:40
Man sollte halt beachten was UV mit CO tatsächlich bedeutet: Ein Offset über die ganze Breite der V/F Curve. Wenn ich jetzt Prime/Linpack mit CO -50 als "stabil" definiere, aber real in irgendwelche Limits ballere (TDC/EDC/PPT/Temperatur), dann habe ich auch nur diesen spezifischen Betriebspunkt abgeklopft. Genau deswegen soll man ja Corecycler Pro Kern und verschiedene Programme testen, damit auch Lastwechsel und andere Last/Teilszenarien geprüft werden. Das wird dann ganz schön komplex, erst Recht wenn man auf die neuen Arten von CO (Curve Shaper) schielt, die dann richtig fein justierbar sind. Und dann muss das System noch den Alltag überleben...
Silent corruption ist noch wesentlich übler, aber da gibt es ja ganz besondere Spezialisten die denken das sowas vom fsck des Filesystem wieder repariert wird.
Zossel
2024-11-29, 10:06:15
Stabilität ist wie Miami schon sagte subjektiv, solange man nicht explizit erwähnt, was das für einen bedeutet. Das jeder bei solchen scheinbar banalen Fragen eine andere Meinung haben könnte, zeigt imho ziemlich gut die Sonntagsfrage von CB, wo die Leser "Was ist der Idlezustand?" definieren sollten.
Ich persönlich dachte, das ist ziemlich easy. Kein Programm offen und Desktop. Der Realitycheck war für mich sehr überraschend.
Wenn es hier aber schon so weit auseinander geht, dann ist "Mein CPU ist stable" sicherlich die Box der Pandora ohne deutlich mehr Informationen. :D
Gewöhnlicher Dummschwatz von Menschen die noch was hiervon gehört haben: https://de.wikipedia.org/wiki/HLT_(Maschinenbefehl)
Angiesan
2024-11-29, 10:12:27
Man sollte halt beachten was UV mit CO tatsächlich bedeutet: Ein Offset über die ganze Breite der V/F Curve. Wenn ich jetzt Prime/Linpack mit CO -50 als "stabil" definiere, aber real in irgendwelche Limits ballere (TDC/EDC/PPT/Temperatur), dann habe ich auch nur diesen spezifischen Betriebspunkt abgeklopft. Genau deswegen soll man ja Corecycler Pro Kern und verschiedene Programme testen, damit auch Lastwechsel und andere Last/Teilszenarien geprüft werden. Das wird dann ganz schön komplex, erst Recht wenn man auf die neuen Arten von CO (Curve Shaper) schielt, die dann richtig fein justierbar sind. Und dann muss das System noch den Alltag überleben...
Genau das!
Ich hatte auch mit UV rumgespielt mit meinem 7800X3D und hatte verschiedene Settings ausprobiert. Ich war zum Beispiel felsenfest davon überzeugt das meiner 1,05 V auf dem Speichersoc mit 6000er Ram abkann. Das lief durch jeden Benchmark und Speichertest durch meine Spiele liefen prima ohne Fehler. Dann kam CoD BO6 und ich habe mal weniger mal mehr DX Fehler bekommen. Da meine Graka weder ÚV noch OC ertragen muss dachte ich zuerst das Spiel. Dann habe ich mal die Standard-Settings im Bios geladen und siehe, es kamen keine DX Fehler mehr. Dann ausgestestet und jetzt mit 1,1V in den letzten Wochen keinen Fehlermeldung mehr. Das verrückte, es ist eigentlich nie im Spiel direkt passiert sondern immer nach einem Match wenn die Statistiken und die Siegesposen eingeblendet wurden.
Was ich jedem empfehlen kann, der ein MSI Board hat, es gibt dort einen sogenannten Enhanced Modus der mit Stufe1 bis 4 einstellbar ist. Ich habe das aus Interesse mal ausprobiert und das Board scheint so eine Art auto UV zu betreiben. Genau sagen, was da passiert, kann ich nicht. Stufe 3 die ich nun seit ein paar Wochen eingestellt habe, läuft bis jetzt stabil und mehr wie 5050 MHz geht ja eh nicht bei dem 7800X3D. Dabei haben sich die Temperaturen nicht verschlechtert. Bei CB24 sehe ich max. 81°C mit einer 360 Wakü und 1000 RPM. Das ist vergleichbar mit -20 bis -25 im CO. -25 im CO war bei mir nicht überall stabil. Mal schauen ob das auch über einen noch längeren Zeitraum so bleiben kann und sich als wirklich stabil zeigt.
Zossel
2024-11-29, 10:30:45
Was ich jedem empfehlen kann, der ein MSI Board hat, es gibt dort einen sogenannten Enhanced Modus der mit Stufe1 bis 4 einstellbar ist. Ich habe das aus Interesse mal ausprobiert und das Board scheint so eine Art auto UV zu betreiben.
Wer Spielzeug kauft bekommt eben Spielzeug.
Badesalz
2024-11-29, 10:46:43
@Zossel
Denk trotzdem gelegentlich daran, daß wir ohne Spieltrieb noch nichtmal bereits die Höhlen verlassen hätten ;)
Angiesan
2024-11-29, 15:36:25
Wer Spielzeug kauft bekommt eben Spielzeug.
Ja natürlich, es bleibt aber ja jedem überlassen das auszuprobieren, außerdem verstehe ich den Zusammenhang nicht richtig. Ich würde eher meinen, dass man mit dem 7800X3D die CPU gekauft hat, die den Spieltrieb am wenigsten befriedigt.
Zossel
2024-11-29, 17:23:41
Ja natürlich, es bleibt aber ja jedem überlassen das auszuprobieren, außerdem verstehe ich den Zusammenhang nicht richtig. Ich würde eher meinen, dass man mit dem 7800X3D die CPU gekauft hat, die den Spieltrieb am wenigsten befriedigt.
Auf Spielzeugbrettern muss man halt mit Framedrops auf 0FPS leben.
x-force
2024-11-29, 18:06:50
Auf Spielzeugbrettern muss man halt mit Framedrops auf 0FPS leben.
kann msi prinzipiell nur spielzeug, oder was möchtest du sagen?
Slipknot79
2024-11-29, 18:43:02
Man sollte halt beachten was UV mit CO tatsächlich bedeutet: Ein Offset über die ganze Breite der V/F Curve. Wenn ich jetzt Prime/Linpack mit CO -50 als "stabil" definiere, aber real in irgendwelche Limits ballere (TDC/EDC/PPT/Temperatur), dann habe ich auch nur diesen spezifischen Betriebspunkt abgeklopft. Genau deswegen soll man ja Corecycler Pro Kern und verschiedene Programme testen, damit auch Lastwechsel und andere Last/Teilszenarien geprüft werden. Das wird dann ganz schön komplex, erst Recht wenn man auf die neuen Arten von CO (Curve Shaper) schielt, die dann richtig fein justierbar sind. Und dann muss das System noch den Alltag überleben...
Was sind fordernde Einstellungen für den CoreCyler?
Standardeinstellung mit 2 Threads für 5min in einem Core, dann zum nächsten usw.. klingt langweilig. :confused:
Angiesan
2024-11-29, 18:51:16
kann msi prinzipiell nur spielzeug, oder was möchtest du sagen?
Danke das Du gefragt hast, dann kann ich mir das sparen.
Der_Korken
2024-11-29, 20:22:27
Was sind fordernde Einstellungen für den CoreCyler?
Standardeinstellung mit 2 Threads für 5min in einem Core, dann zum nächsten usw.. klingt langweilig. :confused:
Ich hab das Ding seit 3,5 Jahren nicht mehr benutzt, aber ich hatte damals immer so 30 oder 60 Minuten pro Kern laufen. Aber immer nur ein Kern gleichzeitig, damit der garantiert bis zum Anschlag boostet und nicht durch PPT, TDC, parallele Cache-Zugriffe, etc. ausgebremst wird. In Summe lief am Ende jeder Kern irgendwas um die 3 Stunden. Du kannst das Teil halt über Nacht laufen lassen und wenn ein Kern aussteigt, steht das nachher im Log und es wird der nächste Kern vorgezogen. Dann weißt du für den nächsten Durchlauf, welcher Kern weniger UV braucht und bei welchem du noch hochgehen kannst.
Ich hatte nur Prime95-Settings genutzt, was sicher nicht alles abdeckt und bei mir deutlich mehr reingehauen hat, als anderer Kleinkram, der sonst so gebencht wird. Cinebench hat teilweise 50mV mehr UV gefressen ohne zu crashen.
Slipknot79
2024-11-29, 21:34:52
Ich habe den CoreCyler mit CO-50 und +200MHz 1h lang laufen gelassen im Auto-Modus. Ballert alle Kerne zu.
Kein error.
Ich glaube, deine Methode funzt ned, weil die Demoversion von OCCT auf 1h begrenzt ist.
Prime95 small FFTs hatte ich früher für CPU Tests verwendet, dunno ob der 9800X3D in diesem Test empfindlich ist?
Der_Korken
2024-11-29, 22:05:39
Alle Kerne auf einmal ist nicht gut, weil das pro Kern nicht der maximale Stress ist. Prime in-place small FFT heizt auf meinem 5900X so krass, dass der rechnerisch über 300W bräuchte, damit alle Kerne auf vollem Takt laufen. Mit Standard-PPT ist der über 1Ghz vom Boost-Takt entfernt bei Allcore-Last. Das ist Murks. Meinen 2700X hatte ich damals so UVed: -120mV auf allen Kernen (damals noch ohne CO) war primestable, aber dafür ist die Kiste teilweise beim Öffnen von Browsertabs gefreezed und ich musste auf -62,5mV runtergehen, bis es stabil war. Mein Fehler: Prime lief wegen der hohen Last nicht mit Boost-Takt und hat somit nur Murks getestet.
Zossel
2024-11-30, 02:10:06
kann msi prinzipiell nur spielzeug, oder was möchtest du sagen?
Keine Ahnung ob die auch was anderes können, mir kommt dieser Schrott von diesem Laden jedenfalls nicht mehr ins Haus.
Zossel
2024-11-30, 08:15:05
@Zossel
Denk trotzdem gelegentlich daran, daß wir ohne Spieltrieb noch nichtmal bereits die Höhlen verlassen hätten ;)
Oder das befördert uns wieder zurück in die Höhlen weil auf diesen Dingern was falsch gerechnet wurde.
CPU-Benchmarks in UHD: Welche Rolle spielt der Prozessor in höheren Auflösungen? (https://www.pcgameshardware.de/Core-i5-13600K-CPU-279153/Specials/Benchmark-Vergleich-UHD-Gaming-Anforderungen-1460551/)
... mit zweifellos überraschenden Ergebnissen. :naughty:
MfG
Raff
RoughNeck
2024-11-30, 11:10:10
Potente GPU braucht halt auch eine Potente CPU.
Zudem gehen nicht gerade wenige Grafiksettings in Games auch auf die CPU, deswegen muss ich immer schmunzeln wenn einige meinen dass ab 1440p die CPU keine Rolle mehr spielt nur weil die irgendwelche Videos auf YouTube gesehen haben die im GPU Limit aufgenommen wurden.
OgrEGT
2024-11-30, 11:34:29
Keine Ahnung ob die auch was anderes können, mir kommt dieser Schrott von diesem Laden jedenfalls nicht mehr ins Haus.
Welchen Board Hersteller favorisiert du?
aufkrawall
2024-11-30, 11:38:45
CPU-Benchmarks in UHD: Welche Rolle spielt der Prozessor in höheren Auflösungen? (https://www.pcgameshardware.de/Core-i5-13600K-CPU-279153/Specials/Benchmark-Vergleich-UHD-Gaming-Anforderungen-1460551/)
... mit zweifellos überraschenden Ergebnissen. :naughty:
So ein 13600K(F) ist schon ein kleines Biest für sein Geld, wenn man dann noch den RAM tuned.
Tesseract
2024-11-30, 12:11:22
Keine Ahnung ob die auch was anderes können, mir kommt dieser Schrott von diesem Laden jedenfalls nicht mehr ins Haus.
alle großen boardhersteller haben in der vergangenheit neben guten boards auch absoluten schrott releast. die geben sich da absolut nix.
Zossel
2024-11-30, 12:43:40
Welchen Board Hersteller favorisiert du?
Keinen, ich klicke mich durch die Filter von Geizhals nach meinen Anforderungen, und dann kommt Preis-Leistung evtl. auch besondere nice2have Goodies.
MSI fliegt aber grundsätzlich raus weil die 2 Bretter die ich von MSI hatte bereitswährend der Laufzeit das zeitliche gesegnet haben. Alle anderen Bretter von diversen anderen Herstellern liefen bis ich die ausgemustert habe, und das mittlerweile seit 35 Jahren.
x-force
2024-11-30, 12:53:50
alle großen boardhersteller haben in der vergangenheit neben guten boards auch absoluten schrott releast. die geben sich da absolut nix.
gibt es überhaupt einen einzigen mainboardhersteller, der keine probleme in verbindung mit dem amd oc menü hat?
von settings werden überschrieben zu doppeleinträgen, die nicht die gleichen werte zeigen, bis zu werte auf default, wenn man einfach nur wieder ins bios geht, oder lassen sich gar nicht erst speichern.
Darkearth27
2024-11-30, 13:01:14
Funfact, das AMD OC Menü ist immer bei allen gleich, weil es im Agesa steht.
Alles was nicht aufgeführt wird ist dann vom Hersteller der Boards ausgeblendet oder eigenständig in ihre eigenen Masken übertragen.
Ob das nun zum Schutz vor DAUs gemacht wird oder weil man absichtlich Optionen den High End Brettern vorbehalten will ist dann der entscheidende Punkt.
Tesseract
2024-11-30, 13:26:54
die haben das menü mit zen 2 damals eingeführt weil alle hersteller bei der damals neuen boostmechanik wie kraut und rüben verschiedene einstellungen weggelassen oder aus marketinggründen sinnlos umbenannt haben.
probleme sind mir damit bei meinen boards eigentlich noch nie aufgefallen, ich habe ehrlich gesagt aber auch noch nie probiert die selbe einstellungen in verschiedenen untermenüs zu setzen.
Badesalz
2024-11-30, 14:08:31
gibt es überhaupt einen einzigen mainboardhersteller, der keine probleme in verbindung mit dem amd oc menü hat?Kannst du ganz kurz den zusammen zwischen dem und dem was du gequotet hast erklären?
Und ggf., dauert dann wohl noch kürzer, was mit "in Verbindung" gemeint ist?
x-force
2024-11-30, 14:19:05
Kannst du ganz kurz den zusammen zwischen dem und dem was du gequotet hast erklären?
Und ggf., dauert dann wohl noch kürzer, was mit "in Verbindung" gemeint ist?
ein paar bsp hatte ich im nächsten satz direkt genannt.
ganz konkret: ich möchte nitro settings setzen, dazu muss ich ins amd menü.
nachdem ich alle werte gesetzt habe, möchte ich mit esc beenden und speichern, doch er bietet nur quit without saving an.
nehmen wir jetzt mal an er hat die werte tatsächlich gesetzt und übernommen (es gibt keine möglichkeit nitro settings auszulesen), gehe ich nun wieder ins bios stehen im amd menü sämtliche werte wieder auf auto.
einige berichten, dass man jedes mal die werte neu setzen müsse, wenn man ins bios geht, selbst ohne etwas zu verändern.
Ätznatron
2024-11-30, 14:23:49
Hast du Ryzen Master laufen?
Denn damit überschreibst du die Parameter im AMD-OC-Menü.
Ebenfalls würde ich die Finger vom Ryzen Master und dem AMD Overclocking lassen, wenn ich ausschließlich mit dem Boardhersteller-OC arbeiten möchte.
Darkearth27
2024-11-30, 14:48:44
Nitro Settings auslesen geht übrigens mit Zentimings unter System Info ganz am Ende.
Nur die burst Werte nicht.
La Junta
2024-12-01, 00:41:41
Ich hatte ein komisches ruckler Problem mit dem 9800X3d und vorallem in BO6 (Black Ops6) . Es gab ständig sekunden Freezer und es ging soweit das es abstürzte ... Ich dachte es liege an meinem Ocing , aber nein . Falls sonstwer solche Probs hat , es liegt an den energiespar Einstellungen . Ich hatte den minimalen Leistungszustand des Prozessors runtergestellt auf 5% (damit er idelt). Wieder auf 100% rauf und es läuft wie ein Traum ... Das sind halt so kleine Unterschiede zwischen Intel und AMD , bei Intel ist vielles in Hardware und bei AMD sowas ...
Was Stromverbrauch angeht ist es halt auch nicht 100% akkurat was oft in den Foren steht. Ich habe noch nen 14900K PC hier und der braucht im Idle 80W und in BO6 530W . Der 9800X3D säuft im Idle : 120W und in BO6 500W (4090iger aber).
Um das ganze wieder zu relativieren , es liegt eher an der Platform und weniger an der CPU. Ich betrachte aber eher das ganze zusammen den die CPU läuft nicht ohne den Rest .
Die Rechner sind aber eben nicht gleich , der Intel PC Hat 2x 4TB SSD und 128GB RAM , 4080iger und 280iger AIO , Meiner hat nur 1x 2TB SSD (die 4TB ist Defekt) und eine 4090iger und halt Wakü.
Alles in allem wären es bei gleicher konfig und beide Oced und von Hand getweakt bei Intel ca. 60W mehr in Games , aber 45W weniger in Idle (und Teillast) . In einem normalen Mischverhältnis , wäre es ein Patt.
Auf dem HWinfo screen ist von den 2h , ca. 1H zocken (nach dem Problem lösen ) 1x Cinecench run und rest idle. https://i.ibb.co/s5s6BPJ/Screenshot-2024-12-01-003906.jpg (https://ibb.co/s5s6BPJ)
RoughNeck
2024-12-01, 09:24:34
So, hab gestern den ganzen Tag herumgespielt.
-30 und plus 200 MHZ sind stabil, ab -38 fängt er an instabil zu werden, da steigen 2 Kerne aus aber auch nicht unter 100% Last, sondern unter Teillast. Ich lass das jetzt mal 1 Woche und schau mir das an ob die CPU wirklich mit -30 stabil ist.
OgrEGT
2024-12-01, 10:22:14
Keinen, ich klicke mich durch die Filter von Geizhals nach meinen Anforderungen, und dann kommt Preis-Leistung evtl. auch besondere nice2have Goodies.
MSI fliegt aber grundsätzlich raus weil die 2 Bretter die ich von MSI hatte bereitswährend der Laufzeit das zeitliche gesegnet haben. Alle anderen Bretter von diversen anderen Herstellern liefen bis ich die ausgemustert habe, und das mittlerweile seit 35 Jahren.
Ich hatte noch nie ein MSI Board... ASUS Gigabyte und zuletzt schon 3 ASRock... werde mir bei meinem nächsten Board zum Umstieg auf AM5 erst mal ASRock Boards anschauen...
Badesalz
2024-12-01, 10:23:27
Ich hatte den minimalen Leistungszustand des Prozessors runtergestellt auf 5% (damit er idelt). Wieder auf 100% rauf und es läuft wie ein Traum ... Das sind halt so kleine Unterschiede zwischen Intel und AMD Ist 15% oder so nicht einstellbar?
Zossel
2024-12-01, 10:46:12
(damit er idelt).
????????????????????????
Badesalz
2024-12-01, 11:11:02
Das sind halt so kleine Unterschiede zwischen Intel und AMD Sicher?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13642642#post13642642
La Junta
2024-12-01, 11:22:58
Ist 15% oder so nicht einstellbar?
Alles unter 100% verursacht das Problem in Bo6, aber ist eigendlich auch egal weil der Stromverbrauch gleich ist. Die CPU taktet halt nicht ganz runter und bleibt bei ca. 4.7GHZ.
Ich kann von meinen Erfahrungen sprechen und da habe ich nunmal bessere mit Intel in der Hinsicht. Als kleines Beispiel wäre der Scheduler, bei Intel einfach nichts machen oder speziell installieren und es läuft einfach (P-Cores Zuteilung z.B), hier musst du 1 CCD deaktivieren , oder dich auf andere Sachen verlassen.
Jeder hat so seine Erfahrungen. Der Herr mit den 1000 Fragezeichen findet MSI sei Spielzeug , da denke ich anders z.B .https://i.ibb.co/HTN7YH7/20241201-110642.png (https://ibb.co/HTN7YH7)
Lurtz
2024-12-01, 11:27:56
So ein 13600K(F) ist schon ein kleines Biest für sein Geld, wenn man dann noch den RAM tuned.
Der kostet ja "nur" noch 250€ :eek: Und der K ist so teuer wie der KF.
Da komme ich ja fast wieder ins Grübeln, mit aktuellem BIOS sollte da ja kein Defekt mehr auftreten. RAM-Tuning geht mit B660 halt nicht, aber das wäre dennoch eklatant günstiger, als jetzt komplett auf AM5 zu gehen und dürfte dann den Rest der (Konsolen)Generation halten...
Wenn man sieht was der 5700 X3D leistet, fühlt man sich als Alder Lake-Käufer trotzdem leicht angeschmiert :ugly:
Edit: Den 14600 KF gibts schon für 229€, spricht was dagegen? Leidet der stärker unter den neuen Powerlimits?
La Junta
2024-12-01, 11:31:56
Der kostet ja "nur" noch 250€ :eek: Und der K ist so teuer wie der KF.
Da komme ich ja fast wieder ins Grübeln, mit aktuellem BIOS sollte da ja kein Defekt mehr auftreten. RAM-Tuning geht mit B660 halt nicht, aber das wäre dennoch eklatant günstiger, als jetzt komplett auf AM5 zu gehen und dürfte dann den Rest der (Konsolen)Generation halten...
Wenn man sieht was der 5700 X3D leistet, fühlt man sich als Alder Lake-Käufer trotzdem leicht angeschmiert :ugly:
Ich hatte den 13600K kurzzeitig mit der 4090er gepaart und nur DDR 4 3600 (scharfe Subtimings) und das Ding hat die Graka in so ziemlich jedem Game voll ausgelastet. Du machst nix falsch damit.
dildo4u
2024-12-01, 11:41:22
Hängt davon ab ob einem 60 FPS reichen Stalker ist sehr brutal was das angeht.
Für den Rest sollte man Framegen nutzen hat man so den Eindruck.
Lehdro
2024-12-01, 13:18:12
Ich hatte ein komisches ruckler Problem mit dem 9800X3d und vorallem in BO6 (Black Ops6) . Es gab ständig sekunden Freezer und es ging soweit das es abstürzte ... Ich dachte es liege an meinem Ocing , aber nein . Falls sonstwer solche Probs hat , es liegt an den energiespar Einstellungen . Ich hatte den minimalen Leistungszustand des Prozessors runtergestellt auf 5% (damit er idelt). Wieder auf 100% rauf und es läuft wie ein Traum ... Das sind halt so kleine Unterschiede zwischen Intel und AMD , bei Intel ist vielles in Hardware und bei AMD sowas ...
Ist dein Windows frisch installiert oder ein altes migriert? Dein Problem klingt äußerst komisch, vor allem wenn da noch etwas abstürzt.
Was Stromverbrauch angeht ist es halt auch nicht 100% akkurat was oft in den Foren steht. Ich habe noch nen 14900K PC hier und der braucht im Idle 80W und in BO6 530W . Der 9800X3D säuft im Idle : 120W und in BO6 500W (4090iger aber).
Kann ich bei mir nicht bestätigen. Ich habe gerade YT Fullscreen und BDO minimiert laufen, also ordentlich Hintergrundlast: ~100W.
True idle: ~75W.
Alles VOR dem Netzteil.
Twodee
2024-12-01, 13:27:38
Alles unter 100% verursacht das Problem in Bo6, aber ist eigendlich auch egal weil der Stromverbrauch gleich ist. Die CPU taktet halt nicht ganz runter und bleibt bei ca. 4.7GHZ.
Ich kann von meinen Erfahrungen sprechen und da habe ich nunmal bessere mit Intel in der Hinsicht. Als kleines Beispiel wäre der Scheduler, bei Intel einfach nichts machen oder speziell installieren und es läuft einfach (P-Cores Zuteilung z.B), hier musst du 1 CCD deaktivieren , oder dich auf andere Sachen verlassen.
Jeder hat so seine Erfahrungen. Der Herr mit den 1000 Fragezeichen findet MSI sei Spielzeug , da denke ich anders z.B .https://i.ibb.co/HTN7YH7/20241201-110642.png (https://ibb.co/HTN7YH7)
du deaktivierst beim 9800X3d ein CCD?
La Junta
2024-12-01, 13:32:02
Ist dein Windows frisch installiert oder ein altes migriert? Dein Problem klingt äußerst komisch, vor allem wenn da noch etwas abstürzt.
Ist frisch installiert. Ich scheine aber nicht der einzige zu sein https://www.reddit.com/r/blackops6/comments/1h0dfdq/cod_bo6_freezing_entire_pc_sometimes_anyone_have/
Ist übrigens wieder passiert , trotz dem was ich alles probiert habe.
Kann ich bei mir nicht bestätigen. Ich habe gerade YT Fullscreen und BDO minimiert laufen, also ordentlich Hintergrundlast: ~100W.
True idle: ~75W.
Alles VOR dem Netzteil.
Ich kann dir nur schreiben was ich messe , kann sein das es bei dir anders ist .
du deaktivierst beim 9800X3d ein CCD?
Wo habe ich das geschrieben ?? Es ging um AMD und Sachen die auf Software angewissen sind. Der 9800X3d hat nur 1 CCD
Twodee
2024-12-01, 13:52:24
Wo habe ich das geschrieben ?? Es ging um AMD und Sachen die auf Software angewissen sind. Der 9800X3d hat nur 1 CCD
Oh achso das war nur ein allgemeiner Rant gegen AMD, ok :up:
Btw Gesamtverbrauchsvergleich-*fast* Gleichstand* bei Intel+4080 und AMD+4090 :freak:;D d.h. der Intel zieht ~200Watt mehr
La Junta
2024-12-01, 13:56:36
Oh achso das war nur ein allgemeiner Rant gegen AMD, ok :up:
Btw Gesamtverbrauchsvergleich-*fast* Gleichstand* bei Intel+4080 und AMD+4090 :freak:;D d.h. der Intel zieht ~200Watt mehr
Allgemeint scheint es zuviele Menschen hier im Forum zu geben die Emotional mit iwelchen Firmen verbunden sind . Ich mach mir vtl die mühe und baue den 14900k im gleichen Case mit ansonstem gleichen Komponenten bis auf CPU und Mainboard und mache ein Video nur für dich ....
Keine Ahnung wieso du davon ausgehst ich würde ranten , oder ich sei ein Fanboy . Schon alleine mein Posting Count sollte dir das Gegenteil beweissen , aber egal...
Edit: 1100 Posts in 22 Jahren ....
In Tests hat der 9800X3D nun mal ca. 10 W mehr idle-"Verbrauch", als der 14900K und nicht 40,wie du behauptest, also sind deine Angaben fragwürdig.
dildo4u
2024-12-01, 16:00:40
Laut dem fällt er negativ auf warum auch immer Zen 4 ist ok.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/64771-amd-l%C3%A4sst-arrow-lake-ganz-sch%C3%B6n-alt-aussehen-der-ryzen-7-9800x3d-im-test.html?start=9
Chrisch
2024-12-01, 16:46:10
In Tests hat der 9800X3D nun mal ca. 10 W mehr idle-"Verbrauch", als der 14900K und nicht 40,wie du behauptest, also sind deine Angaben fragwürdig.
Allein die Package Power* (wenn auch nur ausgelesen) liegt ~20W über dem der Intel Produkte. Auch wenn ich mit AM5 und den Ryzen sehr zufrieden bin, aber beim Idle Verbrauch ist AMD weit weg von Intel.
*14900K kommt auf ~2-3W PP wenn die CStates etc im BIOS korrekt eingestellt sind, da kann der Ryzen nur von träumen.
x-force
2024-12-01, 17:28:54
Auch wenn ich mit AM5 und den Ryzen sehr zufrieden bin, aber beim Idle Verbrauch ist AMD weit weg von Intel.
vor allem könnte es gehen, wenn amd es nur wollte, siehe mobile plattformen.
die co2 mafia sollte amd mal wegen des unnötigen idle verbrauchs am desktop ins visier nehmen.
Der_Korken
2024-12-01, 17:30:50
In Tests hat der 9800X3D nun mal ca. 10 W mehr idle-"Verbrauch", als der 14900K und nicht 40,wie du behauptest, also sind deine Angaben fragwürdig.
"Nur 10W" :anonym:
https://www.computerbase.de/2024-08/amd-ryzen-9-9900x-9950x-test/5/
https://www.pcgameshardware.de/Ryzen-9-9950X-CPU-280539/Tests/Release-Benchmark-Preis-kaufen-1453571/3/
https://www.techpowerup.com/review/amd-ryzen-7-9800x3d/23.html
Linmoum
2024-12-01, 17:54:06
Und jetzt nimmst du ein ganz anderes Board und plötzlich sinkt der Verbrauch ein gutes Stück. ;)
aufkrawall
2024-12-01, 18:00:46
Und wenn es bei Intel mit einem anderen Board nochmal weniger ist?
Lehdro
2024-12-01, 18:20:53
Und wenn es bei Intel mit einem anderen Board nochmal weniger ist?
Solange das untereinander vergleichbar bleibt (also nicht Z890 vs B650 oder B760 vs X870E). Die Unterschiede zwischen den Boards vergleichbarer Ausstattung sind mittlerweile echt enorm, selbst innerhalb der Hersteller.
La Junta
2024-12-01, 18:26:33
Keine Ahnung wieso das so ist bei mir , aber es ist nunmal so.
Das Intel System hat einen z790 Pro Art und das AMD System einen X870E Pro Art. Ist ja auch egal, ich will niemanden von etwas überzeugen.. Ich hatte (oder habe) halt ein Problem und dachte ich könne anderen helfen , bzw. jemmand mir .
Edit: Ich könnte auch beide anschliessen und Videos davon machen , aber was bringts ... https://i.ibb.co/Y7PG7Mh/9999.png (https://ibb.co/Y7PG7Mh)
aufkrawall
2024-12-01, 18:51:26
Keine Ahnung wieso das so ist bei mir , aber es ist nunmal so.
Mach dir keinen Kopf. Jeder, der seit 2017 verschiedene Intel/AMD-Plattformen gehabt hat, kann deine Erfahrung bez. Idle-Verbrauch bestätigen. Andere Kommentare sind einfach der Klassiker, was nicht wahr sein darf.
Complicated
2024-12-01, 19:06:15
vor allem könnte es gehen, wenn amd es nur wollte, siehe mobile plattformen.
AMD will das aus vielen guten Gründen nicht, die Intel derzeit schwer zu schaffen machen. So what?
Daredevil
2024-12-01, 19:11:17
Und jetzt nimmst du ein ganz anderes Board und plötzlich sinkt der Verbrauch ein gutes Stück. ;)
Und welches nehme ich konkret? Welches ist das sparsamste für ein AM5 Prozzi mit ca. 200w Verbrauch?
Also wirklich ernsthaft. Ich habe absolut keine Ahnung, worauf ich bei dem Thema achten soll, wenn ich keinen unnötigen Stromverbrauch haben will im Idle oder Teillast. Ich kann mich weder auf spezielle Hersteller verlassen, noch ist die Wahl des Chipsatzes grundsätzlich eine Lösung ( Indizien sprechen für kleiner = Besser ), aber so wirklich handfestes finde ich im WWW nicht. THG hat manchmal Mainboard Tests, die lesen sich manchmal aber auch direkt aus ChatGPT. :D
Also nochmal konkret:
CPU > 16c X3D
GPU > PCIe 5
RAM > 32GB billig Module
SSD > NVME PCIe 4
Sonst muss das System quasi nichts mehr leisten und angeschlossen wird außer USB Reciever auch quasi nichts. Ob WiFi integriert ist oder per 4x Karte dazu kommt, ist ja eigentlich irrelevant. Wat fürn Mainboard nehme ich, wenn ich niedrigen Idle Verbrauch ohne unnötigen gedöns möchte?
Kann auch die hässlichste Bude der Welt sein, mein Gehäuse ist eh geschlossen. ^^
Tesseract
2024-12-01, 19:27:31
ITX boards haben meistens geringeren idle-verbrauch weil sie einfach weniger komponenten/busse/etc. haben. aber dass die chipletdesigns im idle generell etwas mehr ziehen ist nun wirklich nix neues. OID spannung senken hilft wahrscheinlich auch, die ist mit auto bzw. EXPO oft viel höher als nötig.
Lehdro
2024-12-01, 20:11:43
Mach dir keinen Kopf. Jeder, der seit 2017 verschiedene Intel/AMD-Plattformen gehabt hat, kann deine Erfahrung bez. Idle-Verbrauch bestätigen. Andere Kommentare sind einfach der Klassiker, was nicht wahr sein darf.
Man beachte einfach den Fakt das seine Werte extrem hoch sind (auch für seinen Intel). Bei mir hängt schon viel an Kram dran, aber seine Werte sind wirklich utopisch hoch.
Niemand hier bestreitet das AMD da deutlich hinterherhinkt, aber die Distanz die hier suggeriert wird, wirkt halt wenig realistisch. Die Gesamt-PPT der CPU wird im idle mit RAM OC bei mir mit rund ~25W angegeben. Von daher sind 40W Mehrverbrauch echt krass, wenn Intel da auf seine ~5W kommt. Das zeigen auch die Reviews, die hier so schön verlinkt wurden. Da sind es auch um die 20-30W Unterschied, jeweils ebenso Gesamtsystem. Deutlich plausibler!
Und welches nehme ich konkret? Welches ist das sparsamste für ein AM5 Prozzi mit ca. 200w Verbrauch?
[...]
Also nochmal konkret:
CPU > 16c X3D
GPU > PCIe 5
RAM > 32GB billig Module
SSD > NVME PCIe 4
Sonst muss das System quasi nichts mehr leisten und angeschlossen wird außer USB Reciever auch quasi nichts. Ob WiFi integriert ist oder per 4x Karte dazu kommt, ist ja eigentlich irrelevant. Wat fürn Mainboard nehme ich, wenn ich niedrigen Idle Verbrauch ohne unnötigen gedöns möchte?
Kann auch die hässlichste Bude der Welt sein, mein Gehäuse ist eh geschlossen. ^^
Kauf dir einfach das günstigste Board mit diesen Spezifikationen und schalte den Klimbim aus den du nicht brauchst und passe die von EXPO angelegten Spannungen an, da wird gerne das maximal erlaubte draufgehauen. Die richtigen Stromsäufer sind sowieso immer die Highend- und Enthusiastenmodelle. Also einfach passend kaufen.
Ist immer richtig geil wenn die Reviewer auf den 500€+ Boards CPUs testen und auf den Verbrauch im idle schimpfen, während großflächig ein OLED vor sich hin strahlt und eine RGB Disko abgeht. Das gilt natürlich für Intel als auch AMD...
dildo4u
2024-12-01, 20:26:57
Allein die Package Power* (wenn auch nur ausgelesen) liegt ~20W über dem der Intel Produkte. Auch wenn ich mit AM5 und den Ryzen sehr zufrieden bin, aber beim Idle Verbrauch ist AMD weit weg von Intel.
*14900K kommt auf ~2-3W PP wenn die CStates etc im BIOS korrekt eingestellt sind, da kann der Ryzen nur von träumen.
Man kommt auf 30 Watt mit allem mit A620 schätze die Gamer Boards geben ein Fuck auf Effizienz.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13597815#post13597815
La Junta
2024-12-01, 20:31:45
Man beachte einfach den Fakt das seine Werte extrem hoch sind (auch für seinen Intel). Bei mir hängt schon viel an Kram dran, aber seine Werte sind wirklich utopisch hoch.
Die DDC Pumpe alleine zieht 15W und dann kommen noch 11 Noctua Lüfter dazu und der Aquaero.
Ich hatte bevor ich umgebaut habe ein Photo gemacht von meinem System mit dem 14900k , Z690 Mainboard und 32GB DDR4 (alles oced ) = 79.3W .
Und jetzt im gleichen Rechner bis auf Mobo , CPU und RAM sinds ca. 122W.
Ziehe von mir aus die Wakü Sachen ab wenn du willst , ist trotzdem der gleiche Abstand . https://i.ibb.co/h7ZbmJh/sgfsfgfsfs.jpg (https://ibb.co/h7ZbmJh)
Darkearth27
2024-12-01, 20:42:08
X670E
X870E
Sind beide ca gleich hoch vom Verbrauch, durch die zwei Chipsätze.
B650E
B650
Haben nur einen Chipsatz, somit ist die Leistungsaufnahme etwas geringer.
Problem was aber alle haben, die idle Zustände vom IF sind ausgehebelt und laufen aktuell fast immer mit Maximalleistung, damit verbunden steigt natürlich auch der idle.
AMD hat zwar die Option im BIOS/im AGESA hinterlegt den SoC zu drosseln, dies funktioniert aber aktuell nur bei allem auf Stock. Sobald man Expo lädt, an den Frequenzen etwas ändert oder auch nur eine Option die irgendwelche Lastzustände ändert, wird dies ausgehebelt und schon hat man einen höheren Verbrauch.
Dazu kommt dann die Ausstattung z.B. USB Slots, (10 und mehr usw.) die werde alle auch versorgt und können nur manuell deaktiviert werden (dazu muss man aber wissen welche Steckplätze es sind die man deaktivieren will).
Die Package Power hat dies alles mit drin:
Cores, SoC und Versorgungsstrom, die Kerne selbst verbrauchen kaum etwas im Idle (2-3w).
Selbst ein Umstieg von AM4 mit 5800X3D auf AM5 mit 7800X3D hat schon 20w mehr ausgemacht, weil das Board einfach viel mehr VRMs verbaut hat.
RAM OC (bin ich gerade am testen) lässt sogar bei 6600C28 und entsprechend hohen Spannungen auf dem MC, dem SoC und den dann nicht vorhandenen Idle states die Leistungsaufnahme im Vergleich zu 6000C30 mit maximal reduzierten Spannungen um fast 20w steigen.
Das muss man Intel lassen, da haben sie die besseren (funktionierenden) powerstates, besonders im Idle.
Die APUs im Laptop arbeiten aufgrund des Aufbaus anders, dort ist alles monolithisch und entsprechend geringer fällt die Leistungsaufnahme aus, auch funktionieren dort die idle states..
Lehdro
2024-12-01, 21:43:17
Selbst ein Umstieg von AM4 mit 5800X3D auf AM5 mit 7800X3D hat schon 20w mehr ausgemacht, weil das Board einfach viel mehr VRMs verbaut hat.
Ich verbrauche mit dem 9800X3D System viel weniger im idle als mit dem 5800X3D System, obwohl ich tatsächlich nur CPU/Mainboard/RAM getauscht habe. Da steht es 90W (5800X3D) zu 75W (9800X3D). Ich sag ja, die Mainboards machen viel mehr aus als sich hier mancher zugestehen will.
Ich bin von einem X570 Unify auf ein X870E Nova gewechselt, also rein boardtechnisch auf derselben Ebene.
Die APUs im Laptop arbeiten aufgrund des Aufbaus anders, dort ist alles monolithisch und entsprechend geringer fällt die Leistungsaufnahme aus, auch funktionieren dort die idle states..
Die idle States funktionieren auch bei den Chiplet Mobile Parts. Einfach mal nach Dragon Range schauen, die Unterschiede zum Desktop sind eklatant. Da haut ein Zen 4 16C im idle mit 15-20W rein - das ganze verdammte Gerät mitsamt Bildschirm.
Darkearth27
2024-12-01, 22:28:59
Bei MSI funktionierte aspm auch nicht, wurde sogar komplett aus dem BIOS (ohne Mod) gestrichen.
Ich habe das Unify und das Edge Max da gehabt, selbst bei den beiden Brettern gab es Unterschiede von bis zu 10w im Idle.
Also ja, die Boards machen eine Menge an der Leistungsaufnahme aus und es stört mich ehrlich gesagt zwar nicht, aber weniger Leistungsaufnahme im Idle wäre schon toll.
Gipsel
2024-12-02, 00:03:41
Die idle States funktionieren auch bei den Chiplet Mobile Parts. Einfach mal nach Dragon Range schauen, die Unterschiede zum Desktop sind eklatant. Da haut ein Zen 4 16C im idle mit 15-20W rein - das ganze verdammte Gerät mitsamt Bildschirm.Das beste Beispiel ist inzwischen wohl Turin dense mit dem Epyc 9965. 500W TDP für 192 Kerne in 12 CCDs an einem riesigen IO-Die und im idle zieht das laut Phoronix nur 19W Package Power. Da sollten <10W für die Desktop-Parts doch eigentlich möglich sein, würde man denken. :rolleyes:
Slipknot79
2024-12-02, 00:10:40
Nachdem ich Windows 11 noi aufgesetzt habe, hatte ich 18W idle. (y)
Tesseract
2024-12-02, 00:32:31
Das beste Beispiel ist inzwischen wohl Turin dense mit dem Epyc 9965. 500W TDP für 192 Kerne in 12 CCDs an einem riesigen IO-Die und im idle zieht das laut Phoronix nur 19W Package Power. Da sollten <10W für die Desktop-Parts doch eigentlich möglich sein, würde man denken. :rolleyes:
das problem ist der IOD, der zen 5 CCD geht im idle bis unter 0,05W laut anzeige.
Badesalz
2024-12-02, 06:49:56
Ja ich find auch bisschen eigen, daß sie beim Zen6 jetzt soviel über den neuen IOD reden... :wink:
Gipsel
2024-12-02, 10:56:28
das problem ist der IOD, der zen 5 CCD geht im idle bis unter 0,05W laut anzeige.Ich weiß. Im Desktop sind offenbar diverse Stromsparmaßnahmen deaktiviert, die den idle-Verbrauch vermutlich mindestens halbieren würden.
Zossel
2024-12-02, 18:11:16
https://i.ibb.co/h7ZbmJh/sgfsfgfsfs.jpg (https://ibb.co/h7ZbmJh)
Das ist schon ziemlich übel einen Rechner mit Metallgehäuse ohne Erdung ans Stromnetz anzuschließen. Hast du dir das Stromkabel extra dafür gebastelt?
latiose88
2024-12-03, 13:06:10
hm 90 Watt und 75 Watt man ihr habt ja teilweise steimfeesser bei euch. Mein am4 System mit 5950x braucht so um die 30-35 Watt. Also hier scheint noch einiges bei euch möglich zu sein. Das kann ich auch mit dabei aktuellen am5 so richtig was raus holen wenn ich eines hätte.
Darkearth27
2024-12-03, 13:24:02
Ich glaube hier ging es um das komplette System, inklusive aller Verbraucher (Pumpe, Lüfter, Lüftersteuerung, eventuell noch Monitor- wie bei mir in der Rechnung mit drin ist - etc).
Zossel
2024-12-03, 16:08:43
Ich glaube hier ging es um das komplette System, inklusive aller Verbraucher (Pumpe, Lüfter, Lüftersteuerung, eventuell noch Monitor- wie bei mir in der Rechnung mit drin ist - etc).
Na dann machen ja die paar Watt die von der CPU kommen den Kohl total fett.
Der_Korken
2024-12-03, 17:13:05
Na dann machen ja die paar Watt die von der CPU kommen den Kohl total fett.
Ich habe Reviews verlinkt, die auf Differenzen von 25-40W kommen. Da ich nicht davon ausgehe, dass alle Boardhersteller beim Design von AMD-Board plötzlich alles falsch und bei Intel-Boards alles richtig machen, muss da wohl einiges mehr im Argen liegen. Was den Kohl in der Tat nicht fett macht, sind irgendwelche Energiesparpläne, die im Idle den Verbrauch der Kerne von 2W auf 0,5W drücken.
@latiose88: Die 30-35W verbraucht ein Dual-CCD-Zen3 schon alleine, wenn der RAM über 3200 läuft oder irgendein Prozess/Dienst mit Minimalstlast aktiv ist. Deine Zahl kann niemals stimmen, zumal der 5950X nichtmal eine iGPU hat, um die dGPU komplett abschalten zu können.
latiose88
2024-12-03, 20:19:51
Ja ist mir schon klar. Meine gpu läuft meist im idle also beim nur anzeigen und das wars. Wenn da mal last drauf ist dann meist so bei um die 50 Watt.
aber es geht ja um idle also bei geringer last. Da sind es so 8-10 Watt. Und die kommen noch dazu. Ich habe auch die Helligkeit reduziert. Da sitze ich zwar für ne längere Zeit nicht mehr davor. Dieser braucht so um die 15 Watt der Bildschirm. Ich schaue schon das alles sparsam wird. Unter 10 Watt schaffe ich bei Bildschirm leider nicht. Auch die gpu kann ich leider nicht sparsamer machen auch geil wäre es ne dedizierte gpu bei geringer bis garkeiner last mit 2 Watt.
Da hilft nur noch ein Mini PC mit kleinem Netzteil um noch sparsamer zu werden. AMD kann da echt nicht mit halten. Darum schaffte ich es nicht aus dem Plattform ne sparsame PC zu schaffen. Hätte wohl damals doch ein b450 oder sowas nehmen sollen um noch ein paar Watt aus dem System beim sparen heraus zu holen was geht. Was ich noch machen könnte ist alles unnötige abzuschalten
mit Spannung reduzieren klappte es nicht.
danke für den Tipp mit dem RAM. Am besten nicht nur 3200 mhz anstatt 3600 sondern gleich auf 2933 um noch mehr Watt zu reduzieren. Beim Nachfolger geht bestimmt auch einiges. Wie auf 5600 oder weniger bei ddr5 zu gehen. Ich weiß auch schon was ich abschalten um Strom zu sparen. Auch gleich ein sparsames mainjaord zu nehmen. Wenn ich am5 holen würde dann gleich auf b650 oder sowas gehen. Das a620 kann man vergessen wenn man alles drosseln will um bile Leistung aber sparsam unterwegs zu sein.
16 Kerne bleiben 16 kerne auch wenn man dann hier und da drosselt um genug Strom für die CPU zu haben.
Dann kommt man auch deutlich sparsamer weg als insgesamt 75 Watt.
und ich habe die Helligkeit beim Bildschirm sehr weit runter gedreht. Ich denke mal es stand da 0 als Helligkeit. Damit ist der Bildschirm deutlich sparsamer als da auf der Verpackung steht.
Aber gut manchmal reicht das eben alles nicht aus. Da muss man eben hart durch greifen um weiter zu kommen.
ich mag zwar mit Spannung und ramtakt bei gpu unter niedrig last nicht weit kommen, dafür aber bei hoher last.
einfach fps Limit machen, RAM und gpu takt senken und Spannung. Bei cpu feste Spannung, turbo abschalten. Damit dürfte es gewiss auch bei Intel sparsamer unterwegs sein. Die Leistung geht halt dann ganz schön abwärts dann wenn man alle hebler nach unten dreht.
Mortalvision
2024-12-03, 20:22:10
Ich habe jetzt keine fps angehabt. Aber gegenüber meinem 5800x3d rutscht der neue Prozessor nur so durchs Early Game in Stellaris. Ein halbes Jahr auf fastest in unter einer Minute, deutlich!
vinacis_vivids
2024-12-03, 21:08:52
Zen5 hat bei Stellaris gut zugelegt ggü Zen4.
https://i.ibb.co/gdS3D7w/4pqahbb2gbzd1.png
Die Engine kann leider nur 6C bis 8C auslasten.
12C und 16C bringen hier leider nichts.
Lawmachine79
2024-12-04, 10:47:50
Wenn ich das ganze Speichertuning hier sehe: würde Zen5 nicht enorm von CU-Dimm profitieren? Da scheinen ja ganz andere Frequenzen drin zu sein. Die Frage ist, ob sich die Latenzen im gleichen Maße verbessern lassen, mein Gefühl aus diesem Thread ist, das Latenzreduktion mehr bringt als Takterhöhung.
Exxtreme
2024-12-04, 11:04:11
Niedrige Latenz wird, bis auf Spezialsoftware ala Datenbankserver immer am meisten bringen.
MiamiNice
2024-12-04, 11:12:47
Wenn ich das ganze Speichertuning hier sehe: würde Zen5 nicht enorm von CU-Dimm profitieren? Da scheinen ja ganz andere Frequenzen drin zu sein. Die Frage ist, ob sich die Latenzen im gleichen Maße verbessern lassen, mein Gefühl aus diesem Thread ist, das Latenzreduktion mehr bringt als Takterhöhung.
Die meisten Memory Controller kommen bis 3200 Mhz auf dem Ryzen, 3300 auf einem richtig gutem MC. Das ist DDR 6400, bzw. 6600. Willst Du höher brauchst den /2 Teiler. Sprich spätenstens ab 6800 Mhz musst den MC auf 1700 Mhz stellen. 1700 * 2 *2 = 6800 Mhz. Um den loss auf dem MC zu kompensieren brauchst DDR5 12800. Gibt es nicht und wird nicht unterstützt von den meisten Boards, wenn dann nur von Asus und mit ganz speziellen und gebinnten DIMMs. CUDIMMS zeichnen sich durch stabile Taktraten über 8400 Mhz aus, aber welche mit ner 12xxx kannst nciht kaufen. Daher sind CUDIMMS keine Option für mehr Speed beim Ryzen. Du willst im Sweetspot, also 3000 bis 3300 Mhz auf dem MC, die kleinsten Timings die Du einstellen kannst. Alles andere ist suboptimal. CUDIMMS sind daher derzeit reine Intel Sticks, deren MC kann damit durchaus was anfangen. Beim Ryzen bzw. bei AMD ist das alles bissel poor ;)
Exxtreme
2024-12-04, 12:30:06
Du könntest auch einen 1/3-Teiler fahren. Damit wäre DDR5 9000 drin. Wichtig ist, dass das nicht asynchron ist. Weil der Speicherkontroller sonst einige Takte an Wartezeiten einlegen muss und das treibt die Latenzen nach oben.
MiamiNice
2024-12-04, 12:34:32
Kann man imo nicht einstellen. /2 oder 1:1. Ggf. habe ich das aber auch übersehen.
Der_Korken
2024-12-04, 13:55:02
Du könntest auch einen 1/3-Teiler fahren. Damit wäre DDR5 9000 drin. Wichtig ist, dass das nicht asynchron ist. Weil der Speicherkontroller sonst einige Takte an Wartezeiten einlegen muss und das treibt die Latenzen nach oben.
Der IMC kann afaik gar nicht asynchron zum RAM laufen. Das geht nur zwischen IF und IMC, z.B. 2:3 bei DDR5 6000, MCLK 3000 und FCLK 2000. Ob es zwischen Bus und IMC auch ein 3:1 Verhältnis geben kann, wäre aber eine gute Frage. Damit wären 9000Mhz auf dem RAM wieder interessant, wobei der Großteil der Latenzen wahrscheinlich innerhalb des IOD entsteht, wo die Taktraten eh schon gemaxxt sind.
MiamiNice
2024-12-04, 13:56:21
Der IMC kann afaik gar nicht asynchron zum RAM laufen.
:up:
Es gibt nur den Teiler für den IMC. Und der ist imo nur 1:1 oder /2.
Um den Latenzverlust, durch den geringeren Takt des MCs zu kompensieren, wenn man /2 nutzt, müsste man über 12000er DDR5 verbauen.
Das würde ausschließlich auf einem Asus Board der neueren Generation funktionieren und mit stark selektiertem Ram + miesen Timings. Gibt dann sicherlich eine nette Bandbreite, Spiele dürften davon in der Masse unbeeindruckt sein.
Freestaler
2024-12-04, 14:33:47
Frage bleibt aber für mich: würde mit CUDimm die Latenzen noch weiter sinken können? Effektiv ist egal ob 6000cl20 oder 12000cl40. Das wäre gleich. Also z.b. 6000cl20 möglich? Oder limitiert hier nur der Chip auf Riegel? Verbessert CUDimm die reale Zugriffzeit oder stabilisiert sie nur die hihe schalt Frequenzen?
Der_Korken
2024-12-04, 14:49:15
Es gibt nur den Teiler für den IMC. Und der ist imo nur 1:1 oder /2.
Technisch gesehen sind es aber eigentlich 1:2 und 1:4, denn offensichtlich ist 3200 != 6400, sondern 3200 = 6400/2. Das wirft halt die Frage auf, ob es technisch auch möglich wäre einen 1:3-Modus (bzw. in der aktuellen Zählweise ein "1:1,5"-Modus) anzubieten. Müsste dann natürlich auch erstmal jemand tun.
MiamiNice
2024-12-04, 15:16:40
Frage bleibt aber für mich: würde mit CUDimm die Latenzen noch weiter sinken können? Effektiv ist egal ob 6000cl20 oder 12000cl40. Das wäre gleich. Also z.b. 6000cl20 möglich? Oder limitiert hier nur der Chip auf Riegel? Verbessert CUDimm die reale Zugriffzeit oder stabilisiert sie nur die hihe schalt Frequenzen?
Sind die selben Chips, nur auf dem DIMM ist noch ein extra Taktgeber verbaut, um die hohen Taktraten zu ermöglichen. Das beste was ich bisher gesehen habe, war 6000 MT CL 24. Ich denke nicht, dass 6000 CL20 easy möglich ist mit CUDIMMS. Warum und waran es hapert, kann ich nicht sagen. Aber derzeit scheint das nicht möglich zu sein.
Technisch gesehen sind es aber eigentlich 1:2 und 1:4, denn offensichtlich ist 3200 != 6400, sondern 3200 = 6400/2. Das wirft halt die Frage auf, ob es technisch auch möglich wäre einen 1:3-Modus (bzw. in der aktuellen Zählweise ein "1:1,5"-Modus) anzubieten. Müsste dann natürlich auch erstmal jemand tun.
Ich vermute die Latenzen würden steigen, weil nicht mehr synchron oder "halbsynchron". Hat sicherlich seinen Grund warum man nur 1:1 und /2 einstellen kann.
Exxtreme
2024-12-04, 15:48:03
Warum und waran es hapert, kann ich nicht sagen. Aber derzeit scheint das nicht möglich zu sein.
Leitungslängen. Vom RAM bis zum Speicherkontroller ist ein weiter Weg. Ist der Hauptgrund warum der Cache in der CPU oder sehr nahe an der CPU ist.
fritzlakritz
2024-12-04, 15:51:31
Hat jemand Infos zur Lieferbarkeit des 9800X3D?
Gefühlt wird da was zum Release verkauft und seitdem ist alles weg oder für das doppelte bei ebay zu finden.
Wurde da mal überhaupt nachgeliefert?
Oder kann man erst mit den 12 bzw. 16 Kernern mit einer besseren Verfügbarkeit rechnen?
Exxtreme
2024-12-04, 16:07:13
Nachgeliefert wird bestimmt. Nur brauchen Schiffe etwas länger denn Frachtflugzeuge.
Mortalvision
2024-12-04, 17:20:01
Nö, die Mehrkerner werden erst recht anfangs homöopathisch ausgeliefert.
Mein 9800X3D kam vor knapp zwei Wochen. Und ich hatte am 7.11. um 15:40 bestellt.
Die Nachfrage ist schlicht so groß, dass ich mich ehrlicherweise bis Mitte Januar gedulden würde, wenn ich jetzt erst bestellt hätte.
MiamiNice
2024-12-04, 17:27:41
Leitungslängen. Vom RAM bis zum Speicherkontroller ist ein weiter Weg. Ist der Hauptgrund warum der Cache in der CPU oder sehr nahe an der CPU ist.
Das ist bekannt, ist das wirklich der einzige Grund? Leitungen zu lang um noch tiefer zu kommen? Ich hätte auch eher auf eine Limitierung durch die Chips getippt. Wenn es nur an der Leitungslänge liegt, wird CAMM2 das Problem, imo, lösen.
Tesseract
2024-12-04, 18:18:49
speicherlatenzen hängen von den speicherchip-internals ab, da bringt CAMM quasi nix. wenn der speicherchip X ns braucht um die zellen zu refreshen, die colums "aufzumachen", zurückzuschreiben usw. dann kann das signal vom IMC zum speicher noch so sauber sein, das macht das ganze nicht schneller. mehr spannung hingegen in vielen fällen schon.
Freestaler
2024-12-04, 18:31:31
Also sind CUDimm der Frequenzfestigkeit der Leitungen geschuldet welche vorallem mit separaten Taktgeber stabilisiert wird. Auch die reale Latenz kein Einfluss. Danke. Ps: unter 7ns real kommt man hat seit Jahren nicht mit DDR. Ohne OC sogar nur knapp unter 8ns.
Tesseract
2024-12-04, 19:01:40
in grenzfällen kann man individuell sicher den ein oder anderen cycle an latenz mehr rausquetschen aber fundamental ändert sich nicht was die speicherchips intern limitiert.
Lehdro
2024-12-04, 19:13:27
Du willst im Sweetspot, also 3000 bis 3300 Mhz auf dem MC, die kleinsten Timings die Du einstellen kannst.
Was man so im Netz sieht, ist man mit 7800 1:2 ca. auf dem Niveau von 6200 1:1. Mit 8400 1:2 sollte man definitiv über 6400 liegen. Der Vorteil: Deutlich niedrigere Vsoc möglich, damit kann der IF höher takten (skaliert anders als der IMC/Uclk). Zudem hast du durch den Teiler noch viel Raum für noch höhere Taktraten, richtig interessant wäre zum Beispiel 8800/2200/2200. Das sollte latenztechnisch sogar 6600 1:1 in den Schatten stellen. Buildzoid hatte dazu mal einiges an Ausführungen gebracht. (https://www.youtube.com/watch?v=Xcn_nvWGj7U)
Problem bei den meisten Boards ist halt die Stabilität bei >8000 DDR5. Mit einem 1DPC Board sollte das aber gehen, die richtigen Riegel vorausgesetzt.
Also ich habe meinen 9950x heute verbaut und bin ziemlich begeistert. In Simulation ist das Ding ca. 27% schneller als ein 7950x3d, obwohl ich den auf 120w gedrosselt habe. Auch gibt das BIOS mehr Dinge zum Tweaken her, welche ich erst noch austesten muss. Die Performance vom RAM ist bei gleicher Werte deutlich gestiegen. Einziges Problem: Das Ding wird ziemlich heiß, selbst unter 120w!
Badesalz
2024-12-04, 20:51:32
Problem bei den meisten Boards ist halt die Stabilität bei >8000 DDR5. Mit einem 1DPC Board sollte das aber gehen, die richtigen Riegel vorausgesetzt.Kommt ja bald für alle, der NitroPath :wink:
Mortalvision
2024-12-04, 21:12:55
Ich habe jetzt keine fps angehabt. Aber gegenüber meinem 5800x3d rutscht der neue Prozessor nur so durchs Early Game in Stellaris. Ein halbes Jahr auf fastest in unter einer Minute, deutlich!
10 Sekunden für ein halbes Jahr ;D
Stoppuhr machts möglich.
Kommt ja bald für alle, der NitroPath :wink:
Die 8000 macht wohl jedes Board mit. Die Premium-Bretter machen auch 8200 mt/s, oder gar 8400, allerdings muss man dann die Latenzen zu weit zur Hölle drücken, dass dies keinen Sinn ergibt. Hier ergibt ein höherer BLCK mehr Sinn, da dann z.B. 8200mt/s selbst ohne Anpassung der Timings mehr Performance generieren!
Zossel
2024-12-04, 22:49:54
Wenn ich das ganze Speichertuning hier sehe: würde Zen5 nicht enorm von CU-Dimm profitieren? Da scheinen ja ganz andere Frequenzen drin zu sein. Die Frage ist, ob sich die Latenzen im gleichen Maße verbessern lassen, mein Gefühl aus diesem Thread ist, das Latenzreduktion mehr bringt als Takterhöhung.
DRAM war schon immer scheiße bei den Latenzen, ist scheiße bei den Latenzen und wird immer scheiße bei den Latenzen bleiben.
Zossel
2024-12-04, 22:59:21
Das ist bekannt, ist das wirklich der einzige Grund? Leitungen zu lang um noch tiefer zu kommen? Ich hätte auch eher auf eine Limitierung durch die Chips getippt. Wenn es nur an der Leitungslänge liegt, wird CAMM2 das Problem, imo, lösen.
Nachdem ich rausgefunden wie man hier Bilder hoch lädt kann dir endlich mal reales DRAM routing zeigen um mir nicht weiter deine kruden Thesen hier anhören zu müssen.
Das ist dieses Board: https://www.kicad.org/made-with-kicad/ciaa-project-acc/
Lehdro
2024-12-05, 00:29:43
Da kommt wohl noch einmal was nach, mal schauen ob sich das auch in anderen Tests so bewahrheitet:
https://pbs.twimg.com/media/Gd92gRKWAAAG8Ln?format=jpg&name=4096x4096
Video dazu:
H89xHs9eLmI
Badesalz
2024-12-05, 06:30:20
Wir haben ja noch, außer dem bisherigen Ausbügeln des angedachten seit X3D, noch die geklauten "8ns" die wir bitte zurückhaben wollen :wink:
Aber 1202b ist das dann imho noch nicht.
MiamiNice
2024-12-05, 09:47:18
Nachdem ich rausgefunden wie man hier Bilder hoch lädt kann dir endlich mal reales DRAM routing zeigen um mir nicht weiter deine kruden Thesen hier anhören zu müssen.
Das ist dieses Board: https://www.kicad.org/made-with-kicad/ciaa-project-acc/
Die Bilder kenne ich. Nicht speziell diese, aber andere vom DRAM Routing. Ich habe keine kruden Thesen gepostet, das war jemand anders.
Du musst echt an Deiner Lesekompetenz feilen mein Bester :D
Nightspider
2024-12-05, 10:41:23
Da kommt wohl noch einmal was nach, mal schauen ob sich das auch in anderen Tests so bewahrheitet:
https://pbs.twimg.com/media/Gd92gRKWAAAG8Ln?format=jpg&name=4096x4096
Video dazu:
https://youtu.be/H89xHs9eLmI
Die 9,52% besseren 1%lows bei Star Citizen würde ich echt gerne mitnehmen.
Ist bekannt was genau das Agesa Update 1.2.0.2b ändert?
Badesalz
2024-12-05, 10:52:10
Die 9,52% besseren 1%lows bei Star Citizen würde ich echt gerne mitnehmen.Miami wird wohl endgültig durchdrehen :ulol:
MiamiNice
2024-12-05, 11:04:29
Die 9,52% besseren 1%lows bei Star Citizen würde ich echt gerne mitnehmen.
Ist bekannt was genau das Agesa Update 1.2.0.2b ändert?
Es wird vieles am Ram gemacht, z.b. soll das Training max. 30s dauern mit 1.2.0.2b. Denke durch das bessere Ram handling kommen auch die 10 Prozent besseren lows in SC. Genaues Patchlog habe ich bisher nicht gefunden.
I also am hoping for 1.2.0.2b with "latency killer" like MSI released... Fixing the current 8-10ns delay in 1.2.0.2a for 9000 series cpu's.
Wäre nice
Ich schaue aktuell täglich nach dem Bios. Asus hat leider noch keine Beta auf der Seite. Für MSI Boards gibt es scheinbar schon was.
Darkearth27
2024-12-05, 11:04:45
Ist bekannt was genau das Agesa Update 1.2.0.2b ändert?
Es gibt eine neue Option bei Asus (womit der Test gemacht wurde).
https://cdn.discordapp.com/attachments/578340164187979796/1313415093383331880/image.png?ex=6752afa0&is=67515e20&hm=d741a32a5aa06f9dd40526be718fb504e5dd1232e6b1228c3d99e36285aa1f38&
Was genau dahinter steckt ist unklar, jedenfalls ist es nicht so wie bei MSI mit dem "Latency Killer" Modus, denn dieser hebt die tREFI an iirc.
Die Option "Legacy" ist die Latenz senkende, lvl 1 und lvl 2 heben den Durchsatz vom L3 etwas an, verschlechtern aber die Latenzen wieder.
Also für alle Ryzen 9000 Besitzer, die sich an das BETA Bios von ASUS herantrauen, sollte der "Legacy" Mode der Beste sein.
Bilder aus dem ZT Discord
Level 2
https://media.discordapp.net/attachments/750797327874129933/1313478619129053224/8200-level-2-png.png?ex=6752420a&is=6750f08a&hm=357bc523f0fbafccb13ca29e8e915878dc2ed5e0e7758d2af7ed0631bf7acabe&
Legacy
https://media.discordapp.net/attachments/750797327874129933/1313478637445578802/8200-c32-legacy-png.png?ex=6752420e&is=6750f08e&hm=e2d5f1a0630f33ebf2dce114228e51642d7d1ce85aec85cb545d57dcda18045b&
Ob andere Hersteller sowas ebenfalls bieten, wird sich zeigen müssen.
Probleme gibt es aber auch hier wieder einige.
So wird bei dem 1202B Update von einigen berichtet, dass die bislang stabilen RAM Settings nicht mehr booten wollen - sogar einfache Expo Profile nicht (ob das daran liegt, das alte Profile geladen wurden weiß ich nicht, wird aber eh davon abgeraten sowas zu tun).
Auswirkungen auf die 7000er hat diese Option übrigens keine (selbst getestet).
@Miami
Bezüglich BETA BIOS:
https://docs.google.com/spreadsheets/d/12zg6yT_H7H-W1voyw1ZoIrj0GSE7WI4Ug-uLlv-Asa8/edit?gid=937453961#gid=937453961
Badesalz
2024-12-05, 11:19:38
"I also am hoping for 1.2.0.2b with "latency killer" like MSI released... Fixing the current 8-10ns delay in 1.2.0.2a for 9000 series cpu's."
Der trade-off scheinen wohl zurückgewonnene um die 6ns zu sein. Die 2-3ns müssen wir wohl als verloren und geopfert sehen :tongue: Aber ok. WÄRE trotzdem :up:
PS:
Der Spoiler enthält keine Bilder(links)
Darkearth27
2024-12-05, 11:22:28
Hmm bei mir werden sie angezeigt. Ich schau mal, Moment.
Legacy Mode
https://media.discordapp.net/attachments/750797327874129933/1313478637445578802/8200-c32-legacy-png.png?ex=6752420e&is=6750f08e&hm=e2d5f1a0630f33ebf2dce114228e51642d7d1ce85aec85cb545d57dcda18045b&
Level 2 Mode
https://media.discordapp.net/attachments/750797327874129933/1313478619129053224/8200-level-2-png.png?ex=6752420a&is=6750f08a&hm=357bc523f0fbafccb13ca29e8e915878dc2ed5e0e7758d2af7ed0631bf7acabe&
Geht es nun wenn ich es hier separat in einen Spoiler packe?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.