Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 9000 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14]

Dorn
2025-03-11, 15:43:53
Jo Reviews seit 9 Minuten da und so ruhig hier :).Alle schauen nach der Verfügbarkeit von Grafikkarten. :biggrin:

Birdman
2025-03-11, 15:44:34
Ich gehe ja davon aus dass AMD beim 9800X3 absichtlich die Taktfrequenz etwas niedriger als nötig angesetzt hat, um den 9950X3D bei Games weniger "schlecht" aussehen zu lassen.
Die nun fast 10% mehr Taktfrequenz bügeln halt durchaus die eine oder andere Scheduling Unzulänglichkeit aus.

Lawmachine79
2025-03-11, 15:52:54
Die 500Mhz kannste bestimmt vergessen.

Lass es 200 bis 300 sein.
Warum? Die "Papierboostclocks" sind 5,2 vs. 5,7. Und der 9950X3D sollte besser gebinned sein. Und er hat eine TDP von 170W vs. 120W. Die TDP sinkt ja nicht, wenn man einen CCD deaktiviert.

Nightspider
2025-03-11, 15:53:58
Die 5,7 gelten doch nur für das CCD ohne X3D oder vielleicht für SC Last, wenn ich mich nicht irre.

Der 9800X3D läuft aber auch nicht am Limit und hat wahrscheinlich mehr Spielraum nach oben.

Lawmachine79
2025-03-11, 15:55:20
Der 9800X3D läuft aber auch nicht am Limit und hat wahrscheinlich mehr Spielraum nach oben.
Ja, aber für jeden, der nicht die Brechstange auspackt, ist das Limit PBO/CO. Und da sind maximal 200 Mhz drin. Und wenn ich die auch im 9950X3D kriege, habe ich wieder 500 Vorsprung.

Nightspider
2025-03-11, 15:56:57
Der Ryzen 9 7950X3D hatte auch 5,7Ghz Boosttakt. Aber eben nicht für das X3D CCD.

Nightspider
2025-03-11, 15:59:51
Boar ich find gerade keinen Test wo mal die realen Taktraten des V-Cache CCDs sichtbar sind unter MultiCore Last.

Ist das so schwer? Oder bin ich nur blind.

Raff schau mal deinen Kollegen über die Schulter bitte.

The_Invisible
2025-03-11, 16:04:11
Also wenn ich 200 Euro mehr 500 Mhz mehr Takt kriege, mache ich das. 98X3D gebraucht verkaufen, 9950X3D kaufen, 2. CCD deaktivieren, CO -20, +200 Mhz. Kein Gefummel mit Gamebar, nur das geile Gefummel.

Hier ist ein alter Artikel, wo diese Idee mal für den 7950X3D mit deaktiviertem zweiten CCD umgesetzt wurde. Da sind es aber nur 250 Mhz Unterschied, weil "damals" die Taktdifferenz zwischen dem X3D-CCD und dem anderen CCD größer war.
https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/24.html

Naja verschwendete Ressourcen aus meiner Sicht.

Hätte man lieber einen 9850x3d machen sollen mit gebinnten 3dcache ccd. Aber hoffe auch das die nächste Gen dann endlich nativen >=12Kerner bietet.

Coroner
2025-03-11, 16:07:50
Mich würde interessieren, wieviel Boosttakt man aus dem X3D-CCD quetschen kann, wenn man den anderen CCD deaktiviert. Dann dürfte ja massiv TDP-Reserve da sein. Da sollten doch 5,9 Ghz drin sein mit PBO.

Ich frage mich ob beim 9950X3D das cache-CCD solo überhaupt die komplette TDP/PPT abgreifen kann wenn man das frequency-CCD deaktiviert.

Ich habe das letztens mit meinem 7950X3D getestet. Wenn ich Cinebench R23 anwerfe so zieht das cache-CCD solo maximal etwas über 86 Watt bei ~4875 MHz boost-Takt (einzelne Kerne gehen ganz kurz mal auf 4890 MHz hoch) und ~77 °C Temperatur (Tctl/Tdie laut HWInfo).
Das frequency-CCD zieht solo ~147 W und wird dabei etwas über 87 °C heiß, wie hoch der boost ist habe ich gerade nicht mehr im Kopf.
Mit allen 16 Kernen habe ich mit Cinebench denselben Verbrauch wie mit dem frequency-CCD allein und der boost-Takt ist auf allen Kernen derselbe wie beim cache-CCD-only-Test (~4875 MHz) während die Temperatur ~77 °C beträgt. Das cache-CCD kann solo nicht die volle TDP/PPT ausnutzen.

Wäre cool wenn das beim 9950X3D anders wäre :smile:.

00-Schneider
2025-03-11, 16:08:08
Der 9800X3D ist über mehrere Games betrachtet quasi gleich schnell, säuft aber etwas weniger. Wenn man nur zockt, reicht also der 8-Kerner.

QhGsQvDaEPo

37f2p9hhrtk

Lehdro
2025-03-11, 16:08:18
9800X3D sagt: Wieso haste mich dann ausgebaut?
Weil immer mehr geht :)

Die 500Mhz kannste bestimmt vergessen.

Lass es 200 bis 300 sein.
Du hast schon 300 ootb + das Potenzial weiterer 200 MHz.

9800X3D: 5225 MHz + 200 MHz = 5425 MHz
9950X3D: 5550 MHz + 200 MHz = 5750 MHz

Lawmachine79
2025-03-11, 16:10:43
Der Ryzen 9 7950X3D hatte auch 5,7Ghz Boosttakt. Aber eben nicht für das X3D CCD.
Und die Frage ist, ob diese Feststellung sich auch auf den 9950X3D übertragen lässt (also die Feststellung, dass der Boosttakt für den X3D-CCD geringer ist und wenn ja, wieviel?)



9800X3D: 5225 MHz + 200 MHz = 5425 MHz
9950X3D: 5550 MHz + 200 MHz = 5750 MHz
Woher nimmst Du die 5550?

Lehdro
2025-03-11, 16:12:59
Und die Frage ist, ob diese Feststellung sich auch auf den 9950X3D übertragen lässt (also die Feststellung, dass der Boosttakt für den X3D-CCD geringer ist und wenn ja, wieviel?)


Woher nimmst Du die 5550?
Computerbase: (https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9950x3d-test.91531/)
Beim 9950X3D erhält der CCD mit zusätzlichem L3-Cache einen Taktabschlag von 200 MHz, es liegen also maximal 5,55 GHz an.
Alle anderen Reviewer sind unfähig das zu kommunizieren und fabulieren nur von einem "Taktabschlag".

Nightspider
2025-03-11, 16:20:12
Du hast schon 300 ootb + das Potenzial weiterer 200 MHz.

9800X3D: 5225 MHz + 200 MHz = 5425 MHz
9950X3D: 5550 MHz + 200 MHz = 5750 MHz

Wir reden aber nicht von OC vs Stock weil das einfach keinen Sinn macht.


Alle anderen Reviewer sind unfähig das zu kommunizieren und fabulieren nur von einem "Taktabschlag".

Echt traurig das die Reviewer nichtmal diesen wichtigen Fakt in jedem Test wenigstens ein mal im Artikel / Video stehen haben.

Raff kann da seine Kollegen bitte auch mal anscheißen von uns.

Mr. Lolman
2025-03-11, 16:33:09
Das Ding versagt in zu vielen Spielen, um mich geil zu machen, das Gefummel mit der Game-Bar ist unschön. Insofern:



+1

... und bis dahin Spaß mit einem aufgedonnerten 9800X3D haben. :)

MfG
Raff


Der 9950X3D braucht bei euch im Idle mehr als im GPU-Limit? :freak:

Lehdro
2025-03-11, 16:38:31
Der 9950X3D braucht bei euch im Idle mehr als im GPU-Limit? :freak:
Idle = Gesamtsystem
GPU Limit = CPU only

Lawmachine79
2025-03-11, 16:40:01
Wir reden aber nicht von OC vs Stock weil das einfach keinen Sinn macht.

Der Vergleich passt doch, ist OC vs. OC.


Echt traurig das die Reviewer nichtmal diesen wichtigen Fakt in jedem Test wenigstens ein mal im Artikel / Video stehen haben.

Raff kann da seine Kollegen bitte auch mal anscheißen von uns.
Guter Hinweis, dass es nur 5550 sind.

Computerbase: (https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9950x3d-test.91531/)

Alle anderen Reviewer sind unfähig das zu kommunizieren und fabulieren nur von einem "Taktabschlag".
Thx!

Lehdro
2025-03-11, 16:42:51
Wir reden aber nicht von OC vs Stock weil das einfach keinen Sinn macht.

Stimmt. Allerdings sind die CCDs des 9950X3D definitiv besser gebinned. Habe jetzt schon von mehreren 9800X3Ds gehört die die +200 MHz nicht schaffen. Bei einem 9950X3D hast du aber garantiert die 5,55 GHz drin + das Restpotenzial. Wenn ich sehe was die +200 MHz teilweise ausmachen, kann sich das schon "lohnen". Das ist dann dieselbe Diskussion wie 13900K/KS/14900K/KS - nur dass du da definitiv weniger Uplift garantiert hattest :wink:

Wie gesagt: Es geht um das letzte bisschen Performance, da hast du niemals ein Kosten/Nutzen Verhältnis was rational begründbar wäre.

Nightspider
2025-03-11, 19:31:52
Der Vergleich passt doch, ist OC vs. OC.

Dann hast du nicht richtig gelesen, weil Lehdro von ootb +300 +200 durch OC = 500 mehr als beim 9800X3D sprach, der 9800X3D meist aber auch grob 200 Mhz schaffen sollte.

Stimmt. Allerdings sind die CCDs des 9950X3D definitiv besser gebinned.

Das bessere Binning ermöglicht ja erst die zusätzlichen ~225 Mhz, wodurch der Vorteil schon aufgebraucht sein dürfte und es bedeutet nicht zwangsläufig das darüber hinaus noch mehr Luft ist als beim 9800X3D. :)

Kann natürlich sein das mit Direct Die WaKü / Kompressor noch mehr herauszuholen ist aber da müssen wir die Tests abwarten.

Aber es gab auch 9800X3Ds die +300-400 geschafft haben mit guter Kühlung.

Badesalz
2025-03-11, 20:39:26
Ganz schöne Saufziege gegenüber dem 9800X3D, nur fürs Zocken... Und mit dem alleraktuellste ;) 285k BIOS beim bauer lässt der sich auch nicht gleich komplett nass machen (bei weniger teils spürbar weniger Watts).

ou ou. Gut, daß es den 9800X3D gibt :wink:

Lawmachine79
2025-03-11, 23:49:25
285k
Ach bitte...

Nightspider
2025-03-12, 11:48:28
Hat man bei 2 CCDs dann eigentlich getrennte OC Einstellungen für jedes CCD ?

Kann man also mit OC das V-Cache CCD auf den gleichen Takt bringen wie das Non-V-Cache CCD oder gibts da irgendwelche Beschränkungen?

Und gibts noch immer kein Tester, der mal das OC Limit vom gebinnten X3D Chiplet getestet hat? Das hätte ich als erstes gemacht. ^^

Der_Korken
2025-03-12, 12:03:54
Hat man bei 2 CCDs dann eigentlich getrennte OC Einstellungen für jedes CCD ?

Kann man also mit OC das V-Cache CCD auf den gleichen Takt bringen wie das Non-V-Cache CCD oder gibts da irgendwelche Beschränkungen?

Und gibts noch immer kein Tester, der mal das OC Limit vom gebinnten X3D Chiplet getestet hat? Das hätte ich als erstes gemacht. ^^

Bei Ryzen nutzt man sowieso einen CO-Offset, den man pro Kern einstellen kann. Einzig den PBO-Takt-Offset kann man afaik nur global einstellen, d.h. wenn auf dem zweiten CCD die +200Mhz nicht stabil sind (weil das dann 5,95Ghz entspricht und das zu viel für Zen 5 ist), kannst du auf dem ersten CCD auch keine +200Mhz fahren, auch wenn sie laufen würden.

SentinelBorg
2025-03-12, 13:22:09
Weiss jemand die Launch Uhrzeit bei uns?

Edit: Laut Digitec Schweiz 15 Uhr

Nightspider
2025-03-12, 14:36:23
Bei dem Test hier sieht man zumindest mal die realen Taktraten aller Kerne bei starker Gaming Last:

https://youtu.be/gmI-yFw_LTA?t=594

Bei starker CPU Last @stock ~5400 bis 5450 Mhz und bei etwas leichterer Auslastung in anderen Spielen teilweise 5500 bis 5550 Mhz.

Lehdro
2025-03-12, 15:48:42
Hat man bei 2 CCDs dann eigentlich getrennte OC Einstellungen für jedes CCD ?

Kann man also mit OC das V-Cache CCD auf den gleichen Takt bringen wie das Non-V-Cache CCD oder gibts da irgendwelche Beschränkungen?
Du kannst das bei AMD alles haben in dem du die CPU manuell, also ganz klassisch per Multiplikator übertaktest. Da fällt aber das feingranulare rumgebooste weg und eventuell einige andere Sachen wie Energiesparzustände.

Das bessere Binning ermöglicht ja erst die zusätzlichen ~225 Mhz, wodurch der Vorteil schon aufgebraucht sein dürfte und es bedeutet nicht zwangsläufig das darüber hinaus noch mehr Luft ist als beim 9800X3D. :)
[...]
Aber es gab auch 9800X3Ds die +300-400 geschafft haben mit guter Kühlung.
Von den Voltages die so durchs Netz geistern, rennt das V-Cache CCD vom 9950X3D mit in etwa der gleichen Spannung ootb, wie die meisten 9800X3D mit +200 Offset - da sind schon mal >100 MHz Unterschied und vergleichbare Vcore auf der Habenseite des 9950X3D. Das Binning ist eben das interessante, weil du unter 1.30V bleiben willst, idealerweise möglichst weit unter 1.30V wenn du Skalar x10 benutzt, um den Boost auch ohne Langzeitfolgen halten zu können. Im Endeffekt, von normaler Skalierung ausgehend, sollten beim 9950X3D mit 1.30V im Schnitt ca. 150-200 MHz mehr möglich sein, als beim 9800X3D. Da wären wir dann schon bei 5.6 GHz - ohne Spannungskeule.

Um das mal in Zahlen zu packen, ohne CO:

9800X3D + 200 MHz = 5425 MHz @ 1.32V Stock
9950X3D (CCD0) @ 5400 MHz @ 1.27V Stock
9950X3D (CCD0) @ 5550 MHz @ 1.32V Stock

Jetzt kommt da noch CO drauf (oder besser: weg), gehen wir mal konservativ von -20 aus:
9800X3D + 200 MHz + CO -20 = 5425 MHz @ 1.28V
9950X3D (CCD0) @ 5400 MHz + CO -20 @ 1.18V
9950X3D (CCD0) @ 5550 MHz + CO -20 @ 1.27V
9950X3D (CCD0) @ 5600 MHz + CO -20 @ 1.30V

Das sind jetzt als Beispiel die groben Werte vom Skatterbencher.

VooDoo7mx
2025-03-12, 19:36:36
Und in AMDs absoluter Weisheit gibt es für Notebooks nur den 16 Kerner mit 3D V Cache. :facepalm:
Da sind echte Füchse am Werk...

Auf dem DIY PC kann man den wohl schon sehr deutllichen Mehrverbrauch wohl locker wegkühlen aber im (Gaming-)Notebook wo jedes Watt praktisch auch mehr Laustärke bedeutet ist es kompletter Mist die vielen unnützen Saufkerne immer mitziehen zu müssen.

Da wird echt der Arrow Lake schon wieder attraktiver...

Der_Korken
2025-03-12, 22:51:09
Für AMD gibt es doch nichts besseres als wenn die Leute sich viel zu viele Kerne kaufen, die sie gar nicht brauchen, aber nach ein paar Jahren trotzdem wieder aufrüsten, weil die nächste Gen durch IPC-Verbesserungen und mehr Cache in allen selbst genutzten Workloads besser läuft - selbst mit deutlich weniger Kernen.

Nightspider
2025-03-12, 22:55:55
Jepp. ^^

Für Zen6Ghz 12C wird dann wieder schön aufgerüstet. ^^

Und nicht lang danach steht dann schon langsam die Playstation 6 an die dann vielleicht auch 12 Kerne haben wird.
8 Kerne haben wir ja schon seit Zen1 (2017). Unreal Engine 5 und Co. dürfen ruhig mit 12 monolithischen BigCores erschlagen werden. ^^

Lawmachine79
2025-03-13, 00:37:02
Und in AMDs absoluter Weisheit gibt es für Notebooks nur den 16 Kerner mit 3D V Cache. :facepalm:
Da sind echte Füchse am Werk...

Auf dem DIY PC kann man den wohl schon sehr deutllichen Mehrverbrauch wohl locker wegkühlen aber im (Gaming-)Notebook wo jedes Watt praktisch auch mehr Laustärke bedeutet ist es kompletter Mist die vielen unnützen Saufkerne immer mitziehen zu müssen.

Da wird echt der Arrow Lake schon wieder attraktiver...
Da könnte ich auch kotzen. Einfach den HX370 nehmen und drunter mit dem X3D-Cache. Und der Gipfel des Schwachsinns ist, dass der 9955HX3D dann nicht einmal USB4 unterstützt und Thunderbolt bei AMD nicht drin ist. Man halt also einen 9955HX3D, die schnellste Laptop CPU, und man schließt sie dann an eine Docking Station per USB-C mit Displayport Alt-Mode und Power Delivery an, im Jahr 2025.

x-force
2025-03-13, 02:34:39
Auf dem DIY PC kann man den wohl schon sehr deutllichen Mehrverbrauch wohl locker wegkühlen aber im (Gaming-)Notebook wo jedes Watt praktisch auch mehr Laustärke bedeutet ist es kompletter Mist die vielen unnützen Saufkerne immer mitziehen zu müssen.

der unterschied im idle zwischen 6 und 16 kernen, also 7600x3d und 7950x3d beträgt laut pcgh ein watt, das möglicherweise auch noch aufgerundet ist. ;)
offcore zieht, aber der ist bei allen gleich und im mobilen bereich top.

Badesalz
2025-03-13, 09:03:29
Und nicht lang danach steht dann schon langsam die Playstation 6 an die dann vielleicht auch 12 Kerne haben wird.
8 Kerne haben wir ja schon seit Zen1 (2017). Unreal Engine 5 und Co. dürfen ruhig mit 12 monolithischen BigCores erschlagen werden. ^^Das dauert bis UE 6.5 bis sie davon etwas hat. Wenn denn.

PS:
Man rechnet immernoch in Cores und nicht in Threads? Machst du SMT immer aus?

Armaq
2025-03-13, 10:29:49
Also ich seh den 9950X3D kritisch. Ich wüsste nicht, warum man den jetzt ggü. den 9800X3D nehmen sollte und vom 7950 kommend kann man zwar höhere Anwendungsleistung sehen, aber relevant ist sie nicht. Wirkt ein wenig wie so ein Benchmark-Launch.

Exxtreme
2025-03-13, 10:42:55
Also ich seh den 9950X3D kritisch. Ich wüsste nicht, warum man den jetzt ggü. den 9800X3D nehmen sollte und vom 7950 kommend kann man zwar höhere Anwendungsleistung sehen, aber relevant ist sie nicht. Wirkt ein wenig wie so ein Benchmark-Launch.
Kommt drauf an welche Ansprüche man hat. Braucht man viel mehr MT-Leistung dann ist diese CPU sehr gut.

dildo4u
2025-03-13, 10:45:28
Das Ding kann bis zu 50% schneller sein kostet aber 700 statt 500$ klingt für mich ok, eher nimmt AMD die reinen Gamer aus.

ChaosTM
2025-03-13, 10:52:52
Der Aufpreis vom 9800X3D ist diesmal recht gemäßigt. Gäbe es zb. beim FS2024 oder anderen Spielen eine signifikante Leistungssteigerung, würde ich es mir überlegen.
Hab aber diesbezüglich bisher nur einen FS2024 BM gesehen und da war der Gewinn mit 5% sehr überschaubar.
Mehr als 8/16 wird kaum wo vernünftig unterstützt. Höchstens bei Aufbauspielen und das ist nicht mein Genre.

Palpatin
2025-03-13, 11:22:21
Gibt es irgendwo ein Review zum 9900X3D?

dildo4u
2025-03-13, 11:33:34
Gibt es irgendwo ein Review zum 9900X3D?

https://www.kitguru.net/components/cpu/leo-waldock/amd-ryzen-9-9900x3d-review

Nightspider
2025-03-13, 11:35:48
Man rechnet immernoch in Cores und nicht in Threads? Machst du SMT immer aus?

:confused:

Ein Zen6 CCD soll 12 Kerne (24 Threads) bekommen.

latiose88
2025-03-13, 12:09:06
Ja genau so ist es. Das wird schon stimmen weil was sonst soll AMD noch verbessern. Aber selbst wenn das nun teilweise stimmt, spätestens ab Zen 7 wird es mehr Kerne ganz sicher geben.

Badesalz
2025-03-13, 13:10:03
(nicht richtig gelesen)

Ja... Der 9800X3D bollert dermaßen alles weg, daß gleich 80% der Modelle in den Charts (Leo) daheim keinen Sinn ergeben :usweet: Da reiht sich der 9950X3D jetzt auch mit ein... Wer die Threads für seine Spielereien braucht, braucht eher selten auch X3D dabei.

@Nightspider
:uclap:

Lawmachine79
2025-03-13, 14:28:46
(nicht richtig gelesen)

Ja... Der 9800X3D bollert dermaßen alles weg, daß gleich 80% der Modelle in den Charts (Leo) daheim keinen Sinn ergeben :usweet: Da reiht sich der 9950X3D jetzt auch mit ein... Wer die Threads für seine Spielereien braucht, braucht eher selten auch X3D dabei.

@Nightspider
:uclap:
Wer wirklich absolut kompromisslos das Maximale rauskratzen will, ist auch mit dem 9950X3D besser bedient. "Game Mode" an im Bios, OC, fertig.

Twodee
2025-03-13, 16:04:17
Wer wirklich absolut kompromisslos das Maximale rauskratzen will, ist auch mit dem 9950X3D besser bedient. "Game Mode" an im Bios, OC, fertig.
Bei mir ist das mit 7950X3D tatsächlich so:
Mo-Fr: Bios Profile 1 - CCD0+CCD1
Fr-So: Bios Profile 2 - CCD0 only (5250MHz@90Watt aber mit SMT) - damit liegt man leicht oberhalb eines 7800X3D

Armaq
2025-03-13, 17:10:12
Bei mir ist das mit 7950X3D tatsächlich so:
Mo-Fr: Bios Profile 1 - CCD0+CCD1
Fr-So: Bios Profile 2 - CCD0 only (5250MHz@90Watt aber mit SMT) - damit liegt man leicht oberhalb eines 7800X3D
Das ist einfach nur die Kühlung die du optimieren musst. Den CCD abschalten ist unnötig. Im Benchmark Thread kannst du sehen, dass mein 7950X3D die 52xx Mhz konsequent auch in 20 Läufen hält und der CCD 1 ist weiterhin an.

Wo gibts 50% mehr vom 9950x3d zum 7950x3d? Ich habe mir einige Tests angesehen und die Ausreißer waren 30%, sonst um die 20% oder auch mal weniger. Ich find 20% völlig iO, aber das reicht imho nicht für ein Upgrade.

Radeonfreak
2025-03-13, 17:26:24
dass mein 7950X3D die 52xx Mhz konsequent auch in 20 Läufen hält und der CCD 1 ist weiterhin an.

+1

Co-20 auf allen 3d Kernen.

Twodee
2025-03-13, 17:38:21
Das ist einfach nur die Kühlung die du optimieren musst. Den CCD abschalten ist unnötig. Im Benchmark Thread kannst du sehen, dass mein 7950X3D die 52xx Mhz konsequent auch in 20 Läufen hält und der CCD 1 ist weiterhin an.

Kühlungsproblem habe ich nicht, liegt bei max 75°C im CCD0 bei 5.25Ghz.
Es gibt so ein paar Kandidaten die laufen ohne CCD1 einfach besser, und auf das Gefummel mit der Gamebar etc. habe ich keine Lust.

Twodee
2025-03-13, 17:39:01
+1

Co-20 auf allen 3d Kernen.

ist doch selbstverständlich.

Nightspider
2025-03-13, 18:39:47
Wo gibts 50% mehr vom 9950x3d zum 7950x3d?

Escape from Tarkov profitiert extrem von Zen5:

https://youtu.be/nDXE05RnepI?t=453

Ist aber auch das einzige mir bekannte Spiel was teilweise 50% bei den 0.1% lows zeigt.

Matrix316
2025-03-13, 18:47:45
9xCpggJXQ2Q

Radeonfreak
2025-03-13, 19:32:23
Escape from Tarkov profitiert extrem von Zen5:

https://youtu.be/nDXE05RnepI?t=453

Ist aber auch das einzige mir bekannte Spiel was teilweise 50% bei den 0.1% lows zeigt.

Das spricht entweder für eine Bananensoftware oder der Tester hat was versaut. 50% gibt die Hardware nicht her.

Nightspider
2025-03-13, 19:50:55
Tja woran es liegt kann ich auch nicht sagen.
Vielleicht hat Zen5 ein Bottleneck bei dem Spiel gelöst.
Aber es gibt keine andere CPU die an diese Leistung herankommt.

Extreme Ausreißer gab es aber schon immer mal hin und wieder.

Der Tester hat ziemlich viel Ahnung und den ganzen Raum voller Hardware.
Da auch andere Tarkov Spieler begeistert sind von Zen5 X3D scheint es am Spiel zu liegen.

Armaq
2025-03-13, 19:55:35
Escape from Tarkov profitiert extrem von Zen5:

https://youtu.be/nDXE05RnepI?t=453

Ist aber auch das einzige mir bekannte Spiel was teilweise 50% bei den 0.1% lows zeigt.
Ja, Ausnahmen gibt es.

Bei der PCGH ist Baldur's Gate auch krass bei min fps und liegt bei 36% bzw. FS24 mit 80% bei min fps. Das ist schon ein krasses Ergebnis und wer FS spielt muss sich die CPU quasi kaufen, denn unter 30 zu 50 ist einfach geil.

Hier finde ich bspw. Igors Herangehensweise sehr gut, auch wenn es weniger spektakuläre Balken gibt. Bei Igor sind aber bspw. die Frametimes extrem ähnlich bei 7950 zu 9950 in fast allem Spielen, was ich auch irgendwie komisch finde und vermute dass das CCD Scheduling manchmal nicht klappt (was ja auch unisono berichtet wird). Deshalb ist der 9800x3D bei der Frametime Konsistenz auch am besten. Damit bleibt also der 9800x3D die Option, außer ich hab ein paar ganz spezifische Lieblinge wie FS24 - das ist ja auch ne komplette Community.

Ich kümmere mich da übrigens weniger drum und schaue nicht nach ob jetzt der richtige CCD an ist. Leistung ist genug da.

Edit: Bei Igor kommt der 9950x3D auch in der Gesamtbetrachtung Effizienz besser weg als bei anderen und wahrscheinlich hat er auch recht damit. Mist, jetzt find ich den 9950x3D besser :D

Badesalz
2025-03-13, 20:08:43
Wer wirklich absolut kompromisslos das Maximale rauskratzen will, Ah komm...

Escape from Tarkov profitiert extrem von Zen5:
Total War sieht auch aus als wenn der Rest der PArkourteilnehmer von 2010 wäre.

Auch Intel hat aber seine paar Cherrys :usweet:

Badesalz
2025-03-14, 07:36:51
Die minFPS in Starfield zwischen dem 7800X3D und 9800X3D, hat das schon jemand zu erklären versucht? :freak: Das ist doch noch irgendsoein Microcode-Fail oder?
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/65699-16-superschnelle-kerne-der-amd-ryzen-9-9950x3d-im-test.html?start=8

Wobei das nicht das ist was z.B. CB in 1% gemessen hat. Schon hölle manchmal wer was wie misst. Zu schnallen wer jetzt nah an der Realität misst ist garnicht so einfach herauszufinden. Daher sag ich ja immer:
Lasst sie messen, aber ein gutes Forum mit ehrlichen Leuten ist immernoch die endgültig bessere Benchwiese.

Badesalz
2025-03-14, 11:04:49
9800X3D auf RAM-Steroiden :usweet:

https://www.hardwareluxx.de/community/threads/ddr5-6000cl26-2x32gb-der-neue-g-skill-ultra-low-latency-im-test.1364864/

Armaq
2025-03-14, 11:32:50
Die minFPS in Starfield zwischen dem 7800X3D und 9800X3D, hat das schon jemand zu erklären versucht? :freak: Das ist doch noch irgendsoein Microcode-Fail oder?
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/65699-16-superschnelle-kerne-der-amd-ryzen-9-9950x3d-im-test.html?start=8

Wobei das nicht das ist was z.B. CB in 1% gemessen hat. Schon hölle manchmal wer was wie misst. Zu schnallen wer jetzt nah an der Realität misst ist garnicht so einfach herauszufinden. Daher sag ich ja immer:
Lasst sie messen, aber ein gutes Forum mit ehrlichen Leuten ist immernoch die endgültig bessere Benchwiese.

Das Problem ist imho das sie keine Zeit haben Ausreißer zu untersuchen. Es gibt eigentlich jedes Mal Einzelergebnisse die fragwürdig sind.

MiamiNice
2025-03-14, 13:25:14
9800X3D auf RAM-Steroiden :usweet:

https://www.hardwareluxx.de/community/threads/ddr5-6000cl26-2x32gb-der-neue-g-skill-ultra-low-latency-im-test.1364864/

Danke für den Link Bademeister, ist geordert ;)

PHuV
2025-03-14, 13:44:11
Was mich wundert, daß der 9900X3D in den Spielen trotz vermeidlich höherem Takt dem 9800X3D unterliegt:
https://www.kitguru.net/components/cpu/leo-waldock/amd-ryzen-9-9900x3d-review/3/

MiamiNice
2025-03-14, 14:19:29
Dat Ding hat 2 CCDs. Das ist quasi der CPU, den man auf kein Fall kaufen mag weil nur 6 Kerne pro CCD. Entweder den ganz dicken 3D mit 8 Cores pro CCD und zum zoggen den non 3d CCD ausschalten oder 98003D. 99003D ist für Leute ohne Plan, bzw. non Gamer.

Lawmachine79
2025-03-14, 14:33:22
Dat Ding hat 2 CCDs. Das ist quasi der CPU, den man auf kein Fall kaufen mag weil nur 6 Kerne pro CCD. Entweder den ganz dicken 3D mit 8 Cores pro CCD und zum zoggen den non 3d CCD ausschalten oder 98003D. 99003D ist für Leute ohne Plan, bzw. non Gamer.
Für Leute, die nur bis Kartoffel zählen können und nicht bis 8.

00-Schneider
2025-03-14, 15:46:01
Der 9900X3D ist eine komplett sinnlose CPU aus Gamingsicht.

ChaosTM
2025-03-14, 16:23:39
Jo, der 9900X3D ist völlig sinnfrei für Gamer. Da hast dann einen 9600X3D

Ich hatte gehofft, dass der neue Flugsimulator einen Nutzen aus mehr "echten" Kernen (9950X3D) ziehen könnte, tut er aber nicht.
Vielleicht in 2 Jahren - der 7800X3D bleibt.

MiamiNice
2025-03-14, 17:46:26
Da müsste imo zuerst ein 3d auf den 2. ccd, damit das auch geil wird.

Badesalz
2025-03-14, 17:53:39
Danke für den Link Bademeister, ist geordert ;)Keine Ahnung warum du so einen nichtssagenden Nick hast. Zu dir würde eigentlich Eskalator am besten passen :ulol: :wink:

Nightspider
2025-03-14, 20:23:39
Die minFPS in Starfield zwischen dem 7800X3D und 9800X3D, hat das schon jemand zu erklären versucht?

Bei anderen Tests ist der 9800X3D 15% vor dem 7800X3D in den Starfield 0,1% lows.
https://www.pcgameshardware.de/Ryzen-7-9800X3D-CPU-280948/Tests/Review-Benchmark-Preis-Release-kaufen-vs-7800X3D-1458653/2/

Bei CB sind es 11%:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-9800x3d-test.90151/seite-2#abschnitt_starfield

Lag in dem Fall wohl am Test von HwLuxx oder Windows hat im Hintergrund herumgemacht.

rentex
2025-03-15, 14:25:32
Bei anderen Tests ist der 9800X3D 15% vor dem 7800X3D in den Starfield 0,1% lows.
https://www.pcgameshardware.de/Ryzen-7-9800X3D-CPU-280948/Tests/Review-Benchmark-Preis-Release-kaufen-vs-7800X3D-1458653/2/

Bei CB sind es 11%:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-9800x3d-test.90151/seite-2#abschnitt_starfield

Lag in dem Fall wohl am Test von HwLuxx oder Windows hat im Hintergrund herumgemacht.

15% sind kein Grund, das Seitenpanel zu öffnen.
Vom 7800X3D ein komplett sinnbefreites Upgrade, das noch mit nen erhöhten Verbrauch einhergeht.
Wer Anwendungsleistung braucht, hat das Problem schon vorher gelöst.

Nightspider
2025-03-15, 14:42:56
Wenn du meinst! ¯\_(ツ)_/¯

Mein Beitrag war aber auch nur die Antwort darauf, warum beim HardwareLuxx Test der 7800X3D 10% vor dem 9800X3D lag in Starfield bei den 1%lows.

Badesalz
2025-03-15, 22:05:33
15% sind kein Grund, das Seitenpanel zu öffnen.Es ging ja auch explizit um Spiderman. Was soll jetzt das Lispeln? Sonst sind es meist 20%-28%. 1%low wie auch 0,1%low.

Und die sind der King.

Badesalz
2025-03-16, 08:41:33
Und nochmal...
https://www.xda-developers.com/amds-ryzen-9-9950x3d-reportedly-runs-up-to-20-faster-on-windows-10/

SentinelBorg
2025-03-19, 20:45:53
Hab bei mir nun auch alles in meinen guten alten Stahltower gequetscht. 9950X3D, MSI MAG X870E Tomahawk, 64 GB Kingston 6000-CL30 und ein NH-D15 G2.

Funktioniert alles wie erwartet, bis auf das Qualcomm WiFi Modul, für das gibt es keine Win10 Treiber, aber ich hab ja eh Ethernet.
Auch meine gute alte Sound Blaster Zx läuft weiterhin.
Benchmarks ohne große Tunings gegenüber dem 5900X vorher: +70% bei Cyberpunk, Cinebench R23 mit 44k mehr als verdoppelt.

Einzige der System Idle Wert PD war deutlich höher als erwartet. Hab eigentlich da kaum eine Veränderung zum 5900X vorher erwartet, als auch so 120W rum. Stattdessen waren es über 150. Näher hingeschaut und siehe da, die Vcore Werte gehen nicht unter 1V. Wie sich dann heraus stellte, ist bei dem MSI Board standardmäßig die "ich hab ein scheiss PSU (vielleicht von MSI) das niedrige Werte nicht verträgt" Option aktiviert. Abgeschalten und nun geht die Vcore auf 0.6V und Idle liegt wieder bei 120W. ^^

Haufen
2025-03-20, 08:54:16
...
Einzige der System Idle Wert PD war deutlich höher als erwartet. Hab eigentlich da kaum eine Veränderung zum 5900X vorher erwartet, als auch so 120W rum. Stattdessen waren es über 150. Näher hingeschaut und siehe da, die Vcore Werte gehen nicht unter 1V. Wie sich dann heraus stellte, ist bei dem MSI Board standardmäßig die "ich hab ein scheiss PSU (vielleicht von MSI) das niedrige Werte nicht verträgt" Option aktiviert. Abgeschalten und nun geht die Vcore auf 0.6V und Idle liegt wieder bei 120W. ^^Wie lautet die seriöse Bezeichnung dieser Option?

SentinelBorg
2025-03-20, 13:25:43
Wie lautet die seriöse Bezeichnung dieser Option?
"Power Supply Idle Control" mit den Werten "Auto", "Low Current" und "Typical Current" bei mir.

Der 9950X3D zeigt auch schön wieder wie viel der Spitzenleistung mit Ineffizienz erkauft wird.

Handbrake X265 mit AVX512 und PBO Advanced, also Limit was Temp und Volt mäßig geht ergibt knapp 5.1 Ghz All-Core: 235W Package Power dafür

Powerplan mit 99% CPU Freq Cap (was anhand des Baseclocks gerechnet wird) und somit 4225 Mhz All-Core (-17%): 135W dann noch (-43%)

Kann da btw das Tool Powerplanswitcher empfehlen. Damit kann man dann ganz leicht im Tray den Plan mit zwei Klicks switchen: https://apps.microsoft.com/detail/9NBLGGH556L3?hl=en-us&gl=DE&ocid=pdpshare

Badesalz
2025-03-25, 10:53:32
Warum nochmal ist im Verhältnis zu den meisten anderen Sachen (auch nicht Spiele), AMD beim Handbrake dermaßen schlapp gegenüber Intel? Da helfen Teils nichtmal 8 Threads mehr... (egal ob V-Cache oder nicht)

Raff
2025-03-25, 11:49:10
Falls noch jemand einen Cache-Showcase sucht: https://www.pcgameshardware.de/Atomfall-Spiel-74887/Specials/Release-Test-Review-Steam-1468720/

Der venerable 5775C macht mit, wenngleich auf tieferem Niveau. :D

MfG
Raff

HOT
2025-03-25, 11:51:12
Es ist wirklich erstaunlich wie der 7700X in einigen Spielen performt heute.

Badesalz
2025-03-25, 12:05:17
Der venerable 5775C macht mit, wenngleich auf tieferem Niveau. :D:up: Ich hatte mal eine Lenovo XP-Workstaion mit dem Teil. Das war der lebendigste Rechner den ich je gentutz habe :usweet:

PS:
Habt ihr den 285k abgeben müssen (wegen dseiner Seltenheit...), den 265k aber behalten dürfen?

edit:
5775C vs. die 8000er, da hätte es aber eine Offenbarung gegeben, Intel :usweet:

edit 2:
Und wieder einmal. Je mehr "Details", desto dunkler die Szene. Man sieht also mehr Details, in den Bereichen, wo man überhaupt noch welche erkennt, was ~70% der Szene mit niedrigen Details ist.
kombiniere kombiniere

SentinelBorg
2025-03-25, 13:52:57
Warum nochmal ist im Verhältnis zu den meisten anderen Sachen (auch nicht Spiele), AMD beim Handbrake dermaßen schlapp gegenüber Intel? Da helfen Teils nichtmal 8 Threads mehr... (egal ob V-Cache oder nicht)
Inwiefern? Der 9950X3D führt bei alle Handbrake Benchmarks die ich gesehen habe gegenüber Intel. Obwohl die meistens nicht mal AVX512 aktiv haben (braucht bei h265 einen Profil Parameter [bringt so +6%] und bei AV1 ist es erst seit kurzem wieder im Kompilat).

Badesalz
2025-03-25, 18:48:49
Inwiefern? Der 9950X3D führt bei alle Handbrake Benchmarks die ich gesehen habe gegenüber Intel.Ne oder? Du guckst einfach nur stumpf auf den allerobersten Balken?

dildo4u
2025-03-26, 03:54:46
Digital Foundry rüstet um sie sind überzeugt das AMD für ihren Workflow taugt.
Es sei denn du meinst die Media Encoder dort hat Intel vermutlich Vorteile.

NWVnyIS7LMI

https://i.ibb.co/3yZRJVBp/Screenshot-2025-03-26-03-57-16-520-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/Rpwj5tz3)

latiose88
2025-03-26, 07:59:11
Es kommt nicht nur auf den Codec drauf an sondern auch auf die Einstellung. Ich durfte auch wenn ich den 285k nicht besessen hatte es dennoch selbst bei wem testen. Bei 720x576 ist z.b Intel wieder schneller als AMD. Bei 7950x vs 9950x konnte sich der 9950x bei 720x576 nicht vom Vorgänger absetzen. Je niedriger die Einstellung desto schlechter kann sich scheinbar eine breitere CPU absetzen.
Da hilft es nix die Anzahl zu erhöhen. Und so dümpelt mein threadripper 7960x trotz abgeschalteten smt mit 8 kerne bei richtung 100 % und der Rest bei unter 50 %. Ob ich Avx 1 & 2 ein oder aus schalte macht bei der Geschwindigkeit keinen Unterschied. Erst ab höhere Auflösung sehe ich da unterschiede und Vorteile für avx.
Intel ist also nur bei niedrigen Einstellung egal ob h264 oder h265 im Vorteil und ansonsten nicht.

Wenn ich da nun 3 gleichzeitig starte dann wird Intel wieder verlieren. 3 Videos gleichzeitig das packt dann der 285k nicht mehr. Da sind einfach dann zu wenig Kerne. Da wird dann auch der 9950x sich vom Vorgänger absetzen können. Bei 3 Gleichzeitig ist der 5950x bei 100 % last gewesen. gillt bestimmt dann auch für den 9950x mit Sicherheit.
Den 9700x hat wer mit Tricks zu mehr Leistung gebracht. Der holte also mit zielgerichteten festen zuordnen alles aus dem 8 Kerner raus was man kann. Das dieser dann bei 100 % Auslastung war ist klar.
Dank der niedrigen Einstellung klar schön eingeholt aber nen Abstand haben die mehr Kerner dennoch noch. Je breiter also der 8 Kerner wird, erhoffe ich mir massive Steigerung dank Zen 6 oder Zen 7 in Zukunft. Ob das ausreichend sein wird, mal sehen. denke mal dennoch nicht das ein 8 Kerner nen 16 Kerner überholen wird. Es sei denn es kommt ein takt Hammer von 6 GHz und mehr. Aber daran glaube ich selbst nicht dran. Würde nur die Hitze noch weiter in die Höhe treiben,es sei denn sie wären auf höheren takt ausgelegt.
Ab einen gewissen Punkt scheint allerdings Takt auch keine Wunder zu bringen. Meinen threadripper erhöhte ich von 4,8 auf 5 GHz. Leistung stieg nur minimal. Ich schade dachte immer takt sei King. Gillt also nicht überall. Naja Man muss wohl echt in die vollen gehen um die Anwendung mit bloßen takt zu erschlagen. Bis 5,3 GHz könnte ich noch gehen. Aber das wird eben auch nicht helfen. Der 285k ist somit zwar in Reichweite aber ganz Einholen kann ich diesen leider dann immer noch nicht.

SentinelBorg
2025-03-26, 11:21:40
Logisch, die Parallelisierung ist bei den Codecs limitiert und hängt stark an der Auflösung. Bei 1080p z.B. verwendet AV1-SVT nicht mehr als 16 Threads. X265 ist da besser, aber das kann je nach dem auch etwas Qualität kosten. Großteil des SIMD ist auch heute noch SSE2, AVX bringt nur da und dort was, AVX512 erst ab Zen 5 ein wenig.

latiose88
2025-03-26, 11:40:11
jap aber auch beim takt. Während beim ryzen 9 5950x allcore takt mehr brachte, sieht es beim 24 Kern threadripper schlechter aus, takt 200 mhz erhöht aber die Steigerung gering. Beim 8 Kerner bringt es wiederum sehr viel. Hier spielt also neben der auslastung auch der allcore takt eine Rolle, kann man so sagen. Ich sehe dann in Zukunft wie es mit den weniger cores so weiter gehen wird.

gedi
2025-03-26, 22:12:20
Der 9950x ohne 3d ist eine echt geniale CPU. Mit aktiviertem MPT und angepasster Curve braucht er nicht mehr als ein 5950x mit ähnlichem Setting. Der Vorteil: Das Ding ist ebend mal bis zu 50% schneller.

r3ptil3
2025-03-30, 17:42:49
Ich werde demnächst einen 9800X3D in einem ITX Case mit einem AXP90-47 betreiben.

Habe daher mal mit 65W Limit getestet. Im Gaming merkt man sowieso gar keinen Unterschied (4k), ausser dass die Temps unter 50° bleiben und in CPU-Z siehts wie folgt aus:
Single Thread: 805
Multi Thread: 8213

In AIDA64 "Stress FPU" ging der 9800X3D mit einem Arctic Liquid III 360 gleich mal auf ca. 82-84°, mit 65W Limit (sprich ca. 88W CPU Package):
https://i.ibb.co/TxP6xC0F/image.png
Man beachte die Umdrehungen der CPU-Lüfter.

Wird man also vermutlich mit dem kleinsten Luftkühler kühlen können.

Haufen
2025-03-31, 09:10:06
Sind Mainboards der früheren Generation (Ryzen 7000) mittlerweile weitgehend Ryzen 9000-tauglich ohne 'blind' neue BIOSe installieren zu müssen?

Lehdro
2025-03-31, 13:06:46
Sind Mainboards der früheren Generation (Ryzen 7000) mittlerweile weitgehend Ryzen 9000-tauglich ohne 'blind' neue BIOSe installieren zu müssen?
Wenn du die "frisch" kaufst, haben die meist schon ein UEFI drauf, was diese CPUs nativ unterstützt. Kann dir aber niemand außer der Händler garantieren.

MiamiNice
2025-03-31, 15:50:48
Habe daher mal mit 65W Limit getestet. Im Gaming merkt man sowieso gar keinen Unterschied (4k)

Woher kommen immer diese Aussagen? Wenn ich meinen 9800x3D auf 65 Watt kastriere, merke ich das direkt und in 4k. Sogar sehr deutlich.

Der_Korken
2025-03-31, 15:58:42
Ich werde demnächst einen 9800X3D in einem ITX Case mit einem AXP90-47 betreiben.

Habe daher mal mit 65W Limit getestet. Im Gaming merkt man sowieso gar keinen Unterschied (4k), ausser dass die Temps unter 50° bleiben und in CPU-Z siehts wie folgt aus:

Also von 88W auf 65W oder was genau ist anders als vorher? Ich weiß nicht, wieviel der Zen 4/5-IOD und deren IFOP ziehen, aber bei Zen 3 liegen zwischen PPT und CorePower unter Last etwa 30-35W. Wenn das immer noch 30W sind, hast du das Powerbudget der Kerne selbst also von 58W auf 35W gesenkt bzw. die Kerne haben vorher 67% mehr verbraucht. Das muss man bei Low-Power-Configs mit Ryzens immer beachten und dann sind die 30°C weniger im Hotspot durchaus plausibel.

Lehdro
2025-03-31, 16:38:57
Woher kommen immer diese Aussagen? Wenn ich meinen 9800x3D auf 65 Watt kastriere, merke ich das direkt und in 4k. Sogar sehr deutlich.
Du hast aber sicher die FMAX von +200 aktiv?

Ich denke mit aggressivem UV und ohne extra Takt, bekommt man da noch gut Leistung mit 65W Limit. Am besten noch async fahren, damit man beim IOD ordentlich Saft spart. So ein DDR5 8000 + IF 2000 Setting kriegt man mit sehr wenig SoC Voltage hin, so im Bereich um 1,0 V. Jedes Watt beim IOD gespart kommt direkt der CPU zugute!

Maximal sehe ich mal knapp ~110W in Spielen als Peak mit meinem OC/UV Setting aber typisch liegen eher so 65-85W an. Gesamtverbrauch, also PPT. Beim Shadercompilen oder Ladevorgängen wirst du aber gnadenlos ins Powerlimit rennen, das wird dann bitter. Da sehe ich bei mir durchaus mal >140W, da komme ich dann aber eh in thermische Limits mit meiner Lukü.

MiamiNice
2025-03-31, 16:47:26
Klar, bekommt man noch gute Leistung aus 65 Watt. Mich stört halt immer die Aussage, das dass keine Leistung kostet. Für die Games die an der GPU hängen stimmt das sicherlich. Aber wenn wir von anderen Spielen sprechen, z.b. WoW, EFT, Anno und derartige Konsorten, merkt man das schon intensiv. Die AMD CPUs sind extrem sparsam, aber nicht so sparsam das man von 120 Watt auf 65 Watt nichts merkt :biggrin:

x-force
2025-03-31, 20:30:33
ich würde sowas immer über ein fps limit regeln, da ich sonst angst hätte, dass irgendwo die frametimes leiden.

Lehdro
2025-04-02, 16:24:50
ich würde sowas immer über ein fps limit regeln, da ich sonst angst hätte, dass irgendwo die frametimes leiden.
Ein FPS Limit hilft dir aber nur bei der Verbrauchsreduktion, wenn du eh genug FPS hast. Beim Laden, Shader-Compile oder gar anspruchsvollen Spielen rennst du dann trotzdem gnadenlos in ein thermisches oder bestenfalls Lärmproblem.

Ich würde einfach UV + hartes Limit + FPS Limit kombinieren. Wie gesagt: Mit 65W kriegst du schon ordentlich Power, wenn du es richtig konfigurierst.

TheCounter
2025-04-02, 18:32:24
Hat von euch eigentlich auch jemand USB Probleme mit nem X870 Board? Hatte schon massive Probleme bei meinem vorherigen B550.

Und auch mit dem neuen Board hab ich zum Beispiel bei USB-Sticks das Problem, dass diese ständig die Verbindung verlieren. Also mal schnell was auf nen USB-Stick ziehen ist da nicht, da muss ich den Laptop dafür nutzen. Teilweise verlieren auch Joysticks immer wieder die Verbindung. Trotz neuestem Bios + Chipset Driver.

Slipknot79
2025-04-03, 02:24:09
Hat von euch eigentlich auch jemand USB Probleme mit nem X870 Board? Hatte schon massive Probleme bei meinem vorherigen B550.

Und auch mit dem neuen Board hab ich zum Beispiel bei USB-Sticks das Problem, dass diese ständig die Verbindung verlieren. Also mal schnell was auf nen USB-Stick ziehen ist da nicht, da muss ich den Laptop dafür nutzen. Teilweise verlieren auch Joysticks immer wieder die Verbindung. Trotz neuestem Bios + Chipset Driver.


Dunno woran das liegt. Hatte ich mit dem Anus ROG Strix B650E E-Gaming WIFI (AM5) auch. Habe ich wieder zurückgeschickt innerhalb 30d Rückgaberecht, kein Bock auf RMA hin und her.
Es fiel immer wieder nen aquacomputer-Gerät, was am internen USB2 hing, aus. Manchmal fiel dann auch die Mouse aus und auch mal der USB Stick.
Mit dem Tomacock X670E gibts nun keine Probleme.

Es gibt immer wieder Berichte über USB-Ausfälle in Zusammenhang mit den aktuellen AM5 Mobos.

Das einzige was hilft ist shinebar nen Mobo-Wechsel, anderer Hersteller jedenfalls.

Das Arschrock X870 Riptide WIFI hatte ich hier auch im Test, hatte damit aber keine USB-Probleme.

SentinelBorg
2025-04-03, 10:30:57
Also bei mir läuft USB mässig alles 1a auf dem MSI X870E. Und ich hab verdammt viele Geräte anhängen inkl. Klassiker wie einer G13.

TheCounter
2025-04-03, 17:28:12
Das Arschrock X870 Riptide WIFI hatte ich hier auch im Test, hatte damit aber keine USB-Probleme.

Das ist schon echt komisch. Jetzt aber so oft das Board wechseln, bis das Problem nicht mehr auftaucht, ist auch nicht wirklich ne Option. Es muss ja einen Grund geben, wieso es gerade bei den AMD Chipsätzen so krasse USB Probleme gibt. Das B550 war von MSI, mit den gleichen Problemen.

Cubitus
2025-04-05, 00:43:40
Auch das gleiche Board wie Sliptknot, gar keine Probleme bisher.

Colin MacLaren
2025-04-05, 17:41:30
Hat von euch eigentlich auch jemand USB Probleme mit nem X870 Board? Hatte schon massive Probleme bei meinem vorherigen B550.

Und auch mit dem neuen Board hab ich zum Beispiel bei USB-Sticks das Problem, dass diese ständig die Verbindung verlieren. Also mal schnell was auf nen USB-Stick ziehen ist da nicht, da muss ich den Laptop dafür nutzen. Teilweise verlieren auch Joysticks immer wieder die Verbindung. Trotz neuestem Bios + Chipset Driver.

Kaskadierende USB Hubs mit ümzig Geräten, keine Probleme, solange ich den KVM Switch mit den drei USB Hubs dahinter an den rot markierten Port anschließe. Im Gegenteil, am Intel Laptop habe ich auf das Problem, dass der USB zu nvme Adapter nicht mit voller Geschwindigkeit läuft.

Nightspider
2025-04-06, 19:04:03
Eben mal spaßeshalber Battlefield 4 getestest und 400-600fps mit dem 9800X3D gehabt.

Da haben dann aber weder die GPU noch die CPU irgendwo limitiert laut Anzeigen.

Bei einem 172fps cap für meinen 175Hz Monitor waren die CPU Kerne dann nur zu 15 bis rund 25% ausgelastet. :D

Lawmachine79
2025-04-07, 00:39:05
Eben mal spaßeshalber Battlefield 4 getestest und 400-600fps mit dem 9800X3D gehabt.

Da haben dann aber weder die GPU noch die CPU irgendwo limitiert laut Anzeigen.

Bei einem 172fps cap für meinen 175Hz Monitor waren die CPU Kerne dann nur zu 15 bis rund 25% ausgelastet. :D
Krass. Bei BF4 limitieren bald nicht mehr GPU oder CPU, sondern der Taktgeber.

aufkrawall
2025-04-07, 00:58:29
Alles, was kein GPU-Limit ist, ist prinzipiell eine Form von CPU-Limit.
Da werden sicherlich einzelne Threads limitiert haben, das muss mit dem OS-Scheduling nur nicht unbedingt eindeutig anhand der Auslastungsanzeige einzelner Kerne ersichtlich sein.

dildo4u
2025-04-07, 08:37:52
9600X3D simuliert.

https://www.computerbase.de/artikel/prozessoren/amd-ryzen-9-9900x3d-test.91949/seite-2

Nightspider
2025-04-08, 12:43:01
Dadurch das der simulierte 9600X3D knapp 3% höher taktet als der 9800X3D liegt der 6 Kerner halt in den Games vorne, die nur 6 Kerne sinnvoll nutzen.

aufkrawall
2025-04-08, 15:57:05
Tja, leider greifen Entwickler auf so unsinnige Dinge wie das Kompilieren von Shadern im Hintergrund zurück (anstatt zu 100% komplett vor und auf dem Ladeschirm), ob jetzt in Fortnite oder TLOU2. Da erhöht sich mit 6C die Chance, dass es irgendwann beim Traversal mal ärger hakt als mit mehr Kernen. So etwas bilden die typischen Benchmarks meist nicht gut ab. Versteh den Geiz nicht.

SentinelBorg
2025-04-22, 10:42:03
Was mir btw beim Thema USB noch aufgefallen ist bei meinem Board (MSI Mag X870E), dass von den drei USB Controllern in der CPU nur einer überhaupt physisch angebunden ist. Der ganze Rest hängt an den zwei Chipsätzen. Hab darum die anderen zwei jetzt auch deaktiviert im Gerätemanager.

Raff
2025-04-22, 13:00:56
AMD Ryzen 9 9900X3D mit 9600X3D-Simulation im Test: AMD hat noch Arbeit vor sich (https://www.pcgameshardware.de/Ryzen-9-9900X3D-CPU-281027/Tests/Preis-Brenchmark-Release-Review-1470961/)

Hardware-Scheduler needed.

MfG
Raff

Exxtreme
2025-04-22, 13:42:20
Hardware-Scheduler werden wohl niemals kommen. Ach ja, das Problem mit der falschen CCD-Zuweisung lässt sich immer beheben: während das Spiel läuft, Win+G drücken -> Einstellungen und dann das Häckchen setzen.

Damit ist der "AMD, mach endlich deine Hausaufgaben"-Kommentar überflüssig. :freak:

Complicated
2025-04-22, 13:54:13
Immer wieder wird der falsche Mond angeheult. Das ist ein Windows Problem, welches unter Linux nicht existiert. HARDWARE-Tester wissen das. Spiele-Tester nicht.

Raff
2025-04-22, 14:24:59
Am besten wissen es immer die, die sich nicht mit Beta-Hard- und Software herumschlagen müssen. ;)

"Für den Test des Ryzen 9 9900X3D kommt der neueste Chipsatztreiber mit Version 7.02.13.148 zum Einsatz. Des Weiteren ist Windows 11 24H2 mit aktuellen Updates versehen, und die Xbox Game Bar verfügt über das neueste Update. So sind alle Erweiterungen, die für das Core Scheduling von Belang sind, auf dem neuesten Stand."

Da wurde alles gemacht, was man erwarten kann. Ich frickel mir die Welt, wiedewiede-wie sie mir gefällt ist bei einem Hardware-Test mit anschließender Kaufberatung keine Option -> Zum reinen Zocken einfach keine Dual-CCD-CPU der aktuellen Bauart kaufen.

MfG
Raff

Exxtreme
2025-04-22, 14:28:43
Es gibt aktuellere Chipsatz-Treiber, nur halt nicht auf der AMD-Website:
https://pg.asrock.com/mb/AMD/B650E%20PG%20Riptide%20WiFi/index.de.asp#Download

Aber ich glaube nicht, dass diese Problematik dadurch behoben wird. Man muss leider öfter der Xbox Gamebar nachhelfen und ein Spiel auch als eins markieren.

Der_Korken
2025-04-22, 15:06:57
Ich habe schon damals zum 7950X3D-Release gesagt, dass dieses asymmetrische Design langfristig viel Aufwand und Frickelei erfordern wird. Dass man unter Windows einzelne Anwendungen whitelisten muss, damit des Scheduling nicht kaputtgeht, ist imho eine Farce. Und selbst wenn das CCD-Binding funktionieren würde, ist immer noch nicht das Problem gelöst, wie man mit Spielen umgeht, die mehr Kerne auslasten als der Cache-CCD hat. Entweder belastet man Kerne doppelt, obwohl im zweiten CCD welche Däumchen drehen oder man muss sich einzelne Threads aus dem Game-Prozess rauspicken und auslagern, mit dem Risiko von starken Performance-Regressionen, falls der falsche Prozess auf das langsame CCD verschoben wird.

Complicated
2025-04-22, 17:37:29
Am besten wissen es immer die, die sich nicht mit Beta-Hard- und Software herumschlagen müssen. ;)

Falsche Etiketten zu erkennen braucht nicht viel Fachwissen ;)
Auch nicht um zu unterscheiden bei welchem Bäcker die Brötchen besser schmecken. Das selbe gilt schon lange auch für angebliche Hardware Tester, die lediglich testen wie gut ihre Lieblingssoftware mit irgendwelcher Beta-Hardware funktioniert. Sagt halt wenig über die Hardware aus, führt aber oft zu falschen Schlussfolgerungen.

Yuko
2025-04-22, 21:40:37
Aber ich glaube nicht, dass diese Problematik dadurch behoben wird. Man muss leider öfter der Xbox Gamebar nachhelfen und ein Spiel auch als eins markieren.
Und warum glaubst du das die das nicht beachtet hätten? Ich finde die Tests bei PCGH eigentlich immer aufschlussreich.

Exxtreme
2025-04-22, 22:31:10
Und warum glaubst du das die das nicht beachtet hätten? Ich finde die Tests bei PCGH eigentlich immer aufschlussreich.

Es steht nicht im Artikel, dass sie es gemacht haben.

Yuko
2025-04-23, 09:21:24
Es steht nicht im Artikel, dass sie es gemacht haben.
Ja, aber für die blöd hältst du die denn? Meinst du die verarschen sich selbst und beachten das nicht? Wenn es immer auf den falschen Kernen berechnet worden wäre dann würden die Ergebnisse anders aussehen.

Exxtreme
2025-04-23, 09:27:10
Sowas kann man schnell vergessen.

Und angenommen, die haben das gemacht und Windows legt die Threads trotzdem auf das CCD ohne den Zusatzcache. In dem Fall kann AMD nichts machen. Denn Verteilung der Threads ist eine Aufgabe des Betriebssystems. Wenn WinDOS das ignoriert dann hat es Microsoft mal wieder versemmelt. Und dann wäre AMD der falsche Adressat.

latiose88
2025-04-23, 14:04:30
Es gibt aber auch Software die wo es die Entwickler versemmeln. Wenn es unter Windows 10 vollkommen normal und ohne Probleme läuft aber nur unter Windows 11 es allerdings meistens oder ganz zu Problemen kommt, dann ist es klar. Wenn man das reproduzieren kann. Es immer zu jeder Zeit so ist. Windows 11 ist ja nun kein total anderes OS. Wenn es also Probleme gibt ist doch der jeweilige Hersteller dafür verantwortlich oder nicht?

Anderst sähe es aus wenn die jeweilige Software genau wegen des Betriebssystems sich anderst verhalten würde weil beim Hintergrund Prozess sich durch das Betriebssystem anderst verhält oder Walter. Dann wäre in dem Fall microsoft schuld, das stimmt.

In dem von mir der Fall geschildert ist es nicht ganz sicher zu 100 % klar. Das kann man ja auch nicht sein.

two_smoking_barrels
2025-04-23, 17:25:08
Tja, leider greifen Entwickler auf so unsinnige Dinge wie das Kompilieren von Shadern im Hintergrund zurück (anstatt zu 100% komplett vor und auf dem Ladeschirm)

Wenn es Interessiert, hier mal ein Erklärungsversuch: Es hat ein Grund, warum Entwickler Shader "unsinnig" im Hintergrund kompilieren (JIT Shader Compiling) und es ist nicht mangelndes Talent.

Meines Verständnis nach liegt das an DX12 und Vulkan, welche komplett gescheitert sind, die graphic pipeline states gut zu handhaben. Graphic pipeline states konfigurieren die fix function-Hardware der GPUs, wie "rasterization settings", "primitive topology types", Formate der Buffer, etc. In Vulkan und DX12 gibt es das PSO (pipeline stages object), welches die meisten graphic pipeline states als auch die dazugehörigen Shader enthält. Das PSO wird als im Vorraus bekannt angenommen und erzählt dann der Hardware im Vorraus wie sie konfiguriert werden muss und dem Treiber wie die Shader zu kompilieren sind. Ändert sich eines dieser graphic pipeline states muss das PSO samt Shader neu kompiliert werden.

Hier (https://gamedev.stackexchange.com/questions/201859/handling-pipeline-objects-in-both-dx12-and-vulkan-like-graphics-apis) mal ein Beispiel aus einer Entwickler Diskussion: Hat man 5 verschiedene Mesh-Layouts, 300 verschiedene Materialen und 5 FrameBuffer mit jeweils verschiedene Formaten, gibt es den selben Shader in 5*300*5=7500 kombinationen. Hierdurch wird das Shader-Compiling zu einem Problem.

Natürlich gibt es Workarounds, wie beispielsweise im obigen Beispiel den Shader in Meshshader, Materialshader und "Buffer-Write"-Shader zu zerhacken. Das reduziert die Kombinationen von 7500 auf maximal 5+300+5=310. Aber das Wechseln der Shader und damit der graphic pipelines states zur Laufzeit auf der Grafikkarte bringt seine eigenen Probleme mit, vorallem signifikantes Overhead.

DX12 und Vulkan bieten den PSO-Cache an. Man sollen diesen "Vor Erhitzen" (Pre-Warming), also durch Shaderkompilierung im Vorraus (Main-Menü, Ladenbildschirm) füllen. Obwohl Shader relativ schnell kompiliert werden (bspw. von 50 bis 100ms), dauert es aufgrund der eskalierenden Anzahl an Permutationen in Horizon Zero Dawn 10-15min (https://forum.beyond3d.com/threads/shader-compilation-on-pc-about-to-become-a-bigger-bottleneck.61929/)* (und nach jedem Treiberupdate wird der PSO-Cache gelöscht). Jemand anderes beschreibt, das Detroit become human ein PSO-Cache von 1,26 GB (https://forum.beyond3d.com/threads/shader-compilation-on-pc-about-to-become-a-bigger-bottleneck.61929/page-2#post-2145030)* hat. Lächerlich riesige Shader-Caches und langes pre-warming Garantieren keine fast 100% Hitrate und damit ruckelfreies Spielen. Dies ist einfach nur Symptombekämpfung. Wenn man keine Workarounds implementieren kann und der PSO-Cache nicht ausreichend gut funktioniert, dann merkt man das JIT Shader Compiling und die Entwickler können nichts dagegen tun. Ich würde daher das kompilieren im Hintergrund daher nicht als unsinnig bezeichnen

*habe keine Ahnung, ob beide Beispiele noch aktuell sind oder diese Spiele bereits Workarounds erhalten haben

Da erhöht sich mit 6C die Chance, dass es irgendwann beim Traversal mal ärger [Anm.: länger] hakt als mit mehr Kernen. So etwas bilden die typischen Benchmarks meist nicht gut ab. Versteh den Geiz nicht.
Jup, leider ist die effizienteste Lösung als User, Softwareprobleme mit stärkerer Hardware zu mindern