PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7 5800X3D Review-Thread


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

Leonidas
2022-04-14, 15:00:05
Launch des Ryzen 7 5800X3D

Modell|Kerne|Takt|L2+L3|TDP/PPT|Liste|Release
Ryzen 9 5950X|16C/32T|3.4/4.9 GHz|8+64 MB|105/142W|$799|5. November 2020
Ryzen 9 5900X|12C/24T|3.7/4.8 GHz|6+64 MB|105/142W|$549|5. November 2020
Ryzen 7 5800X3D|8C/16T|3.4/4.5 GHz|4+96 MB|105/142W|$449|20. April 2022
Ryzen 7 5800X|8C/16T|3.8/4.7 GHz|4+32 MB|105/142W|$449|5. November 2020
Ryzen 5 5600X|6C/12T|3.7/4.6 GHz|3+32 MB|65/88W|$299|5. November 2020

Zu beachten: Die Straßenpreise der Alt-Modelle liegen inzwischen sehr deutlich unterhalb der Listenpreise.

Liste der Launch-Reviews bei 3DCenter (https://www.3dcenter.org/news/launch-des-ryzen-7-5800x3d-die-launchreviews-gehen-online) & VideoCardz (https://videocardz.com/127562/amd-ryzen-7-5800x3d-review-roundup).

Lehdro
2022-04-14, 15:11:49
Intel: + 80% Leistungsaufnahme für +3% FPS.
AMD: -30% Leistungsaufnahme für +15% mehr FPS.

Raff
2022-04-14, 15:12:46
AMD Ryzen 7 5800X3D im Test: Mit 3D-V-Cache und hoher Effizienz gegen Intel (https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Tests/Benchmark-Preis-Release-vs-12900KS-1392948/)

Ich finde das Verhältnis köstlich. Intel braucht ~2,5× so viel Energie für die gleiche Durchschnittsleistung (Fps) in Spielen. Heftig. Cache is King. Wobei, eigentlich ist ja Takt der König, aber der säuft mehr. ;)

MfG
Raff

aufkrawall
2022-04-14, 15:14:34
Alder Lake zerstört bei der Gaming-Effizienz, ganz ohne shittle.BIG. ;D
Aber zu dem Preis können sie sich das sonst wo hin stecken, dann lieber ein 5900X mit RAM-OC...

Edit: Zur Erinnerung: Ohne die E-Cores aktiv säuft Alder Lake noch viel mehr. Was eine Steinzeit-Arch...

Linmoum
2022-04-14, 15:17:44
AMD Ryzen 7 5800X3D im Test: Mit 3D-V-Cache und hoher Effizienz gegen Intel (https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Tests/Benchmark-Preis-Release-vs-12900KS-1392948/)

Ich finde das Verhältnis köstlich. Intel braucht ~2,5× so viel Energie für die gleiche Durchschnittsleistung (Fps) in Spielen. Heftig. Cache is King. Wobei, eigentlich ist ja Takt der König, aber der säuft mehr. ;)

MfG
RaffDanke übrigens (auch an @y33h@ und Golem) für die Spieleauswahl. Endlich mal nicht nur dieses ständige 3xxfps und 1-2% zwischen CPUs (z.B. sowas.....)


https://i.gyazo.com/82ac7e4e26042345bd912893406ebaf3.png


sondern mal etwas zielführender für CPU-relevante Benchmarks. Das mit der Leistungsaufnahme hat mich auch extrem überrascht. Das ist schon krass.

Raff
2022-04-14, 15:18:10
Alder Lake zerstört bei der Gaming-Effizienz, ganz ohne shittle.BIG. ;D
Aber zu dem Preis können sie sich das sonst wo hin stecken, dann lieber ein 5900X mit RAM-OC...

Edit: Zur Erinnerung: Ohne die E-Cores aktiv säuft Alder Lake noch viel mehr. Was eine Steinzeit-Arch...

Ohne die E-Cores kann man das Ding aber insgesamt höher takten und somit einen echten Vorteil herausholen, während der X3D festklemmt.

MfG
Raff

DrFreaK666
2022-04-14, 15:19:48
Intel, so geht Gaming-CPU!

Danke übrigens (auch an @y33h@ und Golem) für die Spieleauswahl. Endlich mal nicht nur dieses ständige 3xxfps und 1-2% zwischen CPUs (z.B. sowas.....)


https://i.gyazo.com/82ac7e4e26042345bd912893406ebaf3.png


sondern mal etwas zielführender für CPU-relevante Benchmarks. Das mit der Leistungsaufnahme hat mich auch extrem überrascht. Das ist schon krass.

Jetzt musst nur noch in 720p spielen XD

aufkrawall
2022-04-14, 15:25:03
Ohne die E-Cores kann man das Ding aber insgesamt höher takten und somit einen echten Vorteil herausholen, während der X3D festklemmt.

Unter Luft kann man da nicht viel takten, 1,3V sind schon ca. das Maximum des akustisch Erträglichen. Ich glaub auch nicht, dass die P-Cores ohne E-Cores magisch mehr Takt mitmachen. Mehr als 4,8GHz Allcore sind nicht drin, wenn man es leise mag. Zumindest mit dem 12700K nicht. Der 12900K schafft vielleicht etwas mehr, aber davon merkt man auch nichts.

Raff
2022-04-14, 15:25:26
Jetzt musst nur noch in 720p spielen XD

Bitte nicht schon wieder (https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/). ;)

Unter Luft kann man da nicht viel takten, 1,3V sind schon ca. das Maximum des akustisch Erträglichen. Ich glaub auch nicht, dass die P-Cores ohne E-Cores magisch mehr Takt mitmachen. Mehr als 4,8GHz Allcore sind nicht drin, wenn man es leise mag. Zumindest mit dem 12700K nicht. Der 12900K schafft vielleicht etwas mehr, aber davon merkt man auch nichts.

Der Ring/Cache verkraftet einige Hundert Megahertz mehr, wenn man die E-Körnchen ausmacht. :)

MfG
Raff

Thomas Gräf
2022-04-14, 15:30:00
Ohne die E-Cores kann man das Ding aber insgesamt höher takten und somit einen echten Vorteil herausholen, während der X3D festklemmt.

MfG
Raff

Danke für Euren tollen Test. :smile:

Tja leider Gottes mussten AMD den Takt festklemmen.
Was würde ein X3D mit 5Ghz und 2000'er Fabric mit schnellem RAM drauflegen? :D

Linmoum
2022-04-14, 15:30:18
Mich fasziniert diese Effizienz immer noch. Das ist ja fast schon abartig im positiven Sinne.

Ich wollte ja eigentlich Zen4 auslassen und erst mit Zen5 wieder zuschlagen. Aber wenn AMD auch bei Zen4 schon zum Launch irgendein Produkt mit 3D-Cache in den Markt entlassen wird, dann war es das wohl mit dem widerstehen.

fondness
2022-04-14, 15:30:45
Bleibt nur noch die Frage, warum es keinen 12/16-Kerner mit 3D-Cache gibt. Der würde dann wohl eindeutig die Krone holen.

Linmoum
2022-04-14, 15:33:33
Wahrscheinlich Kosten/Nutzen. 2x 5800X3D dürfte sich für AMD mehr lohnen als 1x 5900X/5950X, zumal die starken Zugewinne halt auch weniger bei Anwendungen sondern mehr bei Spielen sind.

Piefkee
2022-04-14, 15:34:04
Bleibt nur noch die Frage, warum es keinen 12/16-Kerner mit 3D-Cache gibt. Der würde dann wohl eindeutig die Krone holen.

->Epyc

Lehdro
2022-04-14, 15:34:22
Da stellt sich einem ja fast schon die Frage: 5800X3D kaufen und dann Zen 4 überspringen bis es Zen 4 auch mit 3D V-Cache gibt?

DrFreaK666
2022-04-14, 15:34:29
Bitte nicht schon wieder (https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/). ;)...

MfG
Raff

Ich weiß. Wird heute auch nicht das letzte Mal gewesen sein :D

Raff
2022-04-14, 15:36:51
Danke für Euren tollen Test. :smile:

Tja leider Gottes mussten AMD den Takt festklemmen.
Was würde ein X3D mit 5Ghz und 2000'er Fabric mit schnellem RAM drauflegen? :D

Gern. :up:

Was die Leistung mit DDR4-4000 angeht: Nun, er würde prozentual weniger zulegen als ein "Ryzen 2D", denn der Cache federt einige Anfragen in den Hauptspeicher ab. Spiele, die schlecht auf den Cache anspringen, würden natürlich wie gehabt stark vom Speicher-Tuning profitieren, insgesamt wäre der Gewinn - laut meinem Verständis - aber geringer.

MfG
Raff

Linmoum
2022-04-14, 15:37:05
Da stellt sich einem ja fast schon die Frage: 5800X3D kaufen und dann Zen 4 überspringen bis es Zen 4 auch mit 3D V-Cache gibt?Alternativ warten, ob AMD auch eine CPU zum Launch mit V-Cache auflegt (wovon ich stark ausgehe, ansonsten würde Zen4 bei den teils massiven Zugewinnen die der 5800X3D zeigt alt aussehen) und wenn doch nicht, dann den 5800X3D im Abverkauf holen. :D

aufkrawall
2022-04-14, 15:41:03
Da stellt sich einem ja fast schon die Frage: 5800X3D kaufen und dann Zen 4 überspringen bis es Zen 4 auch mit 3D V-Cache gibt?
Wenn viel RAM/IF-Takt geht, wird Zen 3D gegen Zen 4 auch alt aussehen.
Zur Erinnerung: Bei PCGH wird ADL auch nur mit popeligem DDR5 4400 G2 getestet. Das dürfte gegen DDR4 3800 G1 ziemlich abstinken, so beeindruckend sind die Ergebnisse dort vom 3D also auch nicht (bis auf den Verbrauch natürlich).

Nightspider
2022-04-14, 15:41:15
Bei Computerbase im Test liegt der X3D auch in Red Dead Redemption 2 ganz klar weit vorne, keine Ahnung was die anderen Tester dort gemacht haben.

https://abload.de/img/x3dpnkyf.jpg

Lowkey
2022-04-14, 15:46:49
Bleibt nur noch die Frage, warum es keinen 12/16-Kerner mit 3D-Cache gibt. Der würde dann wohl eindeutig die Krone holen.

Vor ein paar Monaten hieß es noch, dass auf dem DIE kein Platz sei.


Die erste 7000er Welle kommt ohne Cache Version mit starkem DDR5 Takt, was bei passenden DDR5 Modulen ein teurer Kauf sein wird.


B350 + 5800x3d = win win (praktische Erfahrungen fehlen aber noch).


Der einzige Malus ist der relativ hohe Preis (der im Prinzip die Energieeffizienz wieder auffrißt).

Leider sind manche Games alles andere als Win-Win: Total War.

Kingdom Come sieht auf Golem anders aus wie auf CB.


Ganz wichtig: Alder Lake läuft durchgehend mit langsamstem DDR5.

... mal weiterlesen...

DrFreaK666
2022-04-14, 15:48:29
https://abload.de/thumb/screenshot_20220414_1dyj6n.jpg (https://abload.de/image.php?img=screenshot_20220414_1dyj6n.jpg)

Das finde ich witziger. Die 3770 ist sogar noch etwas schneller als mein Xeon XD

Linmoum
2022-04-14, 16:00:57
Bei Computerbase im Test liegt der X3D auch in Red Dead Redemption 2 ganz klar weit vorne, keine Ahnung was die anderen Tester dort gemacht haben.

https://abload.de/img/x3dpnkyf.jpg
Bei CB kann man sich aber anderweitig genauso fragen, was die gebencht haben. ;)

CP2077 bei PCGH:
https://i.gyazo.com/11793fdd580616555f262306c3fdf71d.png

CP2077 bei CB:
https://i.gyazo.com/1571bef5d41cff64796792a0c228e7ea.png

Ich hab bei CB generell verstärkt den Eindruck, dass sie zwar in 720p benchen, aber oftmals trotzdem keine Szene haben (finden, whatever..), wo die CPUs dann auch wirklich stärker gefordert werden.

TwoBeers
2022-04-14, 16:04:26
Wow, schön, dass sich die Prognose von AMD bestätigt und nicht nur heiße Luft war.

Ein Hammer was die noch aus Zen 3 rausholen. Der 5800X3D ist ein krönender Abschluss der AM4 Plattform.

Vor allem mal wieder eine echte, clevere Ingenieursleistung, nicht einfach nur mehr Takt und mehr Verbrauch mit der Brechstange.
Bin gespannt wie Intel den Cache in Zukunft kontern will.

=Floi=
2022-04-14, 16:08:19
Ohne die E-Cores kann man das Ding aber insgesamt höher takten und somit einen echten Vorteil herausholen, während der X3D festklemmt.

MfG
Raff

Dann hätte es intel so verkaufen sollen.
Gibt es nicht und man zahlt für die E cores. Für intel wäre es kein drama auch eine solche cpu zu bringen oder ein modell normales einfach darauf auszulegen und zB KE zu nennen.


Ich frage mich ja auch noch immer, warum man im server bereich die krassen ungeregelten lüfter verbaut und hier nicht bei der effizienz mal ansetzt.
Weg von von den 40mm und den unrealen drehzahlen.

maximus_hertus
2022-04-14, 16:10:55
Was für eine Überraschung! Wow! Man ist also ziemlich genau auf 12900K Niveau und muss sich, je nach Parcours, dem 12900 KS minimal geschlagen geben. Soweit, so positiv.

Als dann der Part mit der Laistungsaufnahme kommt, hat es mich umgehauen. Einfach nur extrem beeindruckend. Je nach Review nur 55-70W Gaming-Verbrauch? Der 12900KS liegt beim 2,5-fachen. Bei gleicher Leistung.

Das ist ja gefühlt krasser als damals bei Bulldozer gegen Sandy Bridge, nur mit umgekehrten Vorzeichen.

Und als Krönung kann ich die CPU einfach auf mein vorhandenes, 5 Jahre altes, Mainboard drauf packen.

Boah, ich bin immer noch begeistert und hin und weg aufgurund der Energie-Effizienz. Diese ist gerade in heutigen Zeiten nochmals wichtiger geworden.

Dann muss ich wohl im Sommer mir den 5800X3D als Krönung für die AM4-Plattform kaufen :)

Lehdro
2022-04-14, 16:11:14
Wenn viel RAM/IF-Takt geht, wird Zen 3D gegen Zen 4 auch alt aussehen.
Zur Erinnerung: Bei PCGH wird ADL auch nur mit popeligem DDR5 4400 G2 getestet. Das dürfte gegen DDR4 3800 G1 ziemlich abstinken, so beeindruckend sind die Ergebnisse dort vom 3D also auch nicht (bis auf den Verbrauch natürlich).
Aber mal die Minuspunkte für direkt AM5 zum Zen 4 Release:
- neue unausgereifte Plattform (es ist und bleibt AMD ;))
- sehr teurer DDR5, wenn schnell (da wird sich das Jahr nicht mehr so viel tun)

Pluspunkte für den 5800X3D:
+ zeitnah >15% CPU Leistung
+ drop-in für den 5950X (den ich nicht mehr als MC Arbeitspferd brauche)
+ Stromverbrauch
+ Plattform ausgereift & vorhanden

Linmoum
2022-04-14, 16:12:14
Dann hätte es intel so verkaufen sollen.
Gibt es nicht und man zahlt für die E cores. Für intel wäre es kein drama auch eine solche cpu zu bringen oder ein modell normales einfach darauf auszulegen und zB KE zu nennen.
Naja, ADL als Hybrid und mit big.LITTLE zu bewerben um dann aber doch die E-Cores bei irgendwelchen Produkten abzuschalten (mit der "Begründung" weil's mehr bringt), wäre der Ansatz eines Eingeständnisses der Marke "verzockt" von Intel. ;)

Bei irgendwelchen Salvages ok, aber doch gerade nicht bei den Aushängeschildern.

Und wenn ich sehe, wie der 5800X3D auf Basis einer Architektur von 2020 performt und der Konkurrenz (trotz mittlerweile schon neuem Node) bei der Effizienz links und rechts jetzt auch in Spielen massive Backpfeifen verteilt, dann habe ich langsam auch das Gefühl, dass das big.LITTLE-Konzept von Intel nur verfolgt wird, weil sie es nicht anders/besser können.

Taigatrommel
2022-04-14, 16:13:39
Wow, schön, dass sich die Prognose von AMD bestätigt und nicht nur heiße Luft war.

Ein Hammer was die noch aus Zen 3 rausholen. Der 5800X3D ist ein krönender Abschluss der AM4 Plattform.

Vor allem wenn man bedenkt, dass man die CPU teilweise noch auf Boards der 1. AM4 Generation verbauen kann, welche ja nun auch über fünf Jahre auf dem Buckel haben.

Lehdro
2022-04-14, 16:15:04
Naja, ADL als Hybrid und mit big.LITTLE zu bewerben um dann aber doch die E-Cores bei irgendwelchen Produkten abzuschalten (mit der "Begründung" weil's mehr bringt), wäre der Ansatz eines Eingeständnisses der Marke "verzockt" von Intel. ;)

Und wenn ich sehe, wie der 5800X3D auf Basis einer Architektur von 2020 performt und der Konkurrenz (trotz mittlerweile schon neuem Node) bei der Effizienz links und rechts jetzt auch in Spielen massive Backpfeifen verteilt, dann habe ich langsam auch das Gefühl, dass das big.LITTLE-Konzept von Intel nur verfolgt wird, weil sie es nicht anders/besser können.
Naja, big.LITTLE bei Intel gibt es nur aus einem Grund: Performance/mm². Also $$$ für Intel weil man Waferfläche spart. Genau die war zu Skylakezeiten und auch noch danach massiv explodiert. Man schaue mal wie groß so ein Intelkern ist, im Vergleich zu Zen1/2/3.
Mit (Stromverbrauchs-)Effizienz hat das nur sekundär zu tun. Anders als bei ARM, wo die Leistungsaufnahme das Key Kriterium ist.

mironicus
2022-04-14, 16:18:42
Das ist also eher eine 65 Watt-CPU. Dann sollte sie auch auf den günstigsten A320-Boards laufen (ab 30 Euro). Sehr beeindruckend. Dann braucht man kein teures DDR5, kein PCIe 5.0 etc. im Vergleich zu Alder Lake.

Ich hoffe, AMD wird diesen Cache auch bei Mobile-Prozessoren anbieten, daß würde sich auch für Spiele-Laptops lohnen.

Nightspider
2022-04-14, 16:29:47
Aber mal die Minuspunkte für direkt AM5 zum Zen 4 Release:
- neue unausgereifte Plattform (es ist und bleibt AMD ;))
- sehr teurer DDR5, wenn schnell (da wird sich das Jahr nicht mehr so viel tun)

Pluspunkte für den 5800X3D:
+ zeitnah >15% CPU Leistung
+ drop-in für den 5950X (den ich nicht mehr als MC Arbeitspferd brauche)
+ Stromverbrauch
+ Plattform ausgereift & vorhanden

Zen4 wird dank neuem Fertigungsprozess auch einen riesigen Sprung bei der Effizienz hinlegen.

y33H@
2022-04-14, 16:32:15
Bei Raphael vs Vermeer bin ich gespannt, was da I/O-Die weniger schluckt.

MSABK
2022-04-14, 16:35:08
Geil. Ich bin sowas von geflasht.:)

Und zen4 kommt erst noch.

=Floi=
2022-04-14, 16:42:24
Big little sparrt massiv mm2 und das zählt bei intel. Die benchmark werte passen und man kann die benchwerte in ein gewisses powerbudget pressen. big little ist auch gut für den mobilen sektor um dort zu glänzen.
Fürn kunden ist es reine verarsche! Es wird mehr € pro core aus dem kunden gepresst und mit hängen und würgen kommt man auf dem desktop den großen amd prozessoren nahe.

MSABK
2022-04-14, 16:47:56
In Anno1800 geht die cpu auch ab.:)

WedgeAntilles
2022-04-14, 16:56:58
Als dann der Part mit der Laistungsaufnahme kommt, hat es mich umgehauen. Einfach nur extrem beeindruckend. Je nach Review nur 55-70W Gaming-Verbrauch? Der 12900KS liegt beim 2,5-fachen. Bei gleicher Leistung.

Das ist ja gefühlt krasser als damals bei Bulldozer gegen Sandy Bridge, nur mit umgekehrten Vorzeichen.

Auch wenn mir das jetzt gleich wieder negativ ausgelegt wird:

Wenn du den absolut miserablen 12900KS als Vergleich nimmst ist das ziemlich unredlich.
Der 12900KS ist effizienztechnisch absoluter Schrott, das wissen wir alle. Das ist doch nicht der Maßstab von AlderLake.

Bitte nimm einen sinnvollen Vergleich wie z.B. den 12700K.
Extremfälle sind einfach nicht sinnvoll für Vergleiche.

WedgeAntilles
2022-04-14, 17:03:24
HWU und GN sind - logischerweise - auch sehr angetan:
https://www.youtube.com/watch?v=ajDUIJalxis
(HardwareUnboxed)

https://www.youtube.com/watch?v=hBFNoKUHjcg
(Gamers Nexus)

Megamember
2022-04-14, 17:07:48
Bitte nimm einen sinnvollen Vergleich wie z.B. den 12700K.
Extremfälle sind einfach nicht sinnvoll für Vergleiche.


Ja, vor allem kann man Alder lake noch massiv! undervolten. Mein 12700X läuft mit -0,1V noch tadellos bei meist unter 50W ingame und mehr Takt als der Amd.

DrFreaK666
2022-04-14, 17:11:29
Auch wenn mir das jetzt gleich wieder negativ ausgelegt wird:

Wenn du den absolut miserablen 12900KS als Vergleich nimmst ist das ziemlich unredlich.
Der 12900KS ist effizienztechnisch absoluter Schrott, das wissen wir alle. Das ist doch nicht der Maßstab von AlderLake.

Bitte nimm einen sinnvollen Vergleich wie z.B. den 12700K.
Extremfälle sind einfach nicht sinnvoll für Vergleiche.

Sollte die 5800X3D 500€ kosten, dann ist der 12900F der Gegenspieler

Brillus
2022-04-14, 17:11:35
Vor allem wenn man bedenkt, dass man die CPU teilweise noch auf Boards der 1. AM4 Generation verbauen kann, welche ja nun auch über fünf Jahre auf dem Buckel haben.
Erinnere mich noch dran wo es raus kam und AMD angekündigt hat AM4 bis 2020 zu supporten und alle Intel Fanboys rumgeschriehen haben das ginge ja nicht und wäre ja alles Lüge. Jetzt sind wir 2022 angekommen.

KarlKastor
2022-04-14, 17:12:22
Naja, ADL als Hybrid und mit big.LITTLE zu bewerben um dann aber doch die E-Cores bei irgendwelchen Produkten abzuschalten (mit der "Begründung" weil's mehr bringt), wäre der Ansatz eines Eingeständnisses der Marke "verzockt" von Intel. ;)

Bei irgendwelchen Salvages ok, aber doch gerade nicht bei den Aushängeschildern.

Und wenn ich sehe, wie der 5800X3D auf Basis einer Architektur von 2020 performt und der Konkurrenz (trotz mittlerweile schon neuem Node) bei der Effizienz links und rechts jetzt auch in Spielen massive Backpfeifen verteilt, dann habe ich langsam auch das Gefühl, dass das big.LITTLE-Konzept von Intel nur verfolgt wird, weil sie es nicht anders/besser können.
Verstehe die Logik nicht. Erstens sind die CPUs nicht nur fürs Gaming gemacht. Kannst genauso gut jetzt Anwendungsrating anschauen und sagen das sich AMD mit dem 3D Cache ja gehörig verzockt hat.

Zweitens, was erwartest du von der Hybrid-Architektur in Games wenn so gut wie kein Spiel mit mehr als 8 Kerne skaliert?
Nicht umsonst ist auch der x3D mit acht Kernen genommen.

KarlKastor
2022-04-14, 17:15:17
Ich hab bei CB generell verstärkt den Eindruck, dass sie zwar in 720p benchen, aber oftmals trotzdem keine Szene haben (finden, whatever..), wo die CPUs dann auch wirklich stärker gefordert werden.
Wohl eher umgekehrt. Bei PCGH sind die drei CPUs fast gleich schnell und auch der 12700 ist kaum langsamer.
Vor allem Frage ich mich, wie man den 5800 langsamer als den 5600 benchen kann.

Linmoum
2022-04-14, 17:36:28
Ja, vor allem kann man Alder lake noch massiv! undervolten. Mein 12700 läuft mit -0,1V noch tadellos bei meist unter 50W ingame und mehr Takt als der Amd.Also laut PCGH zieht der 12700K @stock ingame knapp über 100W (zur Sicherheit noch mal Igors Review angeschaut, auch dort ist der 11700K in 9 von 10 Spielen @stock bei >100W, teilweise sogar ein gutes Stück darüber). Kommt unabhängig davon natürlich auch schlicht darauf an, welche Spiele und welche Szenen man als Maßstab nimmt. Aber dass man den dann mal eben auf <=50W ingame drücken kann und den Verbauch direkt halbiert - wenn die CPU wirklich stark gefordert wird - klingt mir dann doch etwas zu extrem.

Verstehe die Logik nicht. Erstens sind die CPUs nicht nur fürs Gaming gemacht. Kannst genauso gut jetzt Anwendungsrating anschauen und sagen das sich AMD mit dem 3D Cache ja gehörig verzockt hat.Der 5800X3D wird explizit als Gaming-CPU beworben. Ich kann mich nicht mit der Performance in Anwendungsgebiet A verzocken, wenn ich das Produkt sowieso nur mit Anwendungsgebiet B bewerbe. Das hat seinen Grund, wieso das der Fall ist.

Zweitens, was erwartest du von der Hybrid-Architektur in Games wenn so gut wie kein Spiel mit mehr als 8 Kerne skaliert?
Nicht umsonst ist auch der x3D mit acht Kernen genommen.Ich erwarte, dass man sich trotz neuestem Node und neuer Architektur nicht teilweise so dermaßen von der Konkurrenz abziehen lässt. AMD braucht nicht P- und E-Cores, bei AMD sind die Zen3-Kerne schlicht beides: PE-Cores. Das wird sich auch mit Zen4 nicht ändern.

Wohl eher umgekehrt. Bei PCGH sind die drei CPUs fast gleich schnell und auch der 12700 ist kaum langsamer.
Vor allem Frage ich mich, wie man den 5800 langsamer als den 5600 benchen kann.Hast du dir die einzelnen Spiele auch angeschaut oder nur stumpf das Gesamtrating? Die Unterschiede in den einzelnen Spielen sind teilweise riesig.

Und dass eine CPU mit weniger Kernen auch mal etwas schneller sein kann, ist keine neue Erkenntnis. Das Phänomen gibt's bei Intel genauso - auch mit ADL.

Megamember
2022-04-14, 17:50:25
Also laut PCGH zieht der 12700K @stock ingame knapp über 100W (zur Sicherheit noch mal Igors Review angeschaut, auch dort ist der 11700K in 9 von 10 Spielen @stock bei >100W, teilweise sogar ein gutes Stück darüber). Kommt unabhängig davon natürlich auch schlicht darauf an, welche Spiele und welche Szenen man als Maßstab nimmt. Aber dass man den dann mal eben auf <=50W ingame drücken kann und den Verbauch direkt halbiert - wenn die CPU wirklich stark gefordert wird - klingt mir dann doch etwas zu extrem.


Ich kann nur von mir sprechen. Flight simulator, AC Valhalla, Forza 5, Elex2, alles in 4K ohne Vsync, jeweils unter 50W Verbrauch bei 50-55Grad.

Leonidas
2022-04-14, 17:53:58
https://twitter.com/3DCenter_org/status/1514632068705226754
Some 5800X3D gaming results:

5800X – X3D – 12900K
82% – 100% – 99% – Tweakers
74% – 100% – 93% – Tom's
78% – 100% – 97% – TechSpot
85% – 100% – 100% – SweClockers
82% – 100% – 96% – PCGH
88% – 100% – 104% – QuasarZone
85% – 100% – 99% – Golem
78% – 100% – 93% – GameStar

Update: Fehler in der PCGH-Zeile gefixt.

The_Invisible
2022-04-14, 17:57:08
Aber mal die Minuspunkte für direkt AM5 zum Zen 4 Release:
- neue unausgereifte Plattform (es ist und bleibt AMD ;))
- sehr teurer DDR5, wenn schnell (da wird sich das Jahr nicht mehr so viel tun)

Pluspunkte für den 5800X3D:
+ zeitnah >15% CPU Leistung
+ drop-in für den 5950X (den ich nicht mehr als MC Arbeitspferd brauche)
+ Stromverbrauch
+ Plattform ausgereift & vorhanden

Hm, also die 30% bei Anno wären ja nett aber dafür von 16C auf 8C abrüsten? Nie und nimmer :D

maximus_hertus
2022-04-14, 18:01:00
Ich kann nur von mir sprechen. Flight simulator, AC Valhalla, Forza 5, Elex2, alles in 4K ohne Vsync, jeweils unter 50W Verbrauch bei 50-55Grad.

In 4K bist du sicherlich eher öfters im kompletten GPU Limit. Da wird dann die CPU spürbar weniger verbrauchen als bei einem CPU-Limit.

Ich stimme in dem Sinne zu, dass der 12700er die mit Abstand interessanteste Alderlake CPU ist und ggen den 5800X3D sicherlich deutlich besser aussieht als die i9 K(S). Klar, der 12700er wird ohne OC sicherlich eher knapp hinter dem X3D landen, aber dabei nicht so desaströs saufen.

Aber, Balken ist alles (war ja schon immer so bei Intel) und so muss sich Intel nicht wundern, wenn jetzt alle auf den 12900KS zeigen und den monströsen Stromverbrauch kritisieren.

Rolsch
2022-04-14, 18:06:13
Gibts schon irgendwo Benches mit dem MS Flight Simulator?

Benutzername
2022-04-14, 18:08:34
Bleibt nur noch die Frage, warum es keinen 12/16-Kerner mit 3D-Cache gibt. Der würde dann wohl eindeutig die Krone holen.
->Epyc


Genau dieses. Für manche Serveranwendungsfälle ist der 3D Cache super und auch noch nur ein AGESA Update und CPU Wechsel entfernt. Da bleibt dann vermutlich nicht mehr so viel für den Desktop und wie andere ja auch shcon anmerkten bringt der 3D Cache nicht so viel für Desktop außer Spiele. Von daher reicht der Achtkerner als Haloprodukt um 3D Cache auch im AM4 zu präsentieren, und Spiele profitieren von vielen Kernen auch nicht so sehr Also wozu zehn oder sechzehn?. Deswegen dürften auch die meisten Chiplets in 3D Epycs wandern.

Linmoum
2022-04-14, 18:08:34
Golem hat den MSFS dabei:

https://scr3.golem.de/screenshots/2204/5800X3D-Benches-Games/thumb620/04-flight-simulator,-a320neo-over-nyc-(ultra-preset,-ext-cam,-d3d11,-720p)-chart.png

w0mbat
2022-04-14, 18:39:30
Erste CPU, die 60 FPS min. in Anno 1800 schafft laut PCGH.

Rabiata
2022-04-14, 18:44:32
Auch wenn mir das jetzt gleich wieder negativ ausgelegt wird:

Wenn du den absolut miserablen 12900KS als Vergleich nimmst ist das ziemlich unredlich.
Der 12900KS ist effizienztechnisch absoluter Schrott, das wissen wir alle. Das ist doch nicht der Maßstab von AlderLake.

Bitte nimm einen sinnvollen Vergleich wie z.B. den 12700K.
Extremfälle sind einfach nicht sinnvoll für Vergleiche.
Hier geht es wohl den meisten darum, wie viel Performance aus dem absoluten Topmodell herauszuquetschen ist. Also 12900KS vs. 5800X3D. Macht auch Spaß, den Intel-AMD Wettlauf zu beobachten.

Wenn man das Ganze etwas differenzierter sehen will, hast Du absolut recht. Ich würde für den Eigenbedarf sogar noch bescheidener rangehen und einen 65W 6-8 Kerner nehmen. Preiswert und nicht extrem viel langsamer.

aufkrawall
2022-04-14, 18:48:19
Erste CPU, die 60 FPS min. in Anno 1800 schafft laut PCGH.
In der Benchszene. Die ist aber nicht mit schräger Kameraperspektive, dabei wirds auch weiterhin in ruckelige Gefilde gehen. Und bei Golem ist ADL schneller.

Holundermann
2022-04-14, 18:51:24
Ich bin einfach nur begeistert was AMD hier abliefert. Bei Performance und Effizienz ganz vorne.

Für mich persönlich ist das der absolute Hammer. Ich hab mir vor 4 Jahren meinen 2700x (6.6.2018) gekauft mit damals sauteurem DDR 4 3600 Speicher. Jetzt 4 Jahre später kann ich mir für 450 Euro eine neue CPU kaufen und bin wieder am Absolutem Leistungszenit - zumindest bis Zen 4 :).

Das ist einfach Kundenfreundlich ^10 von AMD und ein krönender Abschluss für den Sockel.

Thomas Gräf
2022-04-14, 18:55:17
Golem hat den MSFS dabei:

https://scr3.golem.de/screenshots/2204/5800X3D-Benches-Games/thumb620/04-flight-simulator,-a320neo-over-nyc-(ultra-preset,-ext-cam,-d3d11,-720p)-chart.png

Ich seh da erstma ein dickes Aua für DDR5. :freak:

Benutzername
2022-04-14, 19:01:50
Hat schon jemand den 3800X3D auf einem älteren Mobo mit älterem lamgsameren RAM getestet? Meine Vermutung ist, da der RAM auf dem Mobo nicht mehr so wichtig ist. Wäre ja durchaus interessant aus einem Ryzen 1000 oder 2000 System noch was herauszuholen ohne auhc noch neues RAM kaufen zu müssen.

MSABK
2022-04-14, 19:21:58
Hat schon jemand den 3800X3D auf einem älteren Mobo mit älterem lamgsameren RAM getestet? Meine Vermutung ist, da der RAM auf dem Mobo nicht mehr so wichtig ist. Wäre ja durchaus interessant aus einem Ryzen 1000 oder 2000 System noch was herauszuholen ohne auhc noch neues RAM kaufen zu müssen.

Meinst bestimmt 5800x3d.;)

Mit dem 3dcache sollte doch der Ram eher unwichtig sein jetzt oder?

Hakim
2022-04-14, 19:24:28
Ich würde vermutlich derzeit dennoch zum 12900K greifen, aber der X3D ist schon verdammt gut, gerade der geringe Durst bei Spielen, hat AMD echt gute Arbeit geleistet.

r3ptil3
2022-04-14, 19:38:45
Erstklassige Gaming-CPU!

Einziger Wehrmutstropfen ist, dass der 5800X3D ein richtiger Hitzkopf ist.
Macht wirklich keinen Spass wenn die CPU im IDLE einfach mal plötzlich 20-30K raufschiesst.

ChaosTM
2022-04-14, 19:52:58
Ich hab den 14er Noctua drinnen, das wäre mir wurscht. Hmm, die Verlockung ist da den 5900er abzustoßen (FS2020), aber wirklich merken würde man es wohl nicht. Lassma das lieber :)

iamthebear
2022-04-14, 19:56:45
Hat eigentlich schon jemand die Verlustleistung bei gleichem Takt gemessen? Wäre interessant wie viel Energie der VCache nun wirklich braucht.

Als Upgrade bei bestehenden AM4 Systemen macht das richtig Sinn. Mit dem Cache sollte es auch kein Drama sein, wenn man seinen alten langsamen RAM (z.B. 2666) behält.

Bei neuen Systemen würde ich aber trotzdem weiterhin zum 12700 greifen, da man so ca. 20% mehr Performance in allen anderen Situationen hat, wo es nicht um FPS geht.

Platos
2022-04-14, 20:03:45
Bitte nicht schon wieder (https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/). ;)


MfG
Raff

Nur testet man mit 720p Benchmarks "nur", welche CPU schneller ist, aber nicht, mit welcher CPU ich jetzt in Auflösung xyz profitiere. Man kann damit eig. nur sagen, dass sie in Zukunft schneller sein wird, aber wann das auftritt, kann man mit 720p Benchmarks nicht sagen. Man kann es eig. nur erraten.

Tests sollten ja aber nicht dazu da sein, dass man erraten kann, ab wann eine CPU einem einen Vorteil bringt, oder nicht? Viele andere machen das besser. Die testen auch 720p, aber eben auch 1080p, 2160p und ich glaube manchmal auch 1440p. Dann kann man sich genau ansehen, wie sich die Leistung entwickelt. Natürlich ist das GPU-Abhängig. Wenn ne schwächere GPU verwendet wird, ist man früher im CPU-Limit. Ändert aber nichts an der "only 720p" Teststrategie. Die ist nur theoretischer Natur. Ich will nicht wissen, wie oft Leute basierend auf 720p Benchmakrs eine CPU kaufen, weil sie denken, sie gewinnen damit FPS. In der Praxis wirds dann aber vermutlich gar nicht eintreten.

Oder was sagst du dazu? Wie kannst du aus 720p Benchmarks herauslesen, ab wann eine CPU in einer bestimmten Auflösung einen wie grossen Vorteil bringt? Ich würde sagen: Gar nicht, du kannst auch nur raten ;)

Tangletingle
2022-04-14, 20:09:19
Ich kann nur von mir sprechen. Flight simulator, AC Valhalla, Forza 5, Elex2, alles in 4K ohne Vsync, jeweils unter 50W Verbrauch bei 50-55Grad.
Also quasi dauerhaft im gpu Limit. Wundert einen dann also nicht. Da bräuchte es dann auch keinen 12900k oder 5800x3D

ChaosTM
2022-04-14, 20:19:40
Zwischen dem normalen AMD, 3D und Intels CPUs wirst unter normalen Auflösungen (1440p+) sowieso keinerlei Unterschied merken. Eventuell fühlt man den normalen AMD in Grenzsituationen minimal heraus.
Die 720p sind dazu da den längsten (Balken) zu kreieren. :D

Man kann aber erahnen, dass dieser "Vorsprung" bei 4k auf nahe 0 sinkt.

davidzo
2022-04-14, 20:30:16
Hat eigentlich schon jemand die Verlustleistung bei gleichem Takt gemessen? Wäre interessant wie viel Energie der VCache nun wirklich braucht.
Ich glaube das macht nicht wirklich Sinn, das Ding ist ja ein SOC, da kannst du schwer trennen was der extracache alleine nun an Energie kostet.
Die meiste Energie spart der X3D ja im IMC, indem der Gang zum DRAM gespart wird wenn das Dataset noch in den Cache passt. Wie willst du diese Einsparungen vernünftig trennen vom Verbrauch des Cache?
Klar, du kannst Loads testen die nur in den L2 passen, dann würdest du vermutlich einen minimal erhöhten Energieverbrauch bei gleichem Takt messen, durch den Pagerefresh des größeren L3.
Aber sobald der L3 voll genutzt wird verbraucht eine Vermeer CPU ohne cache wohl immer mehr, da der IMC viel mehr arbeiten muss.

AwesomeSauce
2022-04-14, 20:31:31
Man kann aber erahnen, dass dieser "Vorsprung" bei 4k auf nahe 0 sinkt.

Einige Leute kaufen sich eine solche CPU genau für diejenigen Fälle. AVG FPS interessieren mich wenig. Von 720p Benchmarks kann ich ableiten, wie sich der Frameverlauf in CPU intensiven Situationen (eventuell einzelne Frames) auch in sonst GPU-limitierten Szenarien verhalten wird. Keine Ahnung warum die Nützlichkeit dieser Art zu Benchmarken immer in Frage gestellt wird.

ChaosTM
2022-04-14, 20:43:31
Einige Leute kaufen sich eine solche CPU genau für diejenigen Fälle. AVG FPS interessieren mich wenig. Von 720p Benchmarks kann ich ableiten, wie sich der Frameverlauf in CPU intensiven Situationen (eventuell einzelne Frames) auch in sonst GPU-limitierten Szenarien verhalten wird. Keine Ahnung warum die Nützlichkeit dieser Art zu Benchmarken immer in Frage gestellt wird.


Ich hab absolut kein Problem damit. Man muss nur genau schauen, wann und wo die Unterschiede auftreten. Liegt ein (Strategie)spiel irgendwo hart an der 30, 60 oder 120fps Grenze, kann das sehr wohl entscheidend sein.

Test mit höheren Auflösungen mit hinein zu nehmen schadet daher nicht.
Für die pure Rohleistung wäre 16x9 perfekt -> siehe Raff :D

Platos
2022-04-14, 20:44:26
Zwischen dem normalen AMD, 3D und Intels CPUs wirst unter normalen Auflösungen (1440p+) sowieso keinerlei Unterschied merken. Eventuell fühlt man den normalen AMD in Grenzsituationen minimal heraus.
Die 720p sind dazu da den längsten (Balken) zu kreieren. :D

Man kann aber erahnen, dass dieser "Vorsprung" bei 4k auf nahe 0 sinkt.

https://www.eurogamer.net/digitalfoundry-2021-intel-core-i9-12900k-i5-12600k-review?page=2

Das sieht wohl z.B da anders aus. Mal 11900k und 12900k vergleichen in 4k oder 1440p.

ChaosTM
2022-04-14, 20:50:56
Das wundert mich jetzt schon. Scheinbar ist der Flaschenhals bei manchen Spielen doch eher bei der CPU denn der GPU. Selbst in 4k. Hmm

Benutzername
2022-04-14, 20:53:27
Meinst bestimmt 5800x3d.;)

Mit dem 3dcache sollte doch der Ram eher unwichtig sein jetzt oder?


LOL :lol: Ja natürlich 5800.

ja, das ist meine frage, wie unwichtiger wird der RAM?

Tarkin
2022-04-14, 20:54:11
Gibts schon irgendwo Benches mit dem MS Flight Simulator?
jup bei Linus: ziemlich WOW

AwesomeSauce
2022-04-14, 20:58:20
Test mit höheren Auflösungen mit hinein zu nehmen schadet daher nicht.
Für die pure Rohleistung wäre 16x9 perfekt -> siehe Raff :D
Das stimmt natürlich. In Anbetracht der begrenzten Zeit, die für solche Reviews normalerweise bereitsteht, sehe zumindest ich lieber 720p Benchmarks für CPU-Reviews, am besten mit Frametime-Logs.

BTT: Sehr überzeugende Leistung :)

Für zukünftige CPU-Reviews wäre es definitiv sehr schön zu sehen, wenn jeweils (Intel-) Topmodelle mit vielen, aber deaktivierten Kernen den kleineren Modellen mit weniger Kernen (und damit weniger Cache, zumindest bei Intel) gegenübergestellt werden. Damit kann man sehen, ob sich die Modelle mit mehr Kernen die Mehrleistung eher durch das Mehr an Kernen, oder den zusätzlichen Cache holen.

Ähnlich wie es z.B Techspot macht: https://www.techspot.com/article/2308-cpu-cores-and-cache/

Wird sehr spannend für Zen 4 :cool:

Linmoum
2022-04-14, 21:08:12
Das wundert mich jetzt schon. Scheinbar ist der Flaschenhals bei manchen Spielen doch eher bei der CPU denn der GPU. Selbst in 4k. HmmNennt sich halt CPU-Limit. ;) Daür muss man nicht einmal erst irgendwelche Indie-Spiele oder unbekannten Titel suchen, um erahnen zu können, dass es kritisch wird bzw. werden kann. Marc hat für Golem lauter Spiele drin, wo du schon bei (deutlich) unter 60fps rumkrebst. Gerade Kingdom Come ist immer noch ein schönes Beispiel neben Klassikern wie Anno.

https://scr3.golem.de/screenshots/2204/5800X3D-Benches-Games/thumb620/04-flight-simulator,-a320neo-over-nyc-(ultra-preset,-ext-cam,-d3d11,-720p)-chart.png


https://scr3.golem.de/screenshots/2204/5800X3D-Benches-Games/thumb620/01-anno-1800,-island-v3-(ultra-preset,-d3d12,-far-cam,-720p)-chart.png

https://scr3.golem.de/screenshots/2204/5800X3D-Benches-Games/thumb620/04-flight-simulator,-a320neo-over-nyc-(ultra-preset,-ext-cam,-d3d11,-720p)-chart.png

https://scr3.golem.de/screenshots/2204/5800X3D-Benches-Games/thumb620/05-kingdom-come-deliverance,-rattay-ride-(ultra-preset,-720p)-chart.png

Und wenn die Performance in einem halben Jahr mit den neuen Gens tatsächlich (mehr als) verdoppelt wird, dann rückt auch die CPU in hohen Auflösungen bei allen in den Fokus, die sich jetzt über 720p-Benchmarks lustig machen.

Da sehen die Leute dann in den GPU-Benchmarks +90% auf ihre alte Grafikkarte und wundern sich dann, warum in ihren Spielen stattdessen die Performance aber nur um 60% steigt. Sieht man alles, wenn man CPU-Tests in low res durchführt.

ChaosTM
2022-04-14, 21:09:59
Jop, Zen 4 vs Intel Saurier sollte spannend werden.

@Linmoum
Bei 4k war bis vor "kurzem" auch bei Strategiespielen noch die GPU oft der Flaschenhals, daher meine Verwunderung.
Anno war mir klar, das ist berühmt dafür.
Erst seit dem FS2020 beobachte ich das wieder vermehrt.

decimad2
2022-04-14, 21:18:41
Und wenn die Performance in einem halben Jahr mit den neuen Gens tatsächlich (mehr als) verdoppelt wird, dann rückt auch die CPU in hohen Auflösungen bei allen in den Fokus, die sich jetzt über 720p-Benchmarks lustig machen.

Und was verleitet Dich zu denken, dass diese Mehrperformance nicht gleich wieder mit mehr Shaderlast zugeknüppelt wird?

-=Popeye=-
2022-04-14, 21:23:17
AMD Ryzen 7 5800X3D im Test: Mit 3D-V-Cache und hoher Effizienz gegen Intel (https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Tests/Benchmark-Preis-Release-vs-12900KS-1392948/)

Ich finde das Verhältnis köstlich. Intel braucht ~2,5× so viel Energie für die gleiche Durchschnittsleistung (Fps) in Spielen. Heftig. Cache is King. Wobei, eigentlich ist ja Takt der König, aber der säuft mehr. ;)

MfG
Raff

Habt ihr eure Anno 1800 Szene durch ein Neues Savegame ersetzt oder was am Setting geändert?

Weil eurer Ergebnis hier absolut nicht nachvollziehbar ist, dass gleiche gilt für Cyperpunk 2077. :rolleyes:

Achso es handelt sich hier um einen 12900k @ 5,0p/4,0e/4,0c mit optimierten DDR4-4000 RAM Settings + RX 6900 XT (ASRock XTXH Karte) und die Kiste rennt einfach so an eurer KS Mühle und dem 5800X3D in diesen beiden Spielen vorbei bzw davon. :|

Thomas Gräf
2022-04-14, 21:36:59
LOL :lol: Ja natürlich 5800.

ja, das ist meine frage, wie unwichtiger wird der RAM?

Das werden sich in den nächsten Monaten viele Gamer fragen.

Die Gretchen Frage lautet dann viel Takt+teurem DDR5 und teuren Bords, oder 3D Cache mit weniger Takt+günstigem RAM und damit budget Bords.

Da alles zZ teurer wird und Consumer Software immer scheizze sein wird...hmm.

lilgefo~
2022-04-14, 22:36:24
Interessante CPU hätte mich evtl. auch interessiert. Die Benchmarkvergleiche mit dem 12900k sind mir zu undurchsichtig, da anscheinend jeder bencht wie er lustig ist und unklar ist ob VBS aktiv war oder nicht und/oder die CPU durch unzureichende Kühlung am Throttlen war. Wenn man mal beispielsweise die Ergebnisse von PCGH, Golem und CB vergleicht kommt man da auf völlig andere Resultate. Zeigt aber auch, dass der 5800x3d im Gegensatz zu AL eine sehr gute no drama, top shelf cpu ist. Ziemlich schnell, geringer Verbrauch und da man nichtmal OCen kann muss man sich auch 0 damit beschäftigen. Einfach einbauen und loslegen. (y)

Der_Korken
2022-04-14, 22:43:22
Kann man eigentlich den 5800X3D undervolten oder ist das auch gesperrt?

horn 12
2022-04-14, 22:52:23
Wer hat den die 4K Benchmarks und eine 6800XT oder gar 6900XT Custom verbaut ?

Thunder99
2022-04-14, 23:23:02
Kann man eigentlich den 5800X3D undervolten oder ist das auch gesperrt?
Geht (noch) nicht. Anscheinend arbeitet AMD aber daran es möglich zu machen.

Echt krasse CPU :biggrin:, frage mich grad ob der Mugen5 den Hitzkopf bändigen kann ohne das die CPU trottelt :uponder:

Ex3cut3r
2022-04-14, 23:38:52
Könnte interessant werden, für eine Neuanschaffung bzw. Ersatz für den 3600 in meiner Kiste. Allerdings habe ich schon sehr schnellen RAM verbaut, bleibt die Frage ob der 5700X mir nicht ausreichen wurde, ich komme auch noch mit meinen 3600 prima zurecht. :uponder:

DK2000
2022-04-14, 23:39:53
Schöne Duftmarke die AMD zum Abgesang von AM4 da liefert. Mit der Erfahrung wird Zen4 verdammt spannend.

r3ptil3
2022-04-14, 23:57:05
@Ex3

Oder einfach einen 5600 mit offenem PL und mit Glück einen IF Clock von 3800-4000 Mhz.

Kostet einfach weniger als die Hälfte eines 5800X3D.

Platos
2022-04-15, 00:03:12
Das wundert mich jetzt schon. Scheinbar ist der Flaschenhals bei manchen Spielen doch eher bei der CPU denn der GPU. Selbst in 4k. Hmm

Deswegen sage ich ja: 720P Benchmarks sind nice, aber meiner Meinung nach brauchts auch noch die gängigen Auflösungen, die auch wirklich gespielt werden. Denn wie willst du abschätzen, wann der Vorteil, den du bei 720P hast, auch bei "deiner" Auflösung ankommt? Da helfen solche Tests.

Natürlich ist das ein Mehraufwand, aber wenn man zusätzlich noch in 1080p, 1440p und 2160p bencht, dann kann man grob abschätzen, wie stark die GPU Leistung ansteigen müsste (bzw. ob sie das überhaupt noch muss). Wenn man ne schwächere GPU hat, wie bei Testsseiten, kann man das trotzdem abschätzen. Einfach gegen unten hin dann.

Nur 720P Benchmarks sind Rätselraten für eine echte Kaufentscheidung m.M.n. Technisch vlt. korrekt, um die CPU zu testen, aber die Leute wollen auch wissen, wann die CPU was bringt.


Da sehen die Leute dann in den GPU-Benchmarks +90% auf ihre alte Grafikkarte und wundern sich dann, warum in ihren Spielen stattdessen die Performance aber nur um 60% steigt. Sieht man alles, wenn man CPU-Tests in low res durchführt.

Nur wüsstest du das alles nicht, wenn es nur 720p Benchmarks gäbe. Denn ohne Vergleich zu höheren Auflösungen, kann man auch nie einschätzen, wann der Vorteil der CPU in Auflösung xyz auftritt. Der Vorteil könnte in einem Jahr kommen oder in 10 Jahren. Ohne Vergleich kann man nur raten.

Deswegen muss man in 720p testen und auch in höheren Auflösungen. Wobei wenn die Leistung wirklich aufs 2-Fache ansteigt, dann brauchts auch keine 720p Tests mehr. Dann kann man auch gleich in 1080p testen. Kommt dann aufs selbe raus.

Hammer des Thor
2022-04-15, 00:23:11
Übertakten und undervolten geht wohl nicht, aber hoffentlich der 65 Watt Eco-Modus über den Ryzen-Master?
Bin gespannt wie der in star citizen welches sehr mit dem RAM-Takt und Latenzen skaliert abgeht. Will gleich 64 GB RAM reinmachen ich denke wegen dem riesen cache dürfen nur mittelgute Latenzen bei 3600 von 18 nicht viel schlechter sein als sehr gute von 14 zumal ich 64 GB RAM CL 18 mit knapp 350 Euro billiger bekomme als 32 GB 3600 mit CL 14.
Denke mal wenn ich für die Zukunft gerüstet sein will sind 64 GB Ram besser und da dann wegen dem grossen Cache die Datenrate wichtiger als die Latenzen, da die meisten Direktzugriffe auf den cache erfolgen dürften und RAM-Zugriffe eher zum kopieren in den cache, oder irre ich mich da?

Slipknot79
2022-04-15, 00:24:37
Von den unzähligen Reviewern schaffen es gerade mal 2 (Techpowerup und Guru3d) den 9900k in die 4k Benchmarks reinzuballern. :rolleyes:
Was für ein Debakel. Die restlichen 99% der Tabellen mal wieder für nix zu gebrauchen.

99% der Spielzeit hänge ich mit 99% GPU-Last im GPU limit.
Was ist die grandiose Idee der Reviewer? Wir testen im CPU limit. lol :rolleyes:
Damit verbunden natürlich der Zeitmangel mal ne ordentliche historische Range von CPUs in 4k durchzuballern. :rolleyes:

Nur damit kann ich eine Kauf- oder Nichtkaufentscheidung treffen.

Würde mich ärgern, wenn ich noch einen 6700k, 7700k oder 8700k oder älter hätte und mir die Frage stellen müsste "soll ich nun die CPU/Plattform upgraden oder nicht?". :rolleyes:

Zeit den Reviewern nen Lambo (non-Urus) in die Hand zu drücken, der wird dann auf Geländetauglichkeit getestet. (y)
Auf diesem Level laufen die Benchmarks ab. (y)

y33H@
2022-04-15, 00:47:28
jup bei Linus: ziemlich WOW12900KS vs 12900K sind völlig abwegige Werte und 12700K vs 12900K auch :freak:

Thomas Gräf
2022-04-15, 00:56:27
Das Testen is ja nicht nur eine Software Lotterie (shit in shit out) sondern auch noch eine System Angelegenheit. Keine zwei Windows PCs machen das Gleiche.

Wenn man Erfahrungswerte braucht helfen nur User/Foren die sich auf Dein Lieblings Game eingeschossen haben und dort alles testen.

Redaktionen können immer nur den Einblick aus ihrer Sicht geben.
Ihr verlangt höchsten Industrie Standard für Consumer Geschichten, Ihr seit hier doch nicht auf Arbeit. ;)

y33H@
2022-04-15, 01:06:28
...Ich denke, ich teste Grafikkarten künftig mit einem Atom in 4K :ucatch:

Thomas Gräf
2022-04-15, 01:08:29
Übertakten und undervolten geht wohl nicht, aber hoffentlich der 65 Watt Eco-Modus über den Ryzen-Master?
Bin gespannt wie der in star citizen welches sehr mit dem RAM-Takt und Latenzen skaliert abgeht. Will gleich 64 GB RAM reinmachen ich denke wegen dem riesen cache dürfen nur mittelgute Latenzen bei 3600 von 18 nicht viel schlechter sein als sehr gute von 14 zumal ich 64 GB RAM CL 18 mit knapp 350 Euro billiger bekomme als 32 GB 3600 mit CL 14.
Denke mal wenn ich für die Zukunft gerüstet sein will sind 64 GB Ram besser und da dann wegen dem grossen Cache die Datenrate wichtiger als die Latenzen, da die meisten Direktzugriffe auf den cache erfolgen dürften und RAM-Zugriffe eher zum kopieren in den cache, oder irre ich mich da?

Lass das mit den 64GB für SC. Ich hab 32GB das langt voll. Sollte mal ein PTU zuppeln werden CIG das zurecht patchen. Kein Live braucht 64GB RAM.
Lass mal den RAM so drin...von was würdest Du wechseln zum X3D?

Hammer des Thor
2022-04-15, 02:06:58
Lass das mit den 64GB für SC. Ich hab 32GB das langt voll. Sollte mal ein PTU zuppeln werden CIG das zurecht patchen. Kein Live braucht 64GB RAM.
Lass mal den RAM so drin...von was würdest Du wechseln zum X3D?


Von einen 6700k mi 16 GB DDR 3000 CL 15
32 GB wären nach über 6 Jahren ein sehr kleiner Sprung, nach dem moorschen Gesetz müssten es ja dann nach 6 Jahren min. 128 GB sein, ausserdem brauche ich nen Grund den nach der Bezeichnung meines ersten Computers in 1984 zu nennen "Commodore 64":freak:
Ausserdem wird gerade SC immer weiter ausgebaut, anfangs für den Hangar und die ersten arena commander Versionen langten 8GB, das Objekt-Container-Streaming kann sich variabel sich an die RAM-Menge anpassen und ich denke in 3-4 Jahren dürften 64GB RAM nicht zu viel sein. Wenn ist die erst mal einbaue werde ich diese auch nicht mehr aufrüsten müssen denke ich. Und der Preis ist ja nicht so hoch, habe in Mitte der 90er auch schon 498 DM für 16 MB RAM in 2 Riegeln auf den Tisch gelegt was inflationsbereinigt vergleichbar sein dürfte.

Leonidas
2022-04-15, 04:04:32
12900KS vs 12900K sind völlig abwegige Werte und 12700K vs 12900K auch :freak:

Schön, das es nicht nur mir auffällt. Seltsam, das es LTT nicht selber auffällt.

KarlKastor
2022-04-15, 04:56:09
A
Der 5800X3D wird explizit als Gaming-CPU beworben. Ich kann mich nicht mit der Performance in Anwendungsgebiet A verzocken, wenn ich das Produkt sowieso nur mit Anwendungsgebiet B bewerbe.
Das hat seinen Grund, wieso das der Fall ist.

Intel hat Alder Lake nicht nur für Games beworben. Warum also dann nur dort bewerten? Merkste selber oder?


Ich erwarte, dass man sich trotz neuestem Node und neuer Architektur nicht teilweise so dermaßen von der Konkurrenz abziehen lässt.

AMD braucht nicht P- und E-Cores, bei AMD sind die Zen3-Kerne schlicht beides: PE-Cores. Das wird sich auch mit Zen4 nicht ändern.
In Games? Oder bist du jetzt wieder bei Anwendungen?

Hast du dir die einzelnen Spiele auch angeschaut oder nur stumpf das Gesamtrating?

Hä? Ich rede von dem was du gepostet hast. Deswegen zitier ich das. Cyberpunk hattest du verlinkt.


Und dass eine CPU mit weniger Kernen auch mal etwas schneller sein kann, ist keine neue Erkenntnis. Das Phänomen gibt's bei Intel genauso - auch mit ADL.
Mehr Cache und Kerne sind langsamer bei gleichem Takt? Habe ich bisher noch nie gesehen.

tm0975
2022-04-15, 08:59:25
Mining-Benchmarks würden mich interessieren. XHV müßte beispielsweise profitieren, da mehr threads parallel laufen könnten.

M4xw0lf
2022-04-15, 09:07:15
...
:facepalm:

WedgeAntilles
2022-04-15, 09:41:25
Deswegen sage ich ja: 720P Benchmarks sind nice, aber meiner Meinung nach brauchts auch noch die gängigen Auflösungen, die auch wirklich gespielt werden. Denn wie willst du abschätzen, wann der Vorteil, den du bei 720P hast, auch bei "deiner" Auflösung ankommt? Da helfen solche Tests.

Natürlich ist das ein Mehraufwand, aber wenn man zusätzlich noch in 1080p, 1440p und 2160p bencht, dann kann man grob abschätzen, wie stark die GPU Leistung ansteigen müsste (bzw. ob sie das überhaupt noch muss). Wenn man ne schwächere GPU hat, wie bei Testsseiten, kann man das trotzdem abschätzen. Einfach gegen unten hin dann.

Nur 720P Benchmarks sind Rätselraten für eine echte Kaufentscheidung m.M.n. Technisch vlt. korrekt, um die CPU zu testen, aber die Leute wollen auch wissen, wann die CPU was bringt.



Nur wüsstest du das alles nicht, wenn es nur 720p Benchmarks gäbe. Denn ohne Vergleich zu höheren Auflösungen, kann man auch nie einschätzen, wann der Vorteil der CPU in Auflösung xyz auftritt. Der Vorteil könnte in einem Jahr kommen oder in 10 Jahren. Ohne Vergleich kann man nur raten.

Deswegen muss man in 720p testen und auch in höheren Auflösungen. Wobei wenn die Leistung wirklich aufs 2-Fache ansteigt, dann brauchts auch keine 720p Tests mehr. Dann kann man auch gleich in 1080p testen. Kommt dann aufs selbe raus.

+1.
720p ist enorm wichtig, um die CPUs am besten vergleichen zu können.
Dennoch ist auch eine höhere Auflösung wichtig, um besser abschätzen zu können "was kommt von der Mehrleistung effektiv bei mir an".

Klar, wenn mein Budget relativ groß ist kann ich einfach den 5800X 3D kaufen und mache gar nichts falsch.
Habe ich das Budget und entscheide ich mich für AMD dürfte es keine zwei Meinungen geben welche CPU man sich als Gamer holt.
Was aber, wenn der Aufpreis des 5800X 3D gegenüber dem 5600 bedeutet, dass ich stattdessen woanders etwas einsparen muss?
Wenn es dann z.B. die Abwägung ist: 5800X 3D + 6800XT oder 5600 + 6900XT?

Rancor
2022-04-15, 09:50:24
Lol Für Gaming ist das die krankest CPU ever. Ich würde mich jetzt schon ärgern nen Alder Lake gekauft zu haben :D Alleine wie effizient der ist.

ChaosTM
2022-04-15, 09:57:50
Hat at jemand einen 4k Benchmark für den Fs2020. Bis 1080p bleibt der Vorsprung gleich. Da das Spiel extrem an der CPU nuckelt wird das wohl bei 4k ähnlich sein.
Ich überlege ernsthaft den 5900 zu Kübeln für den neuen 3D.
Wenn der ab 1440 immer noch fast 30% drauflegt wird getauscht.

Knuddelbearli
2022-04-15, 10:11:27
Auch wenn mir das jetzt gleich wieder negativ ausgelegt wird:

Wenn du den absolut miserablen 12900KS als Vergleich nimmst ist das ziemlich unredlich.
Der 12900KS ist effizienztechnisch absoluter Schrott, das wissen wir alle. Das ist doch nicht der Maßstab von AlderLake.

Bitte nimm einen sinnvollen Vergleich wie z.B. den 12700K.
Extremfälle sind einfach nicht sinnvoll für Vergleiche.

Wieso soll man nicht mit dem Vergleichen der Leistungsmäßig gleich auf ist und den Intel extra als Konter releast hat?
Das ergibt doch 0 Sinn

Sardaukar.nsn
2022-04-15, 10:13:07
Geht (noch) nicht. Anscheinend arbeitet AMD aber daran es möglich zu machen.

Echt krasse CPU :biggrin:, frage mich grad ob der Mugen5 den Hitzkopf bändigen kann ohne das die CPU trottelt :uponder:

Schade das UV, OC und wohl auch der Curve Optimizer nicht beim 3D Modell funktionieren. Meinen 5800X habe ich, genau wie den RAM manuell prima einstellt und er boostet im Gaming Betrieb auf 5025mhz. Beim 3D ist ja leider schon bei 4,5Ghz Schluss. Trotzdem ein cooler CPU, für mich würde ein Wechsel aber wenig Sinn machen. 1440p GPU Limit lässt grüßen :smile:

Platos
2022-04-15, 10:19:47
Hat at jemand einen 4k Benchmark für den Fs2020. Bis 1080p bleibt der Vorsprung gleich. Da das Spiel extrem an der CPU nuckelt wird das wohl bei 4k ähnlich sein.
Ich überlege ernsthaft den 5900 zu Kübeln für den neuen 3D.
Wenn der ab 1440 immer noch fast 30% drauflegt wird getauscht.

Da würde ich aber genau schauen, ob der in den für dich wichtigen Spielen so zulegt. Und die Grafikkarte nicht vergessen. Wenn die mit ner 3080/3090 testen und du mit ner 3060 rumgurkst, landest du natürlich viel eher im GPU Limit, wie mit ner 3090 oder so.

r3ptil3
2022-04-15, 10:21:19
Schade das UV, OC und wohl auch der Curve Optimizer nicht beim 3D Modell funktionieren. Meinen 5800X habe ich, genau wie den RAM manuell prima einstellt und er boostet im Gaming Betrieb auf 5025mhz. Beim 3D ist ja leider schon bei 4,5Ghz Schluss. Trotzdem ein cooler CPU, für mich würde ein Wechsel aber wenig Sinn machen. 1440p GPU Limit lässt grüßen :smile:

Gerade für User die noch auf 1440p unterwegs sind, lohnt sich die CPU eigentlich besonders.

Aber das mit dem Curve Optimizer geht mir auch so. Gehört für mich zu den wichtigsten Eigenschaften der Ryzen 5000 Plattform.

Aber ich habe gelesen, dass AMD die Curve Optimizer Fähigkeit (negative offset) noch prüft.

Platos
2022-04-15, 10:25:42
Hat eig. jemand hier die 2 Tests von CB mal angeschaut? Im einen ist Alderlake konsequent vorne und im anderen ist es genau umgekehrt. Sind andere Spiele, aber trotzdem interessant.

Lowkey
2022-04-15, 10:27:42
Hat eig. jemand hier die 2 Tests von CB mal angeschaut? Im einen ist Alderlake konsequent vorne und im anderen ist es genau umgekehrt. Sind andere Spiele, aber trotzdem interessant.


Ja fällt bei jedem Test auf, dass die Werte manchmal gravierend anders sind.

Sardaukar.nsn
2022-04-15, 10:38:51
Gerade für User die noch auf 1440p unterwegs sind, lohnt sich die CPU eigentlich besonders.

Aber das mit dem Curve Optimizer geht mir auch so. Gehört für mich zu den wichtigsten Eigenschaften der Ryzen 5000 Plattform.

Aber ich habe gelesen, dass AMD die Curve Optimizer Fähigkeit (negative offset) noch prüft.

Wenn der Curve Optimizer noch kommt, wäre es vielleicht doch noch mal ein Grund zum Wechseln. Wäre dann aber Spielerei. Die 500mhz fehlenden Takt zum aktuellen 5800X finde ich auch so schön. Dafür spricht natürlich die Top Effizienz des 3D.

Redneck
2022-04-15, 10:44:05
Gerade für User die noch auf 1440p unterwegs sind, lohnt sich die CPU eigentlich besonders.

Aber das mit dem Curve Optimizer geht mir auch so. Gehört für mich zu den wichtigsten Eigenschaften der Ryzen 5000 Plattform.

Aber ich habe gelesen, dass AMD die Curve Optimizer Fähigkeit (negative offset) noch prüft.
Werden die niedrigen Auflösungen <4k nicht interessanter, wenn man DLSS/FSR mit einbezieht, oder mache ich einen Gedankenfehler? Wenn die minimum fps und perzentilen bei niedrigen Auflösungen besser sind, sollte sich das doch auch beim upscaling durchschlagen. Insofern ist das benchen mit FHD jetzt auch schon relevant (sofern die GPU nativ bremst) und nicht nur im Hinblick auf die kommende GPU gen.
Dann gibt es ja auch noch VR, wo ich mehr auf die min und perzentilen schaue als auf die max FPS.
Finde die 3d Variante daher sehr interessant.. aber leider gefühlt zu teuer.

Schade das fast immer die gleichen Spiele getestet werden.. Star Citizen nirgends zu finden.

DrFreaK666
2022-04-15, 10:46:45
Einige Leute kaufen sich eine solche CPU genau für diejenigen Fälle. AVG FPS interessieren mich wenig. Von 720p Benchmarks kann ich ableiten, wie sich der Frameverlauf in CPU intensiven Situationen (eventuell einzelne Frames) auch in sonst GPU-limitierten Szenarien verhalten wird. Keine Ahnung warum die Nützlichkeit dieser Art zu Benchmarken immer in Frage gestellt wird.

Das ist User-unfreundlich.
Bei Benches in verschiedenen Auflösungen muss man überhaupt nichts ableiten

Leonidas
2022-04-15, 11:11:03
https://pbs.twimg.com/media/FQUUDadagAEq8xk?format=jpg

r3ptil3
2022-04-15, 11:12:24
Beide CPUs auch mit RAM OC getestet.

Schneller DDR5 macht bei Alder Lake teilweise einen Generationsunterschied aus.

https://i.ibb.co/gS6p8ks/1.png

Lowkey
2022-04-15, 11:30:25
Und dann wird wieder jeder sagen, dass noch der Stromverbrauch jeweils dazu gehört, aber für den Anfang interessant zu wissen.

Wäre der Preis nicht so hoch, dann hätten wohl 80-90% der Heimanwender/gamer einen 5800x3D im PC.

Linmoum
2022-04-15, 11:30:40
Für den ein oder anderen (VR-)Simracer womöglich auch ganz interessant. ;)

https://i.gyazo.com/81e8a4a5bd083935da92fd3a32126a97.png

user77
2022-04-15, 11:42:44
Ich finde es immer wieder geil wie bei so einem Produktstart alle AMD und Intel Fanboys auf den Zug aufspringen...

- Hast du ein älteres AM4 Setup und brauchst CPU Leistung und hast Geld? -> Ryzen 7 5800X3D
musst du neu kaufen? -> Alderlake (keinen i9-12900K oder i9-12900KS, höchstens i7-12700K) oder warten auf Zen4, keiner normaler Mensch investiert jetzt noch in ein neues AM4 Setup.

- Wenn du Dir so eine CPU leisten kannst und du Gamen willst hast du sicher eine gute GPU, also interessieren Dich keine 720p Benchmarks. und in 4k ist es egal welche CPU du nimmst
https://www.computerbase.de/2022-04/amd-ryzen-7-5800x3d-test/2/#abschnitt_spielebenchmarks_in_720p_fhd_und_uhd

gbm31
2022-04-15, 11:56:37
Für den ein oder anderen (VR-)Simracer womöglich auch ganz interessant. ;)


https://i.gyazo.com/81e8a4a5bd083935da92fd3a32126a97.png



Darauf hab ich gewartet.

Gekauft!

Meine SIMs hängen trotz VR meistens an der CPU.

MSABK
2022-04-15, 12:10:53
Für den ein oder anderen (VR-)Simracer womöglich auch ganz interessant. ;)

https://i.gyazo.com/81e8a4a5bd083935da92fd3a32126a97.png

Whaat, wenn ich von meinem 3600X auf 5800X3D gehen würde sind das ja fast 50% mehr FPS in ACC. Der Hammer. Muss ich im Auge behalten.

tm0975
2022-04-15, 12:11:14
musst du neu kaufen? -> Alderlake (keinen i9-12900K oder i9-12900KS, höchstens i7-12700K) oder warten auf Zen4, keiner normaler Mensch investiert jetzt noch in ein neues AM4 Setup.

Ernsthaft? Ich kaufe doch nicht für ein Release-Datum auf dem Papier wenn die Leistung nicht stimmt, Effizienz und Gesamtkosten des Systems ganz zu schweigen. Wer soll denn bitte Alderlake kaufen? Gamer nicht und wer professionelle gut skalierende Anwendungssoftware einsetzt hat schon lange keine Optionen mehr bei Intel. Für die Intel-Liebhaber heißt es jedenfalls jetzt: Auf die nächste Generation warten oder in den sauren, roten Apfel beißen. Wie vor Jahren die Leute über den 200 Watt Bulli mit 5 GHz gemeckert haben...

Nightspider
2022-04-15, 12:17:00
Für den ein oder anderen (VR-)Simracer womöglich auch ganz interessant. ;)

https://i.gyazo.com/81e8a4a5bd083935da92fd3a32126a97.png

"Warhol" ;D

ChaosTM
2022-04-15, 12:26:19
Ich hol mir das Ding auch, wenns etwas mit dem Preis runter geht.

Platos
2022-04-15, 12:48:16
Ist eig. irgendwas bekannt bezüglich Zen 4 und dem Cache? Ist das sowas einmaliges, wie damals bei Intel 5xxxc irgendwas oder wird das ab jetzt (zumindest bei Spitzenmodellen) immer verbaut ?

Beide CPUs auch mit RAM OC getestet.

Schneller DDR5 macht bei Alder Lake teilweise einen Generationsunterschied aus.

https://i.ibb.co/gS6p8ks/1.png

Ist natürlich aus P/L Sicht vorteilhaft. Aber der Prozessor ist natürlich schon an sich extrem teuer. Aber momentan trotzdem ein Punkt, den man beachten muss, wenn man kein DDR5 braucht. Andererseits würde es mich interessieren, ob mit (schnellem) DDR5 trotz Cache noch extreme Vorteile drin sind oder ob der dann ausbleibt.

Mit DDR5 kann man das zwar nicht testen, aber gibts Tests mit schnellem DDR4 dazu ? Wenn der EInfluss des RAMs extrem gemindert wird, muss man das auch in die Preisberechnung mit einbeziehen. Sind ja dann deutlich weniger teure RAM Riegel nötig. Und wenns immer noch hilft, auch gut.

ChaosTM
2022-04-15, 12:49:48
Bei dem Leistungsschub würde ich vermuten ja, außer die neue Architektur braucht nicht soviel Cache.

TwoBeers
2022-04-15, 12:53:50
Ist eig. irgendwas bekannt bezüglich Zen 4 und dem Cache? Ist das sowas einmaliges, wie damals bei Intel 5xxxc irgendwas oder wird das ab jetzt (zumindest bei Spitzenmodellen) immer verbaut ?


Zen 4 kommt wohl erstmal ohne Cache, "nur" neue Architetkur mit ihren Verbesserungen.
Aber später könnten noch Zen 4 X3D kommen bzw. dann standardmäßig bei Zen 5.

HOT
2022-04-15, 13:00:23
Zen4 X3D soll dann auch übertaktbar sein hab ich irgendwo gelesen. Der 5800X3D ist wirklich nur ein Testballon für die Technologie in Massenproduktion in Costumer-Systemen. Dass es eine extra Zen4-Spieler-X3D-Version geben wird steht glaube ich außer Frage, man sieht ja wie effektiv das ist und wie effektiv das für Spiele werden kann. Mit einem Zen4 X3D würde man auf lange Zeit die Gamingkrone tragen.

Linmoum
2022-04-15, 13:04:29
Ist eig. irgendwas bekannt bezüglich Zen 4 und dem Cache? Ist das sowas einmaliges, wie damals bei Intel 5xxxc irgendwas oder wird das ab jetzt (zumindest bei Spitzenmodellen) immer verbaut ?Das wird schon alleine mit Blick auf Server kein einmaliges Unterfangen sein. Dafür sind die Vorteile viel zu groß.

Solange AMD weiterhin dieselben Chiplets für sämtliche CPUs nutzt, ist das auch kein großer Aufwand, ob nun Desktop oder Server. Gibt im Server-Segment natürlich höhere Margen, aber im Desktop hat man mit riesigem Cache gerade in Spielen große Vorteile.

Insofern sehe ich nicht, warum es nicht schon zum Start hin für Zen4 ein entsprechendes SKU geben sollte. Bietet sich schlicht an und Erfahrungen hat man schon jetzt mit dem 5800X3D bzw. Milan-X gesammelt. Zumal AMD mit dem "kein OC etc., weil noch keine Erfahrungen" ja im Prinzip schon angedeutet hat, dass das zukünftig - wenn die Technik ausgereifter ist - anders aussehen wird. Und das bezieht sich dann auch auf Desktop, denn für Server ist OC, UV und der ganze Kram komplett irrelevant.

Megamember
2022-04-15, 13:07:40
Übertakten scheint mit etwas Trickserei doch möglich:

kUyPTBVNXF0

MSABK
2022-04-15, 13:08:23
Ich denke mal erst wird es Zen4 ohne 3dCache geben und dann wie aktuell einfach ein kleiner Refresh mit 3dCache.

ChaosTM
2022-04-15, 13:21:37
Zen4 X3D soll dann auch übertaktbar sein hab ich irgendwo gelesen. Der 5800X3D ist wirklich nur ein Testballon für die Technologie in Massenproduktion in Costumer-Systemen. Dass es eine extra Zen4-Spieler-X3D-Version geben wird steht glaube ich außer Frage, man sieht ja wie effektiv das ist und wie effektiv das für Spiele werden kann. Mit einem Zen4 X3D würde man auf lange Zeit die Gamingkrone tragen.


Die neuen Epycs kommen alle damit.

Intel ist wieder wach. Der Raptor könnte/wird ganz gut mithalten. Sie haben nur einen Fertigungsnachteil der schwer zu kompensieren sein wird..

Dorn
2022-04-15, 13:27:47
Ich hol mir das Ding auch, wenns etwas mit dem Preis runter geht.
Ich glaub da bin ich dabei. :biggrin:

Rolsch
2022-04-15, 13:51:37
Erinnert mich an die alten Intel Overdrive Prozessoren. Das finale Upgrade für den alten Sockel. Werd mir den 3D auch holen wenn er günstiger ist, solange tuts auch der 5800x ohne 3D.

Marodeur
2022-04-15, 14:14:23
Fies. Aktuell reicht mir auch noch der 3700x aber da ist dann schon die Frage lieber Upgrade mit 3D oder komplett neu. Hab ja auch neueres Board drin. :freak:

anddill
2022-04-15, 14:32:29
Beide CPUs auch mit RAM OC getestet.

Schneller DDR5 macht bei Alder Lake teilweise einen Generationsunterschied aus.

https://i.ibb.co/gS6p8ks/1.png

Wäre nett wenn Du wenigstens die Quelle der geklauten Bilder angeben würdest:

ajDUIJalxis

Redneck
2022-04-15, 14:36:01
Fies. Aktuell reicht mir auch noch der 3700x aber da ist dann schon die Frage lieber Upgrade mit 3D oder komplett neu. Hab ja auch neueres Board drin. :freak:
Wenn Zen4 auch DDR4 unterstützen würde, wäre es ein no brainer. Bin so aber auch hin und hergerissen.

anddill
2022-04-15, 14:40:08
Hat schon jemand den 3800X3D auf einem älteren Mobo mit älterem lamgsameren RAM getestet? Meine Vermutung ist, da der RAM auf dem Mobo nicht mehr so wichtig ist. Wäre ja durchaus interessant aus einem Ryzen 1000 oder 2000 System noch was herauszuholen ohne auhc noch neues RAM kaufen zu müssen.

Hardware Canucks:

kh3AV6FY0DM

G3cko
2022-04-15, 16:04:42
Ich dachte in diesem Forum wären mehr Experten unterwegs und dennoch so viele die nicht verstehen warum man in 720p testet...

Die Begründung immer der gleiche Schrott: In 4k "macht es ja keinen Unterschied". Das wäre so also würde man Grafikkarten mit 60fps Sync Limit testen und nach 2 Jahren wundern warum einem 50% Leistung fehlen. Sie waren ja alle "gleich schnell". Ja, In der Fußgänger sind der Lambo und der Lupo "gleich schnell"... Glückwunsch zu dieser Erkenntnis.

Schon der 5775c hatte damals eindrucksvoll gezeigt was Cache bringt. Im Gaming wird es immer schwerer die vielen Kerne zu nutzen. 128 Kerne beim Heimanwender kaum sinnvoll vorstellbar, daher ist Cache "the way to Go". Man sieht eigentlich was uns seit Broadwell vorenthalten wurde. 2/3 der chipfläche eine inaktive iGPU anstatt mehr Cache.

aufkrawall
2022-04-15, 16:09:41
Ich dachte in diesem Forum wären mehr Experten unterwegs und dennoch so viele die nicht verstehen warum man in 720p testet...

Das deutsche und österr. Schulsystem sind sehr schlecht.

FarCry
2022-04-15, 16:13:13
128 Kerne beim Heimanwender kaum sinnvoll vorstellbar, ...

Nun, für eigentlich alles, was kein Gaming ist und MT braucht:
- Video-Encoding/Decoding
- Video- und Bildbearbeitung
- ...

aufkrawall
2022-04-15, 16:15:56
Nun, für eigentlich alles, was kein Gaming ist und MT braucht:
- Video-Encoding/Decoding
- Video- und Bildbearbeitung
- ...
Hatte vor einiger Zeit via ffmpeg 4k HDR nach 1080p HEVC 10 Bit konvertiert, ging mit CUDA komplett über die GPU mit wenigen Prozent CPU-Last.

FarCry
2022-04-15, 16:23:27
Hatte vor einiger Zeit via ffmpeg 4k HDR nach 1080p HEVC 10 Bit konvertiert, ging mit CUDA komplett über die GPU mit wenigen Prozent CPU-Last.

Hmm, ich nix CUDA.
Wie lange braucht die GPU dort für nen 2-Stunden-Film mit Qualität von ~6MBit/s?

aufkrawall
2022-04-15, 16:27:39
Wie lange braucht die GPU dort für nen 2-Stunden-Film mit Qualität von ~6MBit/s?
Mit dem Fast-Preset vielleicht 15-25 Minuten oder so. Mit den langsameren Presets deutlich länger, aber HEVC 10 Bit 4k ist natürlich auch eine Hausnummer. Das dauert ja auf jeder CPU entsprechend ewig. Die Bitrate müsste sicherlich höher sein als mit x265, aber so ein unbrauchbarer Müll wie früher H.264 GPU-Encoding wird es auch nicht sein.

Thunder99
2022-04-15, 16:39:49
Es ist einfach eine super Gaming CPU, nicht Creator oder was anderes ;)
+70% bis zu auf dem R5 3600 ist echt krass :eek: Behalte ich auf jeden Fall im Auge da ich null Bock habe die Plattform zu wechseln :wink:

Cache > Kerne und Takt, größtenteils jedenfalls. Wie schon gefragt, kommt da ein Mugen5 hinterher das zu kühlen?

aufkrawall
2022-04-15, 16:43:29
+70% bis zu auf dem R5 3600 ist echt krass :eek:
Der ist in Spielen mit starken MT-Abhängigkeiten ohne massives RAM-Tuning halt auch mitunter einfach stinklangsam. Gut, wenn man nur so einen Billig-RAM oder ein typisches Montagsmodell der ersten Zen 2-Chargen hat, trifft dieser Sprung natürlich zu. Ob man dann aber eine 500€-CPU kauft...

Thunderburne
2022-04-15, 17:02:32
Erstmal ein Fettes danke schön an AMD das ich mein X570 noch mal upgraden kann zum Zocken.
Da schlägt der 5800X3D doch meinen 3950X um 50% in den Spielen und hievt sich auf absolutes Highend Level ...einfach nur Geil!
Der Verbrauch in Games ist ja mal einfach Deluxe!
Sollte ich einen bekommen ist der instand gekauft !

Eine Frage hab ich noch habt ihr schon nen Test wo spezieller auf Ram OC eingegangen wird ?

MSABK
2022-04-15, 17:06:50
Erstmal ein Fettes danke schön an AMD das ich mein X570 noch mal upgraden kann zum Zocken.
Da schlägt der 5800X3D doch meinen 3950X um 50% in den Spielen und hievt sich auf absolutes Highend Level ...einfach nur Geil!
Der Verbrauch in Games ist ja mal einfach Deluxe!
Sollte ich einen bekommen ist der instand gekauft !

Eine Frage hab ich noch habt ihr schon nen Test wo spezieller auf Ram OC eingegangen wird ?

In dem Video welches Anddill gepostet hat gibt es auch Ergebnisse mit Ram OC. Post 131.

Thunderburne
2022-04-15, 17:08:18
In dem Video welches Anddill gepostet hat gibt es auch Ergebnisse mit Ram OC.
Ja das kenne ich schon Danke!
Gibt es noch andere Tests oder Quellen?

horn 12
2022-04-15, 17:35:49
Habe auch den Mugen 5 - Rev. B - PCGH Version
aber nur einen der Beiden Lüfter verbaut da der andere anragt!
Läuft dieser auf dem 3D-V Cache Prozessor oder ist jener zu gering um der Hitze Herr zu werden?

Thunderburne
2022-04-15, 17:39:25
https://wccftech.com/amd-ryzen-7-5800x3d-cpu-reaches-almost-4-9-ghz-overclock-on-msis-x570-godlike-motherboard/
4,9 GHZ

Megamember
2022-04-15, 17:39:35
Habe auch den Mugen 5 - Rev. B - PCGH Version
aber nur einen der Beiden Lüfter verbaut da der andere anragt!
Läuft dieser auf dem 3D-V Cache Prozessor oder ist jener zu gering um der Hitze Herr zu werden?

Wieso sollte der nicht reichen wenn die CPU gleichviel oder weniger als ein normaler 5800 verbraucht?

Knuddelbearli
2022-04-15, 18:16:24
Deswegen sage ich ja: 720P Benchmarks sind nice, aber meiner Meinung nach brauchts auch noch die gängigen Auflösungen, die auch wirklich gespielt werden. Denn wie willst du abschätzen, wann der Vorteil, den du bei 720P hast, auch bei "deiner" Auflösung ankommt? Da helfen solche Tests.


Dann vergleichst du es einfach mit GPU Tests, der niedrigere Wert gibt dann die Leistung bei dir wieder.

Einzige wobei man aufpassen muss ist, dass unter niedrigerer Auflösung vielleicht andere Sachen limitieren wie unter höherer. Das ist aber ihmo sehr, sehr selten

ChaosTM
2022-04-15, 18:20:03
Beim FS2020 zb. kann auch die Internetz Leitung böse limitieren.

Der_Korken
2022-04-15, 19:04:17
Ich habe mal eine technische Frage. CPU-Z scheint den L3 des 5800X3D als 16-way associative auszulesen. Wie genau soll das funktionieren? Ein Cache-Set besteht aus 16 Cache Lines mit je 64 Byte, also insgesamt 1KB. Beim 5800X ergibt das 32768 Cache Sets, d.h. da kann man 15 Bit der Speicheradresse drauf mappen. Der 5800X3D hätte jetzt aber das dreifache, d.h. benötigt 17 Bit für die Adressierung, aber diese sind nicht voll besetzt. D.h. man muss die Speicheradresse irgendwie hashen (?) um das zugehörige Set zu adressieren? Ich habe bisher noch nie einen Prozessor gesehen, der eine Nicht-Zweierpotenz bei der Anzahl der Sets hatte. Krumme Cache-Größen werden über krumme Assoziativitäten erreicht, z.B. 10- bzw. 20er Assoziativität bei Intels 1,25MB L2.

Thunder99
2022-04-15, 19:22:46
Der ist in Spielen mit starken MT-Abhängigkeiten ohne massives RAM-Tuning halt auch mitunter einfach stinklangsam. Gut, wenn man nur so einen Billig-RAM oder ein typisches Montagsmodell der ersten Zen 2-Chargen hat, trifft dieser Sprung natürlich zu. Ob man dann aber eine 500€-CPU kauft...
Günstiger als eine neue Plattform :wink:

Entscheidung noch nicht getroffen, aber ist auf der möglicherweise Upgrade List :eek::biggrin::smile:

Nightspider
2022-04-15, 19:23:07
Zen4 soll ja in Form von Raphael sogar für Notebooks kommen, dank kleiner IGP im IO Chip.

Raphael mit V-Cache im Laptop wäre die ultimative Gaming-CPU und wahrscheinlich sparsamer als Intels aktuelle mobilen Lösungen.

Knuddelbearli
2022-04-15, 20:14:46
Die neuen Epycs kommen alle damit.

Intel ist wieder wach. Der Raptor könnte/wird ganz gut mithalten. Sie haben nur einen Fertigungsnachteil der schwer zu kompensieren sein wird..

Welchen Fertigungsnachteil? heißt doch imemr Intels 10nm entspricht TSMCs 7nm ?!? Deshalb heißt das jetzt ja Intel 7.
Das ist ja das perverse, dass Intel trotzdem verbrauchstechnisch so abkackt...

ChaosTM
2022-04-15, 20:18:42
Zen 4 wird TSMC 5nm sein iirc. Ich hab aber trotzdem ein ganz gutes Gefühl bei Intel (obwohl mein Bias eher bei Rot liegt).

Je näher die 2 leistungstechnisch beieinander sind, desto besser für uns.

r3ptil3
2022-04-15, 20:30:45
Zen 4 wird TSMC 5nm sein iirc. Ich hab aber trotzdem ein ganz gutes Gefühl bei Intel (obwohl mein Bias eher bei Rot liegt).

Je näher die 2 leistungstechnisch beieinander sind, desto besser für uns.

Damit meinst du den Raptor Lake Nachfolger, nehme ich an oder?

Nur schon die ersten Leaks von Raptor Lake vor kurzem mit "5.8 Ghz" waren mir schon genug, denn jeder hier weiss, was damit gemeint ist. Nicht nur 500W+ für die kommenden GPUs, sondern auch für Intel CPUs.

ChaosTM
2022-04-15, 20:38:54
Es gibt schon Raptor leaks - Bist du da sicher.. war das nicht der 5800k 3D Konter ?

5,8ghz klingt ungesund und stromhungrig.

Knuddelbearli
2022-04-15, 20:55:11
Zen 4 wird TSMC 5nm sein iirc. Ich hab aber trotzdem ein ganz gutes Gefühl bei Intel (obwohl mein Bias eher bei Rot liegt).

Je näher die 2 leistungstechnisch beieinander sind, desto besser für uns.

Ja und? Jetzt mit gleicher Fertigung benötigt Intel fast die 3-fache Leistungsaufnahme gegenüber 5800X3D, da ist der Fertigungsnachteil bei der nächsten Gen doch total egal, wenn es schon bei selber Fertigung so extrem ist.

Und ja, das ist nur beim 12900KS so extrem, aber Intel hat den nunmal als 5800X3D Counter gebracht, also sind die auch zu vergleichen.

Knuddelbearli
2022-04-15, 20:57:38
Es gibt schon Raptor leaks - Bist du da sicher.. war das nicht der 5800k 3D Konter ?

5,8ghz klingt ungesund und stromhungrig.

https://www.pcwelt.de/news/Intel-Raptor-Lake-S-Leak-soll-alle-Modelle-zeigen-11082986.html

Zwar nur 5,5Ghz aber da selbe Fertigung dürfte das zumindest nicht allzu stark sinken gegenüber jetzt.

WedgeAntilles
2022-04-15, 21:12:49
Ja und? Jetzt mit gleicher Fertigung benötigt Intel fast die 3-fache Leistungsaufnahme gegenüber 5800X3D, da ist der Fertigungsnachteil bei der nächsten Gen doch total egal, wenn es schon bei selber Fertigung so extrem ist.

Und ja, das ist nur beim 12900KS so extrem, aber Intel hat den nunmal als 5800X3D Counter gebracht, also sind die auch zu vergleichen.
Das diese Aussage komlett Käse ist, weißt du natürlich selber.
Und nein, du kannst eben NICHT ausschließlich den 12900KS betrachten.
Aber auch das weißt du natürlich.

Keine Ahnung warum sich manche nicht einfach über die guten Ergebnisse des 5800X3D freuen können sondern stattdessen noch einen derart unqualifizierten Quark absondern müssen. :confused:

Benutzername
2022-04-15, 21:20:33
Hardware Canucks:

https://youtu.be/kh3AV6FY0DM


Dankeschön. :smile:

Die Hardware Canucks hatte ich aus en Lesezeichen geworfen vor einiger Zeit als ich mal aufgeräumt habe. Ich kann ja nicht jeden PC-Kanal gucken. Sein Fazit stimmt kann ich aber auch durchaus zustimmen, daß der x3d nicht ein Upgrade für jede Konfig ist. Hmm da fällt mir ein, mit einem Asrock Rack AM4 Mobo kann man mit dem 3D auch was anfangen. Datenbank EPYC für Bettler. ;) Das wäre nochen Anwendungsfall außer Gaming.



Aber meine Frage nach dem alten langsamen RAM (zb DDR2666 oder 3000 oder 3200 mit CL18 oder so) beantwortet es leider noch nicht. Kann man den 3D Cache im UEFI abschalten? Würde das testen mit/ohne Cache einfacher machen um zu sehen was der bringt.



--------------------------------------


Ich dachte in diesem Forum wären mehr Experten unterwegs und dennoch so viele die nicht verstehen warum man in 720p testet...

Die Begründung immer der gleiche Schrott: In 4k "macht es ja keinen Unterschied". Das wäre so also würde man Grafikkarten mit 60fps Sync Limit testen und nach 2 Jahren wundern warum einem 50% Leistung fehlen. Sie waren ja alle "gleich schnell". Ja, In der Fußgänger sind der Lambo und der Lupo "gleich schnell"... Glückwunsch zu dieser Erkenntnis.

Immer bedenken, daß sich imemr die zu Wort melden, die meinen etwas mitteilen zu müssen. Schweigende Merhheit und so. ;)


Schon der 5775c hatte damals eindrucksvoll gezeigt was Cache bringt. Im Gaming wird es immer schwerer die vielen Kerne zu nutzen. 128 Kerne beim Heimanwender kaum sinnvoll vorstellbar, daher ist Cache "the way to Go". Man sieht eigentlich was uns seit Broadwell vorenthalten wurde. 2/3 der chipfläche eine inaktive iGPU anstatt mehr Cache.

Ja, keine Ahnung warum intel nicht mehr CPUs mit eDRAM gebracht hat. Zumindest als Server Xeons hätten die einiges gebracht. Siehe die 3D EPYC, die jetzt kommen. Aber auch im Desktop gibt es ja Situationen, wo das etwas bringt.

Gebrechlichkeit
2022-04-15, 22:54:16
UHD? nothing
QHD¿ nothing
FHD? noice boost

Ergo eher was fuer die Fartnigh Spieler? :tongue:

ChaosTM
2022-04-15, 22:58:36
UHD? nothing
QHD¿ nothing
FHD? noice boost

Ergo eher was fuer die Fartnigh Spieler? :tongue:


Eher Flight Sim (Fs2020) oder Sim Racer Spiele - die sind CPU limitiert.

Nightspider
2022-04-16, 00:38:46
Vor allem bleibt Intel noch bei der aktuellen Fertigung bis zu Meteor Lake.

Von AMD kommt dieses Jahr noch Zen4 im deutlich besseren Fertigungsprozess.

Kann zwar sein das Zen4+ V-Cache erst erscheint wenn Meteor Lake vor der Haustür steht aber selbst der normale Zen4 wird schon übel genug für Intel werden.

ChaosTM
2022-04-16, 00:40:28
Es schaut gar nicht so gut aus tbh - leider

dildo4u
2022-04-16, 06:17:58
UHD? nothing
QHD¿ nothing
FHD? noice boost

Ergo eher was fuer die Fartnigh Spieler? :tongue:
Es gibt immer noch neue AAA Games die SC/Bandbreiten Lastig sind bei Far Cry 6 hasste Probleme 120fps zu halten und viele Gamer haben ja Monitore die zumindest 120hz können.

5800X min 99fps 5800X3D 130fps min.

https://abload.de/img/vp7sbhwbbvgrrbamaowhc88k2v.png

Watch Dogs 3 das selbe.

https://cdn.mos.cms.futurecdn.net/ZiNbHNsJXmxYK3UNzica5i-1920-80.png

https://www.tomshardware.com/news/amd-ryzen-7-5800x3d-review

BlackBirdSR
2022-04-16, 08:26:13
Das wird die Star Citizen CPU ;)


Es gibt immer noch neue AAA Games die SC/Bandbreiten Lastig sind bei Far Cry 6 hasste Probleme 120fps zu halten und viele Gamer haben ja Monitore die zumindest 120hz können.

5800X min 99fps 5800X3D 130fps min.

https://abload.de/img/vp7sbhwbbvgrrbamaowhc88k2v.png

Watch Dogs 3 das selbe.

https://cdn.mos.cms.futurecdn.net/ZiNbHNsJXmxYK3UNzica5i-1920-80.png

https://www.tomshardware.com/news/amd-ryzen-7-5800x3d-review

KarlKastor
2022-04-16, 09:54:59
Vor allem bleibt Intel noch bei der aktuellen Fertigung bis zu Meteor Lake.

Von AMD kommt dieses Jahr noch Zen4 im deutlich besseren Fertigungsprozess.

Kann zwar sein das Zen4+ V-Cache erst erscheint wenn Meteor Lake vor der Haustür steht aber selbst der normale Zen4 wird schon übel genug für Intel werden.
So schlimm wird es glaube ich nicht. In Games wird Zen4 denke ich nicht so viel drauflegen um raptor Lake davon zu eilen. Das müssten dann ja über 20% gegenüber Zen3 sein. Ein paar Prozent wird ja auch raptor drauflegen. TDP ist in Games kein Problem.
Und bei Anwendungen helfen raptor acht weitere E-Cores. Deutlich effizienter wird sicherlich Zen4 in N5 werden. AMD könnte natürlich auchd ie Brechstange auspacken...
Und Zen4 mit 3D Cache wird dann wahrscheinlich nicht zu kontern sein.

Thunderburne
2022-04-16, 10:11:23
Gibt es nen Test wo man den 5950X mit OC 3800 Ram sehen kann gegen den X3D ?

HOT
2022-04-16, 10:34:30
Vor allem bleibt Intel noch bei der aktuellen Fertigung bis zu Meteor Lake.

Von AMD kommt dieses Jahr noch Zen4 im deutlich besseren Fertigungsprozess.

Kann zwar sein das Zen4+ V-Cache erst erscheint wenn Meteor Lake vor der Haustür steht aber selbst der normale Zen4 wird schon übel genug für Intel werden.

Das seh ich auch so. Ein Zen4 mit VCache wird um Größenordnungen schneller in Games sein als RPL. Da wird mMn auch MTL Schwierigkeiten bekommen.

Thunderburne
2022-04-16, 11:17:59
Ich find es schwierig was zu finden wo die alten CPUs sauch mit 3733-3800Mhz laufen!
Mann kann sich total ein schlechtes Bild machen finde ich was mit einem voll geocten 5950X möglich ist gegen den limitierten 5800X3D!

r3ptil3
2022-04-16, 11:18:02
Gibt es nen Test wo man den 5950X mit OC 3800 Ram sehen kann gegen den X3D ?

Schau dir mein Posting hier an

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12979980&postcount=111

und rechne 3-4% auf den 5950X drauf.
Natürlich geht hier mit optimierten Timings (vor allem Subtimings) noch deutlich mehr.


AMD hat übrigens tatsächlich schon Curve Optimizer aktiviert, vorerst per Software.
Falsch, die CPU wird lediglich in Ryzen Master unterstützt, kein Curve Optimizer.

https://www.computerbase.de/2022-04/amd-ryzen-master-ryze-5800x3d/

Solche Testergebnisse wären nun besonders interessant.

Nightspider
2022-04-16, 11:28:56
Wo ist eigentlich Miami? :D

So schlimm wird es glaube ich nicht. In Games wird Zen4 denke ich nicht so viel drauflegen um raptor Lake davon zu eilen. Das müssten dann ja über 20% gegenüber Zen3 sein. Ein paar Prozent wird ja auch raptor drauflegen. TDP ist in Games kein Problem.
Und bei Anwendungen helfen raptor acht weitere E-Cores. Deutlich effizienter wird sicherlich Zen4 in N5 werden. AMD könnte natürlich auchd ie Brechstange auspacken...
Und Zen4 mit 3D Cache wird dann wahrscheinlich nicht zu kontern sein.

Knapp 10% wird Zen4 schon alleine beim Takt _überall_ herausholen und dann kommen noch die IPC Verbesserungen wo von nochmals ~20% oder mehr gesprochen wird.

Es wird Games geben wo Zen3D vorne liegen wird aber im Durchschnitt rechne ich damit das Zen4 (2D) vorne liegen wird um mind. 5-10%.

Dazu wird man bei Zen4 durch OC und RAM_OC wahrscheinlich nochmal gut etwas herausholen können, wenn AMD jetzt schon die OC Fähigkeiten von Zen4 bewirbt.

Durch den Takt und die IPC erwarte ich auch in Anwendungen rund 30% mehr Leistung gegenüber Zen3 bei gleicher Kernzahl.

Linmoum
2022-04-16, 11:30:17
Curve Optimizer bezieht sich sicherlich auf alle anderen 5000er außer den X3D.

r3ptil3
2022-04-16, 11:40:57
@Limoum

Gut, dass einer noch richtig lesen kann.

Dachte schon daran die CPU nächste Woche evtl. doch zu bestellen. :freak:

Rooter
2022-04-16, 12:04:18
Wenn Intel den 12900KS wirklich extra gegen der 5800X3D positioniert hat, haben sie sich ja mal wieder ordentlich selbst in den Fuß geschossen!
Von den paar Prozent Mehrleistung spricht kaum jemand aber jeder wundert sich wie viel Strom Intel braucht und wie wenig AMD. ;D

MfG
Rooter

WedgeAntilles
2022-04-16, 14:17:23
Immer bedenken, daß sich imemr die zu Wort melden, die meinen etwas mitteilen zu müssen. Schweigende Merhheit und so. ;)


Ausschließlich 720p Tests bringen dir aber eben nur etwas, wenn du unbegrenzte Ressourcen hast.
Falls du begrenzte Ressourcen hast - und für den Aufpreis des 5800 3D anderswo Abstriche machen musst - ist es selbstverständlich interessant, was bei Full HD, WQHD gilt.

Warum das Konzept von begrenzten Ressourcen für viele unbegreiflich ist erschließt sich mir nicht.
Noch weniger, warum diese Leute ihr nicht-begreifen dann auch noch groß herausposaunen müssen. Freut euch, dass ihr keine Beschränkungen im Budget habt, aber eure "eure Armut kotzt mich an" Einstellung ist schlicht fehl am Platz.

OgrEGT
2022-04-16, 14:23:23
Gibt es irgendwo Tests bei denen der 65W Eco Mode aktiviert ist? Sollte beim Gaming ja eigentlich keine Leistung kosten...

MD_Enigma
2022-04-16, 14:47:54
Mega Test: https://tweakers.net/reviews/10026/amds-3d-v-cache-minder-profijt-van-snel-ram.html

Damit sieht man, wie groß der Unterschied zwischen 2666er-RAM und 3600er-RAM ist.

Percentage improvement DDR4-3600CL16 compared to DDR4-2666CL16

CPU benchmarks
Ryzen 7 5800X + 9%
Ryzen 7 5800X3D + 7,8%


Game benchmarks (FPS)
Ryzen 7 5800X +8.1%
Ryzen 7 5800X3D +3.2%

Game benchmarks (Frametimes)
Ryzen 7 5800X +10.1%
Ryzen 7 5800X3D +3.5%

Beim Gaming reicht der billigste RAM, der Unterschied ist nicht mehr so groß.

Raff
2022-04-16, 15:01:03
Auch hier: wie erwartet - aber geil, dass das schon gemessen wurde. :up: Die Info, dass die Hierarchie wie gewünscht funktioniert und die Abhängigkeit zum Speicher reduziert, wird damit einfach griffiger bei Kaufberatungen. Das ist gerade für Aufrüster gammliger Kisten echt nett.

MfG
Raff

horn 12
2022-04-16, 15:03:52
Nun, wäre gleichzusetzen mit DDR4 3200 CL14 Samsung Speicher in etwa.
So wie es die AMD Flare-X 3200 verbaut haben.

Langlay
2022-04-16, 15:16:08
Nun, wäre gleichzusetzen mit DDR4 3200 CL14 Samsung Speicher in etwa.
So wie es die AMD Flare-X 3200 verbaut haben.

Nicht ganz, DDR3600 CL16 ist trotzdem leicht schneller, weil der FCLK 1800MHz taktet statt 1600MHz bei DDR3200. Natürlich dürfte der Unterschied beim 5800X3D kleiner sein als bei 5000er CPUs ohne Vcache.

Der_Korken
2022-04-16, 15:20:51
Ausschließlich 720p Tests bringen dir aber eben nur etwas, wenn du unbegrenzte Ressourcen hast.
Falls du begrenzte Ressourcen hast - und für den Aufpreis des 5800 3D anderswo Abstriche machen musst - ist es selbstverständlich interessant, was bei Full HD, WQHD gilt.

Warum das Konzept von begrenzten Ressourcen für viele unbegreiflich ist erschließt sich mir nicht.
Noch weniger, warum diese Leute ihr nicht-begreifen dann auch noch groß herausposaunen müssen. Freut euch, dass ihr keine Beschränkungen im Budget habt, aber eure "eure Armut kotzt mich an" Einstellung ist schlicht fehl am Platz.

Aus wissenschaftlicher Sicht sind 720p-Tests die, aus denen man am meisten ableiten kann. Wenn ich das mit GPU-Tests kombiniere, kann ich mir für ein beliebiges Game angucken, wo das CPU-Limit liegt (das ist nicht von der Auflösung abhängig) und wo das GPU-Limit liegt (in meiner Zielauflösung, denn hier spielt sie eine Rolle). Somit kann ich abwägen welche CPU/GPU-Kombination am meisten Sinn für mich ergibt. Sobald ich anfange, die CPU-Tests zu verwässern indem ich die Auflösung erhöhe und somit die GPU bremsen lasse, sehe ich das echte CPU-Limit nicht mehr.

Soweit die Theorie. Du hast natürlich Recht, dass niemand unendliche Ressourcen hat. Niemand hat eine unendlich schnelle GPU, mit der ich in 1440p oder 4K hohe dreistellige fps habe und von der schnellsten CPU auch profitieren würde. Denn seien wir mal ehrlich, die meisten CPUs liefern mehr als genug fps um jede aktuelle GPU in den meisten aktuellen Spielen ans Limit zu bringen. Genau das kann ich aus 720p-Tests aber ableiten, indem ich nicht nur gucke wer den längsten Balken hat, sondern auch auf die absoluten Werte. Wenn die bei allem ab Ryzen 3600 aufwärts >150fps liegen, dann kann ich den Test gedanklich ignorieren, wenn ich weiß dass solche hohen fps für mich irrelevant sind. Das Problem sind also nicht 720p-Tests an sich, sondern dass die meisten Leute anscheinend nicht in der Lage sind, diese richtig zu interpretieren.

Oder andersrum gefragt: Was bringt es mir, wenn ich mit einer 3090Ti in 4K messe und dadurch nur noch 10% Unterschied zwischen einem Ryzen 3600 und einem 12900KS übrig bleiben? Ich weiß jetzt, dass ich mit genau dieser Graka in genau dieser Auflösung/Game die billigste CPU am Markt kaufen kann ohne nennenswerte Nachteile.
Was ich nicht weiß sind:
a) Reicht mir die billigste CPU auch noch, wenn ich mir in einem halben Jahr eine 4090Ti kaufe oder beiß ich mir in den Hintern bei der CPU gespart zu haben?
b) Wenn ich keine 3090Ti habe, sondern was langsameres, was soll ich mir dann kaufen?
c) Was wenn im Herbst Spiele mit höheren CPU-Anfoderungen rauskommen? Wieviel schneller wird der 12900KS dann gegenüber dem 3600 sein? 10% ja wohl bestimmt nicht, aber wieviel dann? 20%? 50%? 100%? Wieviel mehr Geld lohnt es sich für den 12900KS auszugeben?

Ich könnte die Sache mit den unbegrenzten Ressourcen auch umdrehen: Wenn ein Reviewer unendlich viel Zeit hat, dann kann er gerne jede CPU mit jeder GPU in jedem Spiel und jeder Auflösung einzeln testen. Dann ist für jeden was dabei. Praktisch haben Reviewer aber nur sehr begrenzt Zeit und dann hätte ich als Leser gerne einen universalen Test, aus dem ich möglichst viel ableiten kann - also einen 720p-Test. Mit dem kann ich Frage a) und c) ganz einfach beantworten, denn ich sehe anhand des (künstlichen) CPU-Limits wie groß die Unterschiede zwischen den CPUs sind und für die 4090Ti kann ich pi mal Daumen einfach doppelte 3090Ti-Leistung ansetzen. Wie genau die Anforderungen von neuen Spielen aussehen, kann natürlich keiner vorhersagen, aber die Vergangenheit und Logik haben gezeigt, dass sich an den Verhältnissen zwischen CPU-Architekturen nichts gravierendes ändert. Zen 3 wird in neuen Titeln nicht plötzlich bei gleicher Kernzahl 20% schneller als Alder Lake werden. Es können höchstens CPUs mit weniger Kernen zurückfallen, wenn neue Spiele mehr davon nutzen können, d.h. ein 5950X könnte z.B. Alder Lake theoretisch ein- oder überholen, aber das passiert a) nicht über Nacht und b) kann ich mich vorher über die Kernzahl informieren und einpreisen, ob ich ein paar Euro extra investiere und die Wette eingehe, dass mir die Kerne später noch nützen.

nairune
2022-04-16, 15:22:39
Okay, aber den Wert eines Upgrades vom 3700X mit optimiertem RAM schmälert es dann wieder etwas. Ich warte mal das Performanceniveau von Zen4 ab. Wenn das noch weiter abhebt, verzögere ich das Update für eine neue Plattform.

Nightspider
2022-04-16, 15:45:03
Mega Test:

Percentage improvement DDR4-3600CL16 compared to DDR4-2666CL16

CPU benchmarks
Ryzen 7 5800X + 9%
Ryzen 7 5800X3D + 7,8%


Game benchmarks (FPS)
Ryzen 7 5800X +8.1%
Ryzen 7 5800X3D +3.2%

Game benchmarks (Frametimes)
Ryzen 7 5800X +10.1%
Ryzen 7 5800X3D +3.5%

Beim Gaming reicht der billigste RAM, der Unterschied ist nicht mehr so groß.

Sehr schön das unsere Erwartungen bestätigt wurden. (y)

aufkrawall
2022-04-16, 15:52:46
Sehr schön das unsere Erwartungen bestätigt wurden. (y)
Heißt im Umkehrschlusshalt auch, dass ein 12700K mit guten DDR4-Settings (hab 135€ für 32GB B-Die DR bezahlt) in Spielen nicht oder kaum langsamer ist und in Anwendungen schneller. Und für Zen 3-Besitzer mit solchem RAM natürlich auch langweilig. Im Grunde fällt nur das RAM-Gefrickel weg (Gut, auch noch Effizienz. Aber die entscheidende Metrik ist Lüfterdrehzahl.). Das mag zurecht für viele als ein guter Vorteil erscheinen, aber das lässt sich AMD auch fürstlich bezahlen.

Ich find das Produkt nur aus technischer Sicht interessant/gelungen. Aber der praktische Mehrwert gegenüber anderen CPUs, na ja...

Ex3cut3r
2022-04-16, 16:58:05
Ich wurde gerne mal einen Test im folgenden Szenario sehen:

5800X3D mit DDR4 3800 CL14 + Subtimings aufs Maxium was geht im 1:1:1 Ratio natrülich vs 12900KF mit DDR5 im Schnellsten Setting was momentan geht, ebenfalls getunt.

Leider Wunschdenken, da werden wohl nur Userbenchmarks herhalten. Die Medien sind dafür zu unfähig.

w0mbat
2022-04-16, 17:00:50
HWUB hat den 5800X3D mit DDR4-3800 CL16 und den 12900KS mit DDR5-6400 CL32 getestet.

Thunder99
2022-04-16, 18:19:31
Heißt im Umkehrschlusshalt auch, dass ein 12700K mit guten DDR4-Settings (hab 135€ für 32GB B-Die DR bezahlt) in Spielen nicht oder kaum langsamer ist und in Anwendungen schneller. Und für Zen 3-Besitzer mit solchem RAM natürlich auch langweilig. Im Grunde fällt nur das RAM-Gefrickel weg (Gut, auch noch Effizienz. Aber die entscheidende Metrik ist Lüfterdrehzahl.). Das mag zurecht für viele als ein guter Vorteil erscheinen, aber das lässt sich AMD auch fürstlich bezahlen.

Ich find das Produkt nur aus technischer Sicht interessant/gelungen. Aber der praktische Mehrwert gegenüber anderen CPUs, na ja...
Werde doch selbst Redakteur und krieg es bezahlt ;). Das ist nach wie vor eine Randgruppe die solche Settings fährt. Schön zu sehen aber mehr auch nicht.
Mir ist es die Zeit nicht Wert

y33H@
2022-04-16, 18:27:55
Die Medien sind dafür zu unfähig.wenn du Leute beleidigst, wird sich dein Wunsch eher nicht erfüllen ... es geht nicht um unfähig, sofern dass der Aufwand sich nicht rechnet bzw die Zielgruppe äußerst spitz ist.

aufkrawall
2022-04-16, 18:32:37
Werde doch selbst Redakteur und krieg es bezahlt ;). Das ist nach wie vor eine Randgruppe die solche Settings fährt. Schön zu sehen aber mehr auch nicht.

In Foren wie diesen ist das keine Randgruppe, es dürften deutlich mehr Leute am RAM friemeln als eine WK haben.

Und ja, fast jeder RAM-Test in Medien ist extrem makelbehaftet. Die Secondary Timings sind so gut wie nie angegeben, i.d.R. sogar nur das CAS-Timing. :freak:
Viele YT-Clickbaiter sind da aber auch nicht besser, spätestens beim Gear-Setting wirds dann auch wieder verkackt.

][immy
2022-04-16, 18:33:42
Mega Test: https://tweakers.net/reviews/10026/amds-3d-v-cache-minder-profijt-van-snel-ram.html

Damit sieht man, wie groß der Unterschied zwischen 2666er-RAM und 3600er-RAM ist.

Percentage improvement DDR4-3600CL16 compared to DDR4-2666CL16

CPU benchmarks
Ryzen 7 5800X + 9%
Ryzen 7 5800X3D + 7,8%


Game benchmarks (FPS)
Ryzen 7 5800X +8.1%
Ryzen 7 5800X3D +3.2%

Game benchmarks (Frametimes)
Ryzen 7 5800X +10.1%
Ryzen 7 5800X3D +3.5%

Beim Gaming reicht der billigste RAM, der Unterschied ist nicht mehr so groß.
Das bestätigt auch Erwartungen das der Umstieg auf ddr5 bei amd relativ problemlos sein wird. Der große Cache (der vermutlich beibehalten wird) sollte alle Nachteile von ddr5 Anfangen können. Allerdings würden dann günstigere CPUs die weniger Cache aufweisen an der Qualität des RAMs hängen während top Modelle damit kein Problem hätten.

Dorn
2022-04-16, 18:38:35
Das einzige was man jetzt langfristig im Hinterkopf haben sollte wenn man den CPU kauft.
Die Plattform mit PCI Express 4.0, wenn jetzt zukünftige Midrange GPUs wie z.B. 4060 RTX etc. nur noch 8 Lanes mit PCI Express 5.0 anbieten wäre das nicht besonders toll. Aber das gehört mehr im Bereich Spekulation.

maximus_hertus
2022-04-16, 18:45:46
Die Medien sind dafür zu unfähig.

Oder ist deine Erwartungshaltung zu unfähig?

Dein Vorschlag ist für einen Bruchteil eines Bruchteils eines Bruchteils eines Bruchteils der potentiellen Leserschaft interessant.

Vor allem steht es doch schon mehr oder weniger fest: Durch den X3D ist das drumherum deutlich weniger wichtig und der Profit durch Optimierungen ist deutlich geringer.

Der X3D ist halt die sehr viel günstigere Alternative zum Alderlake, sofern man ein AM4 Board hat. Wichtig: wir reden vom Gaming. 95% und mehr interessiert es 0,0000%, was die CPUs im Cinebench, Photoshop, Blender und Co leisten.

Wenn es ums reine Gaming geht und man schon ein AM4 Board hat, sind die nun günstigen Ryzen 5000 Varianten bzw. der X3D ein no brainer.

Alder Lake braucht halt immer (teure) Boards bzw man muss fast alles neu kaufen.

Last but not least, ist Sauf Lake (selbst Schuld Intel, das Flaggschiff färbt im guten wie im schlechten ab) einfach nicht Zeitgemäß.

Wichtig: jedes System / jedes Budget / jede Vorliebe ist anders, von daher ist es individuell natürlich verschieden, was man empfehlen sollte. Und bei den meisten steht ja erstmal die GPU auf dem Programm :)

Thunder99
2022-04-16, 18:45:50
In Foren wie diesen ist das keine Randgruppe, es dürften deutlich mehr Leute am RAM friemeln als eine WK haben.

Und ja, fast jeder RAM-Test in Medien ist extrem makelbehaftet. Die Secondary Timings sind so gut wie nie angegeben, i.d.R. sogar nur das CAS-Timing. :freak:
Viele YT-Clickbaiter sind da aber auch nicht besser, spätestens beim Gear-Setting wirds dann auch wieder verkackt.
Dann muss man halt selber ran und benchen im entsprechenden Sub-Forum :wink:. Meine Zeit ist mir da zu kostbar.
Und das Forum ist denke ich eine Randgruppe gemessen an der gesamten Spielerzahl. Das überschätzt man gewaltig, oder nicht? :confused:

DeadMeat
2022-04-16, 18:58:33
Auch wenn es nicht unbedingt ein massen Titel ist, würde ich gern mal Fallout4 sehen besonders in Downtown Bosten. Vor allem die älteren Ryzen hatten im Lategame da immer ordentlich zu tun dank der wenigerkernigen alten Engine.

Ex3cut3r
2022-04-16, 19:27:27
In Foren wie diesen ist das keine Randgruppe, es dürften deutlich mehr Leute am RAM friemeln als eine WK haben.

Und ja, fast jeder RAM-Test in Medien ist extrem makelbehaftet. Die Secondary Timings sind so gut wie nie angegeben, i.d.R. sogar nur das CAS-Timing. :freak:
Viele YT-Clickbaiter sind da aber auch nicht besser, spätestens beim Gear-Setting wirds dann auch wieder verkackt.

Genau, das ist der Punkt. "5800X3D im RAM Test" und dann wird einfach nur stumpf, ein Hauptiming geändert, stark. :freak:

wenn du Leute beleidigst, wird sich dein Wunsch eher nicht erfüllen ... es geht nicht um unfähig, sofern dass der Aufwand sich nicht rechnet bzw die Zielgruppe äußerst spitz ist.

Ich habe niemanden genau angesprochen. Dich habe ich nun wirklich nicht im Kopf was schlechte oder unfähige Test angeht. Ich habe deine Artikel schon zur deiner PCGH Zeit gelesen, und fand die Tech Test bzw. Spiele Benchmarks immer gut. Ich verstehe schon, dass es keinen Sinn macht, für mich als Geek (sage ich jetzt einfach mal) macht aber leider nur sowas Sinn.

Aufwand kann ich nur teilweise verstehen, ich habe mir meine 3800 Mhz CL14 Timings für Samsung B-Die auf einen Zettel notiert, die habe ich in 3 Minuten ins Bios eingetippt. Die kann ich zur Verfügung stellen. :wink:

Leider musste ich auf 3773 und 1867 FCLK runter bei mir, da meine CPU keine 1900Mhz ohne WHEA und random reboots schafft, obwohl ich der Meinung bin, dass das mit den Anfangs Biosen meines X570 möglich war.

Gut, bei DDR5 müsste ich auch erstmal mal rumfummeln, da ich damit keinerlei Erfahrung habe, das gebe ich zu. Und kann ich nachvollziehen. Ich erwarte sowas (Umsonst) auch gar nicht von den Medien, und sagte ja auch das sowas wieder einmal die User Test hervorbringen werden. Auch gut, alles vorgekaut zu bekommen, wäre auch irgendwie langweilig.

Wenn man doch nur nicht immer von der eigenen Brieftasche limitiert wäre. Hätte ich mir ein AlterLake und den 5800X3D selbst geordert und 24/7 getestet :redface:

Schöne Feiertage!

ChaosTM
2022-04-16, 19:33:49
Für den Durchschnittsspieler, der sich nicht wochenlang mit RAM subtimings beschäftigen will und der schon ein AM4 Brett hat -> perfekt.

Sehe da kein Problem, außer vielleicht den gekränkten Stolz mancher Intel Enthusiasten.

Ex3cut3r
2022-04-16, 19:43:15
Jeder Spieler sollte sich damit aber befassen, da es oft 15-30% in CPU Lastigen Szenarien bringt, oder anders gesagt, wer gute Min. FPS haben will, sollte dran schrauben, das ist sonst verschenkte Leistung. Aber gut.

Hammer des Thor
2022-04-16, 21:00:14
Mega Test: https://tweakers.net/reviews/10026/amds-3d-v-cache-minder-profijt-van-snel-ram.html

Beim Gaming reicht der billigste RAM, der Unterschied ist nicht mehr so groß.

Wie gesagt ich will 64 GB DDR4 3600 CL18,22,22,42 32 3600 GB mit CL 14 vorziehen der sogar teuer ist. Normalerweise sagt man die Latenzen seien wichtiger bei Gaming als die Datenrate, aber ich denke das kann auch hier bei dem riesen cache umgekeht sein da fast alls Direktzugriffe auf kleine Dateien über den cache gehen und der RAM dann eher dazu ist grössere Datenmengen in den cache zu kopieren. Oder irre ich mich da?

r3ptil3
2022-04-16, 22:07:36
Jeder Spieler sollte sich damit aber befassen, da es oft 15-30% in CPU Lastigen Szenarien bringt, oder anders gesagt, wer gute Min. FPS haben will, sollte dran schrauben, das ist sonst verschenkte Leistung. Aber gut.

Stimme hier zu.

Gerade bei neuen Plattformen, fände ich einen Test mit optimiertem RAM herausragend zwischen all den anderen Tests, schliesslich erscheint eine AM5 Plattform auch nicht jedes Jahr. :)

Aber zweifelsohne ist da ein Mehraufwand drin, der sich auch lohnen muss.

PCGH macht das aber nicht schlecht. Haben sie bis anhing auch auf einen 5950X mit 3800Mhz (1:1) inkl. optimierten RAM-Timings gesetzt.
Ich weiss auch noch den Artikel (User-Artikel glaube ich) von Computerbase mit dem 9900k und den extrem scharf gesetzten RAM-Timings, habe ich mehrmals durchgelesen.

Vermutlich aber, wenn die AM5 Plattform wirklich ein Unikat darstellen wird was RAM OC angeht, werden sich wohl einige Seiten einem Zusatzartikel dazu widmen.

BlacKi
2022-04-16, 22:49:15
Wie gesagt ich will 64 GB DDR4 3600 CL18,22,22,42 32 3600 GB mit CL 14 vorziehen der sogar teuer ist. Normalerweise sagt man die Latenzen seien wichtiger bei Gaming als die Datenrate, aber ich denke das kann auch hier bei dem riesen cache umgekeht sein da fast alls Direktzugriffe auf kleine Dateien über den cache gehen und der RAM dann eher dazu ist grössere Datenmengen in den cache zu kopieren. Oder irre ich mich da?ram ist nur ein erweiterbarer cache. du hast insofern recht, das die größe ausreichend sein muss. aber schneller ist immer besser, wenn die kapazität ausreicht, und das tut sie selbst mit 16gb ganz knapp.


32gb sind save, daher ist schnellerer ram mit guten latenzen im vorteil, wenn die menge ausreicht und das tut sie selbst mit nur 16gb.

einfach gesagt, kauf dir schnelleren ram vor 32 oder gar 64 gb. 32gb sind zukünftstauglicher, aber derzeit reichen eigentlich noch 16.

hab ich schon gesagt das selbst 16gb reichen?^^

Hammer des Thor
2022-04-16, 23:04:54
einfach gesagt, kauf dir schnelleren ram vor 32 oder gar 64 gb. 32gb sind zukünftstauglicher, aber derzeit reichen eigentlich noch 16.

hab ich schon gesagt das selbst 16gb reichen?^^


Nö in star citizen werden meist mehr als 16 GB genutzt in Orison hat mir jemand gesagt dass es sich 34 GB "genommen" hat. Sind noch andere Programme wie Youtbe social Media usw. offen wird es knapper.
Dann ist X570 und B550 nur auf 2 Bänken mit RAM-Fullspeed von 3200 effek. MHZ zertifiziert werden alle 4 genutzt geht der "Grundtakt" runter möchte nicht wissen ob es da bei 64GB über 4 Bänke Probleme gibt, könnte dann baim Aufrüsten den betsehenden RAM ev nicht mehr nutzen. Nochmal: Schränken die nur CL18 bei dem grossen cache tatsächlich spürbar ein?
Bei kleinem cache ist klar, sehe aber nicht ein für halb so viel RAM mehr Geld auszugeben wenn das gerade mal 1-2% mehr FPS bedeuten würden!
Ausserdem soll mein neuer PC dann den Namen der Bezeichnung meines 1. Computers bekommen da würden nur 32 GB nicht passen!
Ausserdem sind die CL18 bei 3600 im Vergleich zu jeden DDR5 RAM verdammt kurz, letzterer ist auch zum Zocken geeignet auch bei nur 30 MB cache!

BlacKi
2022-04-16, 23:34:56
klar, je größer der cache umso geringer das memory oc potential, aber du lässt schon was liegen. es ist wie schon gesagt, nur eine verdreifachung des caches. memory oc bringt erst nichts mehr, wenn alles im cache abläuft, und das tut es mit 96mb einfach nicht. es nimmt den druck vom memory oc, aber guter ram bleibt wichtig.

ich spiele auch gelegentlich star citizen, aber mit 64 gb ram opfert man zuviel performance für alle anderen spiele.

du verlierst nicht einfach 1-2% sondern 10-20% im cpu limit.

ich wünsche mir ja benchmarks mit dem x3d mit optimiertem ram und tuning. damit man weiß woran man ist. derzeit hat man leider wenig info, wie sich das gegen einen optimierten 5800x oder alderlake schlägt. das wissen wir erst frühestens nächste woche.

wobei der 5800x3d sowieso nichts für mich ist, da für mein nächstes projekt eine igpu von nöten ist.

Hammer des Thor
2022-04-16, 23:46:08
du verlierst nicht einfach 1-2% sondern 10-20% im cpu limit.




Wie jetzt? Hier war doch nen Bespiel von 2666 auf 3600 beides CL16 oder so wo es bein 5800x3d nur 3,5 % Unterschied machte statt über 8% beim 5800x
Wie soll ich bei dem riesen cache bei gleichen Takt von 1800 MHZ (3600 effektiv) dann nur wegen dem CL 18 statt CL 14 10-20% an Performance verlieren? Zumal ein sehr wesentlicher Teil der Dateien auch grösser sein dürfte womit die Datenrate wichtiger ist.
Soll ich echt 380 Euro für 32 GB CL14 zahlen wenn ich 64 GB CL18 für 350 bekomme?

-=Popeye=-
2022-04-16, 23:51:33
So da wollen wir mal dem einen oder anderen hier mal den Zahn der schnellsten Gaming CPU ziehen.

https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Benchmark-FAQ-Anleitung-1356386/2/

Anno 1800 PCGH Benchmakszene

https://www.capframex.com/sessioncollections/9a59362e-287b-4a32-97de-85bc283e97a2

https://www.youtube.com/watch?v=HVk7xljMR-s


Kena: Bridge of Spirits PCGH Benchmarkszene

https://www.capframex.com/sessioncollections/e17a5af4-5cad-4dc7-8368-c65819c5fefc

https://www.youtube.com/watch?v=UGqq7mwwGLc

btw. es kann jeder selbst nachstellen

https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Benchmark-FAQ-Anleitung-1356386/2/

BlacKi
2022-04-16, 23:56:26
Wie jetzt? Hier war doch nen Bespiel von 2666 auf 3600 beides CL16 oder so wo es bein 5800x3d nur 3,5 % Unterschied machte statt über 8% beim 5800x
Wie soll ich bei dem riesen cache bei gleichen Takt von 1800 MHZ (3600 effektiv) dann nur wegen dem CL 18 statt CL 14 10-20% an Performance verlieren? Zumal ein sehr wesentlicher Teil der Dateien auch grösser sein dürfte womit die Datenrate wichtiger ist.
Soll ich echt 380 Euro für 32 GB CL14 zahlen wenn ich 64 GB CL18 für 350 bekomme?einfach samsung b die, 3800 cl14-16 mit subtimings. am besten 2x 16gb, die sind nicht ganz billig, oder eben 4x 8gb, kommt aber drauf an ob das board das mitmacht.


3800 cl14 ist eine ganz andere hausnummer als 3600 cl16-18. da fehlen dir mindesten 10% gaming, eher richtung 15-20% leistung. auch beim x3d.

Hammer des Thor
2022-04-17, 00:11:15
3800 cl14 ist eine ganz andere hausnummer als 3600 cl16-18. da fehlen dir mindesten 10% gaming, eher richtung 15-20% leistung. auch beim x3d.

Das glaube ich jetzt nicht, ich verweise auf den Beitrag, vorige Seite von MD_Enigma Beitrag-NR #178.
Dass auch bei dem X3D der Verlust ähnlich oder fast genauso hoch wäre wie bei den anderen CPUs ist nicht logisch.

Thomas Gräf
2022-04-17, 00:17:12
So da wollen wir mal dem einen oder anderen hier mal den Zahn der schnellsten Gaming CPU ziehen.

https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Benchmark-FAQ-Anleitung-1356386/2/

Anno 1800 PCGH Benchmakszene

https://www.capframex.com/sessioncollections/9a59362e-287b-4a32-97de-85bc283e97a2

https://www.youtube.com/watch?v=HVk7xljMR-s


Kena: Bridge of Spirits PCGH Benchmarkszene

https://www.capframex.com/sessioncollections/e17a5af4-5cad-4dc7-8368-c65819c5fefc

https://www.youtube.com/watch?v=UGqq7mwwGLc

btw. es kann jeder selbst nachstellen

https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Benchmark-FAQ-Anleitung-1356386/2/

Mir reicht wer die Krone in Assetto Corsa hat, das spricht Bände für eine CPU.

BlacKi
2022-04-17, 00:31:58
Das glaube ich jetzt nicht, ich verweise auf den Beitrag, vorige Seite von MD_Enigma Beitrag-NR #178.
Dass auch bei dem X3D der Verlust ähnlich oder fast genauso hoch wäre wie bei den anderen CPUs ist nicht logisch.es sind ein paar prozente. auf echte bechnes warte ich noch, die bisherigen taugen nichts. die echten benches werden von usern gemacht, nicht von holzköpfen die für firmen arbeiten.

w0mbat
2022-04-17, 00:46:36
So da wollen wir mal dem einen oder anderen hier mal den Zahn der schnellsten Gaming CPU ziehen.

:confused:

Insg. ist der 5800X3D knapp vor einem 12900KS und damit aktuell die schnellste Gaming-CPU.

aufkrawall
2022-04-17, 00:48:07
Mir reicht wer die Krone in Assetto Corsa hat, das spricht Bände für eine CPU.
Und wieso sollte das kein Cherry Picking sein?

Linmoum
2022-04-17, 01:00:59
So da wollen wir mal dem einen oder anderen hier mal den Zahn der schnellsten Gaming CPU ziehen.
Problem ist, dass du mit einer Radeon benchst und PCGH eine GeForce nutzt. Kann man daher schon nicht vergleichen, da die Ergebnisse im CPU-Limit nicht (immer) vergleichbar sind.

Edit: Stimmt ja gar nicht, PCGH nutzt ebenfalls die 6900XT. GeForce war CB. Aber irgendwas wirkt trotzdem komisch, deine Werte sind massiv höher (verglichen mit dem 12900K PCGH) und das allein kommt nicht nur vom RAM.

ChaosTM
2022-04-17, 01:10:03
Und wieso sollte das kein Cherry Picking sein?


Es ist definitiv Cherrypicking, ich mach das ja auch zb. für den FS2020. Das ist das einzige Spiel wo ich jedes FPS brauche für VR.

Sonst wär mir der 58003D ehrlich gesagt völlig wurscht tbh..

Bei ihm ist es halt Assetto Corsa

-=Popeye=-
2022-04-17, 01:10:54
:confused:

Insg. ist der 5800X3D knapp vor einem 12900KS und damit aktuell die schnellste Gaming-CPU.

Ähm... nicht wirklich. Schau nochmal genauer hin, effizienter... Ja, schneller... Hmmm.

ChaosTM
2022-04-17, 01:13:07
Ähm... nicht wirklich. Schau nochmal genauer hin, effizienter... Ja, schneller... Hmmm.


Der KS ist völlig irrelevant, außer du hast eine PV Anlage oder zu viel Geld. :)

aufkrawall
2022-04-17, 01:15:08
[STRIKE]
Edit: Stimmt ja gar nicht, PCGH nutzt ebenfalls die 6900XT. GeForce war CB. Aber irgendwas wirkt trotzdem komisch, deine Werte sind massiv höher (verglichen mit dem 12900K PCGH) und das allein kommt nicht nur vom RAM.
Er hat 4GHZ DDR4 Gear 1. PCGH testet 4,4GHz DDR5 Gear 2, also fast nur die Hälfte des Takts für den IMC + sonstige Gurken-Latenzen. Das kann man als Default gelten lassen, ist aber halt trotzdem ziemlich ungeeignet für Gaming.

@-=Popeye=-: Kannst du mal FC5 720p anwerfen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587513

-=Popeye=-
2022-04-17, 01:30:53
Der KS ist völlig irrelevant, außer du hast eine PV Anlage oder zu viel Geld. :)

Blind? Der Gerät ist eine 08/15 12900k @ 5,0 P / 4,0 E / 4,0 C mit DDR4-4000 CL16+Subs Kiste.

ChaosTM
2022-04-17, 01:35:09
Ich hab angenommen es ist ein KS, sorry for that. Mit RAM Optimierung ist natürlich viel möglich.
Braucht trotzdem 100 Watt mehr als der AMD , oder liege ich da auch falsch?

ich untersuche derzeit zu viele sachen gleichzeitig, hab mir das ned genau genug angschaut

BlacKi
2022-04-17, 01:36:39
du brauchst oft keine 100w, eher 60-100w. was soll das also mit 100w mehr?

Freestaler
2022-04-17, 01:39:04
Er hat 4GHZ DDR4 Gear 1. PCGH testet 4,4GHz DDR5 Gear 2, also fast nur die Hälfte des Takts für den IMC + sonstige Gurken-Latenzen. Das kann man als Default gelten lassen, ist aber halt trotzdem ziemlich ungeeignet für Gaming.

@-=Popeye=-: Kannst du mal FC5 720p anwerfen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587513

Und die 5ghz dauernd sind wohl auch nicht ganz Default. Also OC CPU und Ram gegen Default. Irgendwie sinnlos ned?

ChaosTM
2022-04-17, 01:39:28
Der FS2020 Benchmark von Golem

-=Popeye=-
2022-04-17, 01:42:15
Und die 5ghz dauernd sind wohl auch nicht ganz Default. Also OC CPU und Ram gegen Default. Irgendwie sinnlos ned?

Richtig, sind sie auch nicht ein KS boostet stock auf 5,2 Ghz. :wink:

ChaosTM
2022-04-17, 01:43:32
Buyers Confirmation Bias -- I get it, mach ich auch gelegentlich

--eigentlich fast immer :)

aufkrawall
2022-04-17, 01:52:45
Und die 5ghz dauernd sind wohl auch nicht ganz Default. Also OC CPU und Ram gegen Default. Irgendwie sinnlos ned?
Der 12900K taktet mit Last auf allen Kernen mit 4,9GHz auf den P-Cores: https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/4/#abschnitt_der_turbo_ist_der_altbekannte
Du kannst natürlich auch ganz kleinlich 2% Leistung von seinen fps abziehen, auch wenn die reale Skalierung wohl eher bei 1% liegt. :rolleyes:

Freestaler
2022-04-17, 01:59:17
Klar kleinlich ;-) aber halt offene Karten. Find ich jetzt halt wichtig. Wenn wir bereits uns auslassen, das viele Tester nicht mal Ramsetting posten, dann sollte es schon erwähnt sein. ;-) ich freu mich ja auf maxout vs maxout. Kommt sicher noch was.

Thomas Gräf
2022-04-17, 02:31:13
Und wieso sollte das kein Cherry Picking sein?

Nja klar, wie Chaos schon geschrieben hat.
Auch genau solch ein Picking wäre iRacing!

Falls der X3D auch in iRacing den besten Intel schlagen sollte, tja dann macht er das auch in jeder anderen Sim wo viel berechnet wird.

Stell Dir vor der PC berechnet Dir von 100m Bremsweg 90% statt nur 40%.
Die Rundenzeit wird min 4-5 sec unterschiedlich sein. Das sind Welten im Racing.
Das hat nix mit GPU zu tun weil es fast egal ist wie das aussieht,
da ist es einfach nur die pure Rechenleistung die man in Racesims zu sehen bekommt oder eben nicht.

Wie viel Meter Strecke kann der PC bei hohen Geschwindigkeiten glaubhaft darstellen. Das ist der Benchmark in Sims.

Um sowas zu erreichen erfordert das reale Weitsichtberechnung, ein ganz teures Zeug für Games.
Mit Flugsims wird es sich genauso verhalten. Zb beim Landen auf Flugzeugträger.

Aber ja is ne Nische in der grossen Welt von all den oberflächlichen schicki blinki Games.. ;)

BlacKi
2022-04-17, 02:41:56
also mit dem x3d wird picking halt nochmals ein ding. manches skaliert brutal, manches fast garnicht.

Thomas Gräf
2022-04-17, 03:32:25
Jaja das ist wohl oder übel immer Engine abhängig.

Das iRacing war immer eine Intel Domäne und hat eine andere Physik Berechnung für das Reifenmodell,
eher sauschnelles Datenbank spezifisches abrufen.
Klingt nach Steinzeit funzt aber aufgrund von jahrzehnte langer Erfahrung hervorragend.

Assetto Corsa macht das anders. Auf speziellen Daten die in real Time berechnet werden.

Für den Programmierer ist ja ein Reifen nix anderes als eine gerundete Flugzeugtragfläche. Also mathe technisch gesehen.
Auch daher haben Sims diese hohen CPU Ansprüche.

Naja bleibt spannend!

dargo
2022-04-17, 08:12:29
Für den Programmierer ist ja ein Reifen nix anderes als eine gerundete Flugzeugtragfläche. Also mathe technisch gesehen.
Auch daher haben Sims diese hohen CPU Ansprüche.

Naja... es wäre den Sim-Gamern wesentlich mehr geholfen wenn sich die Software mal gravierend weiter entwickeln würde als immer mehr mit der Brechstange @Hardware drauf zu hauen. Moderne APIs + starkes Multithreading der Engine sind immer noch dort ein Fremdwort.

Freestaler
2022-04-17, 08:15:58
Kann es sein, das Games auch noch optimiert werden für die grösse des Caches? Vermutlich ist der Aufwand zu gross mit der kleinen Basis (Nische AMD 5800X3D). Oder ist üblich je nach CPU Parameter anzupassen, und optimierungen kommen noch? Oder habt ihr da was gelesen dazu?

Redneck
2022-04-17, 10:14:40
Mich würde auch interessieren, wie sich die CPU in der UE5 verhält.. Star Citizen natürlich auch. Hoffe da kommen noch ein paar Tests zu.

Crazy_Chris
2022-04-17, 10:38:13
Ich brauche diese CPU auch unbedingt für Ets 2, Elex 2 sowie Anno 1800. Eigentlich ist das doch die ideale CPU für ältere, schlecht optimierte Spiele. :freak:

w0mbat
2022-04-17, 11:07:49
Ähm... nicht wirklich. Schau nochmal genauer hin, effizienter... Ja, schneller... Hmmm.
Du scheinst das Kozept von einem Benchmark Parkur nicht zu verstehen. Wenn du nur Spiele testest, die nicht von extra L3-Cache profitieren, dann ist er nicht schneller. Wenn du nur Spiele testest die profitiern, dann ist er deutlich schneller. Und bei einem guten Mix ist er im Schnitt knapp schneller.

Knuddelbearli
2022-04-17, 13:22:11
Das diese Aussage komlett Käse ist, weißt du natürlich selber.
Und nein, du kannst eben NICHT ausschließlich den 12900KS betrachten.
Aber auch das weißt du natürlich.

Keine Ahnung warum sich manche nicht einfach über die guten Ergebnisse des 5800X3D freuen können sondern stattdessen noch einen derart unqualifizierten Quark absondern müssen. :confused:

Wenn du meinst, mir ist es nicht Wert da lange zu diskutieren, Intel hat die CPU extra als (Vorab)Counter gegen AMD gebracht und somit selber den Vergleich gezogen, also selber Schuld.

Ich sagte ja nirgends, dass das der einzige legitime Vergleich ist, aber das nunmal der den Intel selbst aufgebracht hat.
Und wenn man schon bei Fertigungsgleichstand solche Probleme hat ist es echt lächerlich das man jetzt schon argumentiert, dass doch AMD einen Fertigungsvorteil mit der nächsten Gen hat und nur deshalb so effizient ist ...

Am Ende ist halt nur interessant wie hoch der Verbrauch (Und Preis) bei selber Leistung ist.


Edit: Das alles gilt natürlich nur für Gaming, was das einzige ist, was mich aktuell interessiert, maximal nehme ich 1-2 Kerne mehr mit als Gaming benötigt, da mein OS nicht so aufgeräumt ist wie das der Tester.

Knuddelbearli
2022-04-17, 13:34:05
Aus wissenschaftlicher Sicht sind 720p-Tests die, aus denen man am meisten ableiten kann. Wenn ich das mit GPU-Tests kombiniere, kann ich mir für ein beliebiges Game angucken, wo das CPU-Limit liegt (das ist nicht von der Auflösung abhängig) und wo das GPU-Limit liegt (in meiner Zielauflösung, denn hier spielt sie eine Rolle). Somit kann ich abwägen welche CPU/GPU-Kombination am meisten Sinn für mich ergibt. Sobald ich anfange, die CPU-Tests zu verwässern indem ich die Auflösung erhöhe und somit die GPU bremsen lasse, sehe ich das echte CPU-Limit nicht mehr.

Soweit die Theorie. Du hast natürlich Recht, dass niemand unendliche Ressourcen hat. Niemand hat eine unendlich schnelle GPU, mit der ich in 1440p oder 4K hohe dreistellige fps habe und von der schnellsten CPU auch profitieren würde. Denn seien wir mal ehrlich, die meisten CPUs liefern mehr als genug fps um jede aktuelle GPU in den meisten aktuellen Spielen ans Limit zu bringen. Genau das kann ich aus 720p-Tests aber ableiten, indem ich nicht nur gucke wer den längsten Balken hat, sondern auch auf die absoluten Werte. Wenn die bei allem ab Ryzen 3600 aufwärts >150fps liegen, dann kann ich den Test gedanklich ignorieren, wenn ich weiß dass solche hohen fps für mich irrelevant sind. Das Problem sind also nicht 720p-Tests an sich, sondern dass die meisten Leute anscheinend nicht in der Lage sind, diese richtig zu interpretieren.

Oder andersrum gefragt: Was bringt es mir, wenn ich mit einer 3090Ti in 4K messe und dadurch nur noch 10% Unterschied zwischen einem Ryzen 3600 und einem 12900KS übrig bleiben? Ich weiß jetzt, dass ich mit genau dieser Graka in genau dieser Auflösung/Game die billigste CPU am Markt kaufen kann ohne nennenswerte Nachteile.
Was ich nicht weiß sind:
a) Reicht mir die billigste CPU auch noch, wenn ich mir in einem halben Jahr eine 4090Ti kaufe oder beiß ich mir in den Hintern bei der CPU gespart zu haben?
b) Wenn ich keine 3090Ti habe, sondern was langsameres, was soll ich mir dann kaufen?
c) Was wenn im Herbst Spiele mit höheren CPU-Anfoderungen rauskommen? Wieviel schneller wird der 12900KS dann gegenüber dem 3600 sein? 10% ja wohl bestimmt nicht, aber wieviel dann? 20%? 50%? 100%? Wieviel mehr Geld lohnt es sich für den 12900KS auszugeben?

Ich könnte die Sache mit den unbegrenzten Ressourcen auch umdrehen: Wenn ein Reviewer unendlich viel Zeit hat, dann kann er gerne jede CPU mit jeder GPU in jedem Spiel und jeder Auflösung einzeln testen. Dann ist für jeden was dabei. Praktisch haben Reviewer aber nur sehr begrenzt Zeit und dann hätte ich als Leser gerne einen universalen Test, aus dem ich möglichst viel ableiten kann - also einen 720p-Test. Mit dem kann ich Frage a) und c) ganz einfach beantworten, denn ich sehe anhand des (künstlichen) CPU-Limits wie groß die Unterschiede zwischen den CPUs sind und für die 4090Ti kann ich pi mal Daumen einfach doppelte 3090Ti-Leistung ansetzen. Wie genau die Anforderungen von neuen Spielen aussehen, kann natürlich keiner vorhersagen, aber die Vergangenheit und Logik haben gezeigt, dass sich an den Verhältnissen zwischen CPU-Architekturen nichts gravierendes ändert. Zen 3 wird in neuen Titeln nicht plötzlich bei gleicher Kernzahl 20% schneller als Alder Lake werden. Es können höchstens CPUs mit weniger Kernen zurückfallen, wenn neue Spiele mehr davon nutzen können, d.h. ein 5950X könnte z.B. Alder Lake theoretisch ein- oder überholen, aber das passiert a) nicht über Nacht und b) kann ich mich vorher über die Kernzahl informieren und einpreisen, ob ich ein paar Euro extra investiere und die Wette eingehe, dass mir die Kerne später noch nützen.

Danke für die ausführliche Erklärung, genau das was ich immer sage, nur nicht so schön ausführlich wie du.
720p CPU Tests sind eben genau für die die aufs Geld achten müssen da man mit CPU + GPU Tests dann genau entscheiden kann was für eine CPU und GPU für einen selbst am meisten Sinn ergibt, statt einfach auf Verdacht das beste leistbare zu kaufen.

Leider sind manche unbelehrbar ...

DrFreaK666
2022-04-17, 13:40:06
Danke für die ausführliche Erklärung, genau das was ich immer sage, nur nicht so schön ausführlich wie du.
720p CPU Tests sind eben genau für die die aufs Geld achten müssen da man mit CPU + GPU Tests dann genau entscheiden kann was für eine CPU und GPU für einen selbst am meisten Sinn ergibt, statt einfach auf Verdacht das beste leistbare zu kaufen.

Leider sind manche unbelehrbar ...

Ich muss aufs Geld achten und habe einen 1440p-Monitor.
Wieso sind jetzt 720p nochmal gut für meine Wenigkeit? Erkenne den Zusammenhang nicht.
Besonders bei 5800X3D und aufs Geld achten.

w0mbat
2022-04-17, 13:44:27
9XB3yo74dKU

Knuddelbearli
2022-04-17, 13:47:23
Ich muss aufs Geld achten und habe einen 1440p-Monitor.
Wieso sind jetzt 720p nochmal gut für meine Wenigkeit? Erkenne den Zusammenhang nicht.
Besonders bei 5800X3D und aufs Geld achten.

Einfach lesen was da steht...
wieviele FPS willst du in Spiel Y? reichen 40? 60? 120? 144? welche CPU du da nehmen musst siehst du dann im 720P CPU Test, ein CPU test in 1440p aufwärts hilft dir da nicht weiter (außer das Spiel ist wirklich extremst extrem CPU lastig)
in 1440p GPU Tests siehst du dann welche Grafikkarte du benötigst

und kA was das jetzt speziell mit dem 5800X3D zu tun hat das gilt halt universal ...

Korken hat das doch alles extrem genau beschrieben ...

Ex3cut3r
2022-04-17, 14:13:04
Naja... es wäre den Sim-Gamern wesentlich mehr geholfen wenn sich die Software mal gravierend weiter entwickeln würde als immer mehr mit der Brechstange @Hardware drauf zu hauen. Moderne APIs + starkes Multithreading der Engine sind immer noch dort ein Fremdwort.

Genau, dass ist doch eigentlich der Punkt. Wurden die Spiele Entwickler man endlich die vorhandene Leistung richtig ausnutzen, wurden wir hier alle gar nicht vorstellig werden. Es erstaunt mich immer wieder wie auch noch heute Games rauskommen, die grade mal 4-8 Threads nutzen.

Zum Thema...ich werde mir die Situation ende des Jahres und in der besten Spielezeit anschauen. Jetzt mit dem guten Wetter, will ich gar nicht so viel Zuhause sitzen, ich warte nur auf Uncharted 4 für den PC, das Game ist von 2016 ursprünglich, dafür braucht man keinen Zen 3+ :ulol:

Ansonsten verstaubt die 3080Ti im Rechner.

aufkrawall
2022-04-17, 14:49:13
Zum Thema...ich werde mir die Situation ende des Jahres und in der besten Spielezeit anschauen. Jetzt mit dem guten Wetter, will ich gar nicht so viel Zuhause sitzen, ich warte nur auf Uncharted 4 für den PC, das Game ist von 2016 ursprünglich, dafür braucht man keinen Zen 3+ :ulol:

Außer, es hat wieder D3D11 und läuft mit AMD-Treiber wie GoW an der Midgard-Brücke. ;D

Slipknot79
2022-04-17, 22:21:32
Danke für die ausführliche Erklärung, genau das was ich immer sage, nur nicht so schön ausführlich wie du.
720p CPU Tests sind eben genau für die die aufs Geld achten müssen da man mit CPU + GPU Tests dann genau entscheiden kann was für eine CPU und GPU für einen selbst am meisten Sinn ergibt, statt einfach auf Verdacht das beste leistbare zu kaufen.

Leider sind manche unbelehrbar ...


Die, die aufs Geld achten müssen, spielen in 720p mit einer 3090Ti? :wink:


Es ist ganz einfach:
- Unnötige 720p Benchmarks deutlich reduzieren, Zeitressourcen gewinnen für folgendes:
- 1080p Benchmarks für die, die aufs Geld achten müsssen. Die werden auch alte CPUs noch verbaut haben, weil "muss aufs Geld achten". 1080p Benchmarks somit ausdehen auf typische CPU-Vertreter jeder Generation bis zum Intel 2500 oder 2600k.
- 1440p Benchmarks mit typischen CPU-Vertretern jeder Generation bis zum 2500 oder 2600k.
- 4k Benchmarks mit typischen CPU-Vertretern jeder Generation bis zum 2500 oder 2600k. Auch hier werden noch "alte" CPUs noch verbaut sein, weil "ab wann lohnt sich ein CPU Update, wenn ich ohnehin 99% der Spielzeit im GPU limit klebe".

Die aktuellen Ergebnisse der Benchmarks sind überwiegend nicht zu gebrauchen. Damit werden nur Theoretiker und high-fps gamer bedient. :rolleyes:

BlacKi
2022-04-17, 22:26:49
was ist, wenn ich auf 100% gpu limit stehe und mir nicht 95 oder 99% reichen?

Slipknot79
2022-04-17, 22:30:02
Probiere es aus, alle Regler nach rechts, 360Hz Bildschirm in 4k mit einer 3090Ti.

dildo4u
2022-04-18, 08:22:41
https://youtu.be/9XB3yo74dKU
Extrem gutes Zeichen für die CPU alle was mit Unreal läuft fliegt Borderlands, Assetto Corsa,Fortnite, Outer Worlds.
Wenn man überlegt was für eine Monokultur wir bei den Engines bekommen CDPR hat ja ihre Engine grad erst beerdigt für UE 5.0.


Die, die aufs Geld achten müssen, spielen in 720p mit einer 3090Ti? :wink:


Es ist ganz einfach:
- Unnötige 720p Benchmarks deutlich reduzieren, Zeitressourcen gewinnen für folgendes:

RT drückt oft fps auch im CPU Limit, lange nicht alles läuft aktuell mit Tonnen FPS Überfluss.
Die besten CPU auf den Markt sind grad so bei 60 min was Sinn macht, der RT Modus läuft auf der PS5 mit 30fps.
Eine 3090 ist aber locker in der Lage mit diesen RT Settings 1080p/60fps zu schaffen was sich mit DLSS auf 4k upscalen lässt,die CPU ist hier das Problem.
Das könnte der Status quo sein wenn Cross-Gen vorbei ist.Ghostwire gibt es nur für PS5 und PC es gibt keine Last Gen Version mher.

https://abload.de/img/rtghost33k85.png

https://abload.de/img/gotswirdhj6q.png

https://www.computerbase.de/2022-04/ryzen-7-5800x3d-gaming-benchmark/2/

Redneck
2022-04-18, 09:51:32
Die, die aufs Geld achten müssen, spielen in 720p mit einer 3090Ti? :wink:


Es ist ganz einfach:
- Unnötige 720p Benchmarks deutlich reduzieren, Zeitressourcen gewinnen für folgendes:
- 1080p Benchmarks für die, die aufs Geld achten müsssen. Die werden auch alte CPUs noch verbaut haben, weil "muss aufs Geld achten". 1080p Benchmarks somit ausdehen auf typische CPU-Vertreter jeder Generation bis zum Intel 2500 oder 2600k.
- 1440p Benchmarks mit typischen CPU-Vertretern jeder Generation bis zum 2500 oder 2600k.
- 4k Benchmarks mit typischen CPU-Vertretern jeder Generation bis zum 2500 oder 2600k. Auch hier werden noch "alte" CPUs noch verbaut sein, weil "ab wann lohnt sich ein CPU Update, wenn ich ohnehin 99% der Spielzeit im GPU limit klebe".

Die aktuellen Ergebnisse der Benchmarks sind überwiegend nicht zu gebrauchen. Damit werden nur Theoretiker und high-fps gamer bedient. :rolleyes:
Was du möchtest, ist die eierlegende Wollmilchsau.. Das wird sich freiwillig kein Tester antun.
Unverständlich auch, weshalb viele immer auf 720 Benchmarks herum hacken. Das Verhalten 720\1080 ist doch identisch nur bei 720 ausgeprägter und damit aussagekräftiger.
Benchmarks in niedrigen Auflösungen hatten damals wie heute ihre Berechtigung (heute noch mehr aufgrund von DLSS und FSR).
Ich habe auch nur einen 1440p Bildschirm.. Mich nervt allerdings der Gedanke das meine CPU meine teure Graka ausbremst und ich habe vor, Ende des Jahres auf die next Gen umzusteigen (welche kolpotiert doppelt so schnell sein soll). Will ich mir dann erneut Gedanken über eine neue CPU machen? Nein Danke.

Thunderburne
2022-04-18, 09:52:13
Ich hoffe das ich am Mittwoch eine ergattern kann freu mich riesig auf ein Update ich laufe in 4K öfter ins CPU Limit!
Tarkov /New World und noch ein Paar andere Titel wo ich stellenweise Probleme habe mit der GPU Auslastung !

Wuge
2022-04-18, 11:07:35
Ist schon irre, wie anders Games ggü. anderen Anwendungen skalieren. Die hängen ja nur am Speichersubsystem. Der 3D Cache zeigt das super eindrucksvoll.

dargo
2022-04-18, 12:49:39
Genau, dass ist doch eigentlich der Punkt. Wurden die Spiele Entwickler man endlich die vorhandene Leistung richtig ausnutzen, wurden wir hier alle gar nicht vorstellig werden. Es erstaunt mich immer wieder wie auch noch heute Games rauskommen, die grade mal 4-8 Threads nutzen.

Das ist halt der Nachteil wenn man sich von den alten Konsolen noch nicht trennen möchte. Was ich aus wirtschaftlicher Sicht absolut nachvollziehen kann. Bis wir breitflächig Games sehen die mit einem 16-Threader ordentlich skalieren (ich spreche hier von der Engine und nicht irgendwelchen bullshit @D3D11 Geforcetreiber der den Overhead nur auslagert) sind wahrscheinlich schon die Konsolenrefrehes da. Die Übergangszeit die mehrere Jahre dauert ist immer etwas blöd.

BlackBirdSR
2022-04-18, 13:29:03
Ganz ehrlich:
Was du beschreibst ist ein Gaming Test.
Das andere eben ein synthetischer CPU Test.
Beides hat seine Berechtigung.
CPU Test bekommst du im Print/Text, für gaming Tests bemühe doch einfach YouTube.

Hier treffen einfach Praktiker Mentalität auf wissenschaftliches Arbeiten.
Hat beides seine Berechtigung, also lass sie auch beide leben :)


Die, die aufs Geld achten müssen, spielen in 720p mit einer 3090Ti? :wink:


Es ist ganz einfach:
- Unnötige 720p Benchmarks deutlich reduzieren, Zeitressourcen gewinnen für folgendes:
- 1080p Benchmarks für die, die aufs Geld achten müsssen. Die werden auch alte CPUs noch verbaut haben, weil "muss aufs Geld achten". 1080p Benchmarks somit ausdehen auf typische CPU-Vertreter jeder Generation bis zum Intel 2500 oder 2600k.
- 1440p Benchmarks mit typischen CPU-Vertretern jeder Generation bis zum 2500 oder 2600k.
- 4k Benchmarks mit typischen CPU-Vertretern jeder Generation bis zum 2500 oder 2600k. Auch hier werden noch "alte" CPUs noch verbaut sein, weil "ab wann lohnt sich ein CPU Update, wenn ich ohnehin 99% der Spielzeit im GPU limit klebe".

Die aktuellen Ergebnisse der Benchmarks sind überwiegend nicht zu gebrauchen. Damit werden nur Theoretiker und high-fps gamer bedient. :rolleyes:

Der_Korken
2022-04-18, 14:05:54
Die, die aufs Geld achten müssen, spielen in 720p mit einer 3090Ti? :wink:


Es ist ganz einfach:
- Unnötige 720p Benchmarks deutlich reduzieren, Zeitressourcen gewinnen für folgendes:

[...]

Die aktuellen Ergebnisse der Benchmarks sind überwiegend nicht zu gebrauchen. Damit werden nur Theoretiker und high-fps gamer bedient. :rolleyes:

Danke, dass du meine Beobachtung bestätigst:

Wenn ich das mit GPU-Tests kombiniere, kann ich mir für ein beliebiges Game angucken, wo das CPU-Limit liegt (das ist nicht von der Auflösung abhängig) und wo das GPU-Limit liegt (in meiner Zielauflösung, denn hier spielt sie eine Rolle). Somit kann ich abwägen welche CPU/GPU-Kombination am meisten Sinn für mich ergibt.

[...]

Das Problem sind also nicht 720p-Tests an sich, sondern dass die meisten Leute anscheinend nicht in der Lage sind, diese richtig zu interpretieren.

Dass man auch ein paar alte CPU-Gens mittesten könnte, OK. Oft sehe ich noch Zen 1, der mittlerweile 5 Jahre alt ist. Nen 7600/7700K als Vertreter der 4/4 und 4/8-Fraktionen könnte man gerne noch in den Benches mitschleifen, aber Forderungen nach 2500K-Benches sind Unsinn. Kein Reviewer hat Lust 10 Testsysteme zu haben, um alle Sockel bis Anno Tobak abzudecken. Dass sich die CPUs von damals so lange gehalten haben, war dem Intel-Monopol geschuldet. Aktuell sehe ich so eine Entwicklung nicht aufziehen.