Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 3/Ryzen 5000 Review-Thread
Seiten :
1
2
3
4
5
6
[
7]
8
9
r3ptil3
2021-03-05, 10:49:44
Bin auch bei 56-57ns mit 3600Mhz / 14-15-15-30 Timings, aber mit 4 eingebauten Riegel auf einem Dark Hero.
Auf einem Gigabyte B550i komme ich hingegen mit 2 Riegel bei 3600Mhz und 16-18-18-36 schon auf 60ns.
Für 50ns oder tiefer wird wohl bspw. ein B550 Unify-X mit 3800-4000Mhz+ RAM und Latenzen ab oder unter CL12 notwendig sein.
Obwohl nachdem was man so liest, würde ich wohl vorerst noch kein B550 Unify Board empfehlen.
Kannst Du mir da vielleicht mal einen Zentimings Screenshot von machen? Würde mich echt interessieren was da bei Dir anders ist. Hier sind meine Timings:
https://i.imgur.com/fVL6J8B.jpg
qiller
2021-03-05, 18:57:30
Du solltest in etwa auf 56ns kommen. Da kommst du aber nur mit nem Clean-Windows hin. Bei den meisten läuft irgendwelcher Krempel im Hintergrund.
Freestaler
2021-03-05, 19:08:12
Benchmark optimierung wie Adia höher prio zuweisen, mehrmals laufen lassen usw. Nicht vergessen ;-)
schreiber
2021-03-05, 19:10:08
oINRtnpdn_E
Mit ner 3080 in FullHD. Sollte CPU-Limitiert genug sein.
mironicus
2021-03-05, 19:40:41
Da hier gerade Aida 64-Speicherbenchmarks gezeigt werden... für mein B550 erschien gerade ein Agesa 1.2.0.1-Update und das verdoppelt den L3-Cache Speed gegenüber der früheren Version.
r3ptil3
2021-03-05, 23:10:09
Kannst Du mir da vielleicht mal einen Zentimings Screenshot von machen? Würde mich echt interessieren was da bei Dir anders ist. Hier sind meine Timings:
https://i.imgur.com/fVL6J8B.jpg
Sicher:
https://i.ibb.co/XsWjFtG/X570.png
schreiber
2021-03-05, 23:20:04
Da hier gerade Aida 64-Speicherbenchmarks gezeigt werden... für mein B550 erschien gerade ein Agesa 1.2.0.1-Update und das verdoppelt den L3-Cache Speed gegenüber der früheren Version.
Bei ASRock sind die BIOSe jetzt wohl auch da. Gerade fürs Pro4 geflasht.
crux2005
2021-03-05, 23:26:51
Sagt mal, was sind denn realistische Latenzen in aida mit den 5000er cpus? Ich bin jetzt bei ~58,5ns und komme beim besten willen nicht niedriger. Ich hab aber mal irgendwo screenshots mit 51 gesehen meine ich.
Für 59ns wäre ich ganz ehrlich froh ;)
r3ptil3
2021-03-05, 23:37:07
https://youtu.be/oINRtnpdn_E
Mit ner 3080 in FullHD. Sollte CPU-Limitiert genug sein.
Was sagt uns das?
Ein 5800X wäre der perfekte Prozessor, wenn er nur nicht so heiss werden würde.
crux2005
2021-03-05, 23:43:26
Was sagt uns das?
Ein 5800X wäre der perfekte Prozessor, wenn er nur nicht so heiss werden würde.
Und teuer. Und AGESA samt BIOS endlich ausgereift wären. :(
r3ptil3
2021-03-05, 23:53:12
Und teuer. Und AGESA samt BIOS endlich ausgereift wären. :(
Hast du noch Probleme mit der Plattform?
crux2005
2021-03-06, 00:04:47
Hast du noch Probleme mit der Plattform?
Ja: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=604079
r3ptil3
2021-03-06, 00:39:22
Ja: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=604079
Werde aus dem Thread aber nicht ganz schlau.
Wenn ich richtig lese:
- zu hohe Spannung
- zu wenig Leistung
richtig?
Ich sehe in dem Thread kein Bild vom "Ryzen Master" mit der CPU- Spannung.
Des weiteren:
- BIOS CMOS durchgeführt und lediglich DOCP aktiviert?
- Win10 (20H2) frisch installiert inkl. Updates und offizielle AMD-Chipsatztreiber und sonstige Mainboardtreiber?
- neuste CPU-Z Version installiert und getestet?
crux2005
2021-03-06, 00:50:35
Werde aus dem Thread aber nicht ganz schlau.
Wenn ich richtig lese:
- zu hohe Spannung
- zu wenig Leistung
richtig?
Korrekt.
Ich sehe in dem Thread kein Bild vom "Ryzen Master" mit der CPU- Spannung.
Wieso Ryzen Master? HWInfo oder SIV haben eine Historie wie hoch, bzw. niedrig die Vcore war. Oder reicht mein Wort nicht?
Hier auch ein Bild von HWInfo:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12587664&postcount=12723
Geht teilweise auch höher, bis 1,55V. Da mir aber keiner bestätigen konnte das es ein RMA Grund ist, kann ich nicht viel machen.
Wenn ich Zeit, Lust habe könnte ich mir einen billigen Ryzen 3500 kaufen, den 5800X RMA zu AMD verschicken und hoffen die tauschen mir den aus.
Wenn es der 2. auch macht liegt es am Board...
Des weiteren:
- BIOS CMOS durchgeführt und lediglich DOCP aktiviert?
Optimized defaults mit DOCP ist schon mal instabil. Bleibt im bootloop hängen. Ist aber auch nicht default, weil XMP und so.
- Win10 (20H2) frisch installiert inkl. Updates und offizielle AMD-Chipsatztreiber und sonstige Mainboardtreiber?
- neuste CPU-Z Version installiert und getestet?
Ja, alles. An ein SW Problem glaube ich nicht. Warte aber noch auf neuere AGESA, evtl. wird es damit mal behoben (geben dem so 5% Wahrscheinlichkeit).
r3ptil3
2021-03-06, 01:06:40
Ist der RAM bei ASUS als kompatibel gelistet?
Bestimmt schon die anderen RAM Slots getestet oder?
Ich würde mal einen RAM Riegel ausbauen und nochmals testen mit DOCP.
Wenn ich bei ASUS unter deinem Board nachschaue, finde ich die BIOS-Version 1805.
Hattest du die Version schon drauf?
crux2005
2021-03-06, 01:16:08
IMHO hat AMD mir einfach einen minderwertigen 5800X verkauft der mehr Vcore braucht und deswegen auch weniger Leistung bringt. Da wird nichts außer RMA/Austausch helfen.
Ist der RAM bei ASUS als kompatibel gelistet?
Mein 4000 MHz Kit nicht aber das langsamere 3600 MHz Kit schon. ICs sind die gleichen. Meins hat mehr VDIMM.
Bestimmt schon die anderen RAM Slots getestet oder?
Nein. Laut Handbuch sollen bei Dual-Channel die A2, B2 Slots belegt sein. Sehe da keinen Grund wie die "schlechteren" Slots mehr Leistung bringen sollten. Habe auch einen NH-D15 montiert. Einfach so RAM wechseln geht ohne Lüfter raus nehmen nicht.
Ich würde mal einen RAM Riegel ausbauen und nochmals testen mit DOCP.
Wohl einen Versucht wert...
Wenn ich bei ASUS unter deinem Board nachschaue, finde ich die BIOS-Version 1805.
Hattest du die Version schon drauf?
Beim WIFI ist das 1804 das neuste.
dildo4u
2021-03-06, 05:19:12
MSI bestätigt bessere CPU Performance mit 1.2.0.1.
https://www.msi.com/Motherboard/support/B550-A-PRO
Kein Plan ob das hier mit OC ist aber der kommt hier jetzt auf Absurde Werte bei Geekbench.
https://www.youtube.com/c/Bang4BuckPCGamer/community
dargo
2021-03-06, 07:16:27
Was sagt uns das?
Ein 5800X wäre der perfekte Prozessor, wenn er nur nicht so heiss werden würde.
Geht so. :cool:
https://abload.de/thumb/cb23_15ykju.jpg (https://abload.de/image.php?img=cb23_15ykju.jpg) https://abload.de/thumb/cb23_2ihkrc.jpg (https://abload.de/image.php?img=cb23_2ihkrc.jpg)
In Valhalla habe ich noch keine 60°C am 5800X trotz der zusätzlichen Abwärme der Graka gesehen.
horn 12
2021-03-06, 07:44:48
@schreiber
Dasselbe Video bitte in 4K
Wäre wünschenswert!
mironicus
2021-03-06, 08:51:25
Es stimmt. Mit dem neuen Agesa-Update 1.2.0.1 habe ich über 100 Punkte mehr im Geekbench-Singlescore und über 1000 Punkte mehr im Multi-Score im Vergleich zu 1.2.0.0.
EDIT: Scheinbar war der L3-Cache ein Fehler im vorherigen AGESA da die L3-Bandbreite bei früheren Versionen vor 1.2 schon so schnell war.
H3GkS0wvCcs
Hab nochmal ein bisschen rumprobiert heute und 3866 scheint mittlerweile auch zu laufen. Da war mit meinem alten Ram-Kit nicht dran zu denken, obwohl das ei 4000er Kit war. Jetzt klappt das auch mit den Latenzen :)
https://i.imgur.com/k983MwP.jpg
Man merkt aber schon das der Ram jetzt so langsam an seine Grenzen kommt. Jetzt nimmt er nicht mehr jedes subtiming einfach so hin ohne zu meckern.
r3ptil3
2021-03-06, 15:05:28
@N0rg
Wie viel Spannung gibst du dem RAM?
MEMTest fehlerfrei durch? Sonst könnten Abstürze folgen zur schlechtesten Zeit.
Ich hab 1,5V auf dem RAM. Das Kit hat aber auch 1,5V mit XMP, somit sollte das Ok sein.
Hab vorhin 30 min OCCT laufen lassen, da gabs keine Fehler. Mass effect läuft seit 2h auch ohne Probleme. Ich beobachte weiter, aber bisher scheint es zu funktionieren.
mironicus
2021-03-06, 21:32:52
Ich versuche gerade mein Glück mit dem Curve Optimizer. Habe erst -20 und dann -30 eingestellt auf meinen 5900x. Läuft beides und hat sofort spürbare Auswirkungen. Cinebench 23 schafft 1500 Punkte mehr als vorher und das bei gleichem Stromverbrauch und bei Dauerlast ist der durchschnttliche CPU-Takt 100-150 MHz höher.
Lohnt es sich das Tool CTR2 zu verwenden um noch mehr zu tweaken, bzw. wieviel Prozent könnte man theoretisch noch herausholen?
qiller
2021-03-06, 22:47:58
... Läuft beides ...
Teste solch niedrige CO-Werte erstmal gründlich, bevor du voreilig urteilst oder mit dem CTR weiter vorspreschen willst.
Lohnt es sich das Tool CTR2 zu verwenden um noch mehr zu tweaken, bzw. wieviel Prozent könnte man theoretisch noch herausholen?
Ich bin zum Entschluss gekommen, CO ist besser. CTR2 soll ja in den nächsten Version auch CO unterstützen, dann wird es vielleicht interessant.
@N0rg
Wie viel Spannung gibst du dem RAM?
MEMTest fehlerfrei durch? Sonst könnten Abstürze folgen zur schlechtesten Zeit.
Hab die suptimings noch etwas getweakt und dann über Nacht Karhu laufen lassen. Gestern mit 1,50V gabs bei 9900% einen Fehler. Diesmal mit 1,51V lief es die ganze Nacht fehlerfrei durch. Mir ist das stabil genug.
https://i.imgur.com/OsGWaKR.jpg
horn 12
2021-03-08, 19:57:56
@Dargo
Lüfter sind Heute gekommen
werden diese Tage dann probiert, mal nur als 1x Hecklüfter zum Testen...
Hatte Heute Gehäuse komplett offen und den Hecklüfter auf 100 Prozent:
GPU 73 Grad Hotspot 84/85 Grad
Dann Gehäuse geschlossen und Hecklüfter auf 55%
GPU 78 Grad Hotspot 90/91 Grad
r3ptil3
2021-03-08, 22:02:50
@N0rg
Nicht schlecht, sieht richtig gut aus.
Mit dem 5950X und RTX 3090 dazu... läuft bei dir :D
Muss aber sicher auch irgendwann etwas traurig sein, wenn man merkt, dass man nichts mehr verbessern kann am System. :freak:
crux2005
2021-03-08, 22:53:17
Verbindungsabbrüche: AMD bestätigt USB-Probleme bei 500er-Mainboards
https://www.computerbase.de/2021-02/amd-b550-x570-usb-verbindungsabbrueche-vr-headset/
If you continue to experience USB connectivity problems after following the suggestions above, you may consider using either of the following workaround:
Set PCIe mode from Gen4/Auto to Gen 3 in the BIOS
Disable Global C-State in the BIOS.
Vielleicht liegen alle meine Probleme an diesem USB Bug :confused:
SimonX
2021-03-09, 00:31:45
Hab die suptimings noch etwas getweakt und dann über Nacht Karhu laufen lassen. Gestern mit 1,50V gabs bei 9900% einen Fehler. Diesmal mit 1,51V lief es die ganze Nacht fehlerfrei durch. Mir ist das stabil genug.
https://i.imgur.com/OsGWaKR.jpg
Was ist denn mit dem L3 Cache los? Nur 500G? Ich sehe da immer 1.2T/s. Beim Write so knapp 900G/s. Copy wieder > 1T/s
crux2005
2021-03-09, 02:15:41
Bug in der neusten AGESA laut AMD. Habe auch nur ~400-440 GB/s.
ShinyMcShine
2021-03-09, 05:58:05
Bug in der neusten AGESA laut AMD. Habe auch nur ~400-440 GB/s.
In der neuesten (1.2.0.1) ist's doch schon wieder gefixt... Der Bug ist in 1.2.0.0 vorhanden.
[..]
Muss aber sicher auch irgendwann etwas traurig sein, wenn man merkt, dass man nichts mehr verbessern kann am System. :freak:
Hab ja noch das ganze gefrickel mit dem Curve optimizer vor mir... grad gar kein bock drauf.
Bezüglich dem L3: Für das Dark Hero gibts leider noch kein Agesa 1.2.0.1. Bios.
Hab ja noch das ganze gefrickel mit dem Curve optimizer vor mir... grad gar kein bock drauf.
Naja einfach allcore -20 einstellen und schauen ob es geht usw.
Ich warte immer noch auf ein Programm welches jeden einzelnen Kern automatisch testet.
Aber klar muss sein einfach last anlegen ist nicht, es müssen ja quasi alle Lastzustände inkl. idle getestet werden.
Wobei ich garnicht wissen will wie lange dann so ein Programm testen muss.
Am besten sollte dieses bei minus 30 CO bei allen Kernen anfangen...
Semmel
2021-03-10, 10:52:05
Naja einfach allcore -20 einstellen und schauen ob es geht usw.
Ich warte immer noch auf ein Programm welches jeden einzelnen Kern automatisch testet.
Aber klar muss sein einfach last anlegen ist nicht, es müssen ja quasi alle Lastzustände inkl. idle getestet werden.
Wobei ich garnicht wissen will wie lange dann so ein Programm testen muss.
Am besten sollte dieses bei minus 30 CO bei allen Kernen anfangen...
Es ist mega zeitaufwändig. Ich teste gerade manuell alle Kerne einzeln durch.
Ich denke nach einer Woche habe ich ein ungefähres Ergebnis und nach 2-3 Wochen ein finales.
Daredevil
2021-03-10, 11:00:13
Ich dachte dazu gibts den Kollegen hier:
https://www.computerbase.de/2021-03/amd-ryzen-5000-curve-optimizer-corecycler/
Lowkey
2021-03-10, 11:20:17
Diverse Tools und Testprozedere wurden seit 3 Monaten in den Foren besprochen und präsentiert. Sehr Zeitaufwendig ist es nicht mehr.
AMD versprach 2000mhz im 1:1 und einen Fix im Januar/Februar mittels AGESA, aber bis heute tut sich da nichts.
mironicus
2021-03-10, 11:23:17
Hier gibt es erstmals einen Test mit einem identisch ausgestatteten Laptop Zen3 vs Comet Lake und einer RTX 3070.
qRkwECJnIhQ
Trotz gleicher GPU ist die Zen 3-CPU im Schnitt aller Games ca. 6% schneller in 1080P.
Ich dachte dazu gibts den Kollegen hier:
https://www.computerbase.de/2021-03/amd-ryzen-5000-curve-optimizer-corecycler/
Ja aber wie gesagt nur einfach Last anlegen bringt nichts, CO optimiert ja nicht nur die Last sondern auch alle anderen Zwischenschritte bis zum Idle.
Es ist mega zeitaufwändig. Ich teste gerade manuell alle Kerne einzeln durch.
Ich denke nach einer Woche habe ich ein ungefähres Ergebnis und nach 2-3 Wochen ein finales.
Dafür bin ich mittlerweile zu Faul geworden und bin mit -20 CO auch zufrieden aber es könnte besser gehen.
Nach 100 Stunden Apex Legends denke ich auch es ist soweit Stabil mit -20 CO.
Semmel
2021-03-10, 14:29:07
Dafür bin ich mittlerweile zu Faul geworden und bin mit -20 CO auch zufrieden aber es könnte besser gehen.
Nach 100 Stunden Apex Legends denke ich auch es ist soweit Stabil mit -20 CO.
Da wäre ich mir nicht so sicher.
Ich habe meinen 5900X paar Wochen schon mit CO -30 laufen gehabt und es war im Alltag und in Spielen immer stabil.
Aber die einzelnen Kerne crashen mit Prime95@SSE teilweise schon wesentlich früher. Probier mal den CoreCycler aus, ob und wie lange der bei dir durchläuft.
Das ist alles nicht so einfach... Der Corecycler ist zwar hilfreich, aber der testet halt nur den Maximaltakt von den Kernen. Da jeder Kern aber für jeden Multiplikator eine eigene Spannung in der Kurve hat, reicht es wenn eine Takt/Spannungs Kombination instabil ist und die Kiste stürzt ab. Das kann aber bei normaler Nutzung Wochen lang laufen bis dann Kern 4 bei Multi 43,25 und 1,289V aufgibt. Der Corecycler hat halt Kern 4 nur bei Multi 49,5 und 1,48V getestet. Hinzu kommt, dass Kern 4 das vielleicht nur bei 45°C oder weniger hinbekommt. Wenn jetzt aber alle Kerne am arbeiten sind steigt Kern 4 vielleicht auch bei 49,5 und 1,48V aus.
Wir bräuchten also ein Tool, das einen negativen CO Offset von 1 auf Kern 1 gibt, dann jeden einzelnen Multi von Kern 1 bei Last auf allen Kernen durchtestet und dann den negativen Offset um eins erhöht usw. Und das dann halt für jeden einzelnen Kern. Bei 16 Kernen und 200 Multis (0,25 Schritte) und durchschnittlich -10 Offset wären das schon 32000 Tests.
hab mal -5 auf alle Kerne gegeben:
The following cores have thrown an error: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15
18:00:02 - All Cores have thrown an error, aborting!
na geil...
Ich glaub ich lass das mit dem CO. Vielleicht liegts auch nur am neuen Bios, muss ich mal beobachten. Cinebench läuft normal durch, total instabil kann es also eigentlich nicht sein.
Semmel
2021-03-10, 18:35:11
Das ist alles nicht so einfach... Der Corecycler ist zwar hilfreich, aber der testet halt nur den Maximaltakt von den Kernen. Da jeder Kern aber für jeden Multiplikator eine eigene Spannung in der Kurve hat, reicht es wenn eine Takt/Spannungs Kombination instabil ist und die Kiste stürzt ab. Das kann aber bei normaler Nutzung Wochen lang laufen bis dann Kern 4 bei Multi 43,25 und 1,289V aufgibt. Der Corecycler hat halt Kern 4 nur bei Multi 49,5 und 1,48V getestet. Hinzu kommt, dass Kern 4 das vielleicht nur bei 45°C oder weniger hinbekommt. Wenn jetzt aber alle Kerne am arbeiten sind steigt Kern 4 vielleicht auch bei 49,5 und 1,48V aus.
Wir bräuchten also ein Tool, das einen negativen CO Offset von 1 auf Kern 1 gibt, dann jeden einzelnen Multi von Kern 1 bei Last auf allen Kernen durchtestet und dann den negativen Offset um eins erhöht usw. Und das dann halt für jeden einzelnen Kern. Bei 16 Kernen und 200 Multis (0,25 Schritte) und durchschnittlich -10 Offset wären das schon 32000 Tests.
32000 Tests. Bis die CPU also fertig durchgetestet ist, hat man schon das Nachfolgemodell. ;)
Eine gewisse Ungenauigkeit sollte man akzeptieren. Die könnte man mit einem Sicherheitsabschlag auf das Ergebnis auffangen.
Ich habe aber bisher eh die Beobachtung gemacht, dass der Maximalboost die größte Schwachstelle ist. Ich teste mittlerweile schon einige Zeit mit dem Curve Optimizer rum. Bin aber noch lange nicht fertig. Das wird zumindest ein paar Wochen dauern. ;)
Semmel
2021-03-10, 18:37:28
na geil...
Ich glaub ich lass das mit dem CO. Vielleicht liegts auch nur am neuen Bios, muss ich mal beobachten. Cinebench läuft normal durch, total instabil kann es also eigentlich nicht sein.
Das sieht nach einem Phantomfehler aus, der in einer älteren Version vorkommen kann. Nutzt du die aktuelle v0.7.8.6?
Hab grad auf stock getestet und wieder sind alle cores ausgestiegen. Dann habe ich bemerkt das ich Version 0.7.2 benutzt hab... Mit der Aktuellen scheint es besser zu laufen.
Hast schon recht, 32000 Tests (und dann biste grad mal bei -10) geht einfach nicht. Da müsste man schon grob einstellen was realistisch ist und es dann einmal überprüfen lassen von dem Tool.
Wären dann aber immer noch 3200 Tests um einmal alle Cores durchzutesten. Mann kann dann vielleicht auch die niedrigen Multis < 25 weglassen, da man die eh nicht anliegen hat bei höherer Last. Dann hätte man noch 1600 Tests. Bei 1 Minute Prime für jeden Multi würde das trotzdem noch über einen Tag dauern.
crux2005
2021-03-12, 22:51:51
In der neuesten (1.2.0.1) ist's doch schon wieder gefixt... Der Bug ist in 1.2.0.0 vorhanden.
Ja, so meinte ich es auch. Unser ASUS Board hat noch immer 1.2.0.0 als neustes. Bin gespannt wann endlich 1.2.0.1 oder 0.2. verfügbar wird. So lange warte ich mit RMA...
Hier (https://www.overclock.net/threads/asus-rog-x570-crosshair-viii-overclocking-discussion-thread.1728796/page-307#post-28753374) gibts die 3302 mit 1.2.0.2 1.2.0.1 für ein paar Asus boards.
Der typ arbeitet wohl bei Asus und haut die neuesten Versionen immer eine Weile vorher raus.
Edit: agesa Version korrigiert
Darkstar
2021-03-13, 14:03:52
Hier (https://www.overclock.net/threads/asus-rog-x570-crosshair-viii-overclocking-discussion-thread.1728796/page-307#post-28753374) gibts die 3302 mit 1.2.0.2 für ein paar Asus boards.
Der typ arbeitet wohl bei Asus und haut die neuesten Versionen immer eine Weile vorher raus.Die stehen jetzt auch auf der Asus-Homepage offiziell zum Download zur Verfügung. Im Text steht aber: Update AMD AM4 AGESA V2 PI 1.2.0.1.
r3ptil3
2021-03-17, 20:05:35
Gerade auf Techpowerup gelesen:
https://i.ibb.co/zPtg1BL/5800x.png
https://www.techpowerup.com/review/sapphire-radeon-rx-6700-xt-nitro/5.html
:ulol:
w0mbat
2021-03-17, 20:15:16
Mit 3,8GHz all-core stimmt das vielleicht sogar.
r3ptil3
2021-03-17, 20:32:06
Mit 3,8GHz all-core stimmt das vielleicht sogar.
Die Aussage ist auch gar nicht falsch, aber alles andere als professionell.:D Dazu ist der 5800X teurer für das gebotene als der 5900X.
Hatte aber selber einen 5900X im Hauptsystem und einen 5600X im Zweitsystem. Ausser den tollen Benchmarks und den lästigen Temperatursprüngen von 20°+ bei geringer Teillast, brachte mir die CPU , gerade in Games, rein gar nichts.
Bin jetzt vollständig auf den 5600X umgestiegen und erfreue mich über einen sehr gut zu kühlenden Prozessor und vor allem keine nervigen Temperatursprünge mehr. Gaming-Performance praktisch identisch, da merke ich absolut nichts.
dargo
2021-03-17, 20:36:10
Die Aussage ist auch gar nicht falsch, aber alles andere als professionell.:D Dazu ist der 5800X teurer für das gebotene als der 5900X.
Wo denn? Im AMD-Shop wo man eh nichts bekommt? :ulol: Schau dir besser die Preise an wo die CPUs auch lagernd sind.
aufkrawall
2021-03-17, 21:15:42
Paar Impressionen von Bros 5600X frei aus jüngerer Erinnerung:
In SotTR bei gleichem 3200er CL14 Fast Timings RAM ca. 35% schneller als der 3600X und 45% schneller als der 6700k (Mitigations/MC off)
in Hitman 2 ca. 38% schneller als der 3600X und ca. 23% schneller als der 6700k (ja, lief auf dem Zen 2 langsamer als auf dem Skylake)
SotTR Frametimes im GPU-Limit in Paititi sind deutlich besser als mit dem 3600X und 6700k
Der Unterschied in BFV mit RT ist gigantisch vs. die beiden älteren CPUs, sowohl in fps als auch Frametime-Varianz (der 6700k stinkt hier völlig ab)
Timing-Tuning allein vs. das CL14 XMP-Profil scheint kaum etwas zu bringen, springt auf Takt wesentlich stärker an (leider schafft das X470 Taichi nicht mal 3400 stabil); da liegt mit dem Board also noch Potenzial brach (Hitman 2 und SotTR zeigten mit instabilen 3600 schon ca. 8% Zugewinn vs. 3200 bei identischen Timings)
Aushebeln des Powerlimits via PBO bringt gar nichts in Spielen, mehr als 75W sind sinnfrei
CPU ist fast lautlos unter Luft kühlbar, anders als der 3600X-Hitzkopf
Das organisierte Vorab-Bios fürs Taichi kann SAM, es skaliert aber nur negativ (alle obigen Tests entsprechend ohne)
Teuer, aber geil. Insbesondere mit einem anderen Board, das besseres RAM-OC und korrekt funktionierendes SAM ermöglicht, dürfte sich die CPU als (genügsames) Biest entpuppen.
r3ptil3
2021-03-17, 22:13:11
Hat hier jemand Erfahrungen mit dem ASUS X570 Impact bzgl. RAM OC?
Ich wollte mit meinem Gigabyte B550i 3800er CL14 RAM (2x16Gb) betreiben, jedoch werden diese Modelle nicht unterstützt. Alle anderen grossen Anbieter (ASUS, MSI...) bieten hier Unterstützung an für X570/B550 - wäre schade, wenn ich nur deswegen das Board austauschen müsste.
aufkrawall
2021-03-17, 22:18:51
Ich wollte mit meinem Gigabyte B550i 3800er CL14 RAM (2x16Gb) betreiben, jedoch werden diese Modelle nicht unterstützt.
Was heißt das denn? :confused:
Btw: Hat hier schon jemand Vergleichstests im kompletten CPU-Limit gemacht mit SAM on vs. Above 4G Decoding komplett aus?
r3ptil3
2021-03-17, 22:34:45
Was heißt das denn? :confused:
RAM: F4-3800C14D-32GTZN
https://i.ibb.co/1dS9HzB/B550.png
https://gskill.com/product/165/326/1605159977/F4-3800C14D-32GTZN-Overview
ASUS X570 Impact usw. werden alle unterstützt bzw. von G.Skill getestet und bestätigt, Gigabyte B550 hingegen läuft nicht. Auf Reddit findet man auch Infos, dass Gigabyte bestätigt hat mit den Taktraten/Timings Probleme auf den Gigabyte B550 Boards zu haben.
Folgender User im HWLuxx hat ebenfalls diese Kombination:
https://www.hardwareluxx.de/community/threads/f4-3800c14d-32gtzn-hersteller-specs-instabil.1290961/
aufkrawall
2021-03-17, 22:36:26
Wie kann denn so etwas sein, wtf?
r3ptil3
2021-03-17, 22:38:44
Wie kann denn so etwas sein, wtf?
Das wüsste ich auch gerne.
Habe die 3800er CL14 fast bestellt, bis ich dann das gelesen habe.
Alles andere als optimal. Ich frage mich halt auch, ob auch RAM OC/Optimierung der Timings auf den Gigabyte Boards schlechter funktionieren.
Aber ja, solche Reviews sucht man vergebens. Muss man wohl alles selber getestet haben, um sowas definitiv wissen zu können.
qiller
2021-03-18, 08:47:26
Ähm, ist das normal? Ist die neueste ClockCycler-Version, wo die noch empfindlicheren Huge-FFTs verwendet werden. Der Kern mit dem Fehler läuft mit CO 0. LLC hatte ich schon von Auto auf "Low" hochgestellt. Mit Auto kam direkt beim ersten Test der Fehler. Hatte dann mal alles @stock getestet, aber da kommt genau derselbe Fehler bei demselben Kern. Z.Z. lass ich mal auf Core "2" (also dem drittem) ein +5 CO laufen. Abstürze oder Probleme hatte ich komischerweise sonst nicht.
https://oli.new-lan.de/wp-content/uploads/2021/03/corecycler_error.png
Kann mal wer mit Stock-Settings die neueste CC-Version laufen lassen? Runtime hatte ich in der config.ini auf 20min hochgesetzt.
Das wüsste ich auch gerne.
Habe die 3800er CL14 fast bestellt, bis ich dann das gelesen habe.
Alles andere als optimal. Ich frage mich halt auch, ob auch RAM OC/Optimierung der Timings auf den Gigabyte Boards schlechter funktionieren.
Aber ja, solche Reviews sucht man vergebens. Muss man wohl alles selber getestet haben, um sowas definitiv wissen zu können.
Hier Leute,
siehe mein System
PC AMD 5800X | Geforce 1080 GTX | Gigabyte B550 Aorus Pro | Crucial Ballistix 32 GB 3600MHz | Seasonic Focus Plus Platinum | ADATA XPG Gammix S11 480 GB, M.2 | JBL Quantum Duo
Von Anfang an Null Probleme, die Ballistix wurden von 3200@3600 aber mit dem Timings(Sub) der 3200 betrieben. Könnte noch höher takten aber sehe kein Bedarf und habe auch keine Lust zum testen. (Spiele zur Zeit eh nur PS5 und Switch).
Crucial Ballistix 3200 MHz CL16 Test – Kann Micron’s Hausmarke bei den B-Die Top-Dogs mithalten?
https://www.igorslab.de/crucial-ballistix-3200-mhz-cl16-test-kann-microns-hausmarke-bei-den-b-die-top-dogs-mithalten/
dargo
2021-03-18, 09:20:23
Es geht doch nicht um DDR4-3600 CL16 sondern DDR4-3800 CL14. ;) Bei DDR4-3800 kann übrigens auch schon der IF bei der CPU dicht machen. Die Instabilität muss nicht zwangsläufig vom Brett kommen. In dem Link von bardh scheint es wirklich am Brett zu liegen denn mit etwas gelockerten Timings läuft der Speicher anscheinend mit DDR4-3800.
robbitop
2021-03-18, 09:58:18
Alter Verwalter... DDR4-3800 mit CL14. :O Was kommt da eigentlich für eine Memorylatency bei rum?
Mein 5900X liegt hier seit 4 Wochen rum, weil ich keine neue Grafikkarte bekomme. Die 1080ti ist trotz 4790K fast immer der Bottleneck. Nur den Ryzen einzubauen würde mir leider wenig bringen. Mit Wakü aufrüsten ist einfach kacke. :-/
ShinyMcShine
2021-03-18, 09:59:58
Hier Leute,
siehe mein System
PC AMD 5800X | Geforce 1080 GTX | Gigabyte B550 Aorus Pro | Crucial Ballistix 32 GB 3600MHz | Seasonic Focus Plus Platinum | ADATA XPG Gammix S11 480 GB, M.2 | JBL Quantum Duo
Von Anfang an Null Probleme, die Ballistix wurden von 3200@3600 aber mit dem Timings(Sub) der 3200 betrieben. Könnte noch höher takten aber sehe kein Bedarf und habe auch keine Lust zum testen. (Spiele zur Zeit eh nur PS5 und Switch).
Same for me:
ASUS ROG Strix B550-F Gaming / AMD Ryzen 7 5800X / Crucial Ballistix DDR4-3600 CL16 64GB / Palit GeForce GTX 1080 Super JetStream 8GB / Western Digital BLACK SN850 M.2 1TB / be quiet! Straight Power 11 Platinum 850W
RAM bei mir vom XMP eingestellt. CPU@85W TDP (manuell), Powertarget ist dann 115W.
Alles läuft...
Semmel
2021-03-18, 10:11:43
Kann mal wer mit Stock-Settings die neueste CC-Version laufen lassen? Runtime hatte ich in der config.ini auf 20min hochgesetzt.
Ich hab mal auf die neue Version umgestellt und lass es jetzt laufen. (allerdings mit meinen bisher ausgeloteten CO-Einstellungen)
qiller
2021-03-18, 11:17:31
Dank dir, in der ersten Iteration gabs jetzt mit +5 CO auf Core "2" keinen Fehler bei mir, mal gucken was die 2. Iteration sagt.
aufkrawall
2021-03-18, 11:20:43
Alter Verwalter... DDR4-3800 mit CL14. :O Was kommt da eigentlich für eine Memorylatency bei rum?
Eine viel höhere als bei Intel, und trotzdem ist Zen 3 schnell in Spielen vs. Intel. ;)
Wird wohl mit ~allen neueren B-Die-Kits gehen?
Btw: *bump*
Hat hier schon jemand Vergleichstests im kompletten CPU-Limit gemacht mit SAM on vs. Above 4G Decoding komplett aus?
@dargo vielleicht? Einfach irgendein Savegame irgendeines Spiels mit vergleichbarer Kameraperspektive laden und einmal schauen, ob die fps in 720p (bzw. GPU-Last <90%) mit SAM wirklich höher sind als mit Above 4G Decoding komplett abgeschaltet.
Mit dem X470 Taichi waren in ausnahmslos jedem getesteten Spiel die fps ohne Above 4G Decoding höher. Ich würde das wirklich gerne mit B550 überprüft haben. :freak:
r3ptil3
2021-03-18, 12:07:13
Same for me:
ASUS ROG Strix B550-F Gaming / AMD Ryzen 7 5800X / Crucial Ballistix DDR4-3600 CL16 64GB / Palit GeForce GTX 1080 Super JetStream 8GB / Western Digital BLACK SN850 M.2 1TB / be quiet! Straight Power 11 Platinum 850W
RAM bei mir vom XMP eingestellt. CPU@85W TDP (manuell), Powertarget ist dann 115W.
Alles läuft...
Aber auch 3600 CL16... das ist auch bekannt, dass das funktioniert.
3800 CL14 läuft auf den Gigabyte B550 Boards nicht mit XMP, 3600 CL14 übrigens ebenso nicht.
robbitop
2021-03-18, 12:12:53
Eine viel höhere als bei Intel, und trotzdem ist Zen 3 schnell in Spielen vs. Intel. ;)
Ja das ist klar. Aber seit CML sind die Latenzen da auch ein wenig schlechter geworden durch den 2. Ringbus. +>5ns auf CFL.
Auf CML wird man mit Vemeer wohl 15-20 ns drauf rechnen müssen. Aber wie du andeutest, darf man beide Ergebnisse nicht vermischen sondern betrachtet sie getrennt.
Der größere L3 und die bessere Branch Prediction verhilft Zen 3 zu einer höheren Hitrate als CML. Entsprechend sollte die mittlere Latenz bei Zen 3 besser sein.
Mal schauen - ggf schafft AMD es ja die Latenz auch noch weiter zu senken. Ich schaue da ein wenig auf das Stapeln von IOD und CCD. Das spart dann Energie für die Übertragung und man kann die Latenz anziehen.
15-20ns Rückstand auf Intel kommt ungefähr hin. Ich komme mit 3866 CL14 auf knapp über 54ns. Wenn ich ein CCD deaktiviere sollten es etwa 52ns sein.
Semmel
2021-03-18, 14:42:05
Dank dir, in der ersten Iteration gabs jetzt mit +5 CO auf Core "2" keinen Fehler bei mir, mal gucken was die 2. Iteration sagt.
Ich habe alles auf Default gelassen, d.h. mit 6-Minuten-Intervall.
4 Iterationen sind gerade eben fehlerfrei durchgelaufen. Aber ich lass es natürlich noch weiterlaufen.
Meine aktuell (vorläufig) stabilen CO-Einstellungen siehe hier:
Undervolting mit Curve Optimizer ab Ryzen 5xxx (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605309)
Edit: Iteration 8 abgeschlossen, läuft immer noch fehlerfrei.
qiller
2021-03-18, 22:56:03
Danke dir fürs Testen. Hab meine vorläufige Curve hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12628125#post12628125) reingeschrieben. Werde heute Nacht und den morgigen Arbeitstag die Curve testen. Huge-FFTs 30min pro Kern. Da sollte ich 2 Iterationen bis morgen Abend schaffen. Warum 30min? Der Autor vom CC meinte, dass es ca. 30min dauert, bis P95 alle Huge-FFTs durchprobiert hat. Kürzt man die Dauer, fängt CC halt mit dem nächsten Kern an, ohne alle FFT-Größen getestet zu haben.
Simon Moon
2021-03-18, 23:18:27
Gibt es eigentlich keine Desktop CPUs mit integrierter Grafik mehr?
Savay
2021-03-19, 00:20:47
Nur Renoirs aka Zen2 momentan als vereinzelte Ryzen Pro 4x50, vor allem für Komplettsysteme.
Cezanne aka Zen3 APU wird bisher nur in Margenträchtigen Notebooks verbaut.
Und dort offensichtlich vorwiegend in (Semi-)Gaminggeräte.
Andererseits ist der Sinn im Desktop Retailmarkt m.E. momentan auch vglw. gering.
Wer selbst baut, braucht idR GPU seitig wohl eigentlich eher was stärkeres als die APU. Zumal GPGPU in Produktivitätssoftware immer relevanter wird.
Für alles andere (nen bisschen Excel Schubsen usw.) reicht Zen2 so oder so mehr als nur aus.
Simon Moon
2021-03-19, 01:55:41
Wer selbst baut, braucht idR GPU seitig wohl eigentlich eher was stärkeres als die APU. Zumal GPGPU in Produktivitätssoftware immer relevanter wird.
Was GPGPU betrifft, bin ich da eigentlich erst recht auf die Zukunft einer integrierten GPU gespannt. Das könnte je nach Anwendung wesentlich schneller sein, wenn die GPU direkt über due CPU Interconnects angesprochen werden könnte.
Für alles andere (nen bisschen Excel Schubsen usw.) reicht Zen2 so oder so mehr als nur aus.
Mit so sachen wie Containern, VMs und Kompilieren bringt man eine CPU auch ohne aufwändige Grafik in die Knie. Und ältere PCs lass ich gerne headless als Server laufen - manchmal ist es aber trotzdem praktisch lokal auf den PC zugreifen zu können.
dildo4u
2021-03-19, 07:48:16
Intel wird ende März recht potente 8 Cores mit IGP für 320€ haben,(11700 ohne k) AMD wird alles was sie an Zen 3 Chips haben für Notebooks aufheben.
https://ark.intel.com/content/www/us/en/ark/products/212279/intel-core-i7-11700-processor-16m-cache-up-to-4-90-ghz.html
In Zeiten von Home Office machen Notebooks mehr Sinn.
Simon Moon
2021-03-19, 13:17:24
Intel wird ende März recht potente 8 Cores mit IGP für 320€ haben,(11700 ohne k) AMD wird alles was sie an Zen 3 Chips haben für Notebooks aufheben.
https://ark.intel.com/content/www/us/en/ark/products/212279/intel-core-i7-11700-processor-16m-cache-up-to-4-90-ghz.html
Ich warte wohl so oder so noch bis im Spätsommer. Als ich das letzte mal schaute, war der RAM Preis auch gut 50 - 70% als letzten Herbst. Und wenn die neuen 5000er breit verfügbar sind, wird vielleicht auch ein 12-Kern 39xx interessant. In der aktuellen Knappheit zu kaufen würde mich im Sommer dann nur ärgern.
Und Intel trau ich seit Meltdown / Spectre nicht mehr. Windows in ner VM läuft katastrophal, nicht mal sowas wie Hearthstone bringt er fertig. :/
vinacis_vivids
2021-03-19, 13:43:21
Bischen Futter für euch: 5600X - 3200 vs 3600 vs 3800 vs 4000 RAM
QnqeL7rawZc
qiller
2021-03-19, 13:59:34
Im Video sind ein paar Dinge durcheinander:
- ungekoppelter Modus = Speicher- und Infinity-Fabric-Takt sind unterschiedlich
- 1:2 Modus = UMC-Takt ist halb so hoch, wie der DRAM-Takt
Das sind 2 verschiedene Dinge.
Die Grenzen stimmen auch nicht
- bis 1800MHz RAM/UMC/IF-Takt laufen die Frequenzen automatisch im 1:1:1 Modus
- ab 1833MHz RAM-Takt schalten die Mainboards in den 1:2 UMC/Memclock-Modus UND limitieren den IF-Takt auf 1800MHz (=ungekoppelter Modus), wenn UMC-/IF-Takt auf automatisch stehen
aufkrawall
2021-03-19, 15:34:17
*bump*
Btw: Hat hier schon jemand Vergleichstests im kompletten CPU-Limit gemacht mit SAM on vs. Above 4G Decoding komplett aus?
r3ptil3
2021-03-19, 22:15:48
Interessant wäre mal ein Vergleichsvideo mit DRAM Calc. Timings (ab 3600-4000Mhz) im Vergleich zu Standard 3200er CL16 RAM oder ähnlich.
y33H@
2021-03-19, 22:27:35
Hat hier schon jemand Vergleichstests im kompletten CPU-Limit gemacht mit SAM on vs. Above 4G Decoding komplett aus?Welche Idee steht dahinter?
aufkrawall
2021-03-20, 13:29:14
Welche Idee steht dahinter?
Above 4G Decoding verschlechtert die Performance im CPU-Limit auf dem X470 Taichi mit mindestens Radeon-GPU.
Ich würde ganz gerne sicher wissen, dass auf einem B550-Board + Zen 3 es dieses Problem nicht gibt. So lange das niemand getestet hat, will ich nicht ausschließen, dass SAM in einigen Fällen womöglich einfach nur den Performance-Hit abmildert, anstatt wirklich schneller zu sein als Above 4G Decoding komplett aus. :freak:
aufkrawall
2021-03-20, 22:24:07
Ist nicht exklusiv mit Radeon, mindestens manche Spiele sind auch mit GeForce nur durch Above 4G Decoding (aber auch +SAM) negativ beeinträchtigt:
https://forums.guru3d.com/threads/geforce-hotfix-driver-version-461-33.436335/page-8#post-5897797
Schade, dass hier seitenweise komplett uninteressanter 3DMurks-Kram gepostet wird, aber nicht ein paar Leute so etwas mal eben überprüfen können. Im Guru3D-Forum gibts neben dem ganzen Unrat, den es hier auch gibt, wesentlich mehr Info-Goldbrocken. :(
y33H@
2021-03-20, 23:26:39
Ein bestimmtes Spiel?
Savay
2021-03-20, 23:37:56
Wenn überhaupt kann ich Quick&Dirty max. einen leichten Nachteil durch das deaktivieren von Above_4G nachvollziehen.
Im GPU Limit ist es per se genauso schnell wie rBAR mit 4G. Kein rBAR dagegen da noch marginalst langsamer.
5950X + B550 + 6900XT
aufkrawall
2021-03-20, 23:50:14
Ein bestimmtes Spiel?
In Hitman 2/3 z.B. einfach einen Level in 720p starten, oder irgendeine Stelle in SotTR.
Wenn überhaupt kann ich Quick&Dirty max. einen leichten Nachteil durch das deaktivieren von Above_4G nachvollziehen.
Das ist doch schon mal was. :)
crux2005
2021-03-21, 00:28:16
Ist nicht exklusiv mit Radeon, mindestens manche Spiele sind auch mit GeForce nur durch Above 4G Decoding (aber auch +SAM) negativ beeinträchtigt:
https://forums.guru3d.com/threads/geforce-hotfix-driver-version-461-33.436335/page-8#post-5897797
Habe es schon vor Monaten ausprobiert. 4G Decoding mit Z170X + i7 6700 + RTX 2080 hat deutlich schlechtere Frametimes in Forza Motorsport 7 produziert.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12500046&postcount=9
mironicus
2021-03-29, 16:58:01
Das ist mal ein Notebook. Ryzen 5800, RTX 3070, 16 Zoll, 165 Hz, 500 Nits Bildschirm. So etwas gab es vor einem Jahr noch nicht.
https://www.amazon.de/dp/B08THSBVRC/
Nightspider
2021-03-29, 17:19:12
Nicht schlecht aber Navi22 wäre mir lieber. ^^
Habe nun endlich auch einen Zen3 und bin zufrieden :up:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12639980#post12639980
Das optimieren wird wohl noch etwas dauern, aber macht mir auch spaß :freak:
"Curve Optimizer" kann ich nur wärmstens empfehlen. Wenn man genug Zeit und Lust hat ;)
M.f.G. JVC
w0mbat
2021-03-31, 12:42:12
Habe nun endlich auch einen Zen3 und bin zufrieden :up:
Dann aktualisiere mal deine PC Angaben :tongue:
Dann aktualisiere mal deine PC Angaben :tongue:
Das mache ich, wenn der neue PC vom "Bastelplatz" zum "Arbeitsplatz" wechselt und in die große weite Welt(Internet) darf.
Momentan hält noch brav der 3570K @4,6Ghz her ;)
M.f.G. JVC
DozerDave
2021-04-01, 18:19:57
Mal sehen ob der 5300G auch in den Einzelhandel kommt: https://www.computerbase.de/2021-04/amd-ryzen-5000g-cezanne-spezifikationen-der-neuen-desktop-apus-aufgetaucht/
Simon Moon
2021-04-05, 22:42:53
Ist eigentlich die aktuelle Ryzen 5000 Serie die letzte für AM2 / DDR4?
Screemer
2021-04-05, 22:47:32
Könnte noch Warhol (APU) kommen. Sicher ist aber nix. Btw AM4.
rentex
2021-04-06, 07:41:03
Laut aktuellem Leak, sollte Warhol für AM4 kommen. Ob das nur ne APU wird, weiß man nicht genau.
Simon Moon
2021-04-06, 21:16:45
APUs sind mit Grafik? Haben sich da die Cores pro Chiplet seit der 2000er Serie nicht verdoppelt? Also wäre dann bspw. ein 6/8er Core mit GPU vorstellbar?
aufkrawall
2021-04-06, 21:19:12
Hat hier schon jemand Vergleichstests im kompletten CPU-Limit gemacht mit SAM on vs. Above 4G Decoding komplett aus?
Es ist wirklich absurd: Es hängt offenbar komplett vom Board ab. Mit dem X470 Taichi verringert Above 4G Decoding in RDR2 Vk im CPU-Limit die Performance um gut und gerne 15% mit einer 6900 XT. Auch mit SAM wird es dann nicht wieder besser. Mit meinem B560-System + 6800 verringert Above 4G Decoding die Performance hingegen gar nicht (CAM geht noch nicht...).
Savay
2021-04-07, 15:35:49
Also wäre dann bspw. ein 6/8er Core mit GPU vorstellbar?
8C Zen2 APUs gibt es ja in Form der 4000er Serie schon länger für AM4.
Ist deshalb eigentlich nicht nur "vorstellbar" sondern regelrecht erwartbar.
Die Frage ist eigentlich nur wann...wahrscheinlich Juni/Juli.
8C Zen3 APUs gibt es ja eh schon als Silizium und in kaufbar...nur noch nicht für AM4.
Ist am Ende eher eine Frage des AGESA Supports und des Packaging.
davidzo
2021-04-07, 15:45:00
Könnte noch Warhol (APU) kommen. Sicher ist aber nix. Btw AM4.
Laut den bisherigen Roadmap screenshot leaks ist Warhol ziemlich sicher keine APU, sondern eher eine art refresh von Vermeer. Ich verwechsle diese Maler auch immer wieder :wink:
Die APU Variante mit Zen3 heißt Rembrandt und wird wohl die erste AM5/FP7 Variante sein, was auch Sinn macht, da die erhöhte Bandbreite von DDR5 zuallererst für APUs etwas bringt und im Desktop die schlechten anfangslatenzen eher hinderlich sind.
Dann gibt es da noch Van Gogh, das ist diese ganz kuriose APU mit Zen2+RDNA2, die aber auch nicht in AM4 kommt.
Für Ryzen3000 Nutzer kann also noch ein gutes upgrade kommen. Von einem 5000er Ryzen lohnt sich das wahrscheinlich nicht, außer man upgraded von einer der low core count SKUs auf die 12 oder 16 Core Variante.
Savay
2021-04-07, 15:54:36
Die Zen3 APU heißt Cezanne.
https://www.notebookcheck.com/Benchmark-Leak-Die-AMD-Ryzen-7-5700G-Desktop-APU-kann-sich-bei-Cinebench-behaupten.528267.0.html
Rembrandt wird doch der Zen3(+?) Refresh mit RDNA2 GPU.
Da lohnt DDR5 dann doppelt und es sollte nen guten Sprung bei der GPU geben.
Aber ob das Ding dann noch unter der 5000er Reihe läuft ist eh die Frage. Ich glaub es eher nicht.
Simon Moon
2021-04-07, 20:14:13
8C Zen2 APUs gibt es ja in Form der 4000er Serie schon länger für AM4.
Ist deshalb eigentlich nicht nur "vorstellbar" sondern regelrecht erwartbar.
Die Frage ist eigentlich nur wann...wahrscheinlich Juni/Juli.
8C Zen3 APUs gibt es ja eh schon als Silizium und in kaufbar...nur noch nicht für AM4.
Ist am Ende eher eine Frage des AGESA Supports und des Packaging.
Ah, das ging irgendwie ganz an mir vorbei. In der Schweiz hat auch kein Händler eine 4000er APU separat, sind alle in fertig Kisten. Toll.
dildo4u
2021-04-07, 20:37:58
Es gab keine Boxed Version der Zen 2 APUs, aktuell ist 3400g zu vollkommen überzogenen Preisen.
die Box steht eh bloss rum https://geizhals.de/?cat=cpuamdam4&xf=596_Renoir
dildo4u
2021-04-13, 16:20:57
Ryzen 5000G für OEM angekündigt.
https://videocardz.com/newz/amd-launches-ryzen-5000g-cezanne-desktop-cpus-with-integrated-graphics
gbm31
2021-04-14, 12:28:53
Bin gespannt ob die neuen einen Sprung bei der Grafik machen können.
CPU Leistung brauch ich am HTPC nicht so, da hab ich den 2200G sogar runtergebremst und dafür Spannung (1.2V) zurückgenommen, aber die interne Vega läuft mit 1500Mz und 1.2V und kann damit mit der 3er Generation gut mithalten auf 1-3fps.
Die 4er Generation ist mit dem Takt hoch und dafür mit der Shaderanzahl runter und ist kaum schneller und in manchen Szenarien sogar langsamer als die 3er, weswegen ich nicht umgestiegen bin.
[edit]
https://www.computerbase.de/2021-04/ryzen-5000g-oems-koennen-amds-zen-3-desktop-apu-ab-sofort-kaufen/
Ist schon raus und hat sich wohl wieder nichts getan auf Grafikseite. Werd also wohl den 2200G weiter betreiben.
Savay
2021-04-14, 16:20:13
Bin überrascht, dass das noch manche überrascht. Cezanne ist ja nix neues. ;)
Über den Speicher kann man aber ggf. etwas rausholen. :uponder:
Das gilt aber auch schon für Renoir, sonst hat sich da ja wirklich eher nix getan.
Würde in TDP limitierten Szenarien auch tw. fast eher eine regression ggü. Renoir erwarten, schließlich zieht Zen3 unter Volllast eher etwas mehr als Zen2.
Das etwas bessere Powermanagement könnte das aber evtl. ausgleichen.
Davon abgesehen ist es aber m.E. abseits von Apple immernoch die beste iGPU die man bekommen kann.
Die Intel 11k mit den UHD750 kommen in Summe wohl eher nicht an die Vega8 ran, sind also auch nicht wirklich eine Alternative.
Lehdro
2021-04-14, 16:42:04
schließlich zieht Zen3 unter Volllast eher etwas mehr als Zen2.
Sicher? Bei Taktgleichheit liegt Zen 3 definitiv vorn, bei Leistungsgleichheit erst recht. Zudem haben diverse Reviews einen leichten Verbrauchsrückgang festgestellt: [1 (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/6/#abschnitt_leistungsaufnahme_von_leerlauf_bis_volllast)], [2 (https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-dive-review-5950x-5900x-5800x-and-5700x-tested/8)], [3 (https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/54497-der-koenig-ist-bezwungen-amd-ryzen-9-5900x-und-ryzen-5-5600x-im-test.html?start=14)]
Savay
2021-04-14, 16:47:08
Naja...der Boosttakt der GPU ist beim 5700G 100MHz niedriger als beim 4700/4750G...das kommt ja nicht von ungefähr.
Vielleicht ist "Volllast" da auch etwas missverständlich.
Geht da m.E. mehr um CPU Last während die Limiter für den CPU Teil noch nicht komplett zuschlagen was afair selten betrachtet wird und nicht um Situationen wo das PPT die Cores komplett runterdrosselt. Letzteres ist aber halt auch das was bei den meisten MT Benches ausgemessen wird.
Davon abgesehen priorisiert das Powermanagement bei Renoir und Cezanne afair aber sowieso die GPU und die SMU bremst vorher eher die CPU Cores aus.
Und das ist bei Czeanne (und Lucienne) ja sowieso noch etwas optimiert worden.
Wenn man aber eh nur "Leistungsgleichheit" anstrebt kann man natürlich den CPU Takt irgendwo deckeln, das räumt dann sicher generell ordentlich TDP frei.
Lehdro
2021-04-14, 18:01:29
Ah, jetzt sehe ich was du damit eigentlich meintest. Da hast du natürlich recht.
Wenn man aber eh nur "Leistungsgleichheit" anstrebt kann man natürlich den CPU Takt irgendwo deckeln, das räumt dann sicher generell ordentlich TDP frei.
Klar, gerade die letzten paar 100 MHz auf der CPU saufen am meisten, sehe ich auch so bei meinem 4600H. Das PPT um ein paar Watt runter und prozentual ist der Takt- und Leistungsverlust total marginal gegenüber der prozentualen Einsparung.
robbitop
2021-04-21, 09:39:25
Laut Ian Cutress (broken silicon #97) ist der Milan IOD auf Transistorebene der gleiche wie bei Rome - aber hat Änderungen in den Verdrahtungsebenen bekommen. Damit konnte man einiges mehr tweaken (wahrscheinlich über die micro firmware).
TurricanM3
2021-06-05, 16:45:10
Hab mal den Ryzen gegen meinen maximal optimierten Intel in BF V gebencht, beide mit 24/7 Settings.
10900k 5300MHz / RAM 4600C17 DR (2x16) mit stark optimierten Subs etc, 533FPS. Das war allerdings 08/2020.
https://abload.de/img/bfv_2020_08_31_18_46_9zkbz.png (https://abload.de/image.php?img=bfv_2020_08_31_18_46_9zkbz.png)
Ryzen 5900X PBO, 1900IF/3800C14 DR (2x16) mit stark optimierten Subs etc, 555FPS:
https://abload.de/img/bfv_2021_04_06_20_30_syk6b.png (https://abload.de/image.php?img=bfv_2021_04_06_20_30_syk6b.png)
Hätte das jetzt nicht unbedingt erwartet, da der Intel aufgrund der optimierten RAMs vergleichsweise echt schon flott war. Wie viel da von den weiteren Threads kommt, kann ich aber nicht sagen.
Wen es interessiert, sieht so aus:
https://abload.de/img/unbenanntfxk27.png (https://abload.de/image.php?img=unbenanntfxk27.png)
Skaliert das von 12 zu 16 Kernen noch? Hab inzwischen einen 5950X, aber noch nicht eingebaut.
Ex3cut3r
2021-06-05, 16:52:26
Welche RAM Spannung benutzt dafür? 1.55V?
Ja. BFV soll mit 16Kernen noch skalieren. Aber mit weniger Gewinn, als von 8 auf 12 z.B.
aufkrawall
2021-06-05, 16:59:38
Dürfte im MP besser skalieren als auf der Test Range mit nichts los. Evtl. skaliert es mit AMD D3D12 auch noch besser.
TurricanM3
2021-06-05, 21:56:56
Spannung ist 1.51-1.52v real. Mag aber mit weniger laufen, hab etwas Puffer drauf. Ist Karhu/GSAT stable so.
Hatte genau die Settings von damals aus dem Thread hier übernommen, also DX11 etc.
Der_Korken
2021-06-06, 00:13:29
Skaliert das von 12 zu 16 Kernen noch? Hab inzwischen einen 5950X, aber noch nicht eingebaut.
Könntest im BIOS auf 5+5 Kerne stellen, dann wäre es wieder ein 1:1 Vergleich mit dem 10900K.
aufkrawall
2021-06-06, 00:18:46
Nicht wirklich, weil 8C CCX dem Spiel helfen bzw. 5C schaden dürfte.
Der_Korken
2021-06-06, 00:27:46
Nicht wirklich, weil 8C CCX dem Spiel helfen bzw. 5C schaden dürfte.
Hat jemand sowas eigentlich mal getestet? Oder sind das noch die Erkenntnisse aus den Zen 1-Ära? 2 CCDs heißt zwar getrennte Caches, dafür aber auch doppelt so viel Cache insgesamt.
Lowkey
2021-06-06, 15:02:43
Alles was man an Kernen und CTX machen kann, führt zu nichts. Es wird nur schlechter. Was aber vor gefühlten 20 Bios Versionen im Januar mein Stand war.
Da galt noch: SMT beim 5950x aus, Swap ab 32gb aus und PCI-E 4.0 SSD auf 3.0 setzen.
16 Kerne sind verdammt schnell, siehe hier (https://docs.google.com/spreadsheets/d/1dk6Rxwy3Y_0FtPOhJW93j0IqcnKMKtl0Tb7dEg15IuM/edit#gid=1416852389). Bei Spielen muß ich das irgendwann nochmal testen.
aufkrawall
2021-06-06, 15:25:29
Swap ab 32gb aus
Welcher Depp sagt das?
qiller
2021-06-06, 15:37:29
Hab mal den Ryzen gegen meinen maximal optimierten Intel in BF V gebencht, beide mit 24/7 Settings.
...
Deine Ergebnisse wundern mich nicht, Intel skaliert aufgrund der kleineren Caches etwas besser mit höherem RAM-Takt. Gab doch mal diesen Community Vergleich auf CB, da hatte der max getunte Intel 9900K auch den 3900X plattgemacht und alle AMD Fanboys haben sich aufgeregt, wie unfair das doch sei. Dabei ging es ja gerade um gut getunte Systeme im Vergleich^^.
aufkrawall
2021-06-06, 15:43:07
Der Test auf CB war Müll, die Ergebnisse waren teilweise überhaupt nicht nachvollziehbar. Deine Aussage kommt mir auch unpassend vor im Kontext, dass Turris 10900K immer noch <50% CPU-Auslastung ist, damit nicht mal die physischen Kerne komplett am Limit sind und der 5950X trotzdem schneller ist.
qiller
2021-06-06, 15:54:03
Der Test auf CB war Müll, die Ergebnisse waren teilweise überhaupt nicht nachvollziehbar....
Weil halt niemand sich mal die Mühe machte, solch einen Vergleich anzustellen. Sämtliche Reviews werden halt mit Stock- bzw. Hersteller-Settings betrieben, wo die Abstände entsprechend klein sind. Das maximal tunbare Potential wird doch in den seltensten Fällen ausgelotet bzw. verglichen. Sicherlich, der Intel-Jünger hat es auf die Spitze getrieben (wohl auch mit max. Wakü, geköpft etc.), aber die Frage ist doch, welche Möglichkeiten hätte denn der AMD-Jünger gehabt? Zen2-12Kerner liefen halt schon Out-of-the-Box fast am Maximum, wie bzw. wo will man da noch was rausholen? Von daher passte der Test schon.
Deinen zweiten Satz versteh ich nicht.
TurricanM3
2021-06-06, 16:43:59
Hab den 5950X drin und mal gebencht. Leider packt der keine IF1900. Zumindest nicht aufs Erste. Daher "nur" mit 1866 und RAM ebenso langsamer sync (3733).
https://abload.de/img/bfv_2021_06_06_16_19_j3jnl.png (https://abload.de/image.php?img=bfv_2021_06_06_16_19_j3jnl.png)
:love4:
qiller
2021-06-06, 16:50:12
Meiner hat auch bei 1900MHz sein FCLK-Hole. Kannst ja 1933+MHz versuchen und dich mit den WHEAs rumschlagen :x.
aufkrawall
2021-06-06, 16:54:03
Ah, hatte mich weiter vorne verlesen und fälschlicherweise den 16C angenommen gehabt. Ob man da bei den höheren fps mit dem 16C wohl direkt den Einfluss von 8C CCX sieht? ;)
TurricanM3
2021-06-06, 16:54:28
1933 posten, geben aber schon kurz nach dem boot WHEA. Die CPU ist sonst aber top, PBO -30 allcore laufen zumindest CB etc. Also keine komplette Gurke. Mein erster 5950X ist mit -15 nicht mal zuverlässig in Win gekommen und lief total unstable. Dafür IF1900 keine Probleme.
Lowkey
2021-06-06, 17:02:07
Bei identischem Setting? Der eine stellt zB. LLC auf max und hat maximal -15. Der andere stellt LLC auf die unterste Stufe und hat -50. Die Werte hatten mich damals gewundert, weil sie je nach User weit auseinander gehen.
MasterElwood
2021-06-06, 17:06:21
Welcher Depp sagt das?
This! Es gibt Programme die funktionieren ned richtig wenn kein Swap da ist. FS2020 zum Beispiel. Hatte dauernd CTD die ich nicht und nicht wegbekommen hab. Alles versucht. Swap an - CTD weg.
TurricanM3
2021-06-06, 17:09:31
Bei identischem Setting? Der eine stellt zB. LLC auf max und hat maximal -15. Der andere stellt LLC auf die unterste Stufe und hat -50. Die Werte hatten mich damals gewundert, weil sie je nach User weit auseinander gehen.
Ja, LLC @Auto. Die wird ja so bei zwei 5950X nicht anders gesetzt. -50 geht aber nicht. Maximum ist -30 und das entspricht einem undervolt bis max. 150mV.
aufkrawall
2021-06-06, 17:16:13
This! Es gibt Programme die funktionieren ned richtig wenn kein Swap da ist. FS2020 zum Beispiel. Hatte dauernd CTD die ich nicht und nicht wegbekommen hab. Alles versucht. Swap an - CTD weg.
Jo, weil mit Windows der virtuelle Speicher dann schon lange ausgeht, bevor der physische auch nur annähernd voll belegt ist. Deswegen ist auch völlig egal, wie viel Speicher man hat. Ohne Swap-File, das den virtuellen Speicher erweitert, kann man schlicht den RAM unter Windows nicht voll nutzen. Das muss man nur einmal wissen und verstanden haben, dann gibts da einfach schlicht nichts zu diskutieren. :)
MasterElwood
2021-06-06, 18:15:13
Jo, weil mit Windows der virtuelle Speicher dann schon lange ausgeht, bevor der physische auch nur annähernd voll belegt ist. Deswegen ist auch völlig egal, wie viel Speicher man hat. Ohne Swap-File, das den virtuellen Speicher erweitert, kann man schlicht den RAM unter Windows nicht voll nutzen. Das muss man nur einmal wissen und verstanden haben, dann gibts da einfach schlicht nichts zu diskutieren. :)
Aber is traurig oder? Wer programmiert so einen Scheiß? Swapi sollte egal sein solange genug RAM frei ist.
Der andere stellt LLC auf die unterste Stufe...
Ich hab den CC mit LLC1 laufen lassen. (2 Wochen Arbeit)
Ändert im SC nicht wirklich was, aber im MC boostet er höher da kühler weil die Spannung "einbricht".
Wichtig ist scheinbar, das er AC von selbst eine VID bis zu 1,5v anlegen möchte. (=höchst mögliche Taktstufe)
(dazu muss er natürlich auch kühl genug sein. in meinem Fall unter 60° Hotspot)
https://www.bilder-upload.eu/bild-8a7c0a-1617977483.png.html (3 Stunden Prime Standard AC)
So bekommt meine CPU bis zu 0,08v weniger und boostet AC gleichzeitig höher weil kühler.
Wenn ich hingegen die Spannung um 0,05v über den Offset reduziere, verliere ich SC und MC Takt.
M.f.G. JVC
Denniss
2021-06-06, 23:43:33
Aber is traurig oder? Wer programmiert so einen Scheiß? Swapi sollte egal sein solange genug RAM frei ist.
zumindestens in den Consumer-Windoofs ist es wohl seit ME so beschissen, bis 98SE konnte man die Speicherverwaltung wohl noch auf die alte Methode umstellen. Keine Ahnung wie's bei W2K/NT war.
Benutzername
2021-06-07, 14:15:29
zumindestens in den Consumer-Windoofs ist es wohl seit ME so beschissen, bis 98SE konnte man die Speicherverwaltung wohl noch auf die alte Methode umstellen.
Schon Win98 (ohne SE) hatte als Standardeinstellung das frühe swappen für eine "bessere Userexperience". schlicht weil das Ding die ganze Zeit swapped fällt es nciht so auf, daß ausgelagert wird. Man konnte aber auf das alte modell zurcükstellen, ja. Habe Ich auch gemacht und wenn dann doch mal die Palatte anlief (am besten aus dem Schalfzustand) hat man das natürlich gemerkt. Lief aber isngesamt schneller. Okay ich hatte auch meistens ein Win98lite installiert und das ganze Gerümpel rausgeworfen.
Keine Ahnung wie's bei W2K/NT war.
NT4 hat meine Ich auch erst spät ausgelagert kurz bevor der RAM voll lief. iirc. Ist schon ein Vierteljahrhundert her. Dananch wurden ja COnsumer und Profi-Server Windows immer mehr angenähert.
aufkrawall
2021-06-07, 14:26:39
Und da liegt schon wieder das Missverständnis: Der virtuelle Speicher geht ohne Swap-File schon lange aus, bevor er anfangen würde auszulagern. Der einzige Nachteil, den man mit dem Swap-File hat, ist also der geklaute Speicherplatz auf dem Datenträger. Ohne (drohende) Knappheit des physischen Speichers schmeißt er da üblicherweise offenbar quasi gar nichts rein.
dildo4u
2021-06-18, 05:38:20
Ist eine ziemliche Gurke scheint extrem am wenigen Cache zu leiden.
KycNI1FxIPc
eratte
2021-06-18, 08:34:34
Ja total untauglich, hast du das Video eigentlich richtig geschaut?
dildo4u
2021-06-18, 08:50:47
Ja total untauglich, hast du das Video eigentlich richtig geschaut?
Laut AMD wird es keine Low End Zen 3 mit vollem Cache geben, das ist der Ersatz für den 3600 und kaum besser aber teurer.
APUs sind sinnvoll im Low-End damit man billige PC bauen kann, das entfällt hier da der Preis fast verdoppelt wurde gegenüber den alten Modellen.
Das Ding sieht "gut" aus weil der GPU Markt am Arsch ist nicht weil das Angebot sonderlich gut ist.
HTB|Bladerunner
2021-06-18, 08:51:11
Mich überrascht der Performance-Unterschied etwas. Die 5000er-APU's haben doch immerhin doppelt so viel Cache wie die Zen2-APU's...
Der 5700G kann sich kaum vom Vorgänger absetzen wenn ich mir die Game-Performance in folgendem Video anschaue:
https://youtu.be/JkerZbM0kCU
Savay
2021-06-18, 15:43:20
1440p?!
HTB|Bladerunner
2021-06-18, 17:20:11
Ja das ist in der Tat ein guter Einwand!
Da hat es jemand geschafft schon vor Monaten an zwei der seltensten APU's auf dem Markt zu kommen und lässt die im Graka-Limit gegeneinander antreten.
Sorry, ich hab's komplett übersehen...
TurricanM3
2021-06-21, 16:54:04
Da ich gerade sowieso ein Bios-Update durchgeführt habe, hab ich bei der Gelegenheit mal den PCGH BF V Bench mit und ohne OC laufen lassen.
https://abload.de/img/pcghbfvgbjmk.png (https://abload.de/image.php?img=pcghbfvgbjmk.png)
Bei mir ohne OC (5950X, RAM 3200@auto):
https://abload.de/img/bfvpcghbench_nonoccfjrg.png (https://abload.de/image.php?img=bfvpcghbench_nonoccfjrg.png)
Wenn man alles komplett auf Auto lässt, dann ist das mal richtig lahm:
https://abload.de/img/bfvpcghbench_nonoc23sjoc.png (https://abload.de/image.php?img=bfvpcghbench_nonoc23sjoc.png)
:freak:
Und so werden mehr Systeme laufen, als man glaubt.
Mit PBO & RAM-Tuning:
https://abload.de/img/bfvpcghbenchg4jhs.png (https://abload.de/image.php?img=bfvpcghbenchg4jhs.png)
P1 höher als AVG@Auto. X-D
aufkrawall
2021-06-21, 16:59:18
Gut, dass Miami in AMD-Threads nicht reinschaut. Das wär sicherlich zu hart für ihn. :D
qiller
2021-06-21, 17:30:40
Naja, Intel-Systeme kann man auch tunen, hab ich gehört...
Da fällt mir ein, jetzt könnte CB ja den max-tuned Intel vs. AMD Vergleich nochmal wiederholen (so mit Zen3 / Rocket Lake) - vlt. diesmal kühltechnisch etwas fairer aufgestellt, aber interessieren würde mich das schon :o.
@TurricanM3: Thx für den Vergleich!
aufkrawall
2021-06-21, 17:38:05
Laut dem CB-Test, den du ständig anmerkst und verteidigst, wäre dieser Sprung wie bei Turri unmöglich.
Einfach mal akzeptieren, dass er kompletter Müll war, oder diesen zumindest nicht ständig wieder aus der Mottenkiste hervorkramen. Danke. :rolleyes:
qiller
2021-06-21, 18:34:01
...kompletter Müll war...
Übertreibung ftw, oder stört dich das so sehr, dass das Intel-System so dermaßen weit vorn lag? Mir ging das ehrlich gesagt am Arsch vorbei^^.
Mich würde so ein aktueller Vergleich (egal von welcher Webseite/Youtube-Channel) durchaus interessieren, ist ja keiner verpflichtet sich das anzuschauen, auch ein krawallgebürsteter nicht :x.
aufkrawall
2021-06-21, 18:41:31
Nein. Ich habe dir schon xmal erklärt, dass die schlechte Skalierung im Test dort von Usern hier nicht nachvollzogen werden konnte, ganz objektiv-empirisch. Du scheinst das logisch irgendwie nicht so ganz zu durchdringen. Wer hat wohl in dem Fall Mist gebencht, wenn die Skalierung reproduzierbar abweicht? Der mit der mit der schlechten oder der mit der besseren Skalierung? Hinweis 1: Es kann nicht beides richtig sein. Hinweis 2: Verkorkste RAM-Optimierung verschlechtert die Skalierung.
Nightspider
2021-06-21, 18:54:03
Immer schön locker bleiben Leute.
Schickt mir lieber nochmal ein Link zu dem Computerbase Test. ^^
Lehdro
2021-06-22, 15:43:08
Mit PBO & RAM-Tuning:
Nur mal so zu Einordnung: Was genau hast du eingestellt?
Screemer
2021-06-22, 15:45:07
Falsch thread.
Nightspider
2021-06-24, 14:56:22
Turri könntest du eventuell den BFV Benchmark mal nur mit 6 Kernen laufen lassen?
Mich würde mal interessieren viel % die 16 Kerne genau schneller sind als 6 Kerne in BFV.
Eventuell auch mit 8 und 12 Kernen wenn du Lust hast.
Glaub die Skalierung würde einige interessieren.
TurricanM3
2021-06-24, 15:07:37
Ich hatte das mal mit dem 5900X getestet, hier aus dem Luxx:
12c:
https://abload.de/img/bfv_2021_04_06_20_30_w5j0c.png (https://abload.de/image.php?img=bfv_2021_04_06_20_30_w5j0c.png)
Hier mit deaktiviertem CCD (= 6 echte Kerne, zudem wegen geringerer Latenz und geringfügig mehr Takt, etwas schneller):
https://abload.de/img/bfv_2021_04_07_17_10_d4j8u.png (https://abload.de/image.php?img=bfv_2021_04_07_17_10_d4j8u.png)
Das allein ist das aber sicher nicht, wenn viel passiert sind die Frametimes vermutlich besser (Dips nicht so ausgeprägt).
Ex3cut3r
2021-06-24, 17:47:56
~13% Mit Nvidia DX11 Treiber wohl gemerkt. Mit ner Radeon @ DX11 wären es nochmal weniger, vermutlich 7%
D.h. IMO das auch BF5 nicht wahnsinnig viel mit mehr Kernen als 6 anfangen kann. Vlt. kann der Nachfolger ja mehr rausholen. Wurde ich aber auch nicht drauf wetten.
r3ptil3
2021-06-25, 13:28:22
Weiss jemand woran man das B2 Stepping erkennt?
w0mbat
2021-06-25, 13:44:10
Neue OPN?
patrickschur
2021-06-25, 18:54:10
Das Stepping lässt sich an der CPUID erkennen. Falls du das per Software auslesen willst.
- A0: A20F00
- B0: A20F10
- B2: A20F12
TurricanM3
2021-06-25, 22:39:50
Also ich hab hier was seltsames, mir glüht schon die Birne.
Habe meine andere 5950X eingebaut, die IF1900 packt, aber nicht so hoch boostet. Wollte mal bisschen vergleichen gegen die besser boostende mit nur IF1866.
Mein Problem ist, ich komme absolut nicht mehr auf den P1 Wert von oben und ich fummel hier schon insgesamt bestimmt fünf Stunden rum. Hab schon hinter mir: CMOS clear, alle möglichen UEFI settings durchprobiert (auch IF1866, bzw. das alte Profil), CapframeX neue Version, BF V settings resettet, shader cache gelöscht, origin cache gelöscht, Game repariert, DDU drüber laufen lassen, Energieprofil resettet, AMD Treiber neu installiert, aber nix. P1 ist und bleibt nun viel schlechter.
Vorher:
https://abload.de/img/old3jj8z.png (https://abload.de/image.php?img=old3jj8z.png)
Aktuell:
https://abload.de/img/newqakfj.png (https://abload.de/image.php?img=newqakfj.png)
:confused::confused::confused:
Ich habe am 20. drei runs gemacht, die P1 lagen da alle um ~240fps rum (hab die noch).
Was seltsam ist: Core 11&13 pennen aktuell beim bench. Fast die ganze Zeit 0% Auslastung. Ein paar SMT cores gehen aber auf 80%+ rauf. Ob das vorher schon war? Kann man sich etwa den Win-Scheduler zerschießen?
Was ich noch anmerken muss: Beim PBO-Ausloten der CPU mit Corecycler hatte ich zwangsweise einige Abstürze und da hat es evtl. irgendwas zerschossen. Wollte nämlich nicht mehr loslegen aufgrund irgendetwas mit der core Selektion. Ist aber wohl was bekanntes, da beim CC direkt eine Batchdatei bei ist, die den "Windows Perfomance Counter" resettet. Danach funktionierte das auch wieder.
Wenn ich mir die PCGH Werte von anderen anschaue, ist hier was faul bei mir jetzt.
Auf Verdacht neu installieren wollte ich jetzt aber nicht so gerne. Hatte auch mal alle CPUs im Geräte-Manager deinstalliert, was aber nichts gebracht hat.
Der Training Gelände Bench läuft normal. Es sind wohl in erster Linie die frametimes/dips im Eimer. Einfach nur wtf...
Jemand eine Idee? :(
qiller
2021-06-26, 10:33:50
Kann man sich etwa den Win-Scheduler zerschießen?
Mal in msconfig nachschauen.
TurricanM3
2021-06-26, 12:38:10
Danke, aber ich wüsste jetzt nicht was ich da machen sollte.
Hab noch bisschen herumprobiert, ich kapier es einfach nicht. Bleibt so mies.
Glaube ich werde mal Win auf eine alte SSD neu installieren.
aufkrawall
2021-06-26, 13:04:53
In der Zwischenzeit Windows Updates installiert? Da regressed ja mittlerweile regelmäßig etwas bez. Performance in Spielen. Laut einigen ist das Problem, das ein WU im März verursacht hat, bei ihnen mit aktuellen Updates auch immer noch nicht behoben.
P1 Werte sind aber auch immer so eine Sache, wenn die Frametimes nicht komplett glatt sind. Mit unkontrollierbaren Spikes werden die mitunter eher ausgewürfelt (werden sie streng genommenen natürlich nicht, aber you get the gist ;) ).
TurricanM3
2021-06-26, 13:29:14
Da hatte ich auch schon nach geschaut, finde eines vom 20. (KB4023057) allerdings lässt sich das weder über wusa deinstallieren (Fehler: "Update ist nicht installiert"?!) noch über die Win Fehlerbehebung.
P1 schwankt hier nicht so arg. Hab das inzwischen bestimmt 20x laufen lassen und immer so um 190 rum. Musst mal die Screens vergleichen auf der Vorseite, man sieht schon das da was arg anders ist. Raff hat mit dem getunten 5950X 238fps P1 gehabt. Hier ist was faul bei mir.
TurricanM3
2021-06-26, 13:36:03
Das hier erscheint mir eigenartig:
https://abload.de/img/bfv_2021_06_26_13_33_2jji1.png (https://abload.de/image.php?img=bfv_2021_06_26_13_33_2jji1.png)
aufkrawall
2021-06-26, 13:55:04
In der Tat sollte idealerweise erst jeder 2. Thread genutzt werden und erst dann zusätzlich die zweiten virtuellen der bereits genutzten physischen Kerne. Erst recht bei so vielen Kernen, wo der Scheduler Inter-CCX-Abhängigkeit von Threads zumindest minimieren können sollte.
Das glauben viele ja nicht, aber wenn man den 7-Zip-Benchmark mit zwei Threads laufen lässt und diese auf die virtuellen Kerne 0 und 1 pinnt, bricht die Performance entsprechend ein vs. 0 und 2. SMT im Bios schon mal abgeschaltet?
TurricanM3
2021-06-26, 14:01:25
Ja SMT off auch schon, testweise auch nur ein CCD in der Hoffnung, dass sich da vielleicht wieder was einrenkt. Ohne Erfolg.
Ich weiß leider auch nicht ob das so vielleicht nicht doch normal ist in dem "Bench". Vorher nicht so drauf geachtet.
TurricanM3
2021-06-26, 22:55:08
Jetzt hab ich auf eine alte SSD neu installiert, alles eingerichtet & BF V runtergeladen, starte CapframeX und bin schon total gespannt, aber...
https://abload.de/img/bruhg8kd7.png (https://abload.de/image.php?img=bruhg8kd7.png)
:rolleyes:
TurricanM3
2021-06-27, 14:56:18
Windows Neuinstallation hat auch nichts gebracht. AMD im Rechner ändert auch nicht viel.
https://abload.de/img/6900xt_bfv_benchukjd0.png (https://abload.de/image.php?img=6900xt_bfv_benchukjd0.png)
Hab mal noch im PCGH Bench Sammler gefragt wie das aktuell bei anderen aussieht, sonst gebe ich es auf.
Hab den 5950X drin und mal gebencht. Leider packt der keine IF1900. Zumindest nicht aufs Erste. Daher "nur" mit 1866 und RAM ebenso langsamer sync (3733).
https://abload.de/img/bfv_2021_06_06_16_19_j3jnl.png (https://abload.de/image.php?img=bfv_2021_06_06_16_19_j3jnl.png)
:love4:
So sieht das mit einer 6900 XT aus:
https://abload.de/img/screenshot27tjy9.png (https://abload.de/image.php?img=screenshot27tjy9.png)
(overlay rechts oben, mangels NV Afterburner)
Rest identisch. Schwankt aber mehr.
aufkrawall
2021-06-27, 15:01:26
Ist das D3D12?
Nightspider
2021-06-27, 15:01:34
Mit SAM?
aufkrawall
2021-06-27, 15:19:49
Mit SAM?
SAM bringt übrigens nichts im CPU-Limit, das verursacht dort höchstens Probleme. Scheint aber mit D3D11 gar nicht genutzt zu werden, zumindest bei AMD.
Nightspider
2021-06-27, 15:25:53
Was, wieso? Es hieß doch das SAM gerade im CPU Limit (https://www.pcgameshardware.de/Radeon-RX-6800-Grafikkarte-276952/Specials/Smart-Access-Memory-Benchmarks-1361997/) am meisten bringt.
aufkrawall
2021-06-27, 15:47:46
Ich konnte in absolut gar keinem Spiel im reinen CPU-Limit in 720p auch nur 1% Gewinn feststellen (auch nicht bei Bro mit 3600X/5600X). Der Flight Simulator ist vielleicht ein Sonderfall (widerspricht dann natürlich etwas meiner D3D11-These, aber in z.B. Witcher 3 bringt es auch nur etwas mit DXVK), weil der offenbar den RAM und VRAM wie der letzte Messi vollmüllt und da eingesparte Copy-Vorgänge ggf. extrem hilfreich sind. SAM verbessert die GPU-Auslastung, auch wenn die GPU nicht auf die CPU warten muss.
TurricanM3
2021-06-27, 15:50:49
DX11 und SAM an, allerdings schaut mal, was das CPX overlay anzeigt, und der spielinterne counter:
https://abload.de/img/screenshot11gejt4.png (https://abload.de/image.php?img=screenshot11gejt4.png)
Ich verstehe langsam gar nichts mehr.
aufkrawall
2021-06-27, 15:52:00
Probier mal D3D12, das ist mit AMD im CPU-Limit schneller (war es hier zumindest). ;)
Aber natürlich trotzdem sehr seltsam, dass die Performance ausgewürfelt wird. :freak:
Scheduler scheiße much?
TurricanM3
2021-06-27, 16:12:10
Ist hier langsamer:
https://abload.de/img/screenshot20tykl4.png (https://abload.de/image.php?img=screenshot20tykl4.png)
Das die Cores so falsch belastet werden find ich aber unschön. Drei echte pennen.
Nightspider
2021-06-27, 16:23:32
Vielleicht zündet DX12 erst unter hoher CPU Last und nicht wenn man alleine auf einer winzigen Map herumsteht? :uconf2:
Hast du die FPS Abweichungen zwischen den Tools auch unter Last im Multiplayer zB. auf einem vollen 64er Server?
Ex3cut3r
2021-06-27, 16:33:56
(overlay rechts oben, mangels NV Afterburner)
Wusste gar nicht, dass das Afterburner OSD nur mit Nvidia geht.
TurricanM3
2021-06-27, 17:14:54
Ja, da auch:
https://abload.de/img/screenshot310xji6.png (https://abload.de/image.php?img=screenshot310xji6.png)
Gefühlt aber weniger. Trotzdem kappes sowas.
aufkrawall
2021-06-27, 17:21:53
Da bist du evtl. schon im GPU-Limit, Radeons zeigen die GPU-Auslastung mit Async Compute gerne falsch an. Auch auf Radeons vernichtet der D3D12-Renderer leider unnötig GPU-Leistung, inkls. komplett kaputtem Async Compute. :freak:
TurricanM3
2021-06-27, 17:45:52
Ist mit der NV aber auch so, random settings Beispiel:
https://abload.de/img/screenshot5f5kd6.png (https://abload.de/image.php?img=screenshot5f5kd6.png)
:hammer:
Nightspider
2021-06-27, 18:39:50
Da bist du evtl. schon im GPU-Limit, Radeons zeigen die GPU-Auslastung mit Async Compute gerne falsch an. Auch auf Radeons vernichtet der D3D12-Renderer leider unnötig GPU-Leistung, inkls. komplett kaputtem Async Compute. :freak:
Trotzdem läuft BFV auf AMD Karten gerne mal 10%-15% schneller als bei Nvidia.
dildo4u
2021-07-02, 09:00:41
Kommt drauf an ob du RT nutzt, man könnte es in 1440p mit ordentlichen FPS raten nutzen.
https://youtu.be/istn-taqPFY?t=568
Xaver Koch
2021-07-06, 14:51:50
Finde die Ryzen 5000er / Zen 3 schon ein richtiges Brett. Man spürt die Geschwindigkeit bereits im normalen Umgang mit Windows (Schwuppsidität ist einfach genial), nicht erst beim Installieren, komprimieren/entpacken ober Bearbeiten von Dateien/Videos. :)
Vom Intel 6700K zum Ryzen+ 2600 war schon ein toller Sprung, aber von letztem zum Ryzen 3 - 5600X ist er fast noch einmal größer. Geile CPU! :D
aufkrawall
2021-07-06, 15:15:45
Vom Intel 6700K zum Ryzen+ 2600 war schon ein toller Sprung
Ja klar, deshalb krebst Zen+ in den letzten zehn Tests von gamegpu auch ständig auf Haswell-Niveau rum bzw. etwas drüber. :freak:
TurricanM3
2021-07-06, 15:34:10
So gut und schnell Zen3 ist, ich wünschte mir mehr IPC. Bin leider noch immer massiv im CPU-Limit und mir fehlt da Leistung für high FPS. Spiele nur EFT aktuell und habe da oft nur 70fps und teils weniger, die sich einfach mies an der Maus anfühlen. Klar, das liegt am Game selbst irgendwo, aber eine CPU mit ordentlich mehr IPC würde dem Problem trotzdem entgegenwirken.
Habe die Settings schon deutlich reduziert, trotzdem geht es so weit runter, dass die Bewegtschärfe leidet (wegen GSync). Das Bild schmiert also leicht (sieht man im Video natürlich nicht):
8LxnyjwXiyk
GPU-Last ist der grüne Balken.
Hoffentlich knapp 20% (?) mehr Leistung durch die neuen Zen3 mit dem größeren Cache würde ich gerne schon jetzt haben.
Xaver Koch
2021-07-06, 15:45:50
Ja klar, deshalb krebst Zen+ in den letzten zehn Tests von gamegpu auch ständig auf Haswell-Niveau rum bzw. etwas drüber. :freak:
Ich rede von Windows und Anwendungen, nicht Spielen. ;)
w0mbat
2021-07-06, 19:03:29
GPU-Last ist der grüne Balken.
Hoffentlich knapp 20% (?) mehr Leistung durch die neuen Zen3 mit dem größeren Cache würde ich gerne schon jetzt haben.
Wenn es Zen3+ Kerne gibt verstehe ich immer noch nicht, wieso 3DV mit Zen3 kommen sollte. Zen3+ und 3DV wären :naughty:
Nightspider
2021-07-06, 19:40:29
Ich rede von Windows und Anwendungen, nicht Spielen. ;)
Windows profitiert von ST Leistung und da lag der 6700K vor dem R5 2600, also kann das eigentlich kaum sein.
Außer du hast deinen 6700K durch arschlahmen Speicher ausgebremst während der R5 2600
rentex
2021-07-06, 19:52:41
@TurricanM3 Du willst also ein schlecht optimiertes Spiel, mit noch mehr CPU Leistung zuscheis...?
Und dann fragen sich die Leute, warum es immer schnellere HW bedarf...muss man nicht verstehen.
Nightspider
2021-07-06, 19:55:18
muss nicht verstehen.
Das Spiel macht ihm Spaß. Was ist daran schwer zu verstehen?
aufkrawall
2021-07-06, 19:57:54
Trotzdem läuft BFV auf AMD Karten gerne mal 10%-15% schneller als bei Nvidia.
Witzig, mit Ampere läuft doch DX12 im GPU-Limit tatsächlich etwas schneller als 11. :freak:
Wenn ich sehe, wie MP-Spiele mit Reflex/DLSS auf Nvidia laufen bzw. wie sie sich spielen lassen, seh ich schwarz für Radeons bei BF2042. Erst recht, falls noch RT dazu kommen sollte (und das nicht völlig unbrauchbar sein sollte).
Es lief bei Bro mit 6900 XT gerade auch einigermaßen bescheiden bez. Frametimes mit 12 (11 sowieso). Obs an Win 11 Beta liegt oder das noch weiter im Spiel oder Treiber regressed ist, keine Ahnung...
Nightspider
2021-07-06, 20:07:10
Oder 3060 bis 3080 verrecken gnadenlos am VRAM. ^^
Würde micht wundern wenn nicht auch der VRAM Bedarf kräftig steigen wird. Ob DLSS das ausgleichen wird?
aufkrawall
2021-07-06, 20:13:24
Ich weiß nicht, vielleicht ist das auch nur auf AMD kaputt. Macht hier mit maximalen Details + maximales RT in 1440p keine 6,5GB voll, bei 12GB vorhanden:
https://abload.de/thumb/bfv_2021_07_06_20_11_gzkli.png (https://abload.de/image.php?img=bfv_2021_07_06_20_11_gzkli.png)
Nightspider
2021-07-06, 20:39:17
Naja, bleibt ein Puffer von 3,5GB nachdem der Verbrauch beim VRAM 8 Jahre lang eher stagnierte. Obs für die neue Gen und BF2042 reicht ist die Frage.
Der physische Speicher bei der PS5 Gen hat sich verdoppelt und der effektive Speicher eher verdreifacht/vierfacht durch Kompression und highspeed SSD und die Auslagerung weniger oft benötigter Daten auf die superschnelle SSD.
Aber wir schweifen hier vom Thema ab. =)
Xaver Koch
2021-07-07, 10:52:10
Windows profitiert von ST Leistung und da lag der 6700K vor dem R5 2600, also kann das eigentlich kaum sein.
Außer du hast deinen 6700K durch arschlahmen Speicher ausgebremst während der R5 2600
In beiden Fällen der gleiche Speicher: Corsair 2666 16-18-18-35 (2 x 8 GB).
Mag sein, dass die reine CPU-Leistung vergleichbar ist, aber am Ende des Tages läuft ein AMD-System "fluffiger, die "Schwuppsidität" ist besser. Ob das an den Treibern oder diversen "Zusatzgeräten" wie "MEI" bei Intel liegt, kann ich nicht beurteilen und es ist schlussendlich egal. Dieser Eindruck wurde hier im Forum in einem anderen AMD-Faden von mehreren Usern bestätigt. Auch der ccleaner ist mit dem R5 2600 schneller durch, also nicht nur ein "subjektiver" Eindruck. ;)
Witziger weise ist der 6700K aber dennoch subjektiv deutlich näher (am R5 2600) dran, als ein 6700 (ohne K) oder ein 6500er.
Aber jetzt wieder zu Zen 3.
Würde mir für meinen Spiele-PC entweder einen 5600X oder gleich einen 5900X holen (5800X performt in Relation zum Stromverbrauch schlechter und soll laut Tests auch wärmer werden), warte aber noch auf Zen3+, vielleicht tut sich da noch etwas.
Wer ein richtig gutes B550er Board ohne viel Schnick-Schnack, aber mit guter Qualität (Military-Class Komponenten) sucht, welches top Leistung inkl. sehr flotten Boot-Zeiten bietet (12 + 2 Phasen): Asus TUF GAMING B550-PRO (Office-PC mit 5600X und 32 GB Corsair 3200 Ram CL 16).
dildo4u
2021-08-03, 15:21:03
Computerbase Test des 5600G/5700G.
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/
PCGH 5700G
https://www.pcgameshardware.de/Ryzen-7-5700G-CPU-277698/Tests/AMD-Ryzen-7-5700G-Vega-APU-Review-1376578/
Guru 3d 5600G/5700G
https://www.guru3d.com/articles-pages/amd-ryzen-7-5700g-and-ryzen-5-5600g-review,1.html
Golem 5700G
https://www.golem.de/news/ryzen-7-5700g-im-test-amds-5700x-ersatz-ist-unser-gaming-liebling-2108-158366.html
Tomshardware 5700G
https://www.tomshardware.com/news/amd-ryzen-7-5700g-review
Weitere Reviews: https://videocardz.com/newz/amd-ryzen-5000g-cezanne-apu-review-roundup
Die APUs sacken "dank" des 16MB Cache böse beim Gameing ein.
5600G nur auf Level mit 140€ 10400f bei Computerbase.Also + 100€ für die IGP.
Rabiata
2021-08-03, 16:54:03
Computerbase Test des 5600G/5700G.
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/
[...]
Tomshardware 5700G
https://www.tomshardware.com/news/amd-ryzen-7-5700g-review
Die APUs sacken "dank" des 16MB Cache böse beim Gameing ein.
5600G nur auf Level mit 140€ 10400f bei Computerbase.Also + 100€ für die IGP.
Der Test bei Computerbase ist gut, um die isolierte CPU-Leistung zu beurteilen. Das befürworte ich aus technischem Interesse.
Aber in der Praxis stellt sich auch die Frage, was für eine dGPU nötig ist um mit dem 5600G (ohne dGPU) mitzuhalten.
Im Test bei Tomshardware läuft auch der 5600G mit und ist im Schnitt etwas schneller als der Core i5-11400F mit GT 1030. Der 10400F wird da eher schlechter abschneiden. Eine GT 1030 kostet um die 90€, dann sind wir bei 230€ für Intel + Nvidia gegen $259 Listenpreis bei AMD. Also Vorteil Intel beim Preis, Vorteil Performance bei AMD.
Mit der GTX 1050 oder noch größeren GPUs ist dann der Intel klar schneller, aber die kosten auch 200€ oder mehr. Damit liegt Intel + Nvidia dann eine Preisklasse höher.
amdfanuwe
2021-08-03, 17:01:25
Aber in der Praxis stellt sich auch die Frage, was für eine dGPU nötig ist um mit dem 5600G (ohne dGPU) mitzuhalten.
Im 2ten Teil des CB Tests läuft auch eine 460, 450 und 1030 mit.
https://www.computerbase.de/2021-08/ryzen-5600g-5700g-igpu-game-benchmark-test/2/
Der_Korken
2021-08-03, 17:18:31
Computerbase Test des 5600G/5700G.
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/
Die APUs sacken "dank" des 16MB Cache böse beim Gameing ein.
5600G nur auf Level mit 140€ 10400f bei Computerbase.Also + 100€ für die IGP.
Der halbierte Cache haut extrem rein. Der 5700G ist gerade mal 8% schneller als der 3700X bzw. bei den Frametimes sogar nur 6%. Zum Vergleich: Der 5800X holt auf den TDP-gleichen 3800XT 28% bzw. 17% raus. Ich würde jetzt mal die steile These aufstellen, dass das zusammengelegte CCX gar nicht so viel bringt, wie immer alle sagen, sondern dass die maximale Cache-Menge für einen Kern wichtiger ist. Oder anders gesagt: Hätte man die CCX-Größe bei 4 belassen, aber entsprechend 2x32MB verbaut, wäre Zen 3 genauso schnell. Der Nachteil ist nur, dass das mehr Fläche verbraucht. Mit gestackten Caches könnte ich mir vorstellen, dass die CCX langfristig wieder schrumpfen, weil sich irgendwann ein abnehmender Ertrag einstellt. 1x32MB ist noch besser als 2x16MB, weil die Mehrleistung durch die höhere Hitrate größer ist als der Verlust durch höhere Latenzen und mehr Verbrauch bzw. mehr Leitungen. Bei 1x96MB vs 2x48MB könnte diese Rechnung aber zugunsten der beiden getrennten Caches ausfallen.
][immy
2021-08-03, 18:42:37
Der halbierte Cache haut extrem rein. Der 5700G ist gerade mal 8% schneller als der 3700X bzw. bei den Frametimes sogar nur 6%. Zum Vergleich: Der 5800X holt auf den TDP-gleichen 3800XT 28% bzw. 17% raus. Ich würde jetzt mal die steile These aufstellen, dass das zusammengelegte CCX gar nicht so viel bringt, wie immer alle sagen, sondern dass die maximale Cache-Menge für einen Kern wichtiger ist. Oder anders gesagt: Hätte man die CCX-Größe bei 4 belassen, aber entsprechend 2x32MB verbaut, wäre Zen 3 genauso schnell. Der Nachteil ist nur, dass das mehr Fläche verbraucht. Mit gestackten Caches könnte ich mir vorstellen, dass die CCX langfristig wieder schrumpfen, weil sich irgendwann ein abnehmender Ertrag einstellt. 1x32MB ist noch besser als 2x16MB, weil die Mehrleistung durch die höhere Hitrate größer ist als der Verlust durch höhere Latenzen und mehr Verbrauch bzw. mehr Leitungen. Bei 1x96MB vs 2x48MB könnte diese Rechnung aber zugunsten der beiden getrennten Caches ausfallen.
Nun, da gibt es noch andere Faktoren. Z.B. der 5800x hat eine deutlich höhere Aufnahme und kann sich auch mehr genehmigen. Das wiederum hat starke Auswirkungen auf das Boost-Verhalten und dieses ist, wie man bei Intel seit Jahren sieht in Spielen (zumindest in Benchmarks) enorm wichtig.
Zudem muss hier die GPU mitgeführt, werden, was auch wieder einen Teil des Power-Budgets frisst, selbst wenn diese kaum mit läuft.
Klar, der Cache wird ebenfalls vermisst, aber letztlich sollte dieser den Prozessor erst mal nicht dermaßen runter ziehen.
Allerdings grad mit einer integrierten GPU hätte ein größerer Cache deutlich was bringen können, besonders wenn man diese GPU nutzt. Aber das würde vermutlich auch wieder die kosten sprengen und den Sinn einer CPU mit GPU in Frage stellen.
Wobei ich doch ein Fan von GPUs auf den CPUs bin, wenn auch nur minimal, so kann die richtige GPU einfach abschalten, während z.B. nur Windows was macht.
fondness
2021-08-03, 18:51:03
Der maximale Takt ist auch niedriger. Also es ist nicht nur der Cache, aber diese macht natürlich auch sicher gut was aus.
Der_Korken
2021-08-03, 20:07:57
[immy;12752534']Nun, da gibt es noch andere Faktoren. Z.B. der 5800x hat eine deutlich höhere Aufnahme und kann sich auch mehr genehmigen.
Das ist korrekt, deswegen habe ich ja auch 3700X mit 5700G und 3800XT mit 5800X verglichen. Im übrigen zieht auch der 5600X mit gleichem PPT und gleichem Max-Boost gut am 5700G vorbei.
[immy;12752534']
Zudem muss hier die GPU mitgeführt, werden, was auch wieder einen Teil des Power-Budgets frisst, selbst wenn diese kaum mit läuft.
Warum sollte die GPU Power-Budget fressen? Erstens dürfte die komplett vom Strom getrennt sein, wenn sie nicht läuft und zweitens würde sie selbst dann nichtmal ansatzweise so viel Strom fressen wie das ganze Drumrum bei den Chiplet-basierten Modellen. Siehe den CB-Test:
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/3/#abschnitt_leistungsaufnahme_und_temperatur_in_anwendungen
14W weniger Idle-Verbrauch als 5600X und 5800X und 16W weniger Verbrauch bei ST-Last für den 5700G gegenüber dem 5600X mit gleichem max. Boost (gegenüber dem 5800X sogar 24W). Der 5700G hat effektiv also eigentlich mehr Watt für die Kerne übrig, nicht umgekehrt.
Der maximale Takt ist auch niedriger. Also es ist nicht nur der Cache, aber diese macht natürlich auch sicher gut was aus.
Siehe oben: Der 5600X hat nicht mehr max. Boost, ist aber trotzdem viel näher am 5800X als am 5700G dran. Und selbst wenn: Beim 5800X wären es sage und schreibe 100Mhz mehr, also 1,02%. Das ist Messungenauigkeit.
Ich bleibe dabei: Der 32MB große Cache ist der wahre Game Changer bei Zen 3. Das macht Cezanne zu keiner schlechten CPU - im Gegenteil, bei der Effizienz in Idle und Teillast werde ich glatt neidisch. Es relativiert die Lobgesänge auf die Zen 3 Architektur aber ein wenig. Mit halbem Cache ist der Unterschied zu Zen 2 gar nicht mehr so groß und gegen Rocket Lake, der ebenfalls mit "nur" 16MB Cache antreten muss, verliert Cezanne das Duell in Spielen.
Das gibt imho einen kleinen Ausblick darauf, dass Alder Lake in Spielen sehr stark werden könnte. Intel stockt von 16 auf 30MB auf und legt noch ein paar IPC-Gewinne durch Golden Cove drauf. Ersteres würde imho schon reichen, um Zen 3 zu schlagen, durch Zweiteres könnte es selbst für Zen 3 mit gestacktem Cache reichen.
Savay
2021-08-03, 20:13:38
Es relativiert die Lobgesänge auf die Zen 3 Architektur aber ein wenig.
Heute gilt auch weiterhin:
Den Einfluss der µArch siehst du eher in Anwendungen. (5700G -> +13/23% MT/ST auf 3700X)
Den Einfluss der effektiven Latenzen siehst du eher in Games. (5700G -> "nur" +8% auf 3700X)
Ist doch eigentlich ne Binse die wir hoffentlich nicht wieder diskutieren müssen oder?! :wink:
Wenn der Core verhungert, weil die Daten nicht schnell genug ankommen, kann die Architektur noch so gut sein...wird nen besser Core halt weniger bringen weil du eigentlich an nem Uncore Bottleneck hängst.
Davon abgesehen, Caching und Architektur gehört ja auch gewissermaßen zusammen.
Und deshalb relativiert es auch nicht wirklich die "Lobgesänge" auf die Architektur...man sieht nur leider, vor allem in Games, allzu oft nicht was die Architekturen könnten, wenn sie besser mit Daten gefüttert werden würden.
bloodflash
2021-08-03, 20:15:23
Der 5700G ist der erwartete Ersatz für den 2600(ohneX) im nächsten Jahr, wenn die Preise sich bei um die 200,- für die CPU einpendeln. Nach dann 4 Jahren ist das System für weitere 3-4 Jahre gut.
Reiht sich schön zwischen 3700X und 5800X ein, aber mit für mich viel wichtigeren 65W TDP. Mal sehen wieviel er bei 45W verliert.
Gibt es irgendwo einen Test, wo man die iGPU für's System, Video und Surfen nutzt und die dGPU solange schlafen legt? Geht das mittlerweile problemlos auf dem Desktop wie bei Notebooks?
Bin gespannt, ob es bis dahin noch eine RX6700(ohne XT)/12GB mit einer TBP deutlich unter 200W geben wird.
fondness
2021-08-03, 20:18:30
Hat cézanne nicht viermal so viel Cache bei Single core wie der Vorgänger? Also 16 MB vs 2 mal 4 MB? Und trotzdem kaum Performance Unterschied? Für mich ist das alles noch nicht schlüssig. Imo braucht es da genauere Untersuchungen bzgl boost Verhalten, Speicher Latenzen etc. Das Ding ist immerhin eine Notebook apu die normalerweise nicht selten mit 15 Watt betrieben wird. Vielleicht limitieren auch die maximal 8x pcie 3 bei der verwendeten 3080 ein bisschen. Gibt es schon einen test von anandtech?
Savay
2021-08-03, 20:29:44
Kann doch sein, das die meisten modernen Spiele nen so großes Workingset nutzen, so dass der Cache auch bei 16MB vs. 2*8MB einfach nicht zu einer ausreichenden Hitrate führt und so oder so deutlich mehr Transfers über den Speicher nötig werden.
32MB scheinen da ja stellenweise ne bestimmte Untergrenze und Kipppunkt zu treffen...siehe Valorant.
Bin sicher die Zen3D könnten da noch mehr Valorant-artige Ausreißer nach oben zeigen mit 64-256MB oder wieviel es am Ende auch immer wird.
Schade das CB keinen 4650G und 4750G in den Benchmarks hat.
Vielleicht limitieren auch die maximal 8x pcie 3 bei der verwendeten 3080 ein bisschen.
Cezanne hat im Desktop 24 Lanes (16+4+4) wie auch Vermeer und auch schon Renoir...
Die Limitierung auf 8x im Laptop für eine dGPU kommt allein durch den "Sockel" und ist durch die Plattform bedingt...nicht durchs Silizium!
Der_Korken
2021-08-03, 21:06:36
Hat cézanne nicht viermal so viel Cache bei Single core wie der Vorgänger? Also 16 MB vs 2 mal 4 MB? Und trotzdem kaum Performance Unterschied?
Woran machst du das fest? Leider gibt es in den meisten Reviews keine Spiele-Benches, wo Renoir mitgetestet wird. Einzig bei Tom's Hardware habe ich bisher welche gesehen und da liegt der 4750G so ca. 10% hinter dem TDP-gleichen 3600 trotz 200Mhz höherem max. Boost. Ja, man würde eigentlich mehr Verlust erwarten, weil Renoir gegenüber Matisse nur 1/4 des Caches hat. Aber hier könnte es wirklich so sein wie Savay gesagt hat, dass oberhalb von 8MB mehr Kipppunkte liegen.
Ich möchte noch anmerken, dass weder 3950X noch 5950X sich nennenswert vom 3800X bzw. 5800X absetzen können, was darauf hindeutet, dass die Summe der Caches nicht so entscheidend ist. Da Spiele i.d.R. vier Kerne immer gut auslasten können, sollte es zumindest beim 5950X kein Problem sein beide CCDs zu nutzen und somit 64MB Cache zu haben. Daraus folgere ich, dass Cezanne mit 2x16MB kaum schneller wäre als jetzt. Insofern scheint max. Cache-Menge für einen Kern wirklich der King zu sein in Spielen.
Flusher
2021-08-04, 11:26:26
Gibt es irgendwo einen Test der sich die Performance bei Speicher OC + iGPU OC + FSR anschaut?
Würde mich schon interessieren was das Teil bei 2400 MHz Core und DDR-4000 reisst.
Klar eine RX 6900 wird es daraus nicht, aber es könnte immerhin die Brücker zur RX6600 schlagen.
pilzsammler2002
2021-08-04, 12:35:27
Gibt es irgendwo einen Test der sich die Performance bei Speicher OC + iGPU OC + FSR anschaut?
Würde mich schon interessieren was das Teil bei 2400 MHz Core und DDR-4000 reisst.
Klar eine RX 6900 wird es daraus nicht, aber es könnte immerhin die Brücker zur RX6600 schlagen.
https://www.youtube.com/watch?v=v_AmHOfvJj8
Ich hatte das mit dem 4650 Pro schonmal getestet :)
GPU @ 2250mhz (gpu takt bringt so gut wie nix (so wie jetzt auch beim 5600G)
RAM @ 4400mhz
IF @ 2200mhz
EDIT:
Hier der FSR Test mitm 5500U :)
https://www.youtube.com/watch?v=fk4wuQfQRNE
dildo4u
2021-08-04, 12:47:25
Gibt es irgendwo einen Test der sich die Performance bei Speicher OC + iGPU OC + FSR anschaut?
Würde mich schon interessieren was das Teil bei 2400 MHz Core und DDR-4000 reisst.
Klar eine RX 6900 wird es daraus nicht, aber es könnte immerhin die Brücker zur RX6600 schlagen.
Da ist noch tonnen Luft für andere Karten, Valve hat nicht umsonst sein Handheld Quad Channel Ram spendiert, am PC limitiert die Bandbreite zu sehr.
https://hitechglitz.com/german/das-steam-deck-ist-viel-leistungsfahiger-als-wir-dachten/
Eine 1060 ist noch weit weg:
https://www.techpowerup.com/review/amd-ryzen-7-5700g/20.html
Relic
2021-08-04, 13:31:49
Da ist noch tonnen Luft für andere Karten, Valve hat nicht umsonst sein Handheld Quad Channel Ram spendiert, am PC limitiert die Bandbreite zu sehr.
Der "Quad Channel" (4x32Bit) dort ist genauso 128bit wie der Dual Channel (2x64bit) am PC...
Nur der Takt ist höher in der Steam Kiste.
Der_Korken
2021-08-04, 13:54:26
Ich glaube, dass aus 8 Vega-CUs einfach nicht mehr zu holen ist, selbst wenn man jetzt noch die Bandbreite erhöht. AMD hat ja nicht umsonst von 11CUs auf 8 zurückgebaut, weil sie gemerkt haben, dass sich das bei den üblichen DDR4-Bandbreiten nicht lohnt. Die Desktop-Modelle takten jetzt auch nicht so krass viel höher, dass man da durch DDR4-4000 noch Wunder erwarten sollte. Dazu bräuchte man die alten 11 CUs mit heutigen Taktraten von >2Ghz.
fondness
2021-08-04, 13:55:00
Kann doch sein, das die meisten modernen Spiele nen so großes Workingset nutzen, so dass der Cache auch bei 16MB vs. 2*8MB einfach nicht zu einer ausreichenden Hitrate führt und so oder so deutlich mehr Transfers über den Speicher nötig werden.
32MB scheinen da ja stellenweise ne bestimmte Untergrenze und Kipppunkt zu treffen...siehe Valorant.
Bin sicher die Zen3D könnten da noch mehr Valorant-artige Ausreißer nach oben zeigen mit 64-256MB oder wieviel es am Ende auch immer wird.
Schade das CB keinen 4650G und 4750G in den Benchmarks hat.
Es sind 16MB vs. 2*4MB, nicht 2*8MB. Beim 4750G/Renoir wurde der Cache noch geviertelt, bei Cezanne nur noch halbiert. Ein Core hat jetzt 16Mb statt 4MB zu Verfügung. Und trotzdem verliert Cezanne mehr als ein 4750G, das ist unlogisch. IMO braucht es da noch weitere Untersuchungen. Zumal sich Cezanne in den Anwendungstests genau so verhält wie erwartet, deshalb wäre das mit der PCIe-Limitierung bei Spielen zB schon ein schlüssige Erklärung.
Cezanne hat im Desktop 24 Lanes (16+4+4) wie auch Vermeer und auch schon Renoir...
Die Limitierung auf 8x im Laptop für eine dGPU kommt allein durch den "Sockel" und ist durch die Plattform bedingt...nicht durchs Silizium!
Sockel? Das Ding ist verlötet! Du willst mir ernsthaft sagen, die verbauern eh genug Lanes aber führen sie warum auch immer nur raus? Wie behindert ist das denn? Hast du dafür eine Quelle?
Savay
2021-08-04, 16:27:18
Es sind 16MB vs. 2*4MB, nicht 2*8MB.
Es ging um den Vergleich mit Matisse in Form des 3700X, nicht um Renoir in Form des 4750G
Und wo verliert Cezanne denn gegen Renoir? Ich kenne dazu keine wirklichen Zahlen...die bisherigen Reviews glänzen leider meist mit Abwesenheit von Renoir.
Das Ding ist verlötet!
Deswegen "Sockel". ;)
https://en.wikichip.org/wiki/amd/ryzen_7/pro_4750g
Fakt ist: die Plattform beschneidet Renoir und Cezanne im Laptop künstlich, weil diese offenbar nur 16 Lanes nach außen führt, statt der 24 die eigentlich vorhanden sind.
Im Desktop existiert das Problem nicht, wobei da halt auch vieles über nen Chipsatz läuft der Mobile eingespart wurde.
Das Socket FP6 (BGA) erst mit Renoir eingeführt wurde macht es übrigens noch ein wenig absurder als es eh schon klingt. :wink:
gbm31
2021-08-04, 18:30:07
https://www.youtube.com/watch?v=3eW2KP9VEGE
Leider nur avg FPS und blöde Spielauswahl für mich. Aber scheint so daß es keinen großen Unterschied gibt zwischen dem 4650G und dem 5600G.
Thunder99
2021-08-04, 19:57:57
CB hat doch einen R7 4650Pro im Test :confused:
etp_inxession
2021-08-05, 06:43:09
CB hat doch einen R7 4650Pro im Test :confused:
Leider nur im CPU Test.
im iGPU Test fehlt der 4650G.
Warum auch immer...
IceKillFX57
2021-08-05, 19:51:33
Hmm was meint ihr? 5600G oder 5800G? Mit reicht eig. die interne GPU aber die Option im zweifel aufrüsten zu können, wäre mir mit einem 8 Kerner lieber...wobei wenn ich dann aufrüsten, es dann sowieso eine neue Plattform geben wird....also DDR5 und Board....
76398
Heute meinen 4790k gegen den 5700g getauscht. Handbrake und WoW 3.3.5 (wine) laufen entspannt bei ~50°C mit einem Noctua NH-L12S. Der 4790k (mit einer 1050ti) war hier schon am schnaufen und bei Handbrake hat sich die fps verdoppelt. WoW ist absolut spielbar, allerdings nicht so butterweich wie mit der 1050ti.
Der 5.4 Ubuntu-Kernel kann noch nix mit der iGPU anfangen. Der 5.11 läuft soweit ohne Probleme.
4790k 2014 für ~300€, den 5700g 2021 für 369€ erworben. Hällt hoffentlich genau so lange.
dildo4u
2021-08-08, 09:40:46
Wenn du Frametime Probleme hast könnte man im Bios den Vram Mengen erhöhen oder ist das festgelegt?
Iceman1976
2021-08-08, 10:01:24
Snu
Unbedingt neustes Bios auf Board spielen, falls noch nicht gemacht.
Dazu noch den neusten Chipsatztreiber von der AMD Seite und Grafiktreiber.
HTB|Bladerunner
2021-08-08, 12:13:09
76398
Heute meinen 4790k gegen den 5700g getauscht. Handbrake und WoW 3.3.5 (wine) laufen entspannt bei ~50°C mit einem Noctua NH-L12S. Der 4790k (mit einer 1050ti) war hier schon am schnaufen und bei Handbrake hat sich die fps verdoppelt. WoW ist absolut spielbar, allerdings nicht so butterweich wie mit der 1050ti.
Der 5.4 Ubuntu-Kernel kann noch nix mit der iGPU anfangen. Der 5.11 läuft soweit ohne Probleme.
4790k 2014 für ~300€, den 5700g 2021 für 369€ erworben. Hällt hoffentlich genau so lange.
Interessant, seit Freitag teste ich auch mit dem 5700G rum allerdings nur mit dem CPU-Part. Die interne GPU nutze ich aktuell nicht. Mir ist aufgefallen, dass es im Bios den Curve-Optimizer nun auch für die GPU gibt. Hast Du dich damit mal befasst?
IceKillFX57
2021-08-08, 15:23:21
https://www.computerbase.de/forum/attachments/1628409683532-png.1110474/
Der 5800X lief auch im Turbo. der 5700G ist aber ca. 20°c kühler
Das MSI B550 Bazooka hat im Bios den Game Mode (max 2G bei 16g RAM), oder den Force Mode für die feste Zuteilung. Brachte allerdings keine Änderung.
Den Curve-Optimizer hab ich nicht gefunden.
Mit der Live-ISO von Manjaro 21.0.7 (Kernel 5.10), neues wine und mesa, läuft es butterweich. Gerade noch Pop!_OS 21.04 (Kernel 5.11, 5er wine, etwas neueres mesa) probiert, und auch hier läuft alles prima. Wohl einige zu alte Pakete in Mint 20.2.
Btw. der 5700g wurde vom Board nicht erkannt. Das Bios-Update funktionierte mit dem USB BIOS Flashback + USB-Stick prima. Feine Sache.
IceKillFX57
2021-08-08, 15:47:22
Ich hab als Board das MSI Tomahawk B450 MAX und kann da über 8GB "VRAM" zuweißen. (glaube max sind 12GB oder 16GB... gerade unsicher)..habs auf 8 GB und laut Treiber greift es auch:
https://s20.directupload.net/images/210808/lwmwelmp.png (https://www.directupload.net)
HTB|Bladerunner
2021-08-08, 20:19:57
https://www.computerbase.de/forum/attachments/1628409683532-png.1110474/
Der 5800X lief auch im Turbo. der 5700G ist aber ca. 20°c kühler
Schönes Ergebnis!
Mit was kühlst Du die APU bei diesem Takt?
Mein 5800x war auch kaum kühlbar, daher der Umstieg auf den 5700g.
uweskw
2021-08-09, 16:41:28
Mal ne Frage bevor ich alles durchackere:
Welche neue Graka muss ich mindestens kaufen um schneller als die iGPU vom 5700G zu sein? gibt es da etwas unter 100,00€?
greetz
US
edit:
ich finde estmal nichts unter 150,00€ - 200,00€ was schneller wäre als die iGPU vom 5700G
Kann ich kaum glauben, denn wenn das wirklich so wäre, würde es doch wohl in den Tests deutlich gesagt werden...
Leonidas
2021-08-09, 16:51:06
@uweskw: Grobe Antwort auf die Frage siehe hier (zu iGPU-Performance runderscrollen):
https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-5000g/launch-analyse-amd-ryzen-5000g-seite-2
uweskw
2021-08-09, 17:02:50
@uweskw: Grobe Antwort auf die Frage siehe hier (zu iGPU-Performance runderscrollen):
https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-5000g/launch-analyse-amd-ryzen-5000g-seite-2
Da hab ich ja meine Info so weit her.
Ist es also echt so, dass ich selbbst für 150,00€ keine (neue) GraKa bekomme die gleich schnell oder schneller für einfache Spiele ist?
greetz
US
edit:
Wie ist der 5600G eigentlich Performance-mäßig mit einem alten i2500 oder i2600 zu vergleichen?
IceKillFX57
2021-08-09, 19:31:17
Vergleich doch einfach z.B Cinebench Ergebnisse
Benutzername
2021-08-09, 19:42:21
Ich hab als Board das MSI Tomahawk B450 MAX und kann da über 8GB "VRAM" zuweißen. (glaube max sind 12GB oder 16GB... gerade unsicher)..habs auf 8 GB und laut Treiber greift es auch:
https://s20.directupload.net/images/210808/lwmwelmp.png (https://www.directupload.net)
Ist das zugewiesene VRAM nicht sowieso nur für DOS und BIOS und ohne den richtigen Treiber (generisch VGA) wichtig? Ich dachte der Treiber könnte sich auch einfach mehr greifen falls nötig, wenn dann der Windowstreiber läuft?
uweskw
2021-08-10, 09:23:54
Vergleich doch einfach z.B Cinebench Ergebnisse
Kann man die Ergebnisse vor 6 Jahren da vergleichen? Sind das nicht ganz andere Versionen von Cinebech, 3DMark und Co? K.A.
Gibt es irgendwo ein Review in dem zumindest die am weitesten verbreiteten "Alt-CPUs" mit getestet werden? Ich würde schon gern wissen wie weit ich mich verbessere wenn ich wechsle?
Übrigens finde ich die Reviews tendenziös, was mich stört ist folgendes:
Die Grafikleistung wird irgendwie immer kleingeredet, reicht ja eh nicht für anspruchsvolle Spiele.
Warum schreibt keiner: "Wer eine schnelle CPU will und nicht mehr als 150,00€ zusätzlich für eine GraKa ausgeben will ist hier richtig!"
greetz
US
dildo4u
2021-08-10, 09:37:55
Weil das Angebot nicht gut ist wenns dir um die IGP geht, es gab den 3400G für 150€ und der ist maximal 15-20% hinter den neuen Modellen.
Das Angebot ist nur ok weil der GPU Markt am Arsch ist.
https://youtu.be/XLZlRaAX3dE?t=229
Lowkey
2021-08-10, 09:57:38
Genau den Run auf die APUs gab es vor Jahren schon einmal, wo die Grafikkartenpreise höher lagen. Wegen der fehlenden APU Erneuerung gibt es fast keinen Grund vom ollen 2200G auf einen 5700G zu wechseln. Selbst die ersten APUs sind heute als HTPC für Full HD noch tauglich.
Mein nächster Wechsel wäre in ca. 2 Jahren dann auf eine RDNA3 APU mit DDR5, wobei es dann nur um die Features geht (Dualchannel wäre nicht nötig).
https://www.youtube.com/watch?v=jZov6MmdOq0 5800x vs 2600k (-10% beim 5800x = 5700g)
oder selbiges mit dem 5600g:
https://www.youtube.com/watch?v=xkt5ryvltGw
Benutzername
2021-08-10, 10:23:33
Weil das Angebot nicht gut ist wenns dir um die IGP geht, es gab den 3400G für 150€ und der ist maximal 15-20% hinter den neuen Modellen.
Das Angebot ist nur ok weil der GPU Markt am Arsch ist.
https://youtu.be/XLZlRaAX3dE?t=229
Naja, wenn man einen 5700G als Arbeitsgerät für Berechnungen auf der CPU nimmt sind 15-20% mehr Leistung schon eine Menge wert. Und dann auch noch in einem kompakten ITX Paket schon nett als Workstation. Für die Anzeige er ERgebnisse reicht die Vega Grafik locker. Fürs Daddeln ist die natürlcih nicht mehr so toll.
Lowkey
2021-08-10, 10:27:10
Gab es doch schon in Form eines Intel Prozessors?
https://geizhals.de/intel-core-i7-10700-bx8070110700-a2290986.html?hloc=de
Oder habe ich was verpasst?
uweskw
2021-08-10, 10:38:58
Gab es doch schon in Form eines Intel Prozessors?
https://geizhals.de/intel-core-i7-10700-bx8070110700-a2290986.html?hloc=de
Oder habe ich was verpasst?
nach Tabelle hat der Comet Lake gerade mal 20-25% der Grafikleistung...... ist also nicht vergleichbar.
greetz
US
dildo4u
2021-08-10, 12:53:02
Es hätte vermutlich so oder so kein RDNA2 gegeben egal was Intel macht, Navi 2x ist deutlich größer als Vega per CU da RT Support immer mit dabei ist.
Wenns schlecht läuft verzögert sich das im Desktop auf AM5 Modelle, erst dann gibt es auch die Passendene Bandbreite um Vega um 50% oder mher zu schlagen.
Savay
2021-08-10, 15:17:01
nach Tabelle hat der Comet Lake gerade mal 20-25% der Grafikleistung...... ist also nicht vergleichbar.
greetz
US
Die älteren intel iGPUs bis zu teilen der 11. Gen sind einfach nur Grütze hoch10. :freak:
Bei uns reicht schon ne WebEX auf nem UHD Display um die nahezu an den Rande des Kollaps zu bringen.
Und wenn da auch etwas nur ansatzweise anspruchsvolleres laufen will, wie z.B. DXO PhotoLabs das von der Vega sogar halbwegs sinnvoll beschleunigt werden kann oder sowas in der Art streichen die doch wirklich vollends die Segel.
Selbst die Rocket Lake mit den 32EU Gen12 sind da ja streng genommen kaum mehr als ein besseres Feigenblatt.
Mehr als Excel/Word@1440p würde ich denen nicht ernsthaft zumuten wollen, da musst du schon echt leidensfähig sein oder nur wirklich äußerst geringe Ansprüche haben.
held2000
2021-08-10, 18:20:49
Prozessoren (CPUs) » AMD mit Segment: Desktop (Mainstream), Sockel: AM4, Kerne: 4 (Quad-Core)/6 (Hexa-Core)/8 (Octa-Core), CPU-Funktionen: Grafik (iGPU)
https://geizhals.de/?cat=cpuamdam4&sort=p&xf=12099_Desktop+(Mainstream)%7E25_4%7E25_6%7E25_8%7E5_Grafik+(iGPU)%7E820_AM4
hab jetzt nur bei Geizhals nachgesehen
ein 3400G Boxed
kostet ca so viel wie ein AMD 5600G Boxed von daher würde ich schon mehr zu 6 Kern mit integrierter Grafik tendieren. LG ;)
Ich hab als Board das MSI Tomahawk B450 MAX und kann da über 8GB "VRAM" zuweißen. (glaube max sind 12GB oder 16GB... gerade unsicher)..habs auf 8 GB und laut Treiber greift es auch
Hatte bei einigen älteren Spielen bei 2, 4 und 8gb ab und an Texturflackern und Fehlfarben. Mit 16gb (48gb gesamt) läuft es soweit fehlerfrei. Unter Windows 10 hatte ich diese Probleme nicht. Allerdings hatte ich mit win manchmal das Problem, dass beim Start der Bildschirm schwarz blieb und das Board einen langen Biep von sich gab. :confused:
Mit Manjaro 21.1 (5.13.11-1) läuft jetzt alles ohne Frickelei.
Btw: Der 5700g sitzt hier in einem ~15 Jahre alten Lian Li Midi Tower ohne Gehäuselüfter und kommt mit dem Noctua NH-L12S auf ~80°C (handbrake, wow, vbox, firefox: ca 80% cpu). Bei Prime drosselt er in dieser Kombi.
Lehdro
2021-08-24, 22:10:45
Gerade im Reddit gefunden, mithilfe eines Hersteller- und Chipsatzfremden(!) UEFIs kann man die eigentlich inkompatible Kombi Crosshair VI Hero und Zen 3 betreiben:
https://www.reddit.com/r/Amd/comments/pahr4c/turns_out_theres_a_way_to_run_zen_3_on_an_asus/
Musste gleich an das passende Meme denken:
Screemer
2021-08-24, 22:18:58
Wird noch besser. Sam und rbar funktioniert mit dem 4.80 BIOS des 450 und agesa 1.2.0.0. leider läuft damit wohl zen3 nicht.
Geeehhht alles technisch nicht 11!!1!
Lehdro
2021-08-25, 15:57:39
Wird noch besser. Sam und rbar funktioniert mit dem 4.80 BIOS des 450 und agesa 1.2.0.0. leider läuft damit wohl zen3 nicht.
Geeehhht alles technisch nicht 11!!1!
Und PCIe 4.0 kann man wohl auch einigen Boards entlocken, obwohl vom Original UEFI verbannt :D
Unter der Hand wurde aber auch öfter mal gesagt warum das "technisch nicht geht" - Druck seitens der Mainboardhersteller. Die wollen, wie bei Intel gewohnt, eher nicht so viel machen müssen im Nachhinein. Verdient man laut den BWlern nämlich nichts dran ;)
Benutzername
2021-08-25, 16:07:57
Und PCIe 4.0 kann man wohl auch einigen Boards entlocken, obwohl vom Original UEFI verbannt :D
Unter der Hand wurde aber auch öfter mal gesagt warum das "technisch nicht geht" - Druck seitens der Mainboardhersteller. Die wollen, wie bei Intel gewohnt, eher nicht so viel machen müssen im Nachhinein. Verdient man laut den BWlern nämlich nichts dran ;)
Naja klar, ein einmal verkauftes Mobo verursacht nur noch Kosten mit der Pflege. Da ist Neuware verkaufen natürlich attraktiver. Daß das technisch natürlich Quatsch ist, weil das Mainboard ja quasi nur noch ein PCI Device ist, daß an der CPU hängt, hilft den nicht vorhandenen Einnahmen ja nicht weiter. Außerdem ist es doch nur eine kleine Minderheit, die tatsächlich CPUs austauscht. Die meisten Leute kaufen ein Mobo und eine CPU zusammen und die bleiben dann auch zusammen. Also warum sich den Aufwand machen, wenn schon die neue RGB blinkende Kollektion in den Regalen steht?
Daredevil
2021-09-06, 12:21:27
Kleiner Erfahrungsbericht zur Arctic Liquid Freezer II 420 mit der "Zen2/3 Befestigung", welcher den Wasserblock eher zum Chiplet versetzt.
Ziel ist ein 5600X@MaxOC leise zu kühlen. PBO Target +200, Curve Optimized, Limits alle offen
SC Takt ~4.750Mhz
MC Takt ~4.575Mhz
Kurzes Fazit: Wahnsinnig gut!
Langes Fazit: Während mein alter schon sehr guter Deepcool Assassin mit 2x140mm Lüfter unter Last gerne mal auf über 1000rpm ging bzw. bei "Maximaler FPU Last" auf 95°C und 1800rpm ( Maximale Umdrehung der Be Quiet Lüfter ), macht die Arctic Kiste das im Schlaf.
Maximale FPU Last für 10 Min
Vorher mit LuKü: Sofort auf über 90°C, Lüfter drehen auf 1500rpm+ und Prozessor drosselt bei 95°C
Jetzt mit WaKü: Sofort bei 85°C, pendelt sich bei 90°C ein, jeder Lüfter dreht bei 300rpm ( Drei 140er für den Radi, 5 fürs Gehäuse )
Natürlich kann ich die Gehäuselüfter als auch Radiator Lüfter schneller drehen lassen als 300rpm, das hier war nur eine Machbarkeitsstudie bei 26°C Raumtemperatur. Also da ist viel Luft nach oben, zumal die Pumpe ja auch weniger läuft.
Also wirklich easy zu kühlen, auch wenn es durch die Chiplet Konstruktion immer noch deutlich schwerer ist wie ein herkömmlicher Die. ( Früher habe ich mal 250w mit ner 420er Aio bei 80°C gekühlt... )
CPUz Single Core Last:
https://abload.de/img/1core0yk9v.png
CPUz Multi Core Last:
https://abload.de/img/12core40jl3.png
AIDA64 FPU Last:
https://abload.de/img/fpu67j3n.png
PS: Die 360er und 420er AIOs von Arctic gibts gerne mal in ihren B-Ware Shop für unter 60€, ein richtiger Schnapper für jeden AM4 Prozessor. :)
Edit:
Kleiner Nachtrag mit voll drehenden Lüftern.
Bei einem Prozessor mit einem Chiplet und ~115w Abgabe beträgt der Temperatur Unterschied zwischenn 300rpm und 1500rpm "nur" 10°C.
https://abload.de/img/screenshot2021-09-06114kul.png
The_Invisible
2021-10-04, 08:24:17
Wird eigentlich noch ein spezieller Ryzen Engergiesparplan benötigt?
Hab mal durch Zufall wieder die Energieeinstellungen aufgemacht und gesehen das es keinen Ryzen Energiesparplan mehr gibt, hab auch nochmal versucht den letzten AMD Chipsatztreiber zu installieren aber nichts.
Mich wundert es nur da laut Ryzen-Master irgendwie die falschen Kerne boosten, früher waren das immer auf CCX0 mit den Sternen markierten, jetzt ist es eher randommäßig immer auf CCX1 bei wenig Kernlast.
Denniss
2021-10-04, 17:24:36
für die 5000er gibt es keinen mehr
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.