PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2/Ryzen 3000 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31

dildo4u
2020-05-20, 13:36:02
?
https://www.computerbase.de/2020-05/zen-3-amd-ryzen-4000-vermeer-x470-b450/
"Ryzen 4000 „Vermeer“: AMD bestätigt Zen 3 auch für X470 und B450"

Der Post war vor der Kurzkorrektur von AMD.

Pirx
2020-05-20, 13:39:16
Der Post war vor der Kurzkorrektur von AMD.
bevor man genaueres wissen konnte einfach mal einen rausgehauen

edit: ok, erst hat AMD was anderes gesagt

BlacKi
2020-05-20, 18:29:40
klingt so als hätten die vergessen den IF bei 3733 händisch einzustellen wodurch das ganze async läuft.
wenn das stimmt müssten doch die werte niedriger als 3200cl 14 sein.

habt ihr den tester mal nach dem genauen testsetup gefragt, ob das asyncronläuft?

ansonsten könnt ihr ja mal bei intel 3200 vs 3600 vergleichen. da sind es auch nur 1%, obwohl das bei intel meiner erfahrung nach ebenfalls mehr sein müssten.

Nur widerspricht LTT den Skalierungsergebnissen von CB in SotTR quasi komplett, ebenfalls mit dem 3900X:
https://youtu.be/7w1EGPZUESU?t=276

Nur durch Timings 22% bessere low fps
dein video zeigt werte mit core OC. und avg framerates von 9,5%. das video lässt aber auch fragen offen, zb. ob der untere balken nicht async lief. und die timings könnten bei 3800 ohne tuning massiv schlechter sein. ich glaub da hat er ein paar sekunden vorher im video ja angedeutet. async laufen die ryzens doch massiv schlechter. schlechter als stock fragezeichen?

vermutlich lief das untere setup 3800 im 1:2 async mode mit xmp und niedriegeren core clocks.

das video liefert auch 3200cl16 werte. 133fps. deren dram tuning + core oc hat ganze 12% fps gebracht. bei CB im test stehen hier 23% mehr fps an.

Opprobrium
2020-05-20, 19:19:35
Man fragt sich wirklich manchmal, was diese ganzen Hardwaretester beruflich machen :rolleyes:

dildo4u
2020-05-20, 19:21:27
Der Test kommt nicht vom Computerbase Team, aber natürlich ihre Schuld das sie das ohne Doppel Check Posten.

aufkrawall
2020-05-20, 19:41:33
dein video zeigt werte mit core OC.

1. Nein. Oder wo wird das erwähnt?
2. Wär bei Ryzen eh nicht viel.
3. Was würde es zudem für einen Unterschied machen?


und avg framerates von 9,5%.

1080p GPU-Limit.


das video lässt aber auch fragen offen, zb. ob der untere balken nicht async lief.

??
DDR4-3800 FCLK 1900
Nix async, nur Timings.


und die timings könnten bei 3800 ohne tuning massiv schlechter sein.

Was sind sie wohl bei dem CB-Test mit 3200 JEDEC CL22, wo die Skalierung mit angeblich angezogenen Subtimings seltsamerweise kaum vorhanden ist?


vermutlich lief das untere setup 3800 im 1:2 async mode mit xmp und niedriegeren core clocks.

Warum zur Hölle sollte es möglich sein, 1:2 async zu betreiben? Ich seh in dem Video keine Option extra für Sync und es wird auch nichts erwähnt. Also gehe ich mal stark davon aus, dass auch bei Asus das Verhältnis von 1:2 immer automatisch synchron ist bzw. sich das technisch immer allgemein so ergibt...


das video liefert auch 3200cl16 werte. 133fps. deren dram tuning + core oc hat ganze 12% fps gebracht. bei CB im test stehen hier 23% mehr fps an.
Junge, nein. Es sind 87fps Minimum vs. 106fps Minimum, der Rest ist wieder GPU-Limit...

Wer bezahlt mich hierfür, srsly...

BlacKi
2020-05-20, 20:26:04
1. Nein. Oder wo wird das erwähnt?
2. Wär bei Ryzen eh nicht viel.
3. Was würde es zudem für einen Unterschied machen?

https://abload.de/thumb/1owkfp.png (https://abload.de/image.php?img=1owkfp.png)
er hat im video vorher erklärt das man händisch pro core mehr erfolg hat.




??
DDR4-3800 FCLK 1900
Nix async, nur Timings.

na klar, er erklärt doch das ab 3600 automatisch der if async läuft. hier:
https://youtu.be/7w1EGPZUESU?t=188




Was sind sie wohl bei dem CB-Test mit 3200 JEDEC CL22, wo die Skalierung mit angeblich angezogenen Subtimings seltsamerweise kaum vorhanden ist?

die frage kannst du auch dem video stellen das du gepostet hast. 2% bessere frametimes von 2666cl18 auf 3200 cl14? siehe pic oben im post.
beide werte schrott? oder sind noch mehr werte misst?
intel skaliert ebenfalls nicht gut 3200vs3600 bei CB.



Warum zur Hölle sollte es möglich sein, 1:2 async zu betreiben? Ich seh in dem Video keine Option extra für Sync und es wird auch nichts erwähnt. Also gehe ich mal stark davon aus, dass auch bei Asus das Verhältnis von 1:2 immer automatisch synchron ist bzw. sich das technisch immer allgemein so ergibt...

auch hier die antwort https://youtu.be/7w1EGPZUESU?t=188

aufkrawall
2020-05-20, 22:10:22
https://abload.de/thumb/1owkfp.png (https://abload.de/image.php?img=1owkfp.png)
er hat im video vorher erklärt das man händisch pro core mehr erfolg hat.

Er sagt genau vor den RAM-Tweaks: "Before we get into the nitty gritty on overclocking the chip itself, we need to talk about memory."
Da kommt bis zu der von mir verlinkten Stelle genau gar kein Hinweis, dass die CPU abseits von der IF selbst übertaktet gewesen wäre und die Charts dort irgendetwas anderes als "CL16" vs. "OC" (auf die Timings bezogen) darstellen würden. Da muss man vielleicht auch mal richtig zuhören oder sonst wie sein Hirn einschalten, wenn das "OC" im oberen Chart schon neben der RAM-Geschwindigkeit anstelle von "CL16" steht und sonst wie keinerlei Hinweis zu einer Verbindung zum Takt der CPU-Cores gegeben ist...

Außerdem steht da exakt NULL zum CPU-Takt. Als ob irgendein Reviewer irgendeinen ominösen Overclock-CPU-Takt einstellen würde und den dann genau NIRGENDSWO erwähnen würde. Echt mal, was ist das hier...


na klar, er erklärt doch das ab 3600 automatisch der if async läuft. hier:
https://youtu.be/7w1EGPZUESU?t=188

Er hat die IF händisch auf 1,9GHz gestellt für die 3800MHz RAM-Takt FFS!
Entweder, die IF läuft mit 1:2 Takt des effektiven RAM-Takts und ist somit synchron, oder halt nicht...


die frage kannst du auch dem video stellen das du gepostet hast. 2% bessere frametimes von 2666cl18 auf 3200 cl14? siehe pic oben im post.

Na und? Evtl. limitieren die Sub Timings den Rest. Ist auch wurst, weil schon dargo und ich selbst überprüft haben, dass bereits bloßes Sub Timing-Tuning vs. 3200 CL14 XMP2 schon ~15% bringen.


intel skaliert ebenfalls nicht gut 3200vs3600 bei CB.

Und was hat das mit dem Ryzen zu tun?
Kann natürlich sein, dass auch die Intel-Ergebnisse ungültig sind, wenn schon offenkundig andere Fehler unterlaufen.


auch hier die antwort https://youtu.be/7w1EGPZUESU?t=188
Siehe oben...

BlacKi
2020-05-20, 22:28:58
die diskussion ist mir zu doof. alles auf das ich hinauswollte ist, das die werte im video komisch aussehen wie bei CB. oder es ist eben die benchszene die die werte verreißt. genau wie bei den intel werten.

Joker (AC)
2020-05-21, 13:42:15
Ja, da stimmt was nicht.

Hab mit "unoptimierten" Hynix @ 16-19-19-39 (IF 1866) @ ohne PBO (Knapp um 4100) LuKü nach gebencht und komme auf leicht unterschiedliche (bessere) Ergebnisse, wie es die 14-14-15-14-34-1T bei 4200- 4300 suggerieren wollen.
Ich denke, die haben als Intel-Freaks die Daisy-Chain unterschätzt.
Hab selber allerfeinste 4X8GB B-Dies kaum zum laufen bekommen.

Aber die werden halt schnell pampig, wenn man sie mit der Nase drauf stößt, das sie Stunden umsonst in den Sand gesetzt haben.
Statt "Fame" Häme :biggrin:

dildo4u
2020-05-21, 16:35:40
B550 Lineup von MSI, Gigabyte, Asus und ASRock.

MSI
https://www.techpowerup.com/267482/msi-announces-its-b550-motherboard-family

Asus
https://www.techpowerup.com/267480/asus-announces-its-b550-motherboard-series-rog-tuf-gaming-and-prime

Gigabyte https://www.gigabyte.com/Motherboard/AMD-B550

asrock
https://www.techpowerup.com/267478/asrock-launches-amd-b550-motherboard-range

M4xw0lf
2020-05-21, 16:55:27
mATX! mATX! :usweet:

Ex3cut3r
2020-05-21, 17:00:13
Sehen gut aus IMO.

josefYY
2020-05-22, 01:19:47
Ich habe da mal eine Frage.
Ich vermute die wurde hier in diesem Thread bestimmt schon mal gestellt und beantwortet aber ich wüsste nicht wie ich das wiederfinden soll.

Habe seit kurzem einen Ryzen 3700X.
Was mir aufällt und was ich als sehr lästig empfinde ist das ständige Beschleunigen und Entschleunigen des Kühlers.
Während ich diese Zeilen tippe ist die CPU zwischen 1-5%.
Der CPU-Takt hingegen schwankt ständig zwischen 3 und 4 GHz hin und her.
Keine zwei Sekunden in denen der Takt mal konstant ist.
Und das selbe gilt auch für den Ventilator des Kühlers.

Kann man das irgendwie abstellen? Von mir aus kann die CPU konstant an unteren Ende takten solange ich die Last unter 50% beträgt.

Daredevil
2020-05-22, 01:27:48
Du kannst ja fürs erste im Bios einstellen, dass der Lüfter nicht so aggressiv hochdreht.
Ansonsten ist das halt das typische Boost verhalten. Wenn die Kiste nur leicht belastet wird, spart sie kein Strom, sondern boostet die wenigen Kerne auf Maximalgeschwindigkeit, solange die Temperatur da mitspielt.
Deswegen bin ich persönlich auch kein Fan von PBO/Boost.

Mit PBO Max siehts bei mir so aus:
Wenig Last > 1.5v @4.2-4.3Ghz
Viel Last > 1.3v @3.9-4.1Ghz

Mein fest gesetztem Takt/Voltage siehts so aus:
Wenig Last > 1.4v@4.15Ghz
Viel Last > 1.4v@4.15Ghz

SingleCore verschlechtert, Multicore verbessert... AAAABER wenn ich Rocket League zocke, braucht der Prozessor halt keine 60-80w in Boostet auf 1.5v hoch, sondern bliebt eher bei 50-60w, ist im Idle und bei leichter Belastung also konstant sparsamer.

Alternativ schmeiß doch einfach mal den Ryzen Master an und limitier die Stromzufuhr, die sich dein Prozessor gönnen darf. Dann geht er bei leichter Belastung auch nicht so Harakiri mäßig hoch, ich kenne das auch von meinem Kühler. ^^

Ex3cut3r
2020-05-22, 01:43:25
Probier mal den Energieplan von sz_cb V4.

https://www.computerbase.de/forum/threads/energiesparplan-zen2-ryzen-3000.1934824/

Gumril
2020-05-22, 12:26:58
Interessant scheinen die ersten Mainbords zu sein die HDMI 2.1 Unterstützen und damit noch vor den Grafikkarten.
Könnte bei guten Preis mal ein Update von meinem Athlon 5350 HTPC bedeuten.

Daredevil
2020-05-22, 12:33:15
Oh was? HDMI 2.1? Geilo!
Man kann bei Windows doch das GPU Signal durch den Onboard schleifen, ob man damit dann mit ner APU 4K/120hz gezaubert bekommt auf ner 2.0 dGPU? :O

The latest HDMI 2.1 standard supports 4K display with up to 4096x2160@60Hz for the most immersive graphic experience.
So ganz richtig ist das aber nicht.... entweder HDMI 2.0b, oder 8k@60hz.

Der_Korken
2020-05-22, 13:14:44
B550 Lineup von MSI, Gigabyte, Asus und ASRock.

MSI
https://www.techpowerup.com/267482/msi-announces-its-b550-motherboard-family

Asus
https://www.techpowerup.com/267480/asus-announces-its-b550-motherboard-series-rog-tuf-gaming-and-prime

Gigabyte https://www.gigabyte.com/Motherboard/AMD-B550

asrock
https://www.techpowerup.com/267478/asrock-launches-amd-b550-motherboard-range

Die Aorus-Boards haben alle einen Anschluss für einen Thermal-Sensor. Finde ich sehr gut, da ich den auf meinem Board nutze, um die Luft-Temperatur zu messen und die Gehäuselüfter danach zu regeln. Leider ist das ein seltenes Feature, sodass man bei den X570er Boards direkt das 300-Euro-Modell bei Gigabyte kaufen muss, auch wenn der dritte M2-Slot mit Kühlung und die Über-VRMs mangels OC-Sinnhaftigkeit überhaupt nicht interessieren.

MDG
2020-05-22, 13:21:42
Neue Chipsatztreiber verfügbar: 2.05.04.352 WHQL [04/05/2020]
Quelle: https://rog.asus.com/forum/showthread.php?118343-DRIVERS-AMD-Chipset-SATA-(3xx-4xx-5xx)

Bitte beachten: Es handelt sich um einen Upload auf Mega. Ein Scan auf virustotal hat einen Fall von 68 gefunden. Denke aber, es ist ein false-positiv.
All credits to MoKiChU

Gumril
2020-05-22, 15:48:16
Oh was? HDMI 2.1? Geilo!
Man kann bei Windows doch das GPU Signal durch den Onboard schleifen, ob man damit dann mit ner APU 4K/120hz gezaubert bekommt auf ner 2.0 dGPU? :O


So ganz richtig ist das aber nicht.... entweder HDMI 2.0b, oder 8k@60hz.


Scheint noch ein Misch Masch zu sein laut Asrock gibt es beim Displayport 1.4 auch eher eine Mischung aus 1.3 und 1.4.
Vielleicht kann auch Ryzen 3 Vega noch nicht die vollen Specs von HDMI 2.1 oder DP 1.4.

- Supports HDMI 2.1 with max. resolution up to 4K x 2K (4096x2160) @ 60Hz
- Supports DisplayPort 1.4 with max. resolution up to 5K (5120x2880)@120Hz
- Supports Auto Lip Sync, Deep Color (12bpc), xvYCC and HBR (High Bit Rate Audio) with HDMI 2.1 Port (Compliant HDMI monitor is required)
- Supports HDR (High Dynamic Range) with HDMI 2.1
- Supports HDCP 2.3 with HDMI 2.1 and DisplayPort 1.4 Ports
- Supports 4K Ultra HD (UHD) playback with HDMI 2.1 and DisplayPort 1.4 Ports

josefYY
2020-05-22, 16:55:50
Du kannst ja fürs erste im Bios einstellen, dass der Lüfter nicht so aggressiv hochdreht.
Ansonsten ist das halt das typische Boost verhalten. Wenn die Kiste nur leicht belastet wird, spart sie kein Strom, sondern boostet die wenigen Kerne auf Maximalgeschwindigkeit, solange die Temperatur da mitspielt.
Deswegen bin ich persönlich auch kein Fan von PBO/Boost.

Mit PBO Max siehts bei mir so aus:
Wenig Last > 1.5v @4.2-4.3Ghz
Viel Last > 1.3v @3.9-4.1Ghz

Mein fest gesetztem Takt/Voltage siehts so aus:
Wenig Last > 1.4v@4.15Ghz
Viel Last > 1.4v@4.15Ghz

SingleCore verschlechtert, Multicore verbessert... AAAABER wenn ich Rocket League zocke, braucht der Prozessor halt keine 60-80w in Boostet auf 1.5v hoch, sondern bliebt eher bei 50-60w, ist im Idle und bei leichter Belastung also konstant sparsamer.

Alternativ schmeiß doch einfach mal den Ryzen Master an und limitier die Stromzufuhr, die sich dein Prozessor gönnen darf. Dann geht er bei leichter Belastung auch nicht so Harakiri mäßig hoch, ich kenne das auch von meinem Kühler. ^^
Danke erst einmal!

Ryzen Master habe ich nun installiert. Aber irgendwie schüchtert mich das ein. Hab keinen Plan davon wo ich weiss einstellen kann.
Wo kann ich denn da Stromzufuhr limitieren? Habe da nichts gefunden.

Im Moment habe ich mir damit beholfen in Windows den Energiesparmodus auszuwählen.
Die CPU läuft jetzt durchgehend mit 2,2 GHz und taktet auch bei Spieln nicht rauf.
Das ist im Moment nicht weiter schlimm, weil selbst mit 2,2 GHz meine Grafikkarte (Nvidia 1060) limitiert.

Aber auf Dauer ist das natürlich keine praktikable Lösung.

josefYY
2020-05-22, 17:04:41
Probier mal den Energieplan von sz_cb V4.

https://www.computerbase.de/forum/threads/energiesparplan-zen2-ryzen-3000.1934824/
Danke!

Ist auf jeden Fall deutlich besser als zuvor!
Zuvor hat er selbst bei grad mal 2-5% Last bis auf 4GHz hochgetaktet.
Jetzt bleibt der konstant bei 3,17 GHz und taktet nur bei Last richtig hoch.
Wobei der Takt im Idle mit 3,17 GHz immer noch unnötig hoch ist.

w0mbat
2020-05-22, 17:16:09
Der "Energiesparplan" verhunzt dir alles, Ryzen läuft @stock am besten. Du solltest nichts auf die GHz Anzeige geben, der Taktet sich so schnell hoch und runter, da bekommst du keine gescheiten Werte.

aufkrawall
2020-05-22, 17:31:57
Trotzdem würd ich mal checken, obs mit Windows-ausbalanciert auf 1,6GHz runter geht. Wenn nicht, dürfte etwas mit den Pstates nicht korrekt funktionieren.

B@ndit
2020-05-22, 17:45:47
ja, der Meinung bin ich auch. Die Taktwechsel die Ryzen 3 intern macht sind zu schnell und komplex, als dass man da mit Energiesparplänen oder Tools etwas verändern sollte. An sich ist es ja kein Problem wenn der Prozessor kurz sehr hoch Taktet um damit kleine Aufgaben schnell abgearbeitet zu bekommen. Was natürlich stimmt: Mit weniger aggresivem Boostverhalten könnte der PC sparsamer sein, aber ob das am Desktop so wichtig ist?

Das eigentliche Problem ist ja der CPU Lüfter. Bei den meisten Boards kann man dessen Steuerung im Bios konfigurieren. Ich hab einfach die Lüfterkurve so eingestellt, dass der Lüfter bis ca. 50 Grad bei gleicher Drehzahl bleibt und wenn er mal hochgeht erst nach einer bestimmten Zeit wieder runter dreht. Damit erreicht man eine konstante Lüftergeschwindkeit. Wie schnell die optimalerweise ist muss man halt abhängig vom eigenen Lüfter und der Temperatur selbst herausfinden.

FlappyStompy
2020-05-22, 18:42:14
Hallo Alle, vielen Dank für euren Input zum Test auf ComputerBase ;) Freut mich. Natürlich ist der IF mit 1866 MHz gelaufen bei 3733 MHz RAM. Und die Timings sind ordentlich optimiert, könnt ihr mittlerweile im Artikel sehen. Die Screenshots zu 3200CL14 und 3600CL16 zeigen, wie im Test beschrieben, die vorgegebenen Timings. Die anderen Timings wurden auf beiden Systemen automatisch trainiert. Übrigens sind 4x8 auf nem Ryzen-System vielleicht zickiger, waren hier aber nicht das Hindernis. Das war der IF-Takt.

Ich kann die Kritik zu den verschiedenen Systemkonfigurationen verstehen, aber es war eben nicht anders für uns zu lösen. Wir werden uns nächstes mal um gleiche Hardware wo möglich bemühen. Kurz meine Meinung zu den Unterschieden:
- Die SSDs sind allesamt schnell genug, vor allem für die Transfers die solche Spiele verursachen.
- Die Kühllösungen auf beiden Prozessoren waren mehr als ausreichend und für die 5 GHz (vor allem im Spielbetrieb) wäre die Custom-Loop und das Direct-Die-Frame absolut nicht nötig gewesen.
- Die Unterschiede bei den Grafikkarten sind völlig egal, weil ein paar MHz mehr Takt im CPU-Limit nicht ankommen
- Wie stark die Netzteile sind, ist nicht erheblich. Die 500 Watt fürs Ryzen-System haben dicke ausgereicht

Verbrauchsmessungen haben wir uns geklemmt, weil das sehr teures Equipment erfordert und extrem zeitaufwändig ist, wenns ordentlich werden soll. Sensor-Logs haben wir zwar, aber die Werte sind auch nicht mehr als ein grober Fingerzeig.

Die Unterschiede bei den SoTR-Ergebnissen scheinen von neueren Spieleversionen herzurühren, die mit Änderungen bei Schatten und Sichtweite daherkommen, die bei AMD-Prozessoren ordentlich Leistung kosten.

Vielleicht auch noch als Hinweis: Joker (AC) vergleicht bei seinen "Benches" die falschen Werte und kommt seit nem Tag nicht mit den Werten aus CapFrameX um die Ecke. Der Ingame-Bench von Far Cry 5 gibt als min fps die P95-Werte aus, wir haben P99.8 angegeben.

Die absolute Wahrheit kann so ein Test mit Spiele- und Szenenauswahl sowieso nicht abbilden, aber die Tendenz, dass man den Intel besser ausquetschen kann, die kann man denke ich sehen. Das und nicht mehr war der Grund für den Test -- und so steht's auch im Fazit. So ausquetschen wird aber nicht gehen, wenn man keine Ahnung hat. Deshalb haben wir den 9900K klar als Enthusiasten-Produkt bezeichnet. Vor allem für so jemanden ergibt der Prozessor richtig Sinn.

aufkrawall
2020-05-22, 19:03:22
Die Unterschiede bei den SoTR-Ergebnissen scheinen von neueren Spieleversionen herzurühren, die mit Änderungen bei Schatten und Sichtweite daherkommen, die bei AMD-Prozessoren ordentlich Leistung kosten.

Das letzte Spiel-Update ist von November und es ist unwahrscheinlich, dass Spiele-Updates nur bestimmte CPUs benachteiligen. Und erklärt auch nicht die ausbleibende Skalierung.

Ex3cut3r
2020-05-22, 19:03:30
Danke!

Ist auf jeden Fall deutlich besser als zuvor!
Zuvor hat er selbst bei grad mal 2-5% Last bis auf 4GHz hochgetaktet.
Jetzt bleibt der konstant bei 3,17 GHz und taktet nur bei Last richtig hoch.
Wobei der Takt im Idle mit 3,17 GHz immer noch unnötig hoch ist.

Jap, das Profil ist der Hammer. Mich hat es auch extrem genervt. Bei mir taket er tiefer als 3,17ghz. :confused:

Config:
3700X
X570 Aorus Pro
1TB PCIe 4.0 NVME
32Gig Ram
RTX 2080

Joker (AC)
2020-05-22, 19:07:00
Vielleicht auch noch als Hinweis: Joker (AC) vergleicht bei seinen "Benches" die falschen Werte und kommt seit nem Tag nicht mit den Werten aus .
Da kann ich dich beruhigen, die hat er. Und einen Screen auch (mit Zeitstempel, allerdings meine Silent UEFI Einstellung, weil offen)
Selbst wann ich den CX runtergeladen und entpackt habe, kann ich belegen. (selbst das wäre schlüssig)
CX hatte ich nie installiert - und auch nicht so sattelfest wie ihr, darum ja der originale Ingame. Dann nehmen wir doch einfach den vom Verangry, unabhängig Score (Sondern nur Toleranzen)
Screens Verangry
AVG CX: 147 ----> AVG im FC5 146
Min CX: 110 ----> min im FC5 109

Genau die Toleranz hab ich mit leichten Schwankungen auch (CX=Ingame)
Und dann schaust du auf beim Ingame ohne Ramtuning und Takt Nachteil (LuKü u PBO off) meinen 1. Screen.
Um mehr ging es nie.
Scheiße werfen will gelernt sein :wink:

qiller
2020-05-22, 19:14:38
Hallo Alle, vielen Dank für euren Input zum Test auf ComputerBase ;) Freut mich. Natürlich ist der IF mit 1866 MHz gelaufen bei 3733 MHz RAM. Und die Timings sind ordentlich optimiert, könnt ihr mittlerweile im Artikel sehen. Die Screenshots zu 3200CL14 und 3600CL16 zeigen, wie im Test beschrieben, die vorgegebenen Timings. Die anderen Timings wurden auf beiden Systemen automatisch trainiert. Übrigens sind 4x8 auf nem Ryzen-System vielleicht zickiger, waren hier aber nicht das Hindernis. Das war der IF-Takt.

Ich kann die Kritik zu den verschiedenen Systemkonfigurationen verstehen, aber es war eben nicht anders für uns zu lösen. Wir werden uns nächstes mal um gleiche Hardware wo möglich bemühen. Kurz meine Meinung zu den Unterschieden:
- Die SSDs sind allesamt schnell genug, vor allem für die Transfers die solche Spiele verursachen.
- Die Kühllösungen auf beiden Prozessoren waren mehr als ausreichend und für die 5 GHz (vor allem im Spielbetrieb) wäre die Custom-Loop und das Direct-Die-Frame absolut nicht nötig gewesen.
- Die Unterschiede bei den Grafikkarten sind völlig egal, weil ein paar MHz mehr Takt im CPU-Limit nicht ankommen
- Wie stark die Netzteile sind, ist nicht erheblich. Die 500 Watt fürs Ryzen-System haben dicke ausgereicht

Verbrauchsmessungen haben wir uns geklemmt, weil das sehr teures Equipment erfordert und extrem zeitaufwändig ist, wenns ordentlich werden soll. Sensor-Logs haben wir zwar, aber die Werte sind auch nicht mehr als ein grober Fingerzeig.

Die Unterschiede bei den SoTR-Ergebnissen scheinen von neueren Spieleversionen herzurühren, die mit Änderungen bei Schatten und Sichtweite daherkommen, die bei AMD-Prozessoren ordentlich Leistung kosten.

Vielleicht auch noch als Hinweis: Joker (AC) vergleicht bei seinen "Benches" die falschen Werte und kommt seit nem Tag nicht mit den Werten aus CapFrameX um die Ecke. Der Ingame-Bench von Far Cry 5 gibt als min fps die P95-Werte aus, wir haben P99.8 angegeben.

Die absolute Wahrheit kann so ein Test mit Spiele- und Szenenauswahl sowieso nicht abbilden, aber die Tendenz, dass man den Intel besser ausquetschen kann, die kann man denke ich sehen. Das und nicht mehr war der Grund für den Test -- und so steht's auch im Fazit. So ausquetschen wird aber nicht gehen, wenn man keine Ahnung hat. Deshalb haben wir den 9900K klar als Enthusiasten-Produkt bezeichnet. Vor allem für so jemanden ergibt der Prozessor richtig Sinn.


Die Begründung für die schlechtere Speicher-Skalierung in SOTTR beim Ryzen-System überzeugt mich noch nicht. Wir haben hier deutlich stärkere Speicher-Skalierungen mit Zen2 festgestellt. Wann sollen denn diese Spielversionen ausgerollt worden sein? Gibts dazu irgendwo Infos?

Aber abseits davon hab ich zumindest nie bezweifelt, dass Intel stärker durch RAM-OC profitiert. Dazu muss man ja noch nichtmal benchen, allein die Theorie bestärkt diesen Fakt. RAM-OC bei Zen 2 hört quasi bei 3800MHz auf, bei Intel geht das noch deutlich über 4000MHz hinaus. Intel nutzt ein monolithisches Design mit kleineren Caches, RAM-OC schlägt hier direkt durch. Auch der bessere IMC tut sein übriges. Zen 2 hingegen versucht RAM-Zugriffe mit seinem größeren Cachesystem zu minimieren, weil RAM-Zugriffe immer den Umweg über den IO-Die+IF nehmen müssen -> höhere RAM-Latenzen, die relativ gesehen nicht nur allein vom RAM kommen, sondern eben vom Chiplet-Aufbau. Die Latenzen durch das Chiplet-Design kann man praktisch nur durch ein Erhöhen der IF-Taktfrequenzen verringern. Und das eben auch nicht unendlich - bei 1900MHz IF ist quasi Schluss. Wenn AMD mit Zen3 was tunen muss, dann ist es ganz klar der IF und die Auflösung der CCX<->IO-DIE<->CCX-Kommunikation durch einen größeren 8-Kern "CCX/CCD" (was ja quasi schon halb bestätigt worden ist).

Daredevil
2020-05-22, 19:16:16
Wobei der Takt im Idle mit 3,17 GHz immer noch unnötig hoch ist.
Hoher Takt bedeutet nicht gleichzeitig, dass die CPU auch viel Strom unnötig verbraucht.
CPUs können auch bei wenig/keiner Auslastung den Takt oben halten und trotzdem nicht zum Strommonster werden.

Beispiel mein 2700X, wo Fix 4.2Ghz anliegen mit relativ hohen 1.4v
Da werden im Idle trotzdem "nur" ~30w verbraucht.
https://abload.de/img/unbenannt36jz7.png

Das mag zwar immer noch viel sein für einen Prozessor, der im Idle ist, die Ersparnis thermisch als auch Kostenmäßig ist aber *stark vernachlässigbar, auch wenn es 10w weniger wären.

*
Es sei denn, deine Kiste läuft 24/7. :D
Mein Mining Rig tut dies, deswegen ist da auch ein Intel Dual Core drin, der um die 2-5w verbraucht.

Ex3cut3r
2020-05-22, 19:42:25
Idle Stromverbrauch mit X570 ist bei mir auch viel zu hoch, im Vergleich zum 10W Haswell Plattform. Hier muss AMD beim Nachfolger besser werden. 50-70W sind unakzeptabel fürs Nix Tun.

Joker (AC)
2020-05-22, 19:54:39
Stromverbrauch mit X570
:redface: hör auf- und ich hab mir eben noch eins gekauft und bereue das jetzt schon ;(

josefYY
2020-05-22, 20:12:20
Der "Energiesparplan" verhunzt dir alles, Ryzen läuft @stock am besten. Du solltest nichts auf die GHz Anzeige geben, der Taktet sich so schnell hoch und runter, da bekommst du keine gescheiten Werte.

Mir geht es auch nicht darum ob die CPU hochtaktet.
Das Problem ist das mit der CPU auch der Lüfter ständig hochdreht.
Ist ein ständiges auf und ab mit dem Lüfter. Bei einer CPU-Last von 2%.

Trotzdem würd ich mal checken, obs mit Windows-ausbalanciert auf 1,6GHz runter geht. Wenn nicht, dürfte etwas mit den Pstates nicht korrekt funktionieren.

Bei ausbalanciert und 1% Last, ausser dem Browser ist nichts offen, schwankt der CPU-Takt ungefähr bei 3 GHz.

Wo stellt man diese Pstates ein? Und wie wären sie korrekt?


Jap, das Profil ist der Hammer. Mich hat es auch extrem genervt. Bei mir taket er tiefer als 3,17ghz. :confused:

Config:
3700X
X570 Aorus Pro
1TB PCIe 4.0 NVME
32Gig Ram
RTX 2080

Config:
3700X
MSI B450 Tomahawk
Samsung SSD 970 EVO
32 Gig Ram
NVidia 1060

Hoher Takt bedeutet nicht gleichzeitig, dass die CPU auch viel Strom unnötig verbraucht.
CPUs können auch bei wenig/keiner Auslastung den Takt oben halten und trotzdem nicht zum Strommonster werden.

Mir gehts es gar nicht mal um den Stromverbrauch, sondern der CPU-Lüfter ist es der nervt.
Die Geschwindigkeit von dem scheint mit dem CPU-Takt zu korrelieren.

mironicus
2020-05-22, 20:25:00
Idle Stromverbrauch mit X570 ist bei mir auch viel zu hoch, im Vergleich zum 10W Haswell Plattform. Hier muss AMD beim Nachfolger besser werden. 50-70W sind unakzeptabel fürs Nix Tun.

Renoir-Laptop über HDMI an PC-Bildschirm sollte schon stromsparend sein, auf dieser Basis sollten Hersteller auch Mini-PCs bauen, damit sollte idle bei unter 10 Watt möglich sein.

w0mbat
2020-05-22, 20:29:18
Mir geht es auch nicht darum ob die CPU hochtaktet.
Das Problem ist das mit der CPU auch der Lüfter ständig hochdreht.
Ist ein ständiges auf und ab mit dem Lüfter. Bei einer CPU-Last von 2%.
Das liegt an einem zu aggressivem Lüfterprofil. Schau mal ab welcher Temp die Lüfter hochdrehen, dann schau wie warm der Ryzen bei kurzen Lastwechseln wird und dann setzt das Profil so hoch, dass sich dort noch nichts rührt.

FlappyStompy
2020-05-22, 20:56:02
@aufkrawall Muss es ja auch nicht geben. Es ist ja nicht gesetzt, dass der RAM bremst. Ich bin jedenfalls zuversichtlich, dass meine Werte passen. Die Leute aus cm87s Ryzen Discord haben validieren geholfen.

@Joker (AC) Na, dann war es ja mal glatt gelogen, dass Du nen CX-Bench in Far Cry 5 gemacht hättest. Und wenn Du Dir die Ergebnisse von Verangry anguckst, dann siehst Du auch: Die durchschnittlichen Bilder pro Sekunde sind mehr oder weniger identisch, aber die min eben nicht. Das was Far Cry 5 da ausgibt ist nicht wirklich das Minimum, sondern P99. P99.8 ist bei Verangry auch nochmal ein gutes Strück drunter mit 101.1 fps (vs. 110fps). Ich werfe hier nicht mit "Scheiße" sondern finde extrem unverschämt, wie Du Dich da in die Diskussion eingebracht hast -- Entrüstung inklusive, als ich die Ergebnisse von Dir haben wollte. Und den gleichen Senf hier noch zu Posten... naja, kann jetzt sich jetzt ja jeder sein Bild machen. Die Ergebnisse von Verangry, auf die sich hier bezogen wird, gibts an dieser Stelle (https://www.computerbase.de/forum/threads/cpu-spieleleistung-im-test-intel-core-i9-9900k-vs-amd-ryzen-9-3900x-mit-ram-oc.1946614/page-44).

@qiller Ich hab Dir hier mal zwei Benches in SoTR angehängt, die aus dem Ingame-Bench stammen. Sind von Verangry aus ComputerBase. Da ist sehr klar zu sehen, dass mit einem Patch die Leistung ganz schön getankt hat. Außerdem hat Verangry einen Screenshot zu den Unterschieden in der Darstellung in beiden Versionen gemacht. Wie alt sind denn eure Benches?

Unterschiede (https://abload.de/image.php?img=sottr_version_differermkht.jpg)
Bench 1 (https://abload.de/image.php?img=unknown-281jfb.png)
Bench 2 (https://abload.de/image.php?img=unknown5dktj.png)

Sind beide mit dem gleichen RAM-OC erstellt. Verangry fährt ne 1080Ti und 2x16GB für die Benches bei 3733 16-16-19-16-38-58-1T(GDM) mit tRFC 540. Ich hab das Testsystem leider nicht mehr und kann deshalb selbst nicht mehr weitersuchen/nachtesten, das hat mir ein anderer Leser gestellt.

aufkrawall
2020-05-22, 20:56:42
Bei ausbalanciert und 1% Last, ausser dem Browser ist nichts offen, schwankt der CPU-Takt ungefähr bei 3 GHz.

Bei Bro mit 3600X gehts auf 2200MHz runter. Bietet jemand weniger? Bei Ryzen 1k/2k waren noch 1,6GHz das Minimum.
3GHz dürften also auf jeden Fall nicht normal sein.
Idle-Package ist ~20W mit ausbalanciert vs. 23W mit Höchstleistung.

Bez. Pstates: Hast du manuell die Spannung eingestellt? Bei Ryzen 1k/2k gingen dabei ohne CBS (hat nicht jedes Board) die beiden unteren Pstates kaputt.
Keine Ahnung, wie das bei Ryzen 3k ist. Bei ASRock CBS für Ryzen 3k kann man jedenfalls nur noch den höchsten Pstate anpassen.

qiller
2020-05-22, 22:10:58
...
@qiller Ich hab Dir hier mal zwei Benches in SoTR angehängt, die aus dem Ingame-Bench stammen. Sind von Verangry aus ComputerBase. Da ist sehr klar zu sehen, dass mit einem Patch die Leistung ganz schön getankt hat. Außerdem hat Verangry einen Screenshot zu den Unterschieden in der Darstellung in beiden Versionen gemacht. Wie alt sind denn eure Benches?

Unterschiede (https://abload.de/image.php?img=sottr_version_differermkht.jpg)
Bench 1 (https://abload.de/image.php?img=unknown-281jfb.png)
Bench 2 (https://abload.de/image.php?img=unknown5dktj.png)

Sind beide mit dem gleichen RAM-OC erstellt. Verangry fährt ne 1080Ti und 2x16GB für die Benches bei 3733 16-16-19-16-38-58-1T(GDM) mit tRFC 540. Ich hab das Testsystem leider nicht mehr und kann deshalb selbst nicht mehr weitersuchen/nachtesten, das hat mir ein anderer Leser gestellt.

Danke dir, die Unterschiede sind ja in der Tat nicht ohne.

Hier sind die Benches von dargo. Der hat sich da ziemlich penibel reingekniet (vor allem wegen Reproduzierbarkeit) und irgendwelche Ingamebenches vermieden:

Zusammenfassung inkl. Timings: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12218445#post12218445
SOTTR: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12206739#post12206739

Allein von 3200CL14@XMP auf 3200CL14@Fast-DRAMCalc-Profil kommt dargo auf fast 14% in den 1% Lows bei SOTTR. Und die Benches sind vom Februar.

FlappyStompy
2020-05-22, 22:18:14
@qiller Alles klar, vielen Dank für die Vergleichswerte. Wir haben die PCGH-Benchszene hergenommen. 25 Sekunden ist die lang. Und wir haben in 720p mit Ultra-Settings gebencht, das sieht bei den Ergebnissen von dargo irgendwie nicht so aus. Kann das sein? Die zwei Sachen könnten erklären, warum die Ergebnisse so differieren.

Edit: Unser 3200CL14 ist ja mehr ein XMP-Plus. Wir haben die Primär- und Sekundärtimings vorgegeben, und den Rest automatisch trainieren lassen, damit kein System besonders bevorteilt wird. Intel hat ein paar Stellschrauben, die es bei AMD nicht gibt (RTL, IOL, tREFI), wenigstens RTL und IOL bringen "viel" bei der Speicherlatenz.

qiller
2020-05-22, 22:30:50
3GHz dürften also auf jeden Fall nicht normal sein.

Bei mir sinds 3.4GHz. Und warum auch weiter runtertakten, es dauert nur länger, bis die CPU wieder in ihre höheren PStates geht - die CPU wird träger. Niedrigere Taktfrequenzen allein verringern auch nicht die Leistungsaufnahme, das sind die Spannung und der Strom. Und bei letzteren helfen eben die C-States. Das Problem ist nur, dass die Balanced-Profile leider extrem empfindlich sind und schon bei der kleinsten Microlast direkt Full-Boost anlegen. Und leider besteht ein heutiges Win10 schon in der Standardkonfiguration aus jeder Menge Hintergrundlast.

Ex3cut3r
2020-05-22, 22:33:10
Edit: Unser 3200CL14 ist ja mehr ein XMP-Plus. Wir haben die Primär- und Sekundärtimings vorgegeben, und den Rest automatisch trainieren lassen, damit kein System besonders bevorteilt wird. Intel hat ein paar Stellschrauben, die es bei AMD nicht gibt (RTL, IOL, tREFI), wenigstens RTL und IOL bringen "viel" bei der Speicherlatenz.
Und wieso wurde beim Ryzen kein DRAM Calculator benutzt? z.B. im Fast Preset mit Samsung B-Die?

Natürlich mit Thaiphoon Burner den Kompletten HTML DRAM Bericht auslesen und im Calcutalor einfügen. :smile:

aufkrawall
2020-05-22, 22:34:16
Es funktioniert aber trotzdem etwas nicht richtig, wenn die niedrigsten Pstates gar nicht zur Verfügung stehen.
Und die Taktanzeige stimmt ja mit dem Höchstleistungsprofil im Idle sowieso nicht, das war nur als Anhaltspunkt gedacht. Ich hab da auch 4GHz bei 7W Package für den 6700k stehen. ;)

qiller
2020-05-22, 22:35:13
@qiller Alles klar, vielen Dank für die Vergleichswerte. Wir haben die PCGH-Benchszene hergenommen. 25 Sekunden ist die lang. Und wir haben in 720p mit Ultra-Settings gebencht, das sieht bei den Ergebnissen von dargo irgendwie nicht so aus. Kann das sein? Die zwei Sachen könnten erklären, warum die Ergebnisse so differieren.

Edit: Unser 3200CL14 ist ja mehr ein XMP-Plus. Wir haben die Primär- und Sekundärtimings vorgegeben, und den Rest automatisch trainieren lassen, damit kein System besonders bevorteilt wird. Intel hat ein paar Stellschrauben, die es bei AMD nicht gibt (RTL, IOL, tREFI), wenigstens RTL und IOL bringen "viel" bei der Speicherlatenz.

Ah ok, gut, dann ist das tatsächlich nicht gut vergleichbar. Aber es bleibt so oder so bei der Allgemeinaussage: Intel CLR profitiert stärker von RAM-OC als Amd Zen2.

Badesalz
2020-05-22, 22:40:47
- Wie stark die Netzteile sind, ist nicht erheblich. Die 500 Watt fürs Ryzen-System haben dicke ausgereichtFürs Ryzen-System auf jeden Fall :usweet:

Verbrauchsmessungen haben wir uns geklemmt, weil das sehr teures Equipment erfordert und extrem zeitaufwändig ist, wenns ordentlich werden soll.ELV xy Zeug an der Steckdose hätte erstmal ausgereicht. Das hätte schon einiges zum Thema beitragen können...

Die absolute Wahrheit kann so ein Test mit Spiele- und Szenenauswahl sowieso nicht abbilden, aber die Tendenz, dass man den Intel besser ausquetschen kann, die kann man denke ich sehen. Das und nicht mehr war der Grund für den Test -- und so steht's auch im Fazit.Dafür? Dafür war der Test inhaltlich um ~3/4 zu lang.
Wobei der Intel da übrigens nicht "ausgequetscht", sondern halbtot gewürgt wurde.

Deshalb haben wir den 9900K klar als Enthusiasten-Produkt bezeichnet. Vor allem für so jemanden ergibt der Prozessor richtig Sinn.Nö sorry. Ich entdecke in dem Pamphlet keine Begründung dafür warum man grad euch die Definition von Enthusiasmus überlassen sollte.

Schöne Grüße vom blauen Ufer des Flusses und vielen Dank für diesen fremdschäm Bärendienst.

Und wieso wurde beim Ryzen kein DRAM Calculator benutzt? z.B. im Fast Preset mit Samsung B-Die?

Natürlich mit Thaiphoon Burner den Kompletten HTML DRAM Bericht auslesen und im Calcutalor einfügen. :smile:Hast du nicht zugehört? Es ging darum einen Intel halbtot zu würgen, um zu schauen wieviel schneller er sein kann als stock AMD. Wenn du das so fragst, dann kann man ja gleich fragen warum man am AMD nicht noch weiter getweakt hat. Oder auch erst nur geschaut, ob ein anderer stock AMD mit vielleicht weniger core-flood nicht besser dafür taugen würde. Das war aber alles eben nicht das Ziel.

Mit einer gekonnten Auswahl stellte man daher fest, daß wenn man einen Intel halbtot würgt, er um die 19%-21% schneller Frames rechnen kann als ein stock AMD. Und das dies genau das richtige für "Enthusiasten" wäre. Fertig :uup:

qiller
2020-05-22, 23:00:33
@FlappyStompy: Ich empfehle einen Nachtest mit dem i9-9900k@stock und dem 4133CL17 RAM-Profil, aber sehr viel weniger Performance wird da auch nicht bei rum kommen. Intel CFR wird da immer noch deutlich vorne weg stehen.

FlappyStompy
2020-05-22, 23:02:20
@Ex3cut3r Jup. Da wird nicht viel mehr besseres rauskommen. Der DRAM Calculator ist nicht der Weisheit letzter Schluss.

@Badesalz Und schon so war das Geschrei groß, der Intel hätte zu gut dagestanden und der Ryzen nicht wirklich übertaktet worden. Wie man den 9900K richtig ausquetscht, weiß Esenel sehr gut. Aber sonst vielen Dank für die Ohrfeige.

@qiller Wir haben am 01. Mai schon einen anderen Intel-Test gemacht. Da haben wir RAM-OC mit Stock-Prozessor und CPU-OC getestet.

Ex3cut3r
2020-05-22, 23:10:06
@Ex3cut3r Jup. Da wird nicht viel mehr besseres rauskommen. Der DRAM Calculator ist nicht der Weisheit letzter Schluss.


Doch natürlich kommt da mehr raus. Lass mich raten, nur weil es so etwas nicht für Intel gibt? Lächerlich. Sry, das ist Stand jetzt, einfach ein Witz Test, beim Intel wurde versucht, das beste an allen Seiten rauszuholen, egal ob RAM, CPU Takt, Netzteil, SSD, Kühlung. Und beim Ryzen schafft es nicht mal den DRAM Calculator mit B-Die anzuschmeißen??? Wow.

Badesalz
2020-05-22, 23:19:03
@Badesalz Und schon so war das Geschrei groß, der Intel hätte zu gut dagestanden und der Ryzen nicht wirklich übertaktet worden. Wie man den 9900K richtig ausquetscht, weiß Esenel sehr gut. Aber sonst vielen Dank für die Ohrfeige.
Seh es wie die Medien-VIPs. Man ist mit einer Aktion erfolgreich, wenn alle über einen Reden. Egal, wie sie reden.
Ist auch meine Meinung. Das Pamhplet war erfolgreich. Ob die Welt bestens auch ohne ausgekommen wäre, oder z.B. ohne die Kardashians, was solls. Wendler ist seit 2001 erfolgreich.

Ciao.

FlappyStompy
2020-05-22, 23:23:32
@Ex3cut3r Ich hab extra für Dich nachgeschaut: Meine Timings sind straffer. Guck in den Artikel und vergleiche.

@Badesalz Das ist an Arroganz eigentlich nicht zu überbieten. Meine Güte.

Tesseract
2020-05-22, 23:26:03
Mir geht es auch nicht darum ob die CPU hochtaktet.
Das Problem ist das mit der CPU auch der Lüfter ständig hochdreht.
Ist ein ständiges auf und ab mit dem Lüfter. Bei einer CPU-Last von 2%.
dann sind die lüfter schlecht eingestellt. zen 2 hat nicht nur einen temperatursensor sondern viele und der wert repräsentiert den aktuellen hotspot und nicht die ganze CPU und entsprechend schwankt der wert ziemlich wild zwischen ~30°C und ~50°C im idle. ein lüfterprofil sollte also den bereich ~50-90°C abdecken. wenn das schon bei ~30°C beginnt spielen die lüfter natürlich verrückt.

Bei ausbalanciert und 1% Last, ausser dem Browser ist nichts offen, schwankt der CPU-Takt ungefähr bei 3 GHz.
AGESA kann die taktraten viel weiter senken als windows und soweit ich weiß ist ryzen master das einzige tool, das die korrekt auslesen kann. bei mir gehen die im idle bis auf ~245MHz runter auch wenn in diversen anderen tools 3,6GHz steht bei einem core+soc verbrauch von ~18-33W je nach energieprofil.

qiller
2020-05-22, 23:45:24
...
@qiller Wir haben am 01. Mai schon einen anderen Intel-Test gemacht. Da haben wir RAM-OC mit Stock-Prozessor und CPU-OC getestet.

Ah, wusste ich nicht. Hab mir mal den Spaß gemacht und zumindest für SOTTR die Diagramme gegenüber gestellt.

Edit: Der Ergebnisse bei den Intel @2666-Jedec-Werten weichen etwas stärker ab, was da denn schief gelaufen?

FlappyStompy
2020-05-23, 00:02:48
Ah, wusste ich nicht. Hab mir mal den Spaß gemacht und zumindest für SOTTR die Diagramme gegenüber gestellt.

Edit: Der Ergebnisse bei den Intel @2666-Jedec-Werten weichen etwas stärker ab, was da denn schief gelaufen?

Da ist nichts schief gelaufen, im alten Test haben wir 2666 15-15-15-35-1T gebencht, im neueren haben wir 2666 19-19-19-39-2T gebencht. Das haben wir als konstruktive Kritik aus dem ersten Test mitgenommen. Das im neueren Test entspricht der JEDEC-Spec, die man in einem OEM-System bekommt. Außerdem anderer Treiber. :)

qiller
2020-05-23, 00:04:16
...
AGESA kann die taktraten viel weiter senken als windows und soweit ich weiß ist ryzen master das einzige tool, das die korrekt auslesen kann. bei mir gehen die im idle bis auf ~245MHz runter auch wenn in diversen anderen tools 3,6GHz steht bei einem core+soc verbrauch von ~18-33W je nach energieprofil.

HWinfo zeigt diese als "effektive Taktfrequenz" an. Das ist aber nicht die echte Taktfrequenz (die steht in HWinfo immer noch da drüber), sondern eine "errechnete Taktfrequenz", die die Verweildauer der C-States mit einkalkuliert. Ryzen Master nutzt eine ähnliche Methode.

qiller
2020-05-23, 00:06:59
Da ist nichts schief gelaufen, im alten Test haben wir 2666 15-15-15-35-1T gebencht, im neueren haben wir 2666 19-19-19-39-2T gebencht. Das haben wir als konstruktive Kritik aus dem ersten Test mitgenommen. Das im neueren Test entspricht der JEDEC-Spec, die man in einem OEM-System bekommt. Außerdem anderer Treiber. :)

Ah, alright, thx fürs Aufklären. Auf jeden Fall kann sich ja nun jeder selber die Diagramme zusammenschieben. Hier ist übrigens der Intel RAM-OC Test:
https://www.computerbase.de/2020-05/spieleleistung-test-intel-coffee-lake-s-skylake-x-arbeitsspeicher/2/#diagramm-leistungsrating-durchschnitt-720p

aufkrawall
2020-05-23, 00:34:02
AGESA kann die taktraten viel weiter senken als windows und soweit ich weiß ist ryzen master das einzige tool, das die korrekt auslesen kann. bei mir gehen die im idle bis auf ~245MHz runter auch wenn in diversen anderen tools 3,6GHz steht bei einem core+soc verbrauch von ~18-33W je nach energieprofil.
Ok, das ist ein nicht ganz unerhebliches Detail.
Wobei der Uncore-Verbrauch natürlich trotzdem ziemlich schlecht vs. Intel oder Renoir ist. Letztlich ist das aber, genau wie die längeren Boot-Zeiten, noch kein völliger Abturner und kein Grund, den steinzeitlichen Intel-Kram vorzuziehen. Dafür ist das P/L-Verhältnis einfach zu massiv besser und Zen 2 anderweitig zu gut. Trotzdem darf es natürlich mit Zen 3 gerne noch besser werden...

josefYY
2020-05-23, 01:41:14
dann sind die lüfter schlecht eingestellt. zen 2 hat nicht nur einen temperatursensor sondern viele und der wert repräsentiert den aktuellen hotspot und nicht die ganze CPU und entsprechend schwankt der wert ziemlich wild zwischen ~30°C und ~50°C im idle. ein lüfterprofil sollte also den bereich ~50-90°C abdecken. wenn das schon bei ~30°C beginnt spielen die lüfter natürlich verrückt.

Im Idle ist die Temperatur um 40°.
Und in diesem Bereich geht auch der Lüfter rauf und runter.
Wo stell ich denn das Lüfterprofil ein?


AGESA kann die taktraten viel weiter senken als windows und soweit ich weiß ist ryzen master das einzige tool, das die korrekt auslesen kann. bei mir gehen die im idle bis auf ~245MHz runter auch wenn in diversen anderen tools 3,6GHz steht bei einem core+soc verbrauch von ~18-33W je nach energieprofil.
Jetzt wo du es sagst.
Unabhängig davon welchen Energiesparplan ich wähle sind die Zahlen im Task Manager deutlich höher als die im Ryzen Master.
Während ich hier gerade tippe steht im Task Manager 2,2 GHz im Ryzen Master schwankt es zwischen 800 und 900 MHz.

Joker (AC)
2020-05-23, 09:08:02
...sondern finde extrem unverschämt, wie Du Dich da in die Diskussion eingebracht hast ...

Ein Screen vom Ingame und vielleicht einen von AIDA64, um zu sehen, ob der wegen 4X8@AM4 klemmt (weil wie gesagt, mal eben nicht so easy) hätten mir gereicht.

Tesseract
2020-05-23, 09:08:47
Im Idle ist die Temperatur um 40°.
Und in diesem Bereich geht auch der Lüfter rauf und runter.
Wo stell ich denn das Lüfterprofil ein?

normalerweise im bios.

HWinfo zeigt diese als "effektive Taktfrequenz" an. Das ist aber nicht die echte Taktfrequenz (die steht in HWinfo immer noch da drüber), sondern eine "errechnete Taktfrequenz", die die Verweildauer der C-States mit einkalkuliert. Ryzen Master nutzt eine ähnliche Methode.
möglich. das ganze ist ziemlich undurchsichtig da windows der automatik nur ein paar wenige abstrakte parameter übergibt und der rest in einer blackbox läuft.

Badesalz
2020-05-23, 11:17:29
Um mal den OT-Schwachsinn hinter uns zu lassen:
Das ist für mich irgendwie nicht direkt schlüssig, mit der power consumption des 3300X. Kann mir das wer erklären? Also, in Idle und bei Singlethread, z.B. gegenüber dem 3600.

https://www.guru3d.com/articles_pages/intel_core_i9_10900k_processor_review,5.html

dildo4u
2020-05-23, 11:25:17
3300X Boostet bei Single Core höher als 3600 was mehr Vcore erfordert, idle vielleicht wurde ein anderes Board genutzt?


R20 Single Core 3300X 493 Punkte 3600 462

https://www.guru3d.com/articles_pages/amd_ryzen_3_3100_and_3300x_review,9.html

Badesalz
2020-05-23, 11:28:19
[...] idle vielleicht wurde ein anderes Board genutzt?Jou. Das könnte debilerweise sein. Macht dann wirklich Sinn so eine Auflistung...

Ich hoffe es gibt mal so einen 4300X. Dann ist das direkt meins :smile: Das wäre mal eine Enthusiasten-CPU :wink:

w0mbat
2020-05-27, 00:16:17
Der Ausverkauf vorm refresh fängt an, bei MF gibts den 3900X gerade für 409€!

Rooter
2020-05-27, 01:05:16
Gut, dann gibt es für mich im Herbst vielleicht doch einen 3700X statt eines 3600. :biggrin:

MfG
Rooter

dildo4u
2020-05-29, 15:32:59
AMD sollte mal Dell in den Arsch treten, die liefern 3950 Systeme mit DDR4 2666 aus.

NnsHhqAdOiM

Popeljoe
2020-06-04, 14:42:46
Kann man eigentlich von der Singlecore Leistung der 3300er auf die neue Gen schließen? Das wäre ziemlich deftig!

w0mbat
2020-06-04, 15:49:04
Zen3 wird ja eine neue Architektur, also ziemlich sicher nicht. Der 3300X ist ja immer noch Zen2.

dildo4u
2020-06-04, 15:49:32
Kann man eigentlich von der Singlecore Leistung der 3300er auf die neue Gen schließen? Das wäre ziemlich deftig!

Was meinst du der 3950 geht schon höher, es werden mit den XT Varianten nur mehr Modelle schaffen.

Denniss
2020-06-04, 19:47:43
Der 3300X ist ein Indikator was Zen2 leisten könnte mit einem 8er CCX statt zwei 4er CCX. Danach könnte man in etwa auf eine entsprechende Verbesserung bei Zen3 schließen.
Bleibt die Frage wieviel Änderungen bei Zen3 noch kommen und was die bewirken

davidzo
2020-06-04, 22:56:12
Um mal den OT-Schwachsinn hinter uns zu lassen:
Das ist für mich irgendwie nicht direkt schlüssig, mit der power consumption des 3300X. Kann mir das wer erklären? Also, in Idle und bei Singlethread, z.B. gegenüber dem 3600.

https://www.guru3d.com/articles_pages/intel_core_i9_10900k_processor_review,5.html
Die Guru3d Verbrauchswerte kannst du in die tonne treten, die sind auf verschiedenen Boards gemessen worden.
Der 3300x auf nem Crosshair Formula VIII, der 3600er auf einem x570 Aorus Master, der 3000G auf nem b450 mini ITX brett, der 3800x auf nem X570 STRIX -E...


Der 3300X ist ein Indikator was Zen2 leisten könnte mit einem 8er CCX statt zwei 4er CCX. Danach könnte man in etwa auf eine entsprechende Verbesserung bei Zen3 schließen.
Bleibt die Frage wieviel Änderungen bei Zen3 noch kommen und was die bewirken

Naja, ein 8 Core CCX hat zwangsläufig etwas höhere Latenzen für alle Cores als 4C. Das sieht man schön bei der nachlassenden Skalierung von Intels 8 auf 10 Core Die, die können auch nicht zaubern und trotzdem explodiert der Verbrauch.
Aber zum Glück sind bei Zen3 ja nicht nur die 8-core CCX die einzigen Verbesserungen.

Denniss
2020-06-04, 23:29:20
Deswegen ja Indikator, 8 Kerne untereinander zu vernetzen ist halt ein wenig komplizierter als nur 4.

BlacKi
2020-06-07, 18:44:42
meint ihr das ASRock DeskMini A300 wird renoir unterstützung bekommen?

Th3o
2020-06-07, 19:04:48
Ich hoffe ja, aber ich befürchte nein. Angeblich sei ein Nachfolger bereits in Arbeit.

nairune
2020-06-07, 19:06:10
Gibt bereits Antworten von ASRock dazu irgendwo... Soweit ich mich erinnere, stehen die Chancen eher mäßig, ganz ausgeschlossen war es aber noch nicht. Es soll allerdings "in Kürze" ein neues Modell geben, das wird die Unterstützung dann sicher haben.

Benutzername
2020-06-07, 19:28:06
Gibt bereits Antworten von ASRock dazu irgendwo... Soweit ich mich erinnere, stehen die Chancen eher mäßig, ganz ausgeschlossen war es aber noch nicht. Es soll allerdings "in Kürze" ein neues Modell geben, das wird die Unterstützung dann sicher haben.

Jupp. Ich vermute ASRock wird einen neuen Deskmini herausbringen "jetzt neu mit Zen3". Hoffentlich ist das Gehäuse ein paar Millimeter höher, damit problemlos der Wraith Max bzw. Prism Kühler passt.

Th3o
2020-06-07, 19:43:35
Andererseits schleift der Deskmini nur alles was die CPU bietet nach draußen, warum sollte das mir Renoir nicht gehen. Das wäre echt ärgerlich, wenn bei Ryzen 3000 EOL wäre.

Screemer
2020-06-07, 19:46:29
Jupp. Ich vermute ASRock wird einen neuen Deskmini herausbringen "jetzt neu mit Zen3". Hoffentlich ist das Gehäuse ein paar Millimeter höher, damit problemlos der Wraith Max bzw. Prism Kühler passt.
renoir ist zen2.

Andererseits schleift der Deskmini nur alles was die CPU bietet nach draußen, warum sollte das mir Renoir nicht gehen. Das wäre echt ärgerlich, wenn bei Ryzen 3000 EOL wäre.
das ist schlicht wieder ein bios problem. vor allem bei boards wie im deskmini zeigt sich, dass das großer bullshit ist mit zen3.

nairune
2020-06-07, 19:50:54
Sicher ist es Zen 2 und technisch absolut machbar. Ein neues BIOS müssen sie trotzdem zur Verfügung stellen und ob das passiert ist genau die Frage.
Genauso wie auch Zen 3 laufen würde, wenn man denn wollte...

Benutzername
2020-06-09, 03:33:47
renoir ist zen2.



Ja. stimmt natürlich. Dann eben "jetzt neu mit Ryzen 4x00G". Hauptsache man kann neu dranschreiben.


das ist schlicht wieder ein bios problem. vor allem bei boards wie im deskmini zeigt sich, dass das großer bullshit ist mit zen3.

Jupp. Aber je nachdem welche Renoirs man einsetzten will, könnte es mit der Stromversorung eng werden. Mit Renoir kommen ja auch acht-kerner, die dann auch doppelt so viel Strom ziehen dürften als die vier Kerner bisher. Ja nominal TDP 65W auch bei den acht kernern, aber wenn die den Takt nach oben boosten ziehen die mehr Strom als Vier. Dann wären bessere Leiterbnahnen für schnelleres RAM und PCIe4.0 auch noch ganz nett für den Katalog. Dann vielleicht noch 2,5G BASE-T LAN. Und RGB-Header natürlich. :lol:


Laut https://extreme.pcgameshardware.de/tagebuecher/538088-tagebuch-der-1-9-liter-pc-asrock-deskmini-a300-ryzen-apu-konfigurationstipps-praxis-benchmarks-2.html

Die verbauten NextFETs von Texas Instruments (CSD87350Q5D) finden sich beispielsweise auch auf High-End-Platinen wie dem ASUS Crosshair VI Hero wieder. Sie zeichnen sich durch hohe Effizienz und einer Belastbarkeit von bis zu 40 Ampere Stromfluss aus. Angesteuert werden die Wandler von einem Richtek-Controller (RT3667BB - mit integrierten Drivern) in der Konfiguration 3+2 Phasen (CPU-Kerne/SoC-Bereich). Wie gut das Ganze im Alltag funktioniert und vor allem wie warm das Ganze wird, zeigt dann der Praxisteil.

3+2 Phasen mit 40 A pro Phase.

dildo4u
2020-06-10, 16:18:25
Neue Game Bundle Aktion Horizon Zero Dawn Key mit Ryzen 3000 Modellen ab 3600.


https://www.mindfactory.de/Highlights/AMD_Ryzen_Game_Bundle

Daredevil
2020-06-10, 16:25:43
Schmeckt! :)

RainingBlood
2020-06-10, 16:48:11
Asus verteilt AGESA 1006
https://www.pcgameshardware.de/Mainboard-Hardware-154107/News/AM4-Asus-verteilt-AGESA-1006-neue-Uebertaktungsfunktion-1351912/

ich schätze deswegen hat MSI die 1005 nur auf wenige Boards gebracht.

qiller
2020-06-10, 20:09:12
Versteh nur nicht, was an CCX-OC so neu sein soll, ist doch ein alter Hut.

BlacKi
2020-06-11, 00:42:11
Ja. stimmt natürlich. Dann eben "jetzt neu mit Ryzen 4x00G". Hauptsache man kann neu dranschreiben.



Jupp. Aber je nachdem welche Renoirs man einsetzten will, könnte es mit der Stromversorung eng werden. Mit Renoir kommen ja auch acht-kerner, die dann auch doppelt so viel Strom ziehen dürften als die vier Kerner bisher. Ja nominal TDP 65W auch bei den acht kernern, aber wenn die den Takt nach oben boosten ziehen die mehr Strom als Vier. Dann wären bessere Leiterbnahnen für schnelleres RAM und PCIe4.0 auch noch ganz nett für den Katalog. Dann vielleicht noch 2,5G BASE-T LAN. Und RGB-Header natürlich. :lol:


Laut https://extreme.pcgameshardware.de/tagebuecher/538088-tagebuch-der-1-9-liter-pc-asrock-deskmini-a300-ryzen-apu-konfigurationstipps-praxis-benchmarks-2.html


3+2 Phasen mit 40 A pro Phase.

65w sind 65w. oder doch nicht? es scheint wohl eher das problem zu sein, das früher 65w 65w cpus bei amd waren. mit zen2 liegt der verbrauch etwas darüber. eigentlich schade.

Denniss
2020-06-11, 09:34:33
sollte kein Problem darstellen wenn man das PPT hardlocked auf 65W

RainingBlood
2020-06-12, 10:55:22
MSI rollt 1006 jetzt auch aus. Ich teste es mal auf meinem B450 Gaming Plus.

Benutzername
2020-06-13, 08:00:16
65w sind 65w. oder doch nicht? es scheint wohl eher das problem zu sein, das früher 65w 65w cpus bei amd waren. mit zen2 liegt der verbrauch etwas darüber. eigentlich schade.


Die TDP-angaben sind nur angenäherte Zahlen sowohl bei Team Grün als auch Team Blau. wobei AMDs TDP näher an der tatsähclichen Lesitung ist, aber seit Zen2 gibt es eben Spitzen nach oben. Dann noch PBO optional und ein acht-kerner kann dann auch mal kurzfristig doppelt so viel ziehen. sind ja doppelt soviele Kerne als bisher.

Tja, überschlagen: 3*40A= 120A; 120 A * (welche CPU SPannung?) *(Verlust) = ??? max Watt

dildo4u
2020-06-13, 08:29:41
65w sind 65w. oder doch nicht? es scheint wohl eher das problem zu sein, das früher 65w 65w cpus bei amd waren. mit zen2 liegt der verbrauch etwas darüber. eigentlich schade.
Abwarten was Desktop Renior zieht, die 4 Core Zen 2 sind bei 50 bzw 70 Watt.

https://youtu.be/6tEMDOq-8wA?t=1283

Wenn man ein HTPC bauen will macht es vielleicht am meisten Sinn 4 Core mit HT zu gehen so lange man die Vega GPU nutzt.

mironicus
2020-06-13, 09:22:23
Abwarten was Desktop Renior zieht, die 4 Core Zen 2 sind bei 50 bzw 70 Watt.

Der beste 4900H hat ein Basistakt von 3,3 GHz und ein Turbo von 4,4 GHz bei nur 45 Watt. Bei den Vergleich mit Intel zeigte sich ja schon das bei langanhaltener Last (Videoenkodierung) die Abstände sich noch vergrößern, weil Intel dann mehr throttelt, und Renoir einen höheren Takt aufrecht erhalten kann.

Schon ein 4800U mit 30 Watt schlägt ein Ryzen 3600 mit 65 Watt. Hängt natürlich auch vom Binning ab. Ein Ryzen 3600 gehört sicherlich zu den schlechtesten Chips. Bessere Chips wird es aber langfristig immer mehr geben.

dildo4u
2020-06-13, 09:37:17
Die guten Dies werden im Notebook landen, aber möglich das der 8 Core deutlich besser selektiert ist dafür aber um 250€ kostet.

Gipsel
2020-06-14, 16:18:31
Es wird doch wie es aussieht sowieso zwei 8-Core Renoirs geben: 4700G mit 65W TDP (und vermutlich wieder 88W PPT) und den 4700GE mit 35W TDP (45W PPT?). Und genau so sieht es bei den 6- und 8-Kernern aus, wo es ebenfalls GE-Versionen mit 35W geben soll. Da kann man sich für den HTPC auch die Version mit geringerer TDP aussuchen. Ich will ja auch den 4700GE kaufen. ;)

HarryHirsch
2020-06-14, 16:24:47
Wenn es so wie bisher läuft werden die aber so gut wie nie lieferbar sein.

Gipsel
2020-06-14, 16:31:28
Abwarten. Renoir scheint nicht übermäßig gut mit mehr Spannung/TDP zu skalieren. Der Sweetspot liegt offenbar bei ziemlich niedrigen Verbräuchen, so daß man genügend Dies haben sollte, die problemlos bei 35-45W mit ansprechender Leistung laufen. Es wird vermutlich sogar schwierig werden, bei den 65W-Versionen wesentlich Mehrtakt zu generieren (ähnlich wie bei den 6C- und 8C-Ryzen3k-Modellen mit 95W TDP, die auch nicht wesentlich schneller sind als die 65W-Versionen).

dildo4u
2020-06-16, 15:05:20
Offizielle US Preise 3600XT 250$,3800XT 400$ ,3900XT 500$.
Zusätzlich gibt es eine Preis und Feature Analyse von B550 Modellen von MSI.


m8d4C80Ub_o

w0mbat
2020-06-16, 15:19:54
https://www.amd.com/en/products/cpu/amd-ryzen-5-3600xt +100MHz boost vs. 3600X
https://www.amd.com/en/products/cpu/amd-ryzen-7-3800xt +200MHz boost vs. 3800X
https://www.amd.com/en/products/cpu/amd-ryzen-9-3900xt +100MHz boost vs. 3900X

Die XT-Modelle sind jetzt offiziell, gibt aber nur 100-200MHz mehr boost, macht mMn keinen Sinn. Sehr seltsam...

Ex3cut3r
2020-06-16, 15:22:23
Sind momentan auch viel zu teuer. Macht wirklich keinen Sinn.

HOT
2020-06-16, 15:24:21
Ist halt wie gesagt ne reine Lineupanpassung, kein Refresh. Die Boost werden etwas hoch gesetzt und dann können die alten X im Prinzip auch vom Markt genommen werden. Die Preise werden sich eh dann auf den alten X-Preisen einpendeln.

dildo4u
2020-06-16, 15:25:43
Ist mehr Performance für die selben Preise, ich glaube bis auf den 3900X wurde offiziell nix billiger das sind die Händler.

https://www.anandtech.com/show/15854/amd-ryzen-3000-xt-cpus-zen-2-more-mhz

MR2
2020-06-16, 15:34:49
9quqBIknKXI

dargo
2020-06-16, 15:37:12
Ziemlich langweilig die neuen XT-CPUs. Die >4Ghz Basetakte war alles ne Ente.

dildo4u
2020-06-16, 15:40:00
Erstmal testen ein 3950X bleibt über 4Ghz selbst bei AVX2 Last, die AMD Angaben sind ziemlich sinnlos.

https://youtu.be/oYWOiL7r46M?t=521

dargo
2020-06-16, 15:49:50
Du hast offenbar nicht verstanden was ich damit sagen wollte... unter normalen Bedingungen sind die XT-CPUs kein Stück schneller als die X-CPUs. Singlecore-Boost interessiert mich schon lange nicht mehr da ich keine Applikationen dafür habe. Und wenn sich da was finden sollte ist es nicht speedrelevant, da eh schon schnell genug.

HOT
2020-06-16, 15:52:47
Ist ja auch keine Kunst. Selbst mit mehr Basetakt hätte sich immer noch nix an der Leistungsfähigkeit geändert ;).
Die sehen halt bei Spielen minimal besser aus, das wars. Basetakt interessiert eh keine Sau. Aber es gibt auch genau 0 Fortschritt. Immer noch N7, immer noch B0, immer noch gleicher I/O-Chip.

Im Grunde hat man für die großen Modelle den Takte auf den 3950X normalisiert und den Kühler weggenommen.

Effe
2020-06-16, 15:59:43
https://www.amd.com/en/products/cpu/amd-ryzen-5-3600xt +100MHz boost vs. 3600X
https://www.amd.com/en/products/cpu/amd-ryzen-7-3800xt +200MHz boost vs. 3800X
https://www.amd.com/en/products/cpu/amd-ryzen-9-3900xt +100MHz boost vs. 3900X

Die XT-Modelle sind jetzt offiziell, gibt aber nur 100-200MHz mehr boost, macht mMn keinen Sinn. Sehr seltsam...

Wie erwartet nur ein Speedbump. Nett, aber auch nicht mehr. Immerhin Aufmerksamkeit generiert.

dargo
2020-06-16, 16:04:08
Ist ja auch keine Kunst. Selbst mit mehr Basetakt hätte sich immer noch nix an der Leistungsfähigkeit geändert ;).

Natürlich hätte sich was getan, der Realtakt bei 4+ Threads in Games wäre höher als bei den X-CPUs.


Die sehen halt bei Spielen minimal besser aus, das wars.
Da sieht in Spielen gar nichts besser aus wenn nur bei Singlecore der Boost höher ist. Niemand testet solche uralten Games heute.

y33H@
2020-06-16, 16:19:29
Das Binning könnte ein besseres DVFS bedeuten.

HOT
2020-06-16, 16:21:00
Natürlich hätte sich was getan, der Realtakt bei 4+ Threads in Games wäre höher als bei den X-CPUs.

Der Basetakt liegt eh nie an, das hätte nix geändert. Selbst mit Powervirus läuft selbst ein 3700X mit seinen 65W >3,9GHz für gewöhnlich.


Da sieht in Spielen gar nichts besser aus wenn nur bei Singlecore der Boost höher ist. Niemand testet solche uralten Games heute.
Alle Booststufen werden geringfügig höher ausfallen, das sieht dann in Spielen etwas besser aus, unter Vollast mit allen Kernen wird sich hingegen nix tun, daher auch kein höherer Basetakt. Der 3800XT rutscht eben über den 9900K jetzt in Spielen und kommt auf das Niveau des 10700K. Den 3900XT versucht man näher an den 10900k zu bringen und den 3600XT muss man da auch mitnehmen, verkauft sich halt.

4,7GHz scheint AMD hier als eine Art harte Wand zu betrachten, alles darüber lässt sich offenbar nicht sinnvoll realisieren.

dargo
2020-06-16, 16:37:18
Das ist kompletter Unsinn was du hier schreibst. Schau dir einfach das was Effe w0mbat verlinkt hat an, zb. hier.
https://www.amd.com/en/products/cpu/amd-ryzen-7-3800xt

Und dann klicke auf das Fragezeichen neben dem "up to 4,7Ghz".

Max boost for AMD Ryzen processors is the maximum frequency achievable by a single core on the processor running a bursty single-threaded workload. Max boost will vary based on several factors, including, but not limited to: thermal paste; system cooling; motherboard design and BIOS; the latest AMD chipset driver; and the latest OS updates. Learn More.


Der Basetakt liegt eh nie an, das hätte nix geändert. Selbst mit Powervirus läuft selbst ein 3700X mit seinen 65W >3,9GHz für gewöhnlich.

Auch das ist völliger Unsinn. Wie schlecht bist du eigentlich informiert? Ein 3600/3700X ist bei 88W limitiert. Deshalb kommt die CPU über den Basetakt hinaus. Stellst du PPT auf 65W wirst du nie im Leben bei Powerviren >3,9GHz erreichen.

Ravenhearth
2020-06-16, 16:47:54
Alle Booststufen werden geringfügig höher ausfallen, das sieht dann in Spielen etwas besser aus, unter Vollast mit allen Kernen wird sich hingegen nix tun, daher auch kein höherer Basetakt. Der 3800XT rutscht eben über den 9900K jetzt in Spielen und kommt auf das Niveau des 10700K. Den 3900XT versucht man näher an den 10900k zu bringen und den 3600XT muss man da auch mitnehmen, verkauft sich halt.
Bitte was? https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/3/#diagramm-test-performancerating-fuer-spiele-fps-fhd

Ex3cut3r
2020-06-16, 17:01:38
Bitte was? https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/3/#diagramm-test-performancerating-fuer-spiele-fps-fhd
Typischer HOT Post. Nix Stimmt. =D

Opprobrium
2020-06-16, 17:04:27
Tjoa, jetzt setzen sich die CPUs mit Buchstabenanhängsel etwas besser von den CPUs ohne Buchstabenanhängsel ab. Haben außerdem einen Buchstaben mehr im Buchstabenanhängsel. Ist doch nett :smile:

HOT
2020-06-16, 17:07:20
Das ist kompletter Unsinn was du hier schreibst. Schau dir einfach das was Effe w0mbat verlinkt hat an, zb. hier.
https://www.amd.com/en/products/cpu/amd-ryzen-7-3800xt

Und dann klicke auf das Fragezeichen neben dem "up to 4,7Ghz".



Auch das ist völliger Unsinn. Wie schlecht bist du eigentlich informiert? Ein 3600/3700X ist bei 88W limitiert. Deshalb kommt die CPU über den Basetakt hinaus. Stellst du PPT auf 65W wirst du nie im Leben bei Powerviren >3,9GHz erreichen.
Dann eben 88W, das ändert jetzt genau was am Sinn meines Postings? Und ich hab das ja nicht Wattgenau gemeint, denn ein 3700X hat 65W TDP, was soll der Quatsch?`
Bitte was? https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/3/#diagramm-test-performancerating-fuer-spiele-fps-fhd

Juhu Goldwaage. Das war rein aus AMDs Sicht für die Anpassung. Ich weiss auch, dass die Leistungswerte der 10. Generation nicht erreicht werden, danke. Red ich eigentlich Chinesisch?

dargo
2020-06-16, 17:11:40
Dann eben 88W, das ändert jetzt genau was am Sinn meines Postings? Und ich hab das ja nicht Wattgenau gemeint, denn ein 3700X hat 65W TDP, was soll der Quatsch?`

Wen interessieren die TDP-Angaben von AMD wenn die Hardware unter Realbedingungen in diesem Fall 35% mehr Saft ziehen darf?

HOT
2020-06-16, 17:12:54
Wen interessieren die TDP-Angaben von AMD wenn die Hardware unter Realbedingungen in diesem Fall 35% mehr Saft ziehen darf?
So leicht kommst mir nicht davon. Nochmal, was ändert das am Sinn des Postings, ob ich jetzt AMDs Angabe nehme oder den tatsächlichen Verbrauch?

dargo
2020-06-16, 17:15:31
Such dir nen anderen zum trollen, hab besseres gerade zu tun.

Tesseract
2020-06-16, 17:23:22
der 3700X macht hier in CB20 unter volllast:
65W: ~3720MHz
88W: ~3990MHz
1000W: ~4085MHz

HOT
2020-06-16, 17:33:36
Such dir nen anderen zum trollen, hab besseres gerade zu tun.
Dann schreib nicht so einen Blödsinn.


Mal was anderes:

https://de.msi.com/Motherboard/support/X470-GAMING-PLUS#support-cpu

Beispiel ist das MSI X470 Gaming Plus.
Die XT-CPUs sind schon gelistet, interessanterweise werden die schon ab der AA-BIOS-Version supportet. Das ist das Start-BIOS für Matisse für das Brett vom Sommer 2019. Es gibt also auch offiziell 0 Änderungen.

Tesseract
Darum gings nicht, aber danke ;).

dargo
2020-06-16, 17:47:47
der 3700X macht hier in CB20 unter volllast:
65W: ~3720MHz
88W: ~3990MHz
1000W: ~4085MHz
1000W kommen mit aber etwas viel vor. :wink: CB20 ist auch ein Witz. Hau da mal Prime95 mit AVX rein bei 65W PPT und ich könnte wetten du landest irgendwo bei ~3,6GHz, ergo Basetakt.

Tesseract
2020-06-16, 18:18:08
1000W kommen mit aber etwas viel vor. :wink:
das sind die power limits, nicht der realverbrauch. 1000 ist der default von PBO. in P95 geht der takt sogar deutlich unter 3,6GHz mit 65W PPT, das ist aber eine sehr synthetische last die mit der praxis wenig zu tun hat. CB20 sollte in etwa dem entsprechen was man später in spielen sehen wird wenn diese 16T sinnvoll nutzen.

dargo
2020-06-16, 18:31:02
Ok... dann heizen die zusätzlichen 4 Threads noch einiges stärker. Ich beobachte halt nur meinen 3600-er. Wenn man die ganze Geschichte nur auf Gaminglast reduziert dann wird man natürlich immer über den Basetakt kommen. Diese Workloads heizen nicht so viel.

HOT
2020-06-16, 18:34:11
Der 8auer hat übrigens rausgefunden, dass es im B550-BIOS die Option jetzt gibt, den Takt jedes einzelnen CCX separat einzustellen und das funktioniert auch. Er meinte, dass es das Feature bisher so nicht gab.

Langlay
2020-06-16, 19:02:08
Der 8auer hat übrigens rausgefunden, dass es im B550-BIOS die Option jetzt gibt, den Takt jedes einzelnen CCX separat einzustellen und das funktioniert auch. Er meinte, dass es das Feature bisher so nicht gab.

Dann irrt der Mann.

https://abload.de/img/200616185839ywkhu.jpg

https://abload.de/img/200616185852cfkil.jpg

Crosshair 8 Hero 1302 Bios vom 20.01.2020,allerdings ka ob es das auch schon in früheren Biosversionen gab.

HTB|Bladerunner
2020-06-16, 19:04:42
Der 8auer hat übrigens rausgefunden, dass es im B550-BIOS die Option jetzt gibt, den Takt jedes einzelnen CCX separat einzustellen und das funktioniert auch. Er meinte, dass es das Feature bisher so nicht gab.

Das überrascht mich jetzt aber.

Die Bios-Option hat mein Board seit mindestens 11/2019 (GA-AB350N-Gaming WIFI). Zumindest kann ich den beiden CCX's meines 3700x einen unterschiedlichen Basis-Multiplikator verpassen.

SKYNET
2020-06-16, 21:02:36
Dann irrt der Mann.

https://abload.de/img/200616185839ywkhu.jpg

https://abload.de/img/200616185852cfkil.jpg

Crosshair 8 Hero 1302 Bios vom 20.01.2020,allerdings ka ob es das auch schon in früheren Biosversionen gab.

konnte ich auch schon mit dem ersten bios für ryzen 3000 auf meinem B350... ist halt unter den AMD optionen zu finden, aber es war / ist da.

Seth
2020-06-17, 00:49:11
Der 8auer hat übrigens rausgefunden, dass es im B550-BIOS die Option jetzt gibt, den Takt jedes einzelnen CCX separat einzustellen und das funktioniert auch. Er meinte, dass es das Feature bisher so nicht gab.

Er sagte er wüsste nicht seit wann es das per CCX OC bei Asus gibt, er kannte es vom Release der CPUs nicht. Er hat nicht behauptet es sein ein allgemein neues Feature. Wenn dann richtig wiedergeben ;-)


Zum Boostverhalten der XT Prozessoren: Ich würde davon ausgehen dass sie bei jeglicher Teillast höher boosten als die X Varianten und nicht nur bei Single Core Last.

dargo
2020-06-17, 09:03:01
Zum Boostverhalten der XT Prozessoren: Ich würde davon ausgehen dass sie bei jeglicher Teillast höher boosten als die X Varianten und nicht nur bei Single Core Last.
Begründung? :) Klingt für mich jedenfalls nicht schlüssig wenn Basetakt in der selben TDP-Klasse gleich bleibt. Für mich sieht das nur nach besseren Binning aus was max. Frequenz angeht. Und solange PPT weiterhin bei 142W bleibt wüsste ich keinen Grund warum zb. die CPU bei 4+ Threads höher boosten sollte als die X-CPUs wenn letztere schon vom PPT limitiert wird. Selbst wenn die XT-CPUs in jeder Teillast höher boosten sollten wird das eh keiner merken. Die +100-200Mhz sind Peanuts bei eh schon 4+Ghz als Basis.

RainingBlood
2020-06-17, 09:59:54
ich frag mich, ob bei den XT Prozessoren nicht einfach nur der PBO-Algo geändert wurde. Mit dem setzen eines abstrus geringen Spannungs-Wertes taktet mein 3700x Allcore 200 MHz höher (was auch in tatsächlicher Leitung ankommt), dann krebst er Singlecore allerdings auf halben Takt rum. Hab jetzt leider vergessen, wie der Wert heißt, das wurde im CB20 Bench-Thread gepostet und sollte allgemein funktionieren. Wäre eine echt miese Masche von AMD, das Singlecoreverhalten gefixt zu haben und als neu zu verkaufen.

dildo4u
2020-06-17, 10:08:17
Woher willst du wissen das das im Alltag relevant ist?
Erstmal Benches abwarten, das kann genau so reines Marketing sein weil alle zum Launch wegen dem SC Boost geheult haben.
Die späteren Bios Fixes haben auch nix spürbares gebracht.

Snoopy69
2020-06-17, 10:18:29
...

Der_Korken
2020-06-17, 10:31:12
Begründung? :) Klingt für mich jedenfalls nicht schlüssig wenn Basetakt in der selben TDP-Klasse gleich bleibt. Für mich sieht das nur nach besseren Binning aus was max. Frequenz angeht. Und solange PPT weiterhin bei 142W bleibt wüsste ich keinen Grund warum zb. die CPU bei 4+ Threads höher boosten sollte als die X-CPUs wenn letztere schon vom PPT limitiert wird. Selbst wenn die XT-CPUs in jeder Teillast höher boosten sollten wird das eh keiner merken. Die +100-200Mhz sind Peanuts bei eh schon 4+Ghz als Basis.

Laufen die CPUs bei Teillast wirklich ins PPT-Limit? Bei Igors Tests sah das immer ganz anders aus, d.h. die ganzen Ryzens dümpelten irgendwo bei <60W Realverbrauch rum. Wenn der ST-Boost bei den XT-Modellen höher ist, dann brauchen höhere Taktraten vermutlich auch weniger Spannung (und damit auch Verbrauch) als bei den X-Modellen, sodass es in der Praxis zu höherem Boost in Spielen führt.

Dass das trotzdem Peanuts sind, stimmt natürlich. Die XT-Modelle sind nicht für Aufrüster, sondern für Neukäufer, da schiebt man sich bei den Balkenvergleichen halt nochmal 3% näher an Intel ran, was besser aussieht ;)

Snoopy69
2020-06-17, 10:51:51
Dann irrt der Mann.

https://abload.de/img/200616185839ywkhu.jpg

https://abload.de/img/200616185852cfkil.jpg

Crosshair 8 Hero 1302 Bios vom 20.01.2020,allerdings ka ob es das auch schon in früheren Biosversionen gab.
Ja, gab es früher schon

qiller
2020-06-17, 12:40:59
Hatte ich hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12333601#post12333601) ja schon geschrieben, dass CCX-OC ein alter Hut ist. Die XTs hätte sich AMD sparen können. Wenn sie Intel in Spielen schlagen wollen, sollten sie sich darauf fokussieren, Zen3 so schnell wie möglich rauszubringen. Aber ich denke AMD hat z.Z. gar keine Motivation, das zu tun. Der Absatz der aktuellen Generation läuft prächtig und man hat deswegen Zen3 nach hinten verschoben. Vielleicht hat AMD auch Angst, dass sie nicht mehr die Underdog-Rolle spielen? :F

dildo4u
2020-06-17, 13:13:38
PC World widerspricht Verschiebungen.

https://www.pcworld.com/article/3563048/is-amd-zen-3-delayed-until-2021-nope.html

Snoopy69
2020-06-17, 15:48:35
@ qiller

Trauen sich nur die Wenigsten ran. Daher ist auch nicht bekannt, wie lange es die Option im BIOS gibt. Verstehe nicht warum, kostet nur viel Zeit

Tesseract
2020-06-17, 16:14:33
Laufen die CPUs bei Teillast wirklich ins PPT-Limit?

nein, das limitiert in der regel nur bei volllast auf vielen cores. darunter limitieren fast immer die undokumentierten internen schutzschaltungen die den chip vor schäden bzw. schneller alterung schützen und die mit precision boost immer aktiv sind, auch wenn PBO an ist.

Schnoesel
2020-06-17, 17:07:10
PC World widerspricht Verschiebungen.

https://www.pcworld.com/article/3563048/is-amd-zen-3-delayed-until-2021-nope.html

Ja warum sollten sie verschieben, wo doch auch Lisa Su gesagt hat, sie schauen nicht auf den Mitbewerber und halten nichts von taktischen Veröffentlichungen sondern hauen raus, was möglich ist. Haben sie bisher imo ja auch gemacht. Ein 64Kern TR wäre z.B. absolut unnötig gewesen um Intel schlecht dastehen zu lassen. Dafür reichten auch die "kleinen" TRs. Aber wenn mans hat warum nicht?!

Die XTs allerdings weiß ich nicht was ich davon halten soll. Die sind imo einfach unnötig. Mal Tests abwarten.

Thunder99
2020-06-17, 17:30:45
Einfach in den Schlagzeilen sein und was als Konter präsentieren. Hat Intel mit dem 9900KS ja auch gemacht.

qiller
2020-06-17, 18:29:42
nein, das limitiert in der regel nur bei volllast auf vielen cores. darunter limitieren fast immer die undokumentierten internen schutzschaltungen die den chip vor schäden bzw. schneller alterung schützen und die mit precision boost immer aktiv sind, auch wenn PBO an ist.
So ist es, wird auch gern als Silicon Fitness bezeichnet. Wobei ich aber nicht glaube, dass AMD wirklich jede CPU daraufhin anpasst. Da gehts eher nach dem Produkt, ansonsten lassen sich nicht solche großen Streuungen bei den 3600er erklären. Das einzige was im Teillastbereich bei mir geholfen hat, etwas mehr Takt rauszuholen, war die Temperatur unten zu halten und Auto-OC (aber nur 25-50MHz bei mir). Die ganzen Limits etc. sind da komplett außen vor. Meist lieg ich mit meinem 3950X im Teillastbereich bei 4.15-4.25GHz.

dargo
2020-06-17, 19:43:39
Laufen die CPUs bei Teillast wirklich ins PPT-Limit? Bei Igors Tests sah das immer ganz anders aus, d.h. die ganzen Ryzens dümpelten irgendwo bei <60W Realverbrauch rum. Wenn der ST-Boost bei den XT-Modellen höher ist, dann brauchen höhere Taktraten vermutlich auch weniger Spannung (und damit auch Verbrauch) als bei den X-Modellen, sodass es in der Praxis zu höherem Boost in Spielen führt.

Dass das trotzdem Peanuts sind, stimmt natürlich. Die XT-Modelle sind nicht für Aufrüster, sondern für Neukäufer, da schiebt man sich bei den Balkenvergleichen halt nochmal 3% näher an Intel ran, was besser aussieht ;)
Definiere bitte Teillast. :)

Wenn 12 Threads bei einem 16 Threader beschäftigt sind ist es Teillast. Wenn nur zwei Threads beschäftigt sind ist es auch Teillast. Ersteres geht garantiert ins PPT-Limit, Zweiteres eher noch nicht. Es gibt nicht die Teillast. Mein 3600 läuft mit Defaultsettings bei 4+ Threads schon ins 88W PPT-Limit rein und dafür bedarf es nicht unbedingt einen Powervirus. Die 95/105W TDP CPUs haben zwar höheres PPT von 142W, die heizen aber auch stärker mit ihren höheren Frequenzen. Die 3% halte ich übrigens schon für recht optimistisch. Ich tippe eher auf 0-2%. Aber vielleicht überrascht AMD mit irgendeiner "secret sauce" (:D) und wir sehen am Ende doch etwas mehr. Die Tests werden es bald zeigen. Ich könnte mir zb. ein überarbeitetes Boostverhalten vorstellen oder einfach leicht höheres PPT.

Der_Korken
2020-06-17, 19:51:09
Definiere bitte Teillast. :)

Wenn 12 Threads bei einem 16 Threader beschäftigt sind ist es Teillast. Wenn nur zwei Threads beschäftigt sind ist es auch Teillast. Ersteres geht garantiert ins PPT-Limit, Zweiteres eher noch nicht. Es gibt nicht die Teillast. Mein 3600 läuft mit Defaultsettings bei 4+ Threads schon ins 88W PPT-Limit rein und dafür bedarf es nicht unbedingt einen Powervirus. Die 95/105W TDP CPUs haben zwar höheres PPT von 142W, die heizen aber auch stärker mit ihren höheren Frequenzen. Die 3% halte ich übrigens schon für recht optimistisch. Ich tippe eher auf 0-2%.

In meinem Fall: Teillast = "durchschnittliches" Spiele (jaja, was ist ein durchschnittliches Spiel? :D)

Interessant, dass 4 Threads dafür schon ausreichen bei 88W. Da muss viel Spannung anliegen. D.h. ein XT-Modell könnte aber trotzdem schneller sein, wenn es im oberen Bereich bei gleicher Spannung mehr Takt schafft.

dargo
2020-06-17, 19:58:10
Für ~4Ghz werden Default mehr als 1,3V angelegt. Ich lege für Allcore 4,1GHz weniger als 1,175V an. Das macht schon einen ordentlichen Unterschied. Mit dem UV laufe ich natürlich nie in Games ins PPT rein.

Langlay
2020-06-17, 20:14:14
Interessant, dass 4 Threads dafür schon ausreichen bei 88W. Da muss viel Spannung anliegen. D.h. ein XT-Modell könnte aber trotzdem schneller sein, wenn es im oberen Bereich bei gleicher Spannung mehr Takt schafft.

Pro Core bei Vollast(kein AVX/FMA3) kannste ohne Powerlimit so 12-13W rechnen. Und dann nochmal ~15W-20W für den IO Die(CPUs mit nur einem CCD sind eher bei 15W SoC, mit 2 CCDs biste da so bei ~20W SoC)

Ist natürlich ne Milchmädchenrechnung.

qiller
2020-06-17, 21:18:00
Also ne typische Spiele-Teillast sieht bei mir ungefähr so aus (Screenshot, während FFXIV-Benchmark lief):

https://oli.new-lan.de/wp-content/uploads/2020/06/teillast.png
Man beachte, dass die Limits nichtmal ansatzweise erreicht werden.

Snoopy69
2020-06-17, 21:30:58
Die 3% halte ich übrigens schon für recht optimistisch. Ich tippe eher auf 0-2%. Aber vielleicht überrascht AMD mit irgendeiner "secret sauce" (:D) und wir sehen am Ende doch etwas mehr. Die Tests werden es bald zeigen. Ich könnte mir zb. ein überarbeitetes Boostverhalten vorstellen oder einfach leicht höheres PPT.
Ich auf max. 1%

dargo
2020-06-17, 23:29:33
Also ne typische Spiele-Teillast sieht bei mir ungefähr so aus (Screenshot, während FFXIV-Benchmark lief):

https://oli.new-lan.de/wp-content/uploads/2020/06/teillast.png
Man beachte, dass die Limits nichtmal ansatzweise erreicht werden.
100% CPU-Limit? Alles andere ist ja Käse. Ich möchte nur sicherstellen, dass hier nicht mit zweierlei Maß gemesen wird. Stromverbrauch im GPU-Limit, Performance im CPU-Limit.

qiller
2020-06-18, 13:24:32
Nein, das war auch nur ein exemplarisches Beispiel. Du fragtest "definiere Teillast" und vorher gings ja auch um die Limits, daher hab ich den Screenshot gepostet, damit man weiß, worum es ging bei der Kernaussage: "bei Teillast sind es nicht die PPT-/EDC-/TDC-Limits, die den Takt begrenzen". Mit Teillast meine ich jetzt Last, die durch Spiele erzeugt wird und nicht P95 SFFT auf nur 8 Threads laufen lassen.

Benutzername
2020-06-18, 15:25:38
Ja warum sollten sie verschieben, wo doch auch Lisa Su gesagt hat, sie schauen nicht auf den Mitbewerber und halten nichts von taktischen Veröffentlichungen sondern hauen raus, was möglich ist. Haben sie bisher imo ja auch gemacht. Ein 64Kern TR wäre z.B. absolut unnötig gewesen um Intel schlecht dastehen zu lassen. Dafür reichten auch die "kleinen" TRs. Aber wenn mans hat warum nicht?!

Der 64-Kerner lässt intel ja noch älter aussehen für Multithread Anwendungen. Und strahlt als Haloprodukt auf die anderen AMD CPUs ab.


Die XTs allerdings weiß ich nicht was ich davon halten soll. Die sind imo einfach unnötig. Mal Tests abwarten.

Die XT sind einfach nur neue Steppings der CPUs mit den laufenden Produktionsverbeserungen. Jetzt halt mit tollem neuen Marketingnamen. Früher hätten sie einfach nur eine andere Stepping Nummer außen aufgedruckt.

Aber sie hätten sie Ryzen-XP nennen sollen. imho :D

dargo
2020-06-18, 15:32:07
Nein, das war auch nur ein exemplarisches Beispiel. Du fragtest "definiere Teillast" und vorher gings ja auch um die Limits, daher hab ich den Screenshot gepostet, damit man weiß, worum es ging bei der Kernaussage: "bei Teillast sind es nicht die PPT-/EDC-/TDC-Limits, die den Takt begrenzen". Mit Teillast meine ich jetzt Last, die durch Spiele erzeugt wird und nicht P95 SFFT auf nur 8 Threads laufen lassen.
Ich weiß doch was du meinst. Reale Spielelast unter deiner nativen Auflösung und Settings bei Szene X. Dennoch ist so ein Screenshot nicht zielführend. Das ist ja so als wenn ich behaupten würde meine Graka braucht nur 30W. Wäre nicht mal gelogen im Ladescreen. :tongue: Es sollte jedem klar sein, dass eine CPU im GPU-Limit kaum was verbraucht ohne nennenswerte Arbeitslast.

qiller
2020-06-18, 17:21:56
Ja, du hast natürlich Recht. Hab aber grad nochmal geguckt, der Bench läuft in FHD/Hoch mit meiner 1660 Super schon nahe dem CPU-Limit. Mit 720p/Medium wird die Grafikkarte dann gar nicht mehr vollständig ausgelastet - die CPU-Auslastung und die erreichten Taktfrequenzen sind quasi identisch zum FHD-Test.

Schnoesel
2020-06-18, 17:28:38
Mindfactory haut wieder Zen2 raus. Imo das Highlight der 3900X für 399€ im Mindstar. Scheinen wohl Platz zu machen für die XTs.

Ex3cut3r
2020-06-18, 18:04:19
Mindfactory haut wieder Zen2 raus. Imo das Highlight der 3900X für 399€ im Mindstar. Scheinen wohl Platz zu machen für die XTs.

Kein schlechter Preis IMO. Vorallem da ich die XTs CPU stand jetzt für ziemlich unnötig errachte.

dildo4u
2020-06-18, 18:06:20
Corsair One mit bis zu 3950X + 2080 Ti.

vOmJ4CqzFpc

Daredevil
2020-06-18, 18:08:07
Leude was meint ihr?
Den 2700x verkloppen für ~100-120€ und sich den 3600 für 159€ schönrechnen, weil Horizon Zero Dawn dabei ist? :D
Kommt Horizon fürn Gamepass oder so? Vermutlich nicht, mh?

Lieber 6 schnelle Kerne als 8 lahme, wa?
Den 6 Kerner kann ich ja auch die Voltkeule geben, spricht ja nichts dagegen. :>

Ex3cut3r
2020-06-18, 18:36:27
Leude was meint ihr?
Den 2700x verkloppen für ~100-120€ und sich den 3600 für 159€ schönrechnen, weil Horizon Zero Dawn dabei ist? :D
Kommt Horizon fürn Gamepass oder so? Vermutlich nicht, mh?

Lieber 6 schnelle Kerne als 8 lahme, wa?
Den 6 Kerner kann ich ja auch die Voltkeule geben, spricht ja nichts dagegen. :>

Joa. Kann man machen, aber wieso nicht gleich in die vollen gehen und einen 3700X holen? :redface:

Andererseits zockst du ja in 4K? Da reicht auch der 2700X locker. Von daher kannst du auch gleich auf Zen 3 warten. ^^

Langlay
2020-06-18, 18:38:54
Leude was meint ihr?
Den 2700x verkloppen für ~100-120€ und sich den 3600 für 159€ schönrechnen, weil Horizon Zero Dawn dabei ist? :D
Kommt Horizon fürn Gamepass oder so? Vermutlich nicht, mh?

Lieber 6 schnelle Kerne als 8 lahme, wa?
Den 6 Kerner kann ich ja auch die Voltkeule geben, spricht ja nichts dagegen. :>


Könnte man schon machen. Wenn man einen guten erwischt der 4.3-4-4. GHz Allcore packt. Ist man eigentlich immer mindestens gleichschnell wie ein 2700X, beim Gaming ist die CPU dann ein gutes Stück schneller. Wenn man dann noch DDR3600+ anstrebt hat man schon ein schönes System das kaum Strom braucht. Der 4.4 GHz Allcore 3600 meiner Frau zieht <100W in P95.

Daredevil
2020-06-18, 18:46:38
Joa. Kann man machen, aber wieso nicht gleich in die vollen gehen und einen 3700X holen? :redface:

Andererseits zockst du ja in 4K? Da reicht auch der 2700X locker. Von daher kannst du auch gleich auf Zen 3 warten. ^^
Ein Upgrade habe ich aktuell überhaupt nicht nötig, wenn ich aber durch Verkauf + Kauf auf Pi mal Daumen den gleichen Preis komme, wäre das für mich okay. Basteltrieb kommt noch dazu. ^^


Könnte man schon machen. Wenn man einen guten erwischt der 4.3-4-4. GHz Allcore packt. Ist man eigentlich immer mindestens gleichschnell wie ein 2700X, beim Gaming ist die CPU dann ein gutes Stück schneller. Wenn man dann noch DDR3600+ anstrebt hat man schon ein schönes System das kaum Strom braucht. Der 4.4 GHz Allcore 3600 meiner Frau zieht <100W in P95.
Jo, das wäre die Voraussetzung.
Auf 4.3-4.4Ghz+ muss die Mühle dann schon geprügelt werden, damit sich das ganze auch stark abhebt vom 2700X@4.15Ghz.
SingleThread Leistung fliegt der 3600 dann davon, im MultiCore würde ich leichte Einbußen haben. Aber wann haste halt schon mal 100% Auslastung auf 8 Kerne, nech.

Wenn die Kiste 150w mit Voltkeule zieht, sind es immerhin ~50w weniger im Allcore als jetzt, von daher auch irgendwie ein "Upgrade" :D

SKYNET
2020-06-18, 20:08:44
Ein Upgrade habe ich aktuell überhaupt nicht nötig, wenn ich aber durch Verkauf + Kauf auf Pi mal Daumen den gleichen Preis komme, wäre das für mich okay. Basteltrieb kommt noch dazu. ^^



Jo, das wäre die Voraussetzung.
Auf 4.3-4.4Ghz+ muss die Mühle dann schon geprügelt werden, damit sich das ganze auch stark abhebt vom 2700X@4.15Ghz.
SingleThread Leistung fliegt der 3600 dann davon, im MultiCore würde ich leichte Einbußen haben. Aber wann haste halt schon mal 100% Auslastung auf 8 Kerne, nech.

Wenn die Kiste 150w mit Voltkeule zieht, sind es immerhin ~50w weniger im Allcore als jetzt, von daher auch irgendwie ein "Upgrade" :D

also ST leistung vom 3600 PBO vs. 2700X PBO(meiner hat bis 4.45GHz geboostet) war bevor ich den EDC bug ausgenutzt habe beim 3600er, schlechter... mit EDC bug und über 4.4GHz boost, isser nun auch schneller als der 2700X...

horn 12
2020-06-19, 03:47:58
Würde auf Zen 3 warten,- oder zumindest auf Zen 2 Refresh.

PEBCAK
2020-06-19, 04:20:13
Bitte löschen....falscher thread...

Snoopy69
2020-06-19, 06:21:27
Corsair One mit bis zu 3950X + 2080 Ti.

https://youtu.be/vOmJ4CqzFpc
So langsam sind alle Kombis durch. Jetzt fehlt nur noch der 3990X...

RainingBlood
2020-06-19, 07:02:33
also ST leistung vom 3600 PBO vs. 2700X PBO(meiner hat bis 4.45GHz geboostet) war bevor ich den EDC bug ausgenutzt habe beim 3600er, schlechter... mit EDC bug und über 4.4GHz boost, isser nun auch schneller als der 2700X...

Moment, EDC=1 hat deine ST Leistung nicht gef****? Wie das? Was hast du genau gemacht?

dildo4u
2020-06-19, 08:06:16
Oh MF hat 3900X jetzt auf nicht mehr lieferbar ich hoffe das ist nicht für immer ansonsten zahlt man erstmal 100€ mehr für das neue Modell.

Schnoesel
2020-06-19, 12:07:35
Oh MF hat 3900X jetzt auf nicht mehr lieferbar ich hoffe das ist nicht für immer ansonsten zahlt man erstmal 100€ mehr für das neue Modell.

Sicher?

https://i.postimg.cc/Hx3Rwy5C/4.png

dargo
2020-06-19, 12:34:51
Einfach nur Wahnsinn wieviel Gamingperformance man für lächerliche 159€ mittlerweile bekommt. :ulol: Und da ist noch Horizon Zero Dawn™ Complete Edition dabei. :freak:

Snoopy69
2020-06-19, 19:35:44
Das ist ja keine Kunst bei grafiklimitierten Games
Interessanter finde ich den Preis für 12 Kerne

Ex3cut3r
2020-06-19, 20:10:57
Hää? Wenn beide gleich takten, man mit dem 6 Kerner im CPU Limit ist, ist man zu 99% auch mit dem 12 Kerner im CPU Limit. Eben weil die Games mit so vielen Kernen/Threads nix anfangen können. Könnte sich mit der PS5/Xbox aber bald ändern.

Dant3
2020-06-19, 20:47:33
So verlockend der Preis ist, das einzige Problem ist doch, bis diese 12 oder auch 8 Kerne wirklich gebraucht werden (zum spielen), gibt es sicher schon minimum Zen 4 und deutlich mehr IPC / keine CCX Schwaeche.

Daher lohnt sich jetzt im Moment imo nur der 3600er wirklich. Fuer langfristiges wuerde ich wohl erst bei Zen 3 auf 8 Kerne gehen wollen.

SKYNET
2020-06-19, 20:57:44
Moment, EDC=1 hat deine ST Leistung nicht gef****? Wie das? Was hast du genau gemacht?


habe ihn glaube ich auf 6.... damit boostet der 4250MHz auf allen kernen und 4450 mit 1-2, 4350-4375 mit 4.... :freak: wäre der bug nicht aufgetaucht hätte ich das ding auch geschossen(in schlafzimmer rechner, weil schneller als der 1500X dort, isser auch @ stock gewesen X-D)

RainingBlood
2020-06-19, 21:24:25
habe ihn glaube ich auf 6.... damit boostet der 4250MHz auf allen kernen und 4450 mit 1-2, 4350-4375 mit 4.... :freak: wäre der bug nicht aufgetaucht hätte ich das ding auch geschossen(in schlafzimmer rechner, weil schneller als der 1500X dort, isser auch @ stock gewesen X-D)

cool, muss ich mal ausprobieren, danke!

Snoopy69
2020-06-19, 22:27:40
Hää? Wenn beide gleich takten, man mit dem 6 Kerner im CPU Limit ist, ist man zu 99% auch mit dem 12 Kerner im CPU Limit. Eben weil die Games mit so vielen Kernen/Threads nix anfangen können. Könnte sich mit der PS5/Xbox aber bald ändern.
Als ob man mit dem Ryzen nur zocken könnte...
Gemeint war die Multicore-Leistung, wo jeder Kern 100% leisten muss


Moment, EDC=1 hat deine ST Leistung nicht gef****? Wie das? Was hast du genau gemacht?
Ob 1, 0 oder irgendwas... Es ist nicht bei jedem gleich
Man kann auch nicht sagen, dass 1 besser als 0 oder umgekehrt ist.
Zb kann 0 besser bei SC sein, aber bei MC schlechter. Ist zumindest bei mir so

Aber schön, dass man im BIOS mehrere Profile ablegen kann. Denn das Optimum für Alles gibt es leider nicht

Nightspider
2020-06-20, 09:04:16
Der 8 Core Zen 3 wird in Games eh den 12 Core Zen 2 vernichten, von daher sind die Preise nicht mal so sehr interessant.

Daredevil
2020-06-20, 11:45:16
Jup.
Zielsetzung für P/L Gaming: So viel ST Peformance wie möglich, so wenig Kerne wie nötig.
Hätte man sich bei Release nen 1600,2600,3600 geholt, wäre man günstiger und deutlich schneller im Gaming unterwegs gewesen, als mit nem 1950x. No need moar Cores AMD, Stop it. :D

Saturn hat heute Abend ab 20 Uhr "19% Mehrwertsteuer geschenkt", da versuche ich mal mein Glück. Die Preise sind zwar nur minimal günstiger als bei Mindfactory, dafür spart man sich aber die Versandkosten und Horizon gibts trotzdem dazu. :)

Thunder99
2020-06-20, 11:49:11
Daher 6-Core CPU. Guter Sweetpoint.

Snoopy69
2020-06-20, 16:36:18
Der 8 Core Zen 3 wird in Games eh den 12 Core Zen 2 vernichten, von daher sind die Preise nicht mal so sehr interessant.
Nochmal...
Es gibt auch andere Anwendungen als Games

Ausserdem - in 4K-Gaming schwindet der "Vorteil" des 6- und 8-Kerners ins Unspürbare
Oder sind hier noch so viele FHD-Zocker?

Nightspider
2020-06-20, 16:41:29
Joar, deswegen hab ich ja dazu geschrieben in Games. :)

Aber auch in Anwendungen wird wohl der 8C Zen 3 besser vergleichbar mit einem 10C Zen 2 Äquivalent und dabei stromsparender und hat halt als Bonus die fette Gaming Performance und eventuell schon wieder neuere Mainboards/Anschlüsse. Muss aber jeder selber entscheiden.

Snoopy69
2020-06-20, 16:43:43
Welche "neueren" Anschlüsse?

Nightspider
2020-06-20, 16:47:18
Ach kA, vielleicht mehr Lanes für zB. Multi GPU wie aktuell bei den neuen B550 Boards.

Langlay
2020-06-20, 16:52:12
Ach kA, vielleicht mehr Lanes für zB. Multi GPU wie aktuell bei den neuen B550 Boards.

SLI und Crossfire ist quasi tot. Ich glaub auch nicht, dass das nochmal zurückkommt. Davonab kannst beim x570 Crossfire/SLI mit 2x 8x PCI-E 4.0 betreiben. Dafür brauchst es keine neuen Boards.

robbitop
2020-06-20, 16:53:36
Ja. MGPU ist praktisch tot. Beide IHVs haben es praktisch fallen lassen. Renderpipelines werden immer komplexer.

SKYNET
2020-06-20, 18:14:25
Ja. MGPU ist praktisch tot. Beide IHVs haben es praktisch fallen lassen. Renderpipelines werden immer komplexer.

würd mich nicht wundern wenn es wieder kommt, ist ja fester bestandteil von DX12...

dargo
2020-06-20, 18:21:21
Das ist ja keine Kunst bei grafiklimitierten Games

Das sagt der Richtige der in 4k zockt. :freak:

Jup.
Zielsetzung für P/L Gaming: So viel ST Peformance wie möglich, so wenig Kerne wie nötig.

Falsch... ST-Performance ist bei AAA-Titeln die einigermaßen aktuell sind komplett uninteressant. Wenn schon dann Performance bei 4+ Threads.

=Floi=
2020-06-20, 18:35:32
würd mich nicht wundern wenn es wieder kommt, ist ja fester bestandteil von DX12...

wenn eine karte schon 1000€ kostet?

selbst wenn es perfekt skalieren würde, würde es keinen sinn machen, wenn die karten so teuer sind.

Pcie lanes bräuchte man trotzdem mehr. Speicher/10g lan.

Ex3cut3r
2020-06-20, 18:37:30
Nochmal...
Es gibt auch andere Anwendungen als Games


Die da wären? Sry, aber mir fällt das als Privat Ryzen 3700X Benutzer immer ganz schwer mich da hinein zu versetzen. Auf der Arbeit arbeite ich viel am PC, sei es die klassischen Office Programme wie Excel und Co, Photoshop, Exchange, CAD usw. Also Zeugs was dein Gehirn eh fickt. Am Privat PC will ich deswegen nach Feierabend wirklich nur abschalten und enspannten und deshalb laufen bei mir zu 85% Games. Manchmal läuft der Privat Rechner im Sommer auch gar nicht, dann unternehme ich lieber etwas. Was macht ihr denn so am Privat Rechner?

Slipknot79
2020-06-20, 18:49:30
Was macht ihr denn so am Privat Rechner?


Home Office, Daytrading (+2ter PC mit nem 2600k) und Gamen. :redface:

Monsta
2020-06-20, 19:57:27
. Was macht ihr denn so am Privat Rechner?

Video Spiele, Youtube, Netflix, Ebay, Banking.
Im Winter wenn die Abende länger sind, Mikrocontroller Programmierung,
3D Konstruktion,3D Drucker. Macht für unnötigen Spielkram mega Zeit tot.

Snoopy69
2020-06-20, 20:44:38
Das sagt der Richtige der in 4k zockt. :freak:

:tongue: :ufinger:

Daredevil
2020-06-20, 20:55:42
del

SKYNET
2020-06-20, 21:03:47
wenn eine karte schon 1000€ kostet?

selbst wenn es perfekt skalieren würde, würde es keinen sinn machen, wenn die karten so teuer sind.

Pcie lanes bräuchte man trotzdem mehr. Speicher/10g lan.

gibt leute denen is sowas wurscht... 2x 2080Ti wären/sind auch schneller als ne titan, kosten aber trotzdem nur gleichviel :D

Snoopy69
2020-06-20, 21:05:40
Lohnt eher zum Benchen
Gibt hier auch Leute, die 2x RTX Titan haben :wink:

Daredevil
2020-06-20, 21:25:30
Hab mir jetzt nen Asus B550 TuF + Ryzen 3600 gekauft für 287€ ( -32€ Cashback + Horizon Zero Dawn halt.. )
Pi mal Daumen sollte das so auf +/-0 ausgehen beim Verkauf meines jetzigen MoBo/CPUs.
Ist ( mal wieder ) ein Sidegrade, aber dafür was für die Zukunft und so. (:

Das sagt der Richtige der in 4k zockt. :freak:

Falsch... ST-Performance ist bei AAA-Titeln die einigermaßen aktuell sind komplett uninteressant. Wenn schon dann Performance bei 4+ Threads.
Hab ja nichts anderes geschrieben.
Die maximale ST Leistung pro Kern bei den minimal nötigen Kernen Allgemein.
Ein 1950X hat zu viele Kerne und zu wenig ST Leistung > Schlecht
Ein 2700X hat mehr Kerne als nötig und eine okaye ST Leistung > Besser
Ein 3600 hat den Sweetspot an Kernen und eine gute ST Leistung > Optimal für Heute
Ein 3300X hat zuwenig Kerne, dafür aber nochmal eine bessere ST Leistung > Auch gut, aber ohne genug Reserven

Für mich liegt da aktuell der SweetSpot bei 6/12, 4/8 sind zum Teil zu wenig, 8/16 zuviel, dafür aber halt mit Reserven.

Ex3cut3r
2020-06-20, 22:11:33
Mit B550 hast du halt die Möglichkeit PCI 4.0 für Ampere und eine NVME zu nutzen. Durfte für die PS5 Ports nicht sooo unwichtig werden. Dazu noch später ein Zen 3 8 Kerner rein und gut ist. :smile:

Snoopy69
2020-06-20, 22:32:35
Die da wären? Sry, aber mir fällt das als Privat Ryzen 3700X Benutzer immer ganz schwer mich da hinein zu versetzen. Auf der Arbeit arbeite ich viel am PC, sei es die klassischen Office Programme wie Excel und Co, Photoshop, Exchange, CAD usw. Also Zeugs was dein Gehirn eh fickt. Am Privat PC will ich deswegen nach Feierabend wirklich nur abschalten und enspannten und deshalb laufen bei mir zu 85% Games. Manchmal läuft der Privat Rechner im Sommer auch gar nicht, dann unternehme ich lieber etwas. Was macht ihr denn so am Privat Rechner?
Ich packe (7zip) und konvertiere viel mit Handbrake
Klar, geht das auch mit einem alten 4-Kerner.

Wenn 2-3 VMs neben dem Host laufen, sind mehr als 8 Kerne auch nicht schlecht

r3ptil3
2020-06-23, 20:38:27
Mal ein kurzes Review von meiner Seite hier zu Ryzen 3000 - vielleicht dürfte es den ein oder anderen interessieren:

Ich habe nach ca. 14 Jahren wieder mal ein AMD-System gebaut, da ich generell die aktuelle AMD-Plattform als "reif" empfunden habe.

Komponenten:
- MSI Unify x570
- Ryzen 3600

Vorweg: Alles läuft auf Anhieb, damit meine ich XMP, NVME PCIE4.0, Installation etc - das ist gut.

Jetzt aber mal zu dem was mich stört und eigentlich in keinem Review deutlich erwähnt wird:

Die CPU-Temp der Ryzen CPUs Schwankt im IDLE bis zu ca. 20° - Horror.

Selbstverständlich wurde das System geprüft - wurde alles frisch installiert mit aktuellen Treibern.

Nach diversen High-End-Kühlern, unzähligen WLPs und neu auftragen dieser, ist das definitiv nicht zu lösen mit normalen Mitteln oder ohne erweiterte Software-Eingriffe.

Mein erstes Exemplar eines Ryzen 3600 wurde zudem richtig heiss (ohne OC, alles default). Egal ob DRP4, NH-D15, die 85° Marke wurde in Prime95 bereits innerhalb weniger Minuten gesprengt.
Jedenfalls habe ich nach 2 Wochen die CPU ausgetauscht und siehe da, gleich mal 10° Kühler von Beginn an. Die Hoffnung, dass auch die seltsamen Temperatursprünge von bis zu 20° ebenfalls gelöst werden: Fehlanzeige.

Klar, man kann das einfach ignorieren und manuell die Lüfterkurve anpassen, Zusatzsoftware installieren (MSI Dragon Center / User Scenario "Silent anwählen) aber das ist für mich ein Qualitätsmerkmal und löst das Problem nicht, sondern umgeht es einfach.

Das gleiche Gehäuse und die gleichen Kühler haben einen 8700K unter Dauerlast in Prime95 sehr sehr weit unter 70° gehalten und vor allem gab es im Desktop (egal ob ein Dienst mal 20% Leistung beansprucht, keine solchen merkwürdigen Temperatursprünge, sondern es blieb alles deutlich unter 10° Differenz.

Ich habe mich natürlich auch mit dem Temperatur-Sensor auseinandergesetzt und ja, Intel misst die Temperatur anders, aber das ist eigentlich schlichtweg egal hierbei.

Der zweite negative Punkt: OC - um es kurz zu halten, OC am besten einfach vergessen, wenn man ein Ryzen-System hat.

Das Gleiche gilt grundsätzlich ebenso für Undervolting.

Linmoum
2020-06-23, 21:07:05
Das mit den sprunghaften Temperaturanstiegen hätte dir allerdings auch jeder Zen(2)-User sagen können und du hättest dir die Mühe mit dem rumprobieren sparen können. :tongue: Das ist ganz normal und auch schon seit dem Ur-Zen von 2017 der Fall.

Dass die Temperaturen unter Volllast bei den Mini-Chiplets sehr hoch sind, ist ja auch nur logisch. Je kleiner der Die, desto schwieriger wird die Kühlung.

Ex3cut3r
2020-06-23, 21:11:17
Ich habe seit einigen Monaten auch einen 3700X davor einen 4770k. Ich habe den Energiesparplan von sz_cb installiert.
https://www.computerbase.de/forum/threads/energiesparplan-zen2-ryzen-3000.1934824/

Und damit die Temperatur Sprünge im Idle und kleiner Last eindämpfen können. Max Temperatur ist bei mit 240er AIO und Allcore OC @ 4,4 @ 1.375V mit 75 Grad in Ordnung. Mein 4770k @ 4,1 @ 1.190V war dagegen ein Hitzkopf....

qiller
2020-06-23, 21:19:42
Naja, seine Kritik ist nicht unberechtigt, die ging aber auch eher in Richtung Reviewer. Und das man sich erstmal ausführlichst in Fachforen erkundigen muss, welche neuen Probleme mit einer Plattform bestehen, spricht jetzt auch nicht für AMD. Das mit den stark schwankenden Temperaturen oder z.B. auch die Lüfter auf den X570-Chipsätzen, das hat AMD klar vergeigt, da gibts auch nichts zu beschönigen. Gerade das mit den Temperaturen hätte man mit den MB-Herstellern zusammen garantiert hinbekommen können.

Dass eine andere CPU auch gleich mal 10K kühler laufen kann, ist auch mittlerweile bestätigt worden. Glaube Roman hatte da mal nen Video mit den aktuellen Intel-CPUs gemacht. Wie stark die Streuung ausfallen kann, ist doch nicht unerheblich. Ich sehe es auch an meinem 3950X, wo die beiden CCD-Temperaturen fast 10K auseinander liegen.

r3ptil3
2020-06-23, 21:21:16
Das mit den sprunghaften Temperaturanstiegen hätte dir allerdings auch jeder Zen(2)-User sagen können und du hättest dir die Mühe mit dem rumprobieren sparen können. :tongue: Das ist ganz normal und auch schon seit dem Ur-Zen von 2017 der Fall.

Dass die Temperaturen unter Volllast bei den Mini-Chiplets sehr hoch sind, ist ja auch nur logisch. Je kleiner der Die, desto schwieriger wird die Kühlung.

Klingt ja logisch, aber jedes Review, bis auf das von Computerbase gibt beim 3600er tiefere Temperaturen als beim 3700x und höher an.

Entweder waren alle zu faul, ausser Computerbase oder die hatten bessere Samples.

Linmoum
2020-06-23, 22:17:24
Naja, seine Kritik ist nicht unberechtigt, die ging aber auch eher in Richtung Reviewer. Und das man sich erstmal ausführlichst in Fachforen erkundigen muss, welche neuen Probleme mit einer Plattform bestehen, spricht jetzt auch nicht für AMD.
Das "Problem" ist erstens keines und zweitens ist es nicht neu. Und ausführlichst informieren ist auch völliger Käse. So eine Frage hier ist wahrscheinlich schneller beantwortet, als sich mehrere Reviews anzuschauen.

Die Reviewer ziehen ihren Standardkrams durch und fertig, mehr gibt es nur selten. Das hat viele Gründe, aber für mehr als Benchmarks und ein paar andere Sachen ist die gängige Userbase ein deutlich besserer Ansprechpartner. Ganz allgemein jetzt, nicht als Vorwurf gemeint @bardh. ;)

Das mit den stark schwankenden Temperaturen oder z.B. auch die Lüfter auf den X570-Chipsätzen, das hat AMD klar vergeigt, da gibts auch nichts zu beschönigen. Gerade das mit den Temperaturen hätte man mit den MB-Herstellern zusammen garantiert hinbekommen können.Das unglaublich flexible Boostverhalten von Zen2 ist genauso von AMD gewollt. Das ist nicht vergleichbar mit dem, was man bisher kannte. Aus diesem Grund ist da weder was vergeigt worden, noch hätte man da irgendwas mit den MB-Herstellern machen können.

Gerade die dafür anzuführen ist ja schon grotesk. Die halten sich am wenigsten an irgendwelche Limits/Empfehlungen oder wollen energiesparend sein. Zuletzt hat man das erst bei CML gesehen, da ignoriert gefühlt jedes Board das, was Intel eigentlich vorgibt.

Zu X570: Für die Chipsätze war/ist grundsätzlich immer ASMedia zuständig, wie auch jetzt für B550. Wie man aber sieht, haben sie ewig dafür gebraucht. Ohne AMDs Zweckentfremdung des IO-Dies hätte es ewig kein PCIe 4.0 gegeben. Das war ein smarter Move von AMD als Zwischenlösung. Und es gibt ja genug Erfahrungsberichte zu den Lüftern, bei vielen Boards sind die nur für den absoluten Notfall und laufen im normalen Betrieb nicht einmal an.

Der_Korken
2020-06-23, 22:37:17
Ich habe seit einigen Monaten auch einen 3700X davor einen 4770k. Ich habe den Energiesparplan von sz_cb installiert.
https://www.computerbase.de/forum/threads/energiesparplan-zen2-ryzen-3000.1934824/

Und damit die Temperatur Sprünge im Idle und kleiner Last eindämpfen können. Max Temperatur ist bei mit 240er AIO und Allcore OC @ 4,4 @ 1.375V mit 75 Grad in Ordnung. Mein 4770k @ 4,1 @ 1.190V war dagegen ein Hitzkopf....

Mit Allcore-Übertaktung dürfte das Problem generell etwas geringer sein, weil auch bei Singlecore-Last nicht mehr als 1,375V anliegen. Das Problem der Sprünge kommt imho von solchen Singlecore-Boosts, wo ein Kern von 2,2Ghz@0,8V auf 4,xGhz@1,5V hochgejagd wird für eine Sekunde (zumindest ist das bei Zen+ so, ich denke bei Zen2 wird sich nichts geändert haben). Dadurch springt die Temp extrem nach oben, weil diese keine Durchschnittstemp ist, sondern der heißeste Hotspot auf dem Chip - also dieser eine Kern, der gerade brutzelt.

qiller
2020-06-24, 01:53:35
Das "Problem" ist erstens keines und zweitens ist es nicht neu.
Weiß jetzt nicht, was du mit "Problem" genau meinst, aber egal obs die Rewiewer sind oder das Temperaturverhalten von Zen2, es ist meiner Meinung nach nicht Ordnung so und sollte kritisiert werden.


Und ausführlichst informieren ist auch völliger Käse. So eine Frage hier ist wahrscheinlich schneller beantwortet, als sich mehrere Reviews anzuschauen.

Für aktive Forenteilnehmer wie dich und mich stimmt das auch, aber was ist mit dem Rest, der nicht einen "Zen 2/Ryzen 3000 Review-Thread" verfolgt? Wie gesagt, die deutlich erhöhte Wärmestromdichte von Zen2, das Prinzip "Race-to-Idle" und die damit einhergehenden erhöhten CPU-Temperaturschwankungen hätten mMn viel stärker in den Reviews erwähnt werden müssen. Igor hatte das leider auch erst später nochmal in nem Video aufgearbeitet.


Das unglaublich flexible Boostverhalten von Zen2 ist genauso von AMD gewollt. Das ist nicht vergleichbar mit dem, was man bisher kannte. Aus diesem Grund ist da weder was vergeigt worden, noch hätte man da irgendwas mit den MB-Herstellern machen können.
...

Natürlich hätten die MB-Hersteller was tun können. Allein sämtliche Standardkurven hätte man anpassen können. Hysterese hätte AMD vorschreiben können. Oder die Lüftersteuerung erfolgt über einen Faktor, der die hohen Schwankungen ausgleicht. Gäbe da sicherlich einige Möglichkeiten. Ich hatte anfangs bei meinem 3950X genau dieselben Probleme und das, obwohl ich die Threads verfolgt hatte. Letztendlich konnte ich es bei mir zufriedenstellend einstellen, indem ich eine 420er AiO zur Kühlung und ein Board von Gigabyte mit externen, trägeren Temp-Sensoren als Regelungsgröße benutzte.


Zu X570: Für die Chipsätze war/ist grundsätzlich immer ASMedia zuständig, wie auch jetzt für B550. Wie man aber sieht, haben sie ewig dafür gebraucht. Ohne AMDs Zweckentfremdung des IO-Dies hätte es ewig kein PCIe 4.0 gegeben. Das war ein smarter Move von AMD als Zwischenlösung. Und es gibt ja genug Erfahrungsberichte zu den Lüftern, bei vielen Boards sind die nur für den absoluten Notfall und laufen im normalen Betrieb nicht einmal an.
Sry, aber an einen Chipsatz, der aktiv gekühlt werden muss, find ich überhaupt nichts "smart", da gehen wohl unsere Meinungen auseinander. Und zu den Lüftern sprechen wir uns vlt in 2 Jahren nochmal.

Armaq
2020-06-24, 09:48:12
Die Dinger sind vor einem Jahr rausgekommen und was jetzt hier als "komisches" Verhalten diskutiert wird, ist auch au Websiten nachlesbar. Es war nur schockierend wie super simpel die meisten Tester da ran gegangen sind.

Anstatt einer Beobachtung und Schlussfolgerung bekommt man eben schnell durchgezogenen Einheitsbrei mit ein paar warmen Worten.

Schnoesel
2020-06-24, 10:14:17
Leider hat man eben das Standardwerk durchgezogen bei den meisten Testern ohne überhaupt ins Detail zu gehen. Solche Artikel:

https://www.anandtech.com/show/14873/reaching-for-turbo-aligning-perception-with-amds-frequency-metrics-

gab es im deutschen Raum so gut wie gar nicht, hätte aber geholfen zu verstehen, dass AMD hier nicht einfach Intel 2.0 ist sondern einen eigenen Ansatz wählt.

Das mist der Hysterese sehe ich allerdings auch, das hätte man besser lösen können von seiten der Mobohersteller. Es scheint allerdings dass man noch einen weiten Weg gehen muss bis diese AMD Produkten die gleiche Aufmerksamkeit zollen wie Intel.

r3ptil3
2020-06-24, 12:54:00
Als Erinnerung bezüglich den Temperatur-Schwankungen:

Die MSI Dragon-Center APP ermöglicht eine Alternativlösung, sobald man User-Scenario auf "silent" setzt.

Die CPU taktet runter und unabhängig davon ob man 2% oder 10% Auslastung hat, die Temperatur-Schwankungen sind eliminiert. Verhält sich dann sehr ähnlich wie ein vergleichbares Intel-System.

Selbst die Mainboard-Temperaturanzeige gibt den gleichen Wert aus. Die Schwankungen liegen unter 5K.

Als eine dauerhafte Lösung empfinde ich das trotzdem nicht, da die Software fehleranfällig ist und gerade bei Leuten mit mehreren Windows-Installation (mich eingeschlossen) jedes Mal die Software installiert werden muss.

dildo4u
2020-06-24, 12:59:31
Dein Board hat dieses Silent Profil nicht im Bios? Ich habe bei meinem Ryzen System den CPU Lüfter gewechselt und dann in meinem Asus B350 Bios auf Silent gestellt, der Lüfter ist so leise das er selbst bei Max nicht wirklich stört.


https://www.alternate.de/Scythe/Kaze-Flex-120-PWM-Geh%C3%A4usel%C3%BCfter/html/product/1376115

Der_Korken
2020-06-24, 13:06:28
A
Die MSI Dragon-Center APP ermöglicht eine Alternativlösung, sobald man User-Scenario auf "silent" setzt.

Die CPU taktet runter und unabhängig davon ob man 2% oder 10% Auslastung hat, die Temperatur-Schwankungen sind eliminiert. Verhält sich dann sehr ähnlich wie ein vergleichbares Intel-System.

Selbst die Mainboard-Temperaturanzeige gibt den gleichen Wert aus. Die Schwankungen liegen unter 5K.

Das klingt für mich wie das, was das Energiesparprofil unter Windows macht. Der Nachteil ist, dass das System auch bei Last nicht hochtaktet und sich spürbar träge anfühlt.

qiller
2020-06-24, 13:10:04
Also bevor ich irgendwelche Tools der Hersteller installiere, würde ich eher den Energieplan versuchen, den Ex3cut3r verlinkt hat. Im Uefi kann man sich auch mal diesen Eco-Mode anschauen, nutzen auch einige hier.

AMD hat halt mit seinem Prinzip "Race-to-Idle" eben Vor- aber auch die hier erwähnten Nachteile. Verringert man die Auswirkungen des Prinzips, verringert man die Nachteile, aber auch die Vorteile. Wie immer eine Abwägungssache.

sapito
2020-06-24, 13:13:27
Als Erinnerung bezüglich den Temperatur-Schwankungen:

Die MSI Dragon-Center APP ermöglicht eine Alternativlösung, sobald man User-Scenario auf "silent" setzt.

Die CPU taktet runter und unabhängig davon ob man 2% oder 10% Auslastung hat, die Temperatur-Schwankungen sind eliminiert. Verhält sich dann sehr ähnlich wie ein vergleichbares Intel-System.

Selbst die Mainboard-Temperaturanzeige gibt den gleichen Wert aus. Die Schwankungen liegen unter 5K.

Als eine dauerhafte Lösung empfinde ich das trotzdem nicht, da die Software fehleranfällig ist und gerade bei Leuten mit mehreren Windows-Installation (mich eingeschlossen) jedes Mal die Software installiert werden muss.

ein nicht unbekannter Foren User hat hierzu ein Video gemacht


-V075IWt_-w

qiller
2020-06-24, 13:55:35
ein nicht unbekannter Foren User hat hierzu ein Video gemacht

https://youtu.be/-V075IWt_-w
thx an anddill :up:
Eine andere Methode wäre, eine andere, trägere Regelungsgröße für die Lüftersteuerung zu verwenden, wenn das Mainboard die Möglichkeit bietet. Nutzer mit Wasserkühlung und einem Wassertemperatursensor sind hier auf jeden Fall fein raus.

Der_Korken
2020-06-24, 14:03:48
Tempsensoren sind eine feine Sache, auch wenn die meisten Boards sowas leider nicht bieten bzw. nur die teuren. Ich nutze einen zur Messung der Lufttemperatur, um damit die Casefans zu steuern. Mit einer AiO könnte man eventuell einen Sensor am Radiator anbringen. Solange der nicht warm wird, bringt es auch nichts die Lüfter anzuziehen. Wassertemp wäre natürlich noch besser, aber das geht nur bei ner Custom.

qiller
2020-06-24, 14:26:37
...Mit einer AiO könnte man eventuell einen Sensor am Radiator anbringen. Solange der nicht warm wird, bringt es auch nichts die Lüfter anzuziehen...
Genau so hab ich das mit meiner AiO gemacht. Tempsensor in den Radi und den dann als Regelungsquelle für die Lüfter der AiO verwendet. Flache Kurve dazu, läuft!

Tesseract
2020-06-24, 14:42:03
man muss es nicht komplizierter machen als es ist: eine lineare lüfterkurve von 50-90°C reicht. diese wilden sprünge gibt es nur im ~30-50°C bereich wenn die CPU fast komplett idle ist. das "problem" ist eigentlich keins, abgesehen davon dass die mobo-hersteller die lüfterkurven verkackt haben mit großen drehzahlspannen im 20-50°C bereich.

B@ndit
2020-06-24, 14:56:33
Also ersteinmal glaube ich nicht, dass die Temperaturen eines Intel-Systems während kurzfristiger Boost sich groß anders verhalten, es werden wahrscheinlich nur keine Messwerte zu lokalen Hotspots ermittelt oder ausgegeben. Daher finde ich es ersteinmal gut, dass die Messwerte zur Verfügung stehen.

Wie diese dagegen interpretiert werden, ist dann Sache des Nutzers bzw. des Programms, das mit diesen Werten arbeitet:
Zeigt irgend eine Systemsoftware diese an und es gibt sonst keine negativen Auswirkungen, handelt es sich meiner Meinung nach um kein Problem. Vielleicht sind die Sprünge ungewohnt zu sehen, aber eigentlich bei einer winzigen CPU die extrem schnell zwischen verschiedenen Spannungen und Stromstärken umschaltet, nicht anders zu erwarten.
Gibt es dagegen negative Auswirkungen, wie eine ständige Änderung der Geschwindkeit des CPU-Lüfters ist das natürlich blöd. Bei mir (3700X, MSI B450 Tomahawk, Scythe Fuma 2) gab es das Problem auch. Hier liegt aber meiner Meinung nach die Schuld klar beim Mainboardhersteller. Gelöst habe ich das Problem durch Anpassung von Lüfterkurve und Hysterese im Bios.

Also ich würde sagen die Temps sind kein Problem, nur der Umgang des Mainboards damit.

aufkrawall
2020-06-24, 15:03:46
Ich lasse seit jeher die Lüfterdrehzahl für sämtliche ASICs erst ab 65°C ansteigen. Ich sehe da entsprechend kein Problem, sofern die CPU nicht ständig schon bei geringer Last in diesen Bereich springt.

Benutzername
2020-06-25, 20:45:44
man muss es nicht komplizierter machen als es ist: eine lineare lüfterkurve von 50-90°C reicht. diese wilden sprünge gibt es nur im ~30-50°C bereich wenn die CPU fast komplett idle ist. das "problem" ist eigentlich keins, abgesehen davon dass die mobo-hersteller die lüfterkurven verkackt haben mit großen drehzahlspannen im 20-50°C bereich.

Scheint mir, daß die einfach nach Schema F die Kurven übernommen haben von anderen älteren UEFIs. Ein AMD FX oder Intel i-irgendwas ist mit den Kurven ja gut gefahren. Bei MSI, Gigabyte usw usf. arbeiten ja nur eine handvoll Leute an allen Firmwares für die Mainboards. Da kann ich shcon verstehen, wenn sie da einfach was übernehmen.

y33H@
2020-06-25, 22:35:55
Mir scheint, ich habe die XT SKUs etwas unterschätzt.

SKYNET
2020-06-25, 23:10:30
Mir scheint, ich habe die XT SKUs etwas unterschätzt.

warum meinst? gehen doch ab wie sau?

qiller
2020-06-25, 23:16:51
2100MHz fclk :F
https://www.chiphell.com/forum.php?mod=viewthread&tid=2237727&extra=page=1&filter=typeid&typeid=220

y33H@ hat bestimmt schon Testexemplare der XTs bekommen?

Linmoum
2020-06-25, 23:19:00
Das ist Renoir.

qiller
2020-06-25, 23:21:25
Ich weiß?
Edit: Achso unglücklich gepostet, zweite Aussage hat nichts mit ersterer zu tun :x.

mironicus
2020-06-26, 08:52:34
Die Latenz sieht doch richtig gut aus, nur 62.6 ms. Da macht schneller Speicher noch mehr Sinn. Ich bin gespannt wie Renoir im Vergleich zum Zen 2 abschneidet - vor allem in Spielen. Der Stromverbrauch dürfte im Idle-Betrieb 12-18 Watt geringer sein.

dildo4u
2020-06-26, 09:52:18
Könnte sein das die Fclock bei den XT Modellen auch so gut geht da wird man immer vorne sein gegenüber Renoir.

dargo
2020-06-26, 10:31:56
Mir scheint, ich habe die XT SKUs etwas unterschätzt.
Gibts doch eine "secret sauce" drin? :upara:

mironicus
2020-06-26, 11:09:44
Wahrscheinlich werden die XT-CPUs gerade in 1080P-Spielen schneller sein als die Taktfrequenz-Verbesserungen es zunächst vermuten lassen, also nicht mehr FPS im einstelligen %-Bereich, sondern häufiger im zweistelligen %-Bereich (>10%).

Besseres Binning bedeutet erst mal geringerer Stromverbrauch und bei Teillast eine höhere Taktrate auf mehr Kernen als beim Vorgänger. Während der angegebene Turbo beim Vorgänger nur selten erreicht wird, und dann vielleicht mal nur auf einen Kern, dürften XT-CPUs den angegebenen Turbo häufig erreichen und dann auf mehreren Kernen gleichzeitig und das schlägt dann voll durch bei einigen Spielen.

Ex3cut3r
2020-06-26, 12:18:06
Mir scheint, ich habe die XT SKUs etwas unterschätzt.

Hmm. :uponder:

fulgore1101
2020-06-26, 12:43:40
Eben ist mein 3600 für 153€ inkl. Horizon Zero Dawn von Saturn gekommen. Jetzt überlege ich tatsächlich, ob ich den wieder zurück schicke und doch auf einen 3600XT gehe. :confused:

Reviews kommen auch erst am 7.7, vermute ich? Ist schon was zum Preis bekannt?

dildo4u
2020-06-26, 12:45:47
Viel zu teuer für die mehr Leistung, um 250€.

y33H@
2020-06-26, 12:52:55
Die finalen Preise gilt es freilich abzuwarten.

Ex3cut3r
2020-06-26, 12:56:26
Eben ist mein 3600 für 153€ inkl. Horizon Zero Dawn von Saturn gekommen. Jetzt überlege ich tatsächlich, ob ich den wieder zurück schicke und doch auf einen 3600XT gehe. :confused:

Reviews kommen auch erst am 7.7, vermute ich? Ist schon was zum Preis bekannt?

Braucht man nicht ein Bios Update? Wenn dein MB sich ohne CPU updaten lässt. Gut....wenn nicht? Wie soll man XT CPUs ans laufen bekommen?

dildo4u
2020-06-26, 12:59:35
US Preis ist bekannt ein 3900 kostet z.b um 410$ bei Amazon US und 410€ bei Mindfactory,das wird sich nicht viel geben.

Daredevil
2020-06-26, 13:00:11
Eben ist mein 3600 für 153€ inkl. Horizon Zero Dawn von Saturn gekommen. Jetzt überlege ich tatsächlich, ob ich den wieder zurück schicke und doch auf einen 3600XT gehe. :confused:

Reviews kommen auch erst am 7.7, vermute ich? Ist schon was zum Preis bekannt?
Mit Saturn Card kannst du doch einen Monat lang das Ding zurückschicken bzw. verkauf doch einfach den Prozessor, Zero Dawn hast du ja dann immer noch.
Ist ja kein Risiko. :)

fulgore1101
2020-06-26, 13:48:53
Viel zu teuer für die mehr Leistung, um 250€.

Die finalen Preise gilt es freilich abzuwarten.

~250€ wäre es mir dann auch nicht wert. 200€ würde ich mir den Spaß aber kosten lassen.

Braucht man nicht ein Bios Update? Wenn dein MB sich ohne CPU updaten lässt. Gut....wenn nicht? Wie soll man XT CPUs ans laufen bekommen?
Ich habe noch garkein Board, sondern kauf mir denmächst ein B550 Brett.

Mit Saturn Card kannst du doch einen Monat lang das Ding zurückschicken bzw. verkauf doch einfach den Prozessor, Zero Dawn hast du ja dann immer noch.
Ist ja kein Risiko. :)

Eine Saturn Card hab ich nicht und den Spiele Code bekomme ich erst nach Ablauf der Widerrufsfrist.

Ex3cut3r
2020-06-26, 16:18:22
Ich habe noch garkein Board, sondern kauf mir denmächst ein B550 Brett.


Ach so, ok. Interessante Vorgehensweise. Jeden Monat eine neue HW Komponente kaufen? :wink:

Daredevil
2020-06-26, 16:51:55
Eine Saturn Card hab ich nicht und den Spiele Code bekomme ich erst nach Ablauf der Widerrufsfrist.
Na entweder oder.... zurückschicken und alles ist gut.
Verkaufen für ~140-150€ und du bekommst noch Horizon dazu ;)

Linmoum
2020-06-26, 18:23:41
Mindfactory haut wieder einen raus, 3700X für 259€ (nach Mitternacht ohne VSK).

https://i.gyazo.com/081211d26a405cd3b140a11d4097f6d9.png
https://www.mindfactory.de/DAMN

SKYNET
2020-06-26, 20:11:03
wurde doch schon gesagt das die XT versionen den gleichen UVP haben werden wie die normalen X bei erscheinen... die X werdne dementsprechend günstiger werden.

dildo4u
2020-06-27, 09:37:07
Passmark hat seine Market Share Zahlen nach Desktop,Notebook und Server getrennt.
Schätze mal deswegen sieht es auf Steam so schlecht aus, es gibt Tonnen die mit Notebooks zocken. Deutlich Mehr als ich angenommen hab.

https://www.cpubenchmark.net/market_share.html

qiller
2020-06-27, 11:42:36
... es gibt Tonnen die mit Notebooks zocken. Deutlich Mehr als ich angenommen hab.
...
Ja, das erstaunt mich auch immer wieder. Aber das ist gar nicht aufs Gaming beschränkt, das betrifft alle Bereiche der PC-Nutzung. Und das sogar trotz dass der Rechner dann praktisch wie ein Stand-PC genutzt wird und gar nicht mobil eingesetzt wird. Ich mach ja auch hier und da mal ne Beratung und ihr glaubt gar nicht, wie verkrustet die Menschen sind. Die würden sich wieder ein Laptop kaufen, obwohl der Vorherige aufgrund von fehlender Luftzufuhr und Flachbauweise überhitzte und gebrochene Scharnierhalterungen hatte. Ich frag dann immer, ob überhaupt eine mobile Nutzung des Gerätes benötigt wird und in bestimmt 50% kommt da wirklich ein: "Nein". :rolleyes: (Edit: Achso, und vor dem "Nein" kommt meist noch das übliche "Hab ich noch gar nicht drüber nachgedacht")

SKYNET
2020-06-27, 11:54:18
Ja, das erstaunt mich auch immer wieder. Aber das ist gar nicht aufs Gaming beschränkt, das betrifft alle Bereiche der PC-Nutzung. Und das sogar trotz dass der Rechner dann praktisch wie ein Stand-PC genutzt wird und gar nicht mobil eingesetzt wird. Ich mach ja auch hier und da mal ne Beratung und ihr glaubt gar nicht, wie verkrustet die Menschen sind. Die würden sich wieder ein Laptop kaufen, obwohl der Vorherige aufgrund von fehlender Luftzufuhr und Flachbauweise überhitzte und gebrochene Scharnierhalterungen hatte. Ich frag dann immer, ob überhaupt eine mobile Nutzung des Gerätes benötigt wird und in bestimmt 50% kommt da wirklich ein: "Nein". :rolleyes:

nutze meine HP elitebooks allesamt auch mobil... ok, das 15er im sinne von wohnzimmer --> schlafzimmer und zurück, aber das 14er wird zum auflegen genutzt, das 11er als reisemittel. :)

Benutzername
2020-06-28, 23:33:31
wurde doch schon gesagt das die XT versionen den gleichen UVP haben werden wie die normalen X bei erscheinen... die X werdne dementsprechend günstiger werden.

Aber effetktiv teurer, weil keine Kühler mehr mitgeliefert werden sollen. Schade eigentlich. Der Prism ist ein echt guter Kühler.

Beim 3600X hätte Ich mir aber schon immer einen anderen gekauft mit Heatpipes, weil der ja nur mit dem Spire kommt. Da ist das IMHO kein so großer Verlust.


------------------------------------------------

Ja, das erstaunt mich auch immer wieder. Aber das ist gar nicht aufs Gaming beschränkt, das betrifft alle Bereiche der PC-Nutzung. Und das sogar trotz dass der Rechner dann praktisch wie ein Stand-PC genutzt wird und gar nicht mobil eingesetzt wird. Ich mach ja auch hier und da mal ne Beratung und ihr glaubt gar nicht, wie verkrustet die Menschen sind. Die würden sich wieder ein Laptop kaufen, obwohl der Vorherige aufgrund von fehlender Luftzufuhr und Flachbauweise überhitzte und gebrochene Scharnierhalterungen hatte. Ich frag dann immer, ob überhaupt eine mobile Nutzung des Gerätes benötigt wird und in bestimmt 50% kommt da wirklich ein: "Nein". :rolleyes: (Edit: Achso, und vor dem "Nein" kommt meist noch das übliche "Hab ich noch gar nicht drüber nachgedacht")


Eigentlich wären das Kunden für einen NUC/Macmini/Deskmini etc. Auch platzsparend, aber bessere Kühlung. Und man kann einen vernünftigen Monitor anschließen.

SKYNET
2020-06-29, 22:34:37
Aber effetktiv teurer, weil keine Kühler mehr mitgeliefert werden sollen. Schade eigentlich. Der Prism ist ein echt guter Kühler.

Beim 3600X hätte Ich mir aber schon immer einen anderen gekauft mit Heatpipes, weil der ja nur mit dem Spire kommt. Da ist das IMHO kein so großer Verlust.


------------------------------------------------




Eigentlich wären das Kunden für einen NUC/Macmini/Deskmini etc. Auch platzsparend, aber bessere Kühlung. Und man kann einen vernünftigen Monitor anschließen.


mal ehrlich, wer nutzt den boxed? klar isser -für nen boxed- sehr gut, aber wenn mans leise und kühl will, kauft man nen 30€ towerkühler und gut is... darum zu verschmerzen das keine kühler mehr mitkommen.

Daredevil
2020-06-30, 03:03:00
Könnte man schon machen. Wenn man einen guten erwischt der 4.3-4-4. GHz Allcore packt. Ist man eigentlich immer mindestens gleichschnell wie ein 2700X, beim Gaming ist die CPU dann ein gutes Stück schneller.
Passt genau so. :)

Cinebench R20
Ryzen 2700x@4.15Ghz@3333CL14
SingleCore: 427pts
MultiCore: 4150pts

Ryzen 3600@4.4Ghz@3000CL15
SingleCore: 502pts +17,5%
MultiCore: 3957pts -4,6%

Im laufe der Woche kommt neuer RAM, dann nehme ich mir den 2700x Multi Core Score vor. :>

PS: Halber Verbrauch im MT, nech.

bnoob
2020-06-30, 14:25:57
mal ehrlich, wer nutzt den boxed? klar isser -für nen boxed- sehr gut, aber wenn mans leise und kühl will, kauft man nen 30€ towerkühler und gut is... darum zu verschmerzen das keine kühler mehr mitkommen.
Die allermeisten Ryzen Budget Builds die ich gesehen habe z.B., warum auch nicht, immerhin tut er was er soll

SKYNET
2020-06-30, 21:02:26
Passt genau so. :)

Cinebench R20
Ryzen 2700x@4.15Ghz@3333CL14
SingleCore: 427pts
MultiCore: 4150pts

Ryzen 3600@4.4Ghz@3000CL15
SingleCore: 502pts +17,5%
MultiCore: 3957pts -4,6%

Im laufe der Woche kommt neuer RAM, dann nehme ich mir den 2700x Multi Core Score vor. :>

PS: Halber Verbrauch im MT, nech.

was bringt speicher nochmals bei CB? ehm... stimmt, sogut nix :D

BoM
2020-06-30, 22:56:51
gab übrigens heute mittag richtig gute ryzen deals bei amazon :freak:
https://www.mydealz.de/deals/amd-ryzen-7-3800x-45ghz-am4-36mb-cache-wraith-prism-fur-26105-amazon-1612731

dildo4u
2020-07-01, 15:43:40
GPU Skaling Test mit 2080 Ti,2070 Super,RX5700,RX580 8GB.


C8r50uvwJ8E

Daredevil
2020-07-01, 18:04:53
Nach einem Tag basteln muss ich sagen, dass ich die Temperatur Herausforderungen von nur einem DIE echt unterschätzt habe.
Die Kiste will zwar nur 120w haben, aber gekühlt bekomm ich den scheiß 3600er nicht wirklich unter 100°C bei 4.4Ghz@1.4v. :<
Ich muss also nun Performance zurückschrauben, weil der Chiplet einfach zu winzig ist für nen hohen Verbrauch.

Also 4.4Ghz schaffe ich nicht im Prime, 4.3Ghz schon @ 1.325v atm., aber eigentlich..... wäre da mehr möglich. Wozu hat man eigentlich nen Tower Kühler, wenn der eh nichts bringt. :D

Meinetwegen könnte das Ding auch 200w schlucken, wenn ich 4.5Ghz schaffe.... aber das ist wohl nicht so möglich. Ist Matisse größer, schon oder?
Ich bastel mal weiter.

RainingBlood
2020-07-01, 18:25:09
Liegt die Spannung SC oder MC an? Bei der kleinen Oberfläche ist es halt ein Problem für den Kühler die Wärme aufzunehmen

Setz mal alles auf Standard und teste den EDC Wert aus. Für den 8-Kerner soll wohl ein Wert von 6 ideal sein, musste mal rumprobieren. Dürfte pi mal Daumen den MC-Takt um etwa 200 MHz anheben, ohne das du Temperaturprobleme bekommst.

Daredevil
2020-07-01, 18:39:15
MC Werte sind das, ich habe Manuell übertaktet, probiere mich aber gerade noch aus.
Jo ich wusste ja, dass das ein Problem ist, aber das es so stark ist, war mir nicht bewusst.

https://abload.de/img/unbenannt8gjvx.png
45°C und 93°C, tolle Spanne. :D ( Prime Last )
Mit dem Kühler habe ich nen 2700x bei 230w unter 90°C gekühlt, jetzt habe ich nahezu die gleiche Temperatur bei dem halben Verbrauch, meh.

Ich teste PBO mal noch durch, ich erwarte da aber nicht mehr Leistung.

qiller
2020-07-01, 18:46:36
Die Streuuung bei aktuellen CPUs ist nicht ohne. Da sind locker 10K Temperaturunterschied bei ein und demselben CPU-Modell möglich. PBO kannste dir schenken :F. Würde dein 3600er auf 4.2GHz dauerhaft laufen lassen. <1.3VCore sollte dafür eigt. reichen.