PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

w0mbat
2019-05-28, 18:22:11
r/ihavesex

Linmoum
2019-05-28, 19:15:27
Bei Chiphell hat jemand ein ES in die Hände bekommen. :D Laut reddit wohl derselbe, der vor einiger Zeit schon den 3200G/3400G hatte.

https://static.chiphell.com/forum/201905/28/133845g8k99yhnlzr4bh4h.jpg

Reading through this, with my awareness of who a couple of these people are (yeah.. I get around)...

The takeway seems to be this:

4.8GHz is achievable on all cores
~4.4GHz performs similar to a 5Ghz 9900k - in Cinebench (not surprising)
5.0GHz is doable, but it's a challenge
Overclock for overclock, Ryzen 3000 is still faster (in Cinebench?)
5GHz boost isn't infeasible
5Ghz all core is pretty much a no-go.
1.35V for all core 4.5Ghz (THIS is amazing)
Memory is being run very loose and slow to assure stability for testing

That's the information from people who actually have samples.
https://www.reddit.com/r/Amd/comments/bu1sa0/someone_from_chiphell_has_a_matisse_engineering/

w0mbat
2019-05-28, 19:19:54
4,8GHz all-core mit der IPC würde ja jeden 9900KS vernichten! Muss Exe doch nen Ryzen kaufen ;)

Achim_Anders
2019-05-28, 19:21:52
nene, jetzt sind für ihn die Preise von den Mobos zu teuer.. auch wenns beim 9900 voll in ordnung war. Und die MiniLüfter gehen auch gar nicht. Er findet nen Grund, warum es der 9900KS wird ;)

Ich warne aber davor, jetzt auf den HypeTrain aufzuspringen... Da können auch einige Fakes und Unwahrheiten in die Welt posaunt werden

Unicous
2019-05-28, 19:23:46
Ihr müsst sein Dummgelabere nicht auch noch herbei beschwören, schlimm genug, dass das ohne Konsequenzen bleibt.:rolleyes:

Birdman
2019-05-28, 19:29:59
1.35V for all core 4.5Ghz (THIS is amazing)
Ich finde dies relativ viel/hoch, zumindest in Relation dazu was akuelle Intel Core CPUs für diesen Takt wollen.
Ist aber natürlich ein Apfel - Ananas Vergleich...trotzdem beschleicht mich die Vermutung, dass Zen2 richtig saufen kann/wird, wenn man den mit 4Ghz+ All-Core Boost Taktraten fahren lassen will.

Blediator16
2019-05-28, 19:33:26
Ich finde dies relativ viel/hoch, zumindest in Relation dazu was akuelle Intel Core CPUs für diesen Takt wollen.
Ist aber natürlich ein Apfel - Ananas Vergleich...trotzdem beschleicht mich die Vermutung, dass Zen2 richtig saufen kann/wird, wenn man den mit 4Ghz+ All-Core Boost Taktraten fahren lassen will.


Und somit ein unnötiger Beitrag :rolleyes:

Die Kristallkugeln sind bei AMD scheinbar erheblich genauer als beim Konkurrenten. Da nimmt man doch gerne die 18%IPC, die sie sich aus dem Hintern gezaubert haben, einfach mal so hin :D

mczak
2019-05-28, 19:33:37
Was ist jetzt an den 1.35V für 4.5Ghz so "amazing"?
Spätestens ab 1.1V hat man eh jegliche Effizienz komplett über Bord geworfen.

basix
2019-05-28, 19:40:18
Amazing ist, dass der Chip nicht schmilzt und kühlbar bleibt :D

w0mbat
2019-05-28, 19:40:23
Was ist jetzt an den 1.35V für 4.5Ghz so "amazing"?
Spätestens ab 1.1V hat man eh jegliche Effizienz komplett über Bord geworfen.
Link mal das Review.

Birdman
2019-05-28, 19:42:42
Da nimmt man doch gerne die 18%IPC, die sie sich aus dem Hintern gezaubert haben, einfach mal so hin :D
Ich hoffe Du nimmst die 15% IPC, welche sich Lisa an der Computex aus dem Hintern gezogen hat auch einfach so hin, sonst wäre dies von Dir ja ebenfalls ein unnötiger Beitrag gewesen.....

basix
2019-05-28, 19:43:46
Ausserdem: Who Cares 5.0 GHz all-Core, wenn man schon bei 4.5 GHz eine entprechende Performance abliefert. Wer die runde 5 haben will, muss wohl auf 7nm+ und Zen 3 warten. Viel wichtiger ist, wie effizient das Ding im Bereich 4-4.5 GHz ist und ob die 5.0 GHz bei 1-4 Cores erreicht werden.

BoMbY
2019-05-28, 20:01:52
Joa, erstmal auf Benchmarks warten, und dann auf ordentliche Boards zu einem realistischen Preis warten. Könnte ehh noch ein Weilchen dauern.

SKYNET
2019-05-28, 20:41:45
Ich finde dies relativ viel/hoch, zumindest in Relation dazu was akuelle Intel Core CPUs für diesen Takt wollen.
Ist aber natürlich ein Apfel - Ananas Vergleich...trotzdem beschleicht mich die Vermutung, dass Zen2 richtig saufen kann/wird, wenn man den mit 4Ghz+ All-Core Boost Taktraten fahren lassen will.

mir egal. mein ITX board liefert ohne probleme 200W+

und klar wird mein 3900X auf 4.8GHz+ AC mächtig saufen, darf er auch, muss ja ein paar blaue einstampfen ;D

Unicous
2019-05-28, 21:01:21
Ich hoffe Du nimmst die 15% IPC, welche sich Lisa an der Computex aus dem Hintern gezogen hat auch einfach so hin, sonst wäre dies von Dir ja ebenfalls ein unnötiger Beitrag gewesen.....

Im Gegensatz zu AMDs Angabe kann man die Intel'sche IPC Angaben durchaus kritisch beäugen, denn wir wissen (afaik) nicht wie sie zustande kam(Intel hat es doch angegeben habe ich nicht gecheckt: Spec, Sysmark, WebXPRT, CB), AMD hat zumindest angegeben wie diese 15% zustande kamen:

Testing by AMD Performance Labs as of 5/23.2918 AMD “Zen2” CPU-based system scored an estimated 15% higher than previous generation AMD “Zen” based system using estimated SPECint®_rate_base2006 results. SPEC and SPECint are registered trademarks of the Standard Performance Evaluation Corporation. See www.spec.org. GD-141

https://www.amd.com/en/press-releases/2019-05-26-amd-announces-next-generation-leadership-products-computex-2019-keynote

Außerdem hat Intel in den Fußnoten angegeben, dass man zukünftige? Sicherheits-Patches (noch) nicht beachtet hat. Nun stellt sich die Frage wie die Vergleichswerte zustandegekommen sind. Wurden die Skylake-Derivate mit oder ohne Patches gemessen. Wenn sie mit den Patches gemessen wurden, dann könnte es sein, dass die fabelhaften 18% u.a. durch diesen Umstand zustande kommen.:uponder:

Langlay
2019-05-28, 21:03:21
mir egal. mein ITX board liefert ohne probleme 200W+

Ja, das 3 Phasen ITX Mobo mit einem Witz von Heatsink.

SKYNET
2019-05-28, 21:16:21
Ja, das 3 Phasen ITX Mobo mit einem Witz von Heatsink.

der anscheinend langt mein kleinen bei 4.5GHz und 1.5V bei laune zu halten :P

solltest öfters mal in die passenden fäden schauen, bevor du deine trump-style alüren probierst unter die leute zu bringen. :P

Ex3cut3r
2019-05-28, 21:22:16
Wie sehen bei dir denn die Spawa Temps aus? 100 Grad oder was?

SKYNET
2019-05-28, 21:23:18
Wie sehen bei dir denn die Spawa Temps aus? 100 Grad oder was?


<50°c. hängt halt nen 120er drüber... der auch dafür sorgt das der speicher bei 1.5V nicht über 39°c. steigt :)

crux2005
2019-05-28, 21:24:06
Ja, das 3 Phasen ITX Mobo mit einem Witz von Heatsink.

Der MB Name ist Programm. :biggrin:

Hasenpfote
2019-05-28, 21:48:41
Aber man fummelt ja am RAM rum weil es Spaß macht :biggrin:Ich fummel lieber an meiner Frau rum. Das macht mir mehr Spaß :biggrin:
Nur im Gegensatz zu Deiner Frau hat der RAM Spaß dran, wenn Du an ihm rumfummelst :biggrin: Außer Du bist zu grob, dann reagiert er wie Deine Frau :biggrin:

Tatwaffe
2019-05-28, 21:49:09
Was ist jetzt an den 1.35V für 4.5Ghz so "amazing"?
Spätestens ab 1.1V hat man eh jegliche Effizienz komplett über Bord geworfen.
Dafür das es ein Enginering Sample ist, ist das super.

Darf man also auf die finalen Cpu´s entweder ca. 0.1 Volt abziehn oder 200-300Mhz drauf rechnen.

Linmoum
2019-05-28, 22:18:32
Ich bin ja gespannt, wann sie den 16C offiziell machen. Einerseits ist der sicherlich (noch) nicht nötig, weil Intel einfach rein gar nichts vergleichbares, in mehreren Aspekten, zu bieten hat. Auch nicht mit CL-X im Herbst.

Andererseits scheint AMD auf der Computex ja ein 16C ES zu "zeigen"/"ausgestellt" zu haben (Bilder gab's glaube ich hier schon).

Und Robert Hallocks Aussage ab ~6:00...
I can't say too much but we're making some interesting options available for customers who want high core counts in smaller form factors. [...] We'll get there around the E3 time frame we can explain more of what we mean [...]
https://www.youtube.com/watch?v=ml7rHtCHoFE

Weiß nicht so recht, ob sie nicht noch zur E3 "one last thing" am Ende haben? :uponder:

w0mbat
2019-05-28, 22:21:20
Er bestätigt zudem, dass die +15% IPC über Zen+ sind.

Der_Korken
2019-05-28, 22:21:28
Interessante OC-"Leaks", wenn sie denn stimmen. Ich frage mich, ob es eine Möglichkeit geben wird, zu übertakten und gleichzeitig den Boost-Mechanismus zu verwenden. Wenn das Teil auf einzelnen Kernen bis 5Ghz geht, dann würde ich das auch gerne haben, weil man immer wieder mal was ST-limitiertes laufen hat. Mit den aktuellen Zens ist es aber nicht möglich den maximalen Boost zu erhöhen, sondern da kann man nur einen VCore-Offset einstellen und hoffen, dass er durch den gesparten Strom höher boostet. Auf Zen 2 übertragen würde das bedeuten, dass wenn ich mehr als 4,6Ghz will, ich manuell mit fixem Takt übertakten muss. Das ist bei 12 Kernen aber ziemlich problematisch, weil ich wahrscheinlich mit 4,6Ghz schon weit jenseits dessen liegen dürfte, was ohne WaKü überhaupt noch zu kühlen ist, wenn alle Kerne laufen. Und das müssen sie ja, um die Stabilität zu testen.

Was wir also bräuchten wäre ein max-boost als zusätzliche BIOS-Option oder zusätzlich zum VCore-Offset noch ein Clock-Offset, den man z.B. auf +400Mhz stellt. Dadurch würden positive VCore-Offsets auch mal einen Sinn bekommen (ich habe mich immer gefragt wofür zum Geier das gut sein soll, so viel Spannung wie die CPUs @stock schon bekommen ^^)

(del)
2019-05-28, 22:38:07
Mit den aktuellen Zens ist es aber nicht möglich den maximalen Boost zu erhöhen, sondern da kann man nur einen VCore-Offset einstellen und hoffen, dass er durch den gesparten Strom höher boostet.
BCLK?
Wäre doch eine Option.

Hammer des Thor
2019-05-28, 22:41:12
So, Gamestar hat 3 Asus Boards X570 abgebildet:

https://www.gamestar.de/artikel/asus-mainboard-palette-x570-chipsatz-luefter,3344487.html

Mit Ausnahme des 1. Boards finde ich keinen M.2 Steckplatz. Ich hatte eigentlich gehoff, dass jetzt mehr als 1 m.2 bei voller Anbindung PCIe 3.0 x4 gehen. Aber auf den untereren sieht man nicht mal einen weil der Lüfter wohl den Platz brauht? Oder werden die unter das Lüftergehäuse gesteckt? Selbst wenn nur ein einziger wegen dem Lüfter ginge fände ich das Mist. Die von GS gelobten 8 statt 6 PCIe sind doch völlig überflüssig wichtiger ist nen M.2 besser noch 2 M.2. Hier rächt sicn auch dass die SSD-Hersteller bislang keine U.2 für Consumer im Programm haben. Wenn wegen dem Design nur einmal M.2 geht, dann wäre ein oder besser 2 weitere Anschlüsse in U.2 sinvoll für NVMe SSDs. Notfalls 2,5 U.2 Zoll Gehäuseadapter zum einlegen einer M.2

w0mbat
2019-05-28, 22:51:04
Die Boards haben alle min. zwei M.2 Steckplätze, z.T. unter den Kühlkörpern. Zudem sind diese mit PCIe 4.0 x4 angebunden, also doppelt so schnell wie PCIe 3.0 x4.

LadyWhirlwind
2019-05-28, 22:52:51
So, Gamestar hat 3 Asus Boards X570 abgebildet:

https://www.gamestar.de/artikel/asus-mainboard-palette-x570-chipsatz-luefter,3344487.html

Mit Ausnahme des 1. Boards finde ich keinen M.2 Steckplatz. Ich hatte eigentlich gehoff, dass jetzt mehr als 1 m.2 bei voller Anbindung PCIe 3.0 x4 gehen. Aber auf den untereren sieht man nicht mal einen weil der Lüfter wohl den Platz brauht? Oder werden die unter das Lüftergehäuse gesteckt? Selbst wenn nur ein einziger wegen dem Lüfter ginge fände ich das Mist. Die von GS gelobten 8 statt 6 PCIe sind doch völlig überflüssig wichtiger ist nen M.2 besser noch 2 M.2. Hier rächt sicn auch dass die SSD-Hersteller bislang keine U.2 für Consumer im Programm haben. Wenn wegen dem Design nur einmal M.2 geht, dann wäre ein oder besser 2 weitere Anschlüsse in U.2 sinvoll für NVMe SSDs. Notfalls 2,5 U.2 Zoll Gehäuseadapter zum einlegen einer M.2

Das Crosshair VIII hat 2 m.2

https://www.asus.com/Motherboards/ROG-Crosshair-VIII-Formula/

Hammer des Thor
2019-05-28, 23:03:34
OK, bei dem kann ich mir ganz unten den 110 mm Überlänge-Slot gut vorstellen, sieht sogar so aus wie dafür vorgesehen und in die Mitte könnte noch nen 80 mm passen. Tja, da reicht es nicht mehr nur die Graka auszubauen zum montiern von m.2, mann muss alls Steckkarten rausnehmen und dann noch das Lüftergehäuse abschrauben. Da wünsche ich mir doch dass auch U.2 für Consumer angeboten wird. Gibt ja heute schon Board da kann man wahlweise an einen elektronischen Strang entweder M.2 oder U.2 anschliessen.

Gipsel
2019-05-28, 23:27:47
So, Gamestar hat 3 Asus Boards X570 abgebildet:

https://www.gamestar.de/artikel/asus-mainboard-palette-x570-chipsatz-luefter,3344487.html

Mit Ausnahme des 1. Boards finde ich keinen M.2 Steckplatz.
Die stecken jetzt fast immer unter diesen fancy Abdeckungen. Die haben alle zwei M2-Steckplätze (auch das "Prime" Einsteiger-Board, das ist das erste abgebildete und da hat ein Steckplatz [der obere] keine Abdeckung, weswegen Du den da siehst ;)*). Einfach mal auf der Asus-Seite nachsehen!
Gibt übrigens auch Modelle mit drei M2-Steckplätzen. Und sogar auf die Mini-ITX-Variante des X570 Strix Boards hat Asus zwei M2-Steckplätze gepackt (https://www.asus.com/ROG-Republic-Of-Gamers/ROG-Strix-X570-I-Gaming/).

*:
Das Prime-P (statt Prime-Pro) spart sich die Abdeckungen, da sieht man dann auch beide M2. Und das ist das noch einfachere absolute Einsteigerboard.
https://pcper.com/wp-content/uploads/2019/05/prime-x570-p.jpg

hilo
2019-05-28, 23:31:40
Robert Hallock:
I can't say too much but we're making some interesting options available for customers who want high core counts in smaller form factors. [...] We'll get there around the E3 time frame we can explain more of what we mean [...]


Wenn mal darüber nachdenkt, wäre es ja eigentlich auch mal Zeit. Da haben wir die, wie ich finde, tollen Zboxes von Zotac, Beeboxes von Asrock alle auf Intel(NUC)-Basis und auf der anderen Seite den Konsolenhardware-Lieferanten schlechthin (AMD), aber keine Mini-Wohnzimmer-PCs auf AMD-Basis.
Na mal sehen, ob sowas dahintersteckt. Aber es ist klar - sagt er ja auch im Interview - die (Mainboard)-Partner müssen eben auch erstmal Vertrauen in AMD haben.

Armaq
2019-05-28, 23:34:03
Wenn mal darüber nachdenkt, wäre es ja eigentlich auch mal Zeit. Da haben wir die, wie ich finde, tollen Zboxes von Zotac, Beeboxes von Asrock alle auf Intel(NUC)-Basis und auf der anderen Seite den Konsolenhardware-Lieferanten schlechthin (AMD), aber keine Mini-Wohnzimmer-PCs auf AMD-Basis.
Na mal sehen, ob sowas dahintersteckt. Aber es ist klar - sagt er ja auch im Interview - die (Mainboard)-Partner müssen eben auch erstmal Vertrauen in AMD haben.
8Kerne mit 3,6 Ghz wären auch toll, wenn es die für 40W oder sowas gibt. Mein Ryzen 2700 ist auf 3,7 viel sparsamer als auf 3,85 Ghz.

Der_Korken
2019-05-28, 23:39:45
BCLK?
Wäre doch eine Option.

Damit übertaktet man auch Sachen, die man nicht übertakten will. Außerdem unterstützt mein Board das afaik nicht mal :redface:.

Langlay
2019-05-28, 23:44:57
Damit übertaktet man auch Sachen, die man nicht übertakten will. Außerdem unterstützt mein Board das afaik nicht mal :redface:.

Mache NVME SSDs reagieren da sehr empfindlich.

SKYNET
2019-05-29, 00:01:29
alle asus boards sind auch auf deren website zu sehen:
https://edgeup.asus.com/2019/the-x570-motherboard-guide-ryzen-to-victory-with-pci-express-4-0/

am uinteressanteste vom asus line-up ist für mich das da:
https://images.anandtech.com/doci/14417/IMG_201905sxsx27_141111.jpg

Screemer
2019-05-29, 00:19:13
The TUF Gaming X570-PLUS (Wi-Fi) marries a distinct look to battle-forged reliabilitywer denk sich solche werbetexte aus :facepalm:

Linmoum
2019-05-29, 00:31:41
Was meinst du, wie viele (junge) Leute sowas hipp & trendy finden? :D

Screemer
2019-05-29, 00:32:54
ich glaub ich muss mich mal im ich werde alt thread melden.

mczak
2019-05-29, 00:33:57
Dafür das es ein Enginering Sample ist, ist das super.

Darf man also auf die finalen Cpu´s entweder ca. 0.1 Volt abziehn oder 200-300Mhz drauf rechnen.
Davon kann man imho nicht unbedingt ausgehen. Zu dem Zeitpunkt ist das ein spätes ES, kann durchaus identisch zur finalen Version sein.

Screemer
2019-05-29, 00:39:21
Was ist eigentlich auf diesem sodimm-riser? Habs beim schnellen überfliegen wohl übersehen.

davidzo
2019-05-29, 00:41:04
Ist doch egal ob Zen 2 nun 5Ghz schafft oder die Wall schon bei 4,8 ist. Icelake schafft auch nicht mehr. :ulol: :crazy:

Wenn Intel so weiter macht mit 10nm haben wir bald auch taktmäßig wieder gleichstand.:uclap:

amdfanuwe
2019-05-29, 00:45:53
Was ist eigentlich auf diesem sodimm-riser? Habs beim schnellen überfliegen wohl übersehen.
The dual M.2 slots are mounted to a new ROG SO-DIMM.2 module that plugs into the board
2 M.2 Slots

Screemer
2019-05-29, 01:35:42
Thx. Hab ich mir fast gedacht.

SKYNET
2019-05-29, 01:53:29
frage mich nur, ob das nicht mit der graka kollidiert *mhh* oder im schlimmsten fall wenns grad so passt, nicht die NVMe soweit aufheizt, das sie dauerhaft drosselt wenn die graka läuft O_o

hilo
2019-05-29, 02:58:16
ich glaub ich muss mich mal im ich werde alt thread melden.

Ne ne laß mal. Die Anderen werden nur "immer jünger". :biggrin:

(del)
2019-05-29, 03:03:01
Damit übertaktet man auch Sachen, die man nicht übertakten will. Außerdem unterstützt mein Board das afaik nicht mal :redface:.
Ja das ist der Nachteil am BCLK übertakten.
Ich wusste nicht das es Boards gibt die das nicht unterstützen.
Dachte bisher das wäre eine Standard Option, aber vielleicht ist das bei der TR4 Plattform etwas anders im Bios gelöst als bei AM4.

nordic_pegasus
2019-05-29, 07:09:10
am interessanteste vom asus line-up ist für mich das da:

Asus Crosshair VIII Impact



der X570 Chip ist bei dem Board zusammen mit der VRM unter der I/O-Shield, damit also direkt neben dem CPU-Sockel. Wenn hier ein Monoblock für CPU, VRM und PCH auf den Markt kommt, wäre das echt ein genialer Kampfzwerg.

Razor
2019-05-29, 09:59:59
Die Boards haben alle min. zwei M.2 Steckplätze, z.T. unter den Kühlkörpern. Zudem sind diese mit PCIe 4.0 x4 angebunden, also doppelt so schnell wie PCIe 3.0 x4.
Doppelt so schnell mag sein... aber kann man diese auch splitten?

Soweit ich weiß, kommen die neuen Ryzen mit 16+4+4 PCIe 4.0 Lanes.
Wie sollen denn daran sinnvoll mehr als 2x M.2 angebunden werden können?
Ich weiß schon, dass der Chipsatz "mehr" hat, aber trotzdem muss letztlich alles durch die CPU-Lanes...

Razor

Der_Korken
2019-05-29, 10:07:30
Eigentlich wäre es sinnvoll, wenn man an die freistehenden 4 Lanes für M2 einfach beide M2-Ports hängt und die Lanes gesplittet werden, wenn ich beiden Slots eine SSD hängt. Damit wären immer noch beide mit 4xPCIe 3.0-Speed angebunden, was selbst heute nur ein geringer Teil der erhältlichen SSDs überhaupt ausreizt. An den Chipsatz könnte man eine dritte SSD hängen mit der gleichen Geschwindigkeit. Damit hätte der Chipsatz immer noch 4GB/s übrig, was für 6 volle SATA3-Ports ausreicht. Wer die auch alle vollmacht und immer gleichzeitig betreibt, der soll sich halt nen Threadripper kaufen.

SKYNET
2019-05-29, 11:12:28
der X570 Chip ist bei dem Board zusammen mit der VRM unter der I/O-Shield, damit also direkt neben dem CPU-Sockel. Wenn hier ein Monoblock für CPU, VRM und PCH auf den Markt kommt, wäre das echt ein genialer Kampfzwerg.


CPU bevorzuge ich sepperat, monoblock für VRM & chipset wäre ausreichend... kein bock das mobo für nen CPU wechsel ausbauen zu müssen. :freak:

Birdman
2019-05-29, 11:33:50
Eigentlich wäre es sinnvoll, wenn man an die freistehenden 4 Lanes für M2 einfach beide M2-Ports hängt und die Lanes gesplittet werden, wenn ich beiden Slots eine SSD hängt. Damit wären immer noch beide mit 4xPCIe 3.0-Speed angebunden.
So ein Setup würde einen PCIe Switch benötigen und das:
a) ist teuer
b) braucht zusätzlich ein paar Watt

Lehdro
2019-05-29, 11:39:46
Damit übertaktet man auch Sachen, die man nicht übertakten will. Außerdem unterstützt mein Board das afaik nicht mal :redface:.
Mache NVME SSDs reagieren da sehr empfindlich.
Es gibt auch Boards mit seperatem Taktgeber, wo so etwas eben nicht passiert. Technisch ist das absolut kein Problem wenn man es denn möchte...

nordic_pegasus
2019-05-29, 12:27:56
Eigentlich wäre es sinnvoll, wenn man an die freistehenden 4 Lanes für M2 einfach beide M2-Ports hängt und die Lanes gesplittet werden, wenn ich beiden Slots eine SSD hängt.

Ich fände es auch sehr praktisch, wenn man die 4 PCIe Lanes der CPU wahlweise auf den M.2 Slot oder einen PCIe 4x Slot switchen könnte. Es gibt ja auch PCIe SSDs als Add-in-Cards oder PCIe Adapter mit großen Kühlkörpern (das Thema wird bei PCIe 4.0 SSDs sicherlich noch interessant werden, oder sogar WaKü-Blöcke für SSDs).

Genauso träume ich seit Jahren von einem Board, dass die 16 PCIe Lanes der GraKa wahlweise auf den 2. Slot switchen lässt. Bei manchen Kombinationen von Board, GraKa, Gehäuse und CPU-Kühler wäre ein größerer Abstand von CPU-Sockel und GraKa nicht verkehrt. Also ein 16x/0x, 8x/8x und 0x/16x zur Auswahl.

JVC
2019-05-29, 14:58:12
Wie sollen denn daran sinnvoll mehr als 2x M.2 angebunden werden können?

Razor

Eine wird direkt über die CPU angesprochen und 2 eben über die SB.

m.f.g. JVC

BoMbY
2019-05-29, 15:13:44
Ich weiß schon, dass der Chipsatz "mehr" hat, aber trotzdem muss letztlich alles durch die CPU-Lanes...

Ja, das nennt sich halt Switch. Die maximal nutzbare Bandbreite ist durch das x4 zur CPU limitiert, es würde sich daher anbieten die wichtigste NVMe direkt an die CPU zu hängen, und alle weiteren NVM-Laufwerke sollten dann nach Möglichkeit nicht gleichzeitig genutzt werden müssen. Also das ist nichts für Raid mit mehr als zwei NVMe, oder sowas.

AlterSack
2019-05-29, 19:19:18
Die 300er und 400er SB werden doch in 55nm gefertigt,
wenn ich das richtig sehe. Sieht bald so aus als bliebe dies
auch bei der 500er Serie so. Warum eigentlich? Weshalb nicht
in 40, 32 oder auch 28nm? Sollte doch bisschen weniger
Energiekonsum verspechen, Intel fertigt seine Chipsätze
schliesslich auch ...ich glaub in 22nm. Sollte also doch was
bringen und 40nm oder 28nm sind nun auch schon
alte Verfahren, dürften also auch nicht mehr teuer sein.

mczak
2019-05-29, 19:28:31
Die 300er und 400er SB werden doch in 55nm gefertigt, wenn ich das richtig sehe. Sieht bald so aus als bliebe dies auch bei der 500er Serie so.

Wie kommst du darauf dass das so bleibt? Meine Vermutung wäre gewesen 28nm - der ist günstig und trotzdem einigermassen modern.

Intel fertigt seine Chipsätze schliesslich auch ...ich glaub in 22nm.
Das ist richtig, gibt sogar welche in 14nm, bloss reichen da die Kapazitäten nicht hin (weil die Planung natürlich keine 3 Jahre verspätete 10nm Fertigung vorsah).

Linmoum
2019-05-29, 19:33:58
Scheint auf der E3 jedenfalls auch zu Zen2 noch mehr zu geben.

We quizzed AMD’s Erin Maiorino about the overclocking potential of both the Ryzen 3000 CPUs and the X570 chipset as a whole, and the somewhat cryptic response was: “No, no comment on that just yet… in ten days, we should be pretty good.”
https://www.pcgamesn.com/amd/ryzen-3000-cpu-overclocking

Zossel
2019-05-29, 19:42:45
Die 300er und 400er SB werden doch in 55nm gefertigt,
wenn ich das richtig sehe. Sieht bald so aus als bliebe dies
auch bei der 500er Serie so. Warum eigentlich? Weshalb nicht
in 40, 32 oder auch 28nm?

Ich könnte mir vorstellen das die PHYs für PCIe-4.0 gut saufen. Wer weiß mehr?

Zossel
2019-05-29, 19:45:58
Scheint auf der E3 jedenfalls auch zu Zen2 noch mehr zu geben.

Jedenfalls bleibt AMD im Gespräch, kein schlechtes Marketing.

SKYNET
2019-05-29, 19:46:39
Wie kommst du darauf dass das so bleibt? Meine Vermutung wäre gewesen 28nm - der ist günstig und trotzdem einigermassen modern.

Das ist richtig, gibt sogar welche in 14nm, bloss reichen da die Kapazitäten nicht hin (weil die Planung natürlich keine 3 Jahre verspätete 10nm Fertigung vorsah).

ich gehe eher von 14 oder 12nm aus für den X570... da haben sie doch den deal mit goflo am laufen, und die chiplets alleine werden kaum das volumen auslasten, das sie ursprünglich für 7nm gebucht hatten.

AlterSack
2019-05-29, 19:53:53
Wie kommst du darauf dass das so bleibt? Meine Vermutung wäre gewesen 28nm - der ist günstig und trotzdem einigermassen modern.

Reine Vermutung, da die beiden kleineren SB, falls sie kommen
sicher wieder nur Umlabelungen sind und weil der 570 recht viel zu
konsumieren scheint.

Relic
2019-05-29, 20:08:43
ich gehe eher von 14 oder 12nm aus für den X570... da haben sie doch den deal mit goflo am laufen, und die chiplets alleine werden kaum das volumen auslasten, das sie ursprünglich für 7nm gebucht hatten.

Der Deal wurde doch schon lange angepasst...

BoMbY
2019-05-29, 20:35:39
Der Deal wurde doch schon lange angepasst...

Ja, aber nicht aufgehoben. AMD muss bis 2021 weiter Geld in GloFo buttern - nur weniger als vorher, weil keine Strafzahlungen für die 7nm Wafer von Anderen mehr geleistet werden müssen.

Der_Korken
2019-05-29, 22:32:41
Für jeden Chiplet-Wafer braucht AMD auch knapp einen 14nm-Wafer für die I/O-Chips. Wenn Zen 2 gut laufen wird (und danach sieht es aus), ballern die damit schon jede Menge Wafer von GloFo weg.

SKYNET
2019-05-29, 23:36:46
Für jeden Chiplet-Wafer braucht AMD auch knapp einen 14nm-Wafer für die I/O-Chips. Wenn Zen 2 gut laufen wird (und danach sieht es aus), ballern die damit schon jede Menge Wafer von GloFo weg.


naja, du hast wohl vergessen das epyc in produktion ist... und da ist das verhältnis bis 1:8, und 14nm dürfte deutlich geringere abfall quoten haben als es 7nm jetzt noch hat... ;)

Der_Korken
2019-05-29, 23:58:13
naja, du hast wohl vergessen das epyc in produktion ist... und da ist das verhältnis bis 1:8, und 14nm dürfte deutlich geringere abfall quoten haben als es 7nm jetzt noch hat... ;)

Das sieht mir nicht nach 1:8 aus:

https://images.anandtech.com/doci/13561/amd_rome-678_678x452.png

1:1 ist es zwar auch nicht, aber es fällt schon ordentlich Waferfläche für 14nm an.

amdfanuwe
2019-05-30, 00:10:26
@SKYNET
Und du vergisst, das ein 7n chiplet 75mm², ein AM4 I/O ~130mm² und EPYC I/O ca. 400mm² ist.
Für die 8 und 6 Kerner wird nur ein Chiplet verwendet.
Und EPYC wird es auch nicht nur als 64 Core mit 8 Chiplets geben. 32 Core 4 Chiplets brauchen ~300mm² 7nm vs I/O 400mm².
Der Yield für die EPYC I/O wird auch nicht der beste sein und die 7nm Chiplets werden durch die verwendung von teildefekten/teildeaktivierten auch ziemlich gut sein.
Sollte also schon passen mit einem I/O Wafer pro Chiplet Wafer.
Zudem hat GF noch Picasso und Konsolen.

Eldoran
2019-05-30, 00:17:13
Man muss auch die gestiegenen Absatzzahlen von Ryzen/Epyc bedenken und wenn der Trend/Vorhersagen korrekt sind, dürfte eher das Problem sein, dass die Volumen für GF zu hoch sind. Vor ein paar Monaten hat ja irgendwo GF gesagt, dass AMD die vertraglich zugesicherten Mengen deutlich überschreitet. Eine interessante Frage könnte da durchaus werden, ob AMD nicht sogar Samsung einbinden muss, weil GF die benötigten Volumina nicht liefern kann (das sollte ja bei 14nm gehen).

prinz_valium
2019-05-30, 03:12:26
@SKYNET
Und du vergisst, das ein 7n chiplet 75mm², ein AM4 I/O ~130mm² und EPYC I/O ca. 400mm² ist.
Für die 8 und 6 Kerner wird nur ein Chiplet verwendet.
Und EPYC wird es auch nicht nur als 64 Core mit 8 Chiplets geben. 32 Core 4 Chiplets brauchen ~300mm² 7nm vs I/O 400mm².
Der Yield für die EPYC I/O wird auch nicht der beste sein und die 7nm Chiplets werden durch die verwendung von teildefekten/teildeaktivierten auch ziemlich gut sein.
Sollte also schon passen mit einem I/O Wafer pro Chiplet Wafer.
Zudem hat GF noch Picasso und Konsolen.
Nö. Ps4, Xbox One und Switch SOCs werden alle bei TSMC hergestellt.

amdfanuwe
2019-05-30, 03:57:44
Nö. Ps4, Xbox One und Switch SOCs werden alle bei TSMC hergestellt.
Seit wann?
aus : AMD - Q1 2014 Advanced Micro Devices Earnings Conference Call
David Wong - Wells Fargo Securities, LLC - Analyst
Okay, great, and my final question. When do you expect to first start generating semi-custom revenues from chips at GlobalFoundries? And will moving to GlobalFoundries for game console chips reduce the cost of the chips or is it a neutral move?

Lisa Su - Advanced Micro Devices, Inc. - SVP and GM, Global Business Units
Yes, so we will see semi-custom chips from GlobalFoundries in the second half of this year. And relative to our operating margin guidance onsemi-custom, it stays the same. So it's what we've said previously

Und mit Switch hat AMD wohl nichts zu tun.

y33H@
2019-05-30, 04:38:35
Damit kann Lisa Su auch andere Konsolen meinen ;-)

JVC
2019-05-30, 11:05:36
ich gehe eher von 14 oder 12nm aus für den X570... da haben sie doch den deal mit goflo am laufen, und die chiplets alleine werden kaum das volumen auslasten, das sie ursprünglich für 7nm gebucht hatten.
:up:

https://www.techpowerup.com/251964/asmedia-to-continue-as-chipset-supplier-to-amd-but-x570-an-in-house-chipset
"ASMedia to Continue as Chipset Supplier to AMD, But X570 an In-house Chipset"
"The X570 will be an in-house design by AMD, which will use its own foundry partners (likely GloFo 14 nm) to manufacture it."

m.f.g. JVC

N0Thing
2019-05-30, 11:47:38
Seit wann?
aus : AMD - Q1 2014 Advanced Micro Devices Earnings Conference Call



Von Anfang an: https://www.chipworks.com/about-chipworks/overview/blog/look-sony%E2%80%99s-playstation-4-core-processor

Und seitdem GloFo kein 7nm mehr entwickelt, sind sie wohl auch in Zukunft kein Auftragsfertiger für den Xbox oder Playstation SoC.

Hammer des Thor
2019-05-30, 11:58:24
Laufen andere Onboard-Komponenten wie 1 GB-Lan und Soundchip auch über die 12 Flexible PCI-4-0 Lanes und machen die dann weniger M.2 und SATA möglich oder gibts da noch andere nicht veröffentlichte Verbindungen?

amdfanuwe
2019-05-30, 14:02:33
Von Anfang an: https://www.chipworks.com/about-chipworks/overview/blog/look-sony%E2%80%99s-playstation-4-core-processor

Und seitdem GloFo kein 7nm mehr entwickelt, sind sie wohl auch in Zukunft kein Auftragsfertiger für den Xbox oder Playstation SoC.
Der Artikel ist von 2013. Erste PS4 Chips sind von TSMC 28nm. Da gab es auch noch AMD GPUs von TSMC.
2014 stand ein switch auf GloFo an. Findet man nichts genaues dazu, wieweit das umgesetzt wurde.
Für die Pro sind es wohl 16nm TSMC.
XBox war mal bei GloFo.
https://www.planet3dnow.de/cms/25650-xbox-one-s-mit-amd-soc-in-16-nm-finfet-von-tsmc/
Sieht so aus, dass AMD 2014/2015 bei GloFo hat produzieren lassen um das Wafer Supply Agreement zu erfüllen.
Ab 2016 ging es dann mit 16nm bei TSMC weiter.

Für die Zukunft geht Sony ja auf Chiplets. Bleibt die Frage, ob das ein 2 oder 3 Chip Design wird.
Ich nehme mal eher ein 2 Chip Design an, da der I/O Teil nicht so groß ist und gut mit der GPU in einem 7nm Chip untergebracht werden kann.

Linmoum
2019-05-30, 15:19:17
Neuer (alter) 12C/24T im Userbench.

https://www.userbenchmark.com/UserRun/16910589
Und als Vergleich ein mittlerweile offizieller 3600 mit 4.05GHz Boost von heute

https://cpu.userbenchmark.com/UserRun/17292946

rentex
2019-05-30, 15:50:39
Was soll mir das jetzt sagen?

Linmoum
2019-05-30, 15:57:07
Funktioniert der Link bei dir nicht? :confused:

gmb
2019-05-30, 15:57:25
Du hattest was von 95W geschrieben. ;)
Das "Recht" haben ist IMO nichts wert. Ist am Ende doch nur raten - mal trifft etwas zu und mal nicht. -_-


Kannst du nicht lesen, wo habe ich von 95W geschrieben??? Ich habe mich doch noch gewundert, dass AMD nicht wieder runter auf 95W geht. Außerdem, wo war das geraten? AMD hatte bestätigt, dass sie die gleichen TDP Klassen weiterverwenden, woraufhin ich von der gleichen TDP ausgegangen bin beim 8C Nachfolger. Wie du siehst, ist das voll eingetroffen. Das ist wieder so ein typisches Beispiel vom selektiven lesen, selbst jetzt versucht man sich rauszureden, indem du mir Sachen unterstellst.

Das Problem ist halt, dass gewisse AMDler sich gleich gekränkt fühlen und alles in Abrede stellen oder ins lächerliche ziehen wenn ihnen was nicht passt. Das gleiche ist vorm Pinnacle Ridge release passiert (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11504650#post11504650), wo ich richtigerweise im Vorfeld von 105W ausgegangen bin und das gleiche Klientel es nicht wahrhaben wollte.

w0mbat
2019-05-30, 16:01:22
Ich glaub das Problem ist, dass du allgemein akzeptierte Tatsachen als "ich habe Recht gehabt" auslegst, nur weil du sie hier nochmal abgeschrieben hast.

Bayern ist wieder Meister geworden. Hatte ich doch Recht!!!!!111einself

Linmoum
2019-05-30, 16:04:43
AMD hatte bestätigt, dass sie die gleichen TDP Klassen weiterverwenden, woraufhin ich von der gleichen TDP ausgegangen bin beim 8C Nachfolger.
No shit Sherlock. :eek:

gmb
2019-05-30, 16:19:42
Ich glaub das Problem ist, dass du allgemein akzeptierte Tatsachen als "ich habe Recht gehabt" auslegst, nur weil du sie hier nochmal abgeschrieben hast.

Bayern ist wieder Meister geworden. Hatte ich doch Recht!!!!!111einself


Ja genau, es war eine allgemein akzeptierte Tatsache. Deswegen wurde krampfhaft versucht, die Tatsache in Abrede zu stellen.


Völlig korrekte auf Fakten basierende Aussage:


Das ist die Aussage von AMD und nicht von mir. Gleicher TDP Bereich wie jetzt.


Völlig auf Verblendung basierende Antwort:


Entschuldigt mal, ihr könnt doch von gmb keine faktenbasierte, neutrale Aussagen verlangen, das ist nun wirklich zu viel verlangt.


Auf meine 105W Spekulation:

Dafür gibt es keinen Grund. Denn der MT Takt muss nicht steigen, MT ist man dank den 8C ohnehin vorne.
Warum geht ihr auf den Dreck ein? Die CPU ist AM4, also definitiv 95W TDP maximal.
Oh bitte, es gibt keinen Hinweis, dass AMD die TDP erhöhen will. Können wir den FUD mal beseite lassen?

w0mbat
2019-05-30, 16:26:30
Oh wow, wie krass. Du bist ein Orakel! Kannst du bitte nochmal einen Post machen wie du die 105W richtig geraten hast und andere meinten, es bleibt bei 10W TDP weniger?

Das ist nämlich mega spannend!

Thunder99
2019-05-30, 16:31:57
Irgendwelche News vom B550?

w0mbat
2019-05-30, 16:37:06
Null, aber B450/X470 werden anscheinend weiterlaufen.

Kriton
2019-05-30, 17:14:21
Ja genau, es war eine allgemein akzeptierte Tatsache. Deswegen wurde krampfhaft versucht, die Tatsache in Abrede zu stellen.

Auf meine 105W Spekulation:

Wenn Du mal kontextsensitiv lies, dann wirst Du feststellen, dass ich Dich nicht zitiert habe. Mir ging es um die MB-Kompatibilität, welche in Frage gestellt wurde, obwohl AMD eindeutig gesagt hatte, dass AM4 bis einschließlich 2020 funktionieren wird.

Im Übrigen ist Deine aktuell selbst zitierte Aussage von 2019, die von Dir zitierten zu 105 Watt (einschließlich meiner) aber von 2017. Deine damalige Aussage war nur:

Ich spekuliere auf 105W TDP.

Keine weitere Begründung. Die zeitlichen Diskrepanzen nicht zu beachten und die Aussagen gegenüberzustellen ist schon eine merkwürdige Art und Weise zu diskutieren, bzw. sich als "Opfer" zu stilisieren.

Passt auch nur eingeschränkt zu:

Ich habe mich doch noch gewundert, dass AMD nicht wieder runter auf 95W geht.

prinz_valium
2019-05-30, 17:30:01
Seit wann?
aus : AMD - Q1 2014 Advanced Micro Devices Earnings Conference Call


Und mit Switch hat AMD wohl nichts zu tun.

Schon immer.
Jede Konsole (Xbox One fat, Xbox One S, Xbox One X, Ps4, Ps4 Slim, Ps4 Pro) hat einen Chip von TMSC gefertigt.
Kann man ganz einfach herausfinden, indem man die Konsolen auseinander baut.

Auch die Ps5 wird bei TMSC gefertigt.
Und selbst wenn die nächste Xbox ein Chiplet Design bekommen würde, würde der nicht bei GloFo gefertigt, da auf dem IO die dann wohl auch der GPU part sitzen würde.

GloFo hat nichts mit Konsolen zu tun und es wäre theoretisch nur möglich, wenn ein reiner IO die in den Konsolen verbaut würde. Aber das wird nicht passieren, weil das technisch nicht Sinnvoll ist im Semicustom Bereich.


Edit:
Was in deinem verlinkten Artikel steht ist falsch. Auch der Xbox One SoC in 28nm wurde nie bei Global Foundries gefertigt:
http://cdn.arstechnica.net/wp-content/uploads/2013/11/xbox-one-soc.png

w0mbat
2019-05-30, 18:39:41
Zu dem 13% vs 15% IPC uplift (https://twitter.com/Thracks/status/1134098430614093827): die 13% beziehen sich auf CB 1T, die 15% auf SPECint. Das ganze ist ohne AVX, also wird der Schnitt sogar nochmal höher sein!

AMD stapelt mal wieder tief, sehr angenehm :)

Schnoesel
2019-05-30, 18:48:20
Das wird jedenfalls ein ordentlicher Sprung zu meinem Zen Gen1. Mal sehen was die E3 bietet. Evtl. erfahren wir dann etwas über OC.

Jedenfalls wird aus einer Aussage interpetiert, dass auf der E3 wohl ein OC Event geben wird.

Der Ryzen 7 3700X soll übrigens mit dem großen Wraith Prism kommen und vom Takt nicht weit vom großen Bruder weg sein:

"Eine erfreuliche Nachricht gibt es indes für alle, die sich für den Ryzen 7 3700X interessieren. Der Prozessor kombiniert acht Kerne mit einer TDP von 65 Watt, ohne dafür große Takteinbußen im Vergleich zum schnelleren Ryzen 7 3800X hinnehmen zu müssen. Trotz der niedrigen TDP plant AMD aber, den Prozessor mit dem Wraith Prism auszuliefern."

Wo diese Info mit dem Takt allerdings herkommt wird nicht gesagt

https://www.pcgameshardware.de/Matisse-Codename-268193/News/AMD-Ryzen-3000-OC-Event-E3-3700X-Wraith-Prism-1283092/

unl34shed
2019-05-30, 19:26:07
Meinen Vermutlich die bekannten Stock taktraten.

BoMbY
2019-05-30, 19:39:23
AMD hat scheinbar tatsächlich vor die OPN ab Ryzen 3000 in dem numerischen Format zu nutzen:

100-000000031: AMD Ryzen™ 5 3600
100-000000022: AMD Ryzen™ 5 3600X
100-000000071: AMD Ryzen™ 7 3700X
100-000000025: AMD Ryzen™ 7 3800X
100-000000023: AMD Ryzen™ 9 3900X

https://www.amd.com/en/products/specifications/processors

Das sieht nach einer mehr oder weniger zufällig vergeben Materialnummer aus. Das Ding bei Geekbench neulich (http://browser.geekbench.com/v4/cpu/13241660) war also wohl ein 3600 ohne X.

w0mbat
2019-05-30, 19:46:32
Macht Sinn, bisher war ja jede Angabe der OPN schon quasi ein leak hinsichtlich Kernen und Takt.

r3ptil3
2019-05-30, 20:44:43
Ich frage mich gerade, ob durch das Chipdesign die Latenz beim 3900x höher sein könnte als bei den 8 Kernern.

Auf Reddit wurde letztens etwas in die Richtung angedeutet...

Linmoum
2019-05-30, 20:59:56
Auf reddit steht viel wenn der Tag lang ist. Mehr als Reviews abwarten kann hier auch noch niemand. Ich bezweifle aber, dass die Latenzen nach Lisas Aussage im Vergleich zu Zen+ schlechter geworden sind (~55:27)

_96stDCb-mk

Der_Korken
2019-05-30, 21:03:50
Ich frage mich gerade, ob durch das Chipdesign die Latenz beim 3900x höher sein könnte als bei den 8 Kernern.

Auf Reddit wurde letztens etwas in die Richtung angedeutet...

Ich dachte AMD hätte u.a. deswegen auf das Chiplet-Design umgestellt, damit es keine heterogenen Latenzen mehr gibt. Es sei denn, die CCX kommunizieren untereinander viel. Bei Ryzen Release wurde allerdings mehrfach 2+2 vs 4+0 gebencht und 2+2 war afaik nicht schlechter als 4+0. Das würde ich bei 4+4 vs 2+2+2+2 auch erwarten.

Linmoum
2019-05-30, 21:13:36
Immerhin geht es mit den unrealistischen Fakes scheinbar schon los... :freak:

https://i.imgur.com/j3dC0bV.jpg

Unicous
2019-05-30, 21:19:42
Hat da jemand die jpeg mit Sandpapier bearbeitet?:confused:

crux2005
2019-05-30, 21:24:31
Ist eine traditionelle Methode im Han Empire in China.

Lehdro
2019-05-30, 21:58:25
Ich habe mich doch noch gewundert, dass AMD nicht wieder runter auf 95W geht. Außerdem, wo war das geraten? AMD hatte bestätigt, dass sie die gleichen TDP Klassen weiterverwenden, woraufhin ich von der gleichen TDP ausgegangen bin beim 8C Nachfolger.
Ist der Nachfolger vom 2700X nicht der 3700X? Der 3800X beerbt doch eher den 1800X, weil AMD den 2800X mangels Sinn weggelassen hat...

Somit hattest du unrecht. :P

BoMbY
2019-05-30, 22:01:56
L1 Cache fast doppelt so schnell, L2 Cache deutlich langsamer? Hmm. Wenn DDR4-4000 laufen wären die Speicherwerte jedenfalls theoretisch möglich, AMD sagte ja schon früher die Speicherlatenz habe sich verbessert.

gmb
2019-05-30, 22:07:48
Ist der Nachfolger vom 2700X nicht der 3700X?


Die Namen spielen doch keine Rolle, die sind eh vom Marketing bestimmt, die zudem an Intel angelehnt sind. Fakt ist nunmal, dass AMD ungeändert beim schnellsten 8C 105W TDP vergibt, wie von AMD im Vorfeld angekündigt. Gewisse Herrschaften wollten es nicht einsehen, auch du gehörst mit dazu. Es wird versucht sich das zurechtzubiegen, oder wie am Beispiel von robbitop zu sehen, das Wort einfach umgedreht damit es besser passt.

Unicous
2019-05-30, 22:11:44
Wie kann man nur so eine selektive Wahrnehmung haben und Aussagen nicht in den Kontext setzen...:rolleyes:

w0mbat
2019-05-30, 22:15:21
L1 Cache fast doppelt so schnell, L2 Cache deutlich langsamer? Hmm. Wenn DDR4-4000 laufen wären die Speicherwerte jedenfalls theoretisch möglich, AMD sagte ja schon früher die Speicherlatenz habe sich verbessert.
Hm, von was redest du? Aida64 liest bei meinem 2600X folgendes aus: L1 = 0.9ns, L2 = 2.9ns, L3 = 8.9ns.

robbitop
2019-05-30, 22:17:56
39 ns? Schwer zu glauben. Das sind selbst für die Intel Ringbus CPUs schon fantastische Werte.
Wäre in der Praxis dann ein riesen Sprung in Spielen, die von der Memorylatency abhängig sind.

Linmoum
2019-05-30, 22:19:00
Fakt ist nunmal, dass AMD ungeändert beim schnellsten 8C 105W TDP vergibt, wie von AMD im Vorfeld angekündigt.
Gewisse Herrschaften wollten es nicht einsehen,auch du gehörst mit dazu. Es wird versucht sich das zurechtzubiegen, oder wie am Beispiel von robbitop zu sehen, das Wort einfach umgedreht damit es besser passt.
Aha.

AMD hat das schon Anfang Januar verlauten lassen, dass Zen2 dieselbe TDP-Range haben wird wie Zen+ (wurde auch hier im Speku-Thread diskutiert). Warum du also jetzt, fast 5 Monate später, damit um die Ecke kommst, wirst du dir nicht einmal selbst logisch erklären können.

BoMbY
2019-05-30, 22:22:40
Hm, von was redest du? Aida64 liest bei meinem 2600X folgendes aus: L1 = 0.9ns, L2 = 2.9ns, L3 = 8.9ns.

Die Cache-Bandbreite sieht komisch aus:

https://i.imgur.com/KvBr8yl.png

Die Cache-Latenz wäre im Rahmen.

Menace
2019-05-30, 22:26:21
Jetzt lasst doch gmb mal in Ruhe. Der hat es momentan nicht leicht, intel als die Überflieger und AMD als letzten Schrott darzustellen. Alles momentan nicht so einfach.

back to topic:
Falls jemand der Redaktionen die Effizienz bei Boinc testen könnte (also dauerbetrieb von wissenschaftlichen Berechnungen für 24/7 h)?! Am Besten mit Vergleich 1700 - 2700 - 3700X (also alle 65 W TDPler). Ich wüsste gerne, wie viel sie dann reel verbrauchen.

w0mbat
2019-05-30, 22:27:37
4,6GHz = mehr Bandbreite.

mironicus
2019-05-30, 22:30:38
Mit den Speichertimings sollte die CPU locker mit den schnellsten Intels in Spielen mithalten können.

aufkrawall
2019-05-30, 22:39:36
39 ns? Schwer zu glauben. Das sind selbst für die Intel Ringbus CPUs schon fantastische Werte.

Ist mit KabyLake 4C und > 3200er eigentlich ziemlich normal.

Ex3cut3r
2019-05-30, 22:40:49
Mit den Speichertimings sollte die CPU locker mit den schnellsten Intels in Spielen mithalten können.

Wenn Sie denn stimmen, wurde da mit der China Quelle erstmal ein großes Fragezeichen ansetzen, wenn Sie nachher stimmen. Umso besser. :up:

robbitop
2019-05-30, 22:48:23
Ist mit KabyLake 4C und > 3200er eigentlich ziemlich normal.

OK. Aber bis dato dank IF rund 15...20 ns entfernt von jedem Ryzem. Schwer zu glauben, dass man trotz hoch skalierbarem IF und externem Speichercontroller jetzt jegliche Latenznachteile wettgemacht hat. Die bisherigen Latenzkurven, die bei Userbenchmark (?) zu sehen waren sahen auch nicht annähernd danach aus. Wie sagt man so schön: zu schön um wahr zu sein...

SKYNET
2019-05-30, 22:52:20
Immerhin geht es mit den unrealistischen Fakes scheinbar schon los... :freak:

https://i.imgur.com/j3dC0bV.jpg

bei dem takt ist der L2 zu langsam... schöner fake :)

Leonidas
2019-05-30, 22:59:13
Zu dem 13% vs 15% IPC uplift (https://twitter.com/Thracks/status/1134098430614093827): die 13% beziehen sich auf CB 1T, die 15% auf SPECint. Das ganze ist ohne AVX, also wird der Schnitt sogar nochmal höher sein!


:up:

Danke für die Klarstellung.

Ex3cut3r
2019-05-30, 23:08:59
bei dem takt ist der L2 zu langsam... schöner fake :)

Vlt. ist die Latzenz beim L2 wegen dem Chiplet Design beim 12 Kerner weniger?

robbitop
2019-05-30, 23:13:38
Alles was innerhalb des CCX selbst ist, ist davon nicht betroffen. Also L1-L3.

Ex3cut3r
2019-05-30, 23:14:14
Alles was innerhalb des CCX selbst ist, ist davon nicht betroffen. Also L1-L3.

Danke für die Aufklärung. :up:

Gipsel
2019-05-30, 23:14:22
4,6GHz = mehr Bandbreite.
Nicht nur das. Zum einen zeigt AIDA wohl die über alle Kerne kumulierte Bandbreite. Und mit der aufgebohrten FPU (AVX-256) sollte der L1 auch zwei parallele 256bit-Loads erlauben (wofür AIDA aber eventuell einen Patch benötigt und bisher schlicht noch 128bit-Loads benutzt, aber keine Ahnung). Macht als theoretische L1-Bandbreite für den 12 Kerner:
Mit 128Bit-Loads:
2x 16 Byte/Takt x 4,6GHz x 12 Kerne = 1766,4 GB/s (1756,6 GB/s stehen da im Screenshot)
Mit 256 Bit-Loads sollte eigentlich noch das Doppelte drin sein. ;)

Der_Korken
2019-05-30, 23:53:46
Leute, als ob die 39ns stimmen würden ;D

Eventuell ist das einfach von ner übertakteten Intel CPU und es wurde unten die falsche CPU+Board reingeshoppt.

SKYNET
2019-05-31, 00:08:49
Leute, als ob die 39ns stimmen würden ;D

Eventuell ist das einfach von ner übertakteten Intel CPU und es wurde unten die falsche CPU+Board reingeshoppt.

oder einfach die CPUID geändert... :)

Schnoesel
2019-05-31, 00:10:27
Nach dem Hype ist vor dem Hype :-)

Knuddelbearli
2019-05-31, 00:37:58
Ich frage mich gerade, ob durch das Chipdesign die Latenz beim 3900x höher sein könnte als bei den 8 Kernern.

Auf Reddit wurde letztens etwas in die Richtung angedeutet...

Vermutlich dafür hat man aber auch doppelten L3 Cache was gerade in Spielen ( Wo gute Latenzen besonders hilfreich sind ) wieder gut helfen dürfen sofern er sinnvoll verwaltet wird.

Eldoran
2019-05-31, 01:14:23
Das klingt soweit logisch, andererseits müsste doch der check bezüglich dem Cache am anderem Chiplet beim L2 stattfinden oder? Wie schaut ein Treadripper im Vergleich aus? Die höhere L1 Bandbreite wäre zumindest wegen AVX256 logisch.

Benutzername
2019-05-31, 06:23:47
AMD hat sich verplappert in Sachen sechzehn Kerne:

Computex 2019: Gamers Nexus confirms 16-core Ryzen 3000 with Leo! (https://www.kitguru.net/components/dominic-moass/computex-2019-gamers-nexus-confirms-16-core-ryzen-3000-with-leo/)(kitguru)

bei etwa 2:50


Okay, war sowieso klar, daß ein 16 Kerner kommen würde, wenn es acht Kern Chiplets gibt. :wink:

basix
2019-05-31, 08:00:57
"confirmed", na klar ;)

robbitop
2019-05-31, 08:21:44
Dass einer kommen wird war eh klar, intereesant wäre wann.

Das klingt soweit logisch, andererseits müsste doch der check bezüglich dem Cache am anderem Chiplet beim L2 stattfinden oder? Wie schaut ein Treadripper im Vergleich aus? Die höhere L1 Bandbreite wäre zumindest wegen AVX256 logisch.

TR sieht iirc sehr ähnlich zu Ryzen aus in den aida Latenzen.
Iirc prüfen die jeweiligen Kernen Stufe für Stufe nacheinander ihren eigenen L1-L3 und dann direkt im Speicher. So sieht es auch in den Latenzdiagrammen aus.
Würde ansonsten zu noch höheren Speicherlatenzen führen.

Grendizer
2019-05-31, 08:25:51
Dass einer kommen wird war eh klar, intereesant wäre wann.

Und die Preislage :biggrin:

MR2
2019-05-31, 08:52:56
Vor Allem weil ja das ES schon rumgeistert.

Angeblich neue Benchmarks gestern bei chiphell. Finde nur die Seite mit dem Handy Grad nicht, deshalb wcfucktech:

https://wccftech.com/amd-ryzen-5-3600-zen-2-cpu-benchmark-leak-crushes-coffee-lake-price-performance/

Hier wars:
https://youtu.be/z9qekQCidn8

Zergra
2019-05-31, 09:04:07
Finde die 39ns beim L1 nicht so unwahrscheinlich, der wurde halbiert und anders angebunden, da sind solche Sprünge sehr gut möglich.

dildo4u
2019-05-31, 09:39:50
Vor Allem weil ja das ES schon rumgeistert.

Angeblich neue Benchmarks gestern bei chiphell. Finde nur die Seite mit dem Handy Grad nicht, deshalb wcfucktech:

https://wccftech.com/amd-ryzen-5-3600-zen-2-cpu-benchmark-leak-crushes-coffee-lake-price-performance/

Hier wars:
https://youtu.be/z9qekQCidn8

Die 27000k sind mit 2666 RAM,das wird noch deutlich schneller.

Gipsel
2019-05-31, 10:01:15
TR sieht iirc sehr ähnlich zu Ryzen aus in den aida Latenzen.
Iirc prüfen die jeweiligen Kernen Stufe für Stufe nacheinander ihren eigenen L1-L3 und dann direkt im Speicher. So sieht es auch in den Latenzdiagrammen aus.
Würde ansonsten zu noch höheren Speicherlatenzen führen.
Man muß aber irgendwie auch checken können was in den Caches in anderen CCX und auch auf anderen Dies steht, da dort noch nicht in den Speicher zurückgeschriebene Daten stehen können (wir haben ja keine write-through Caches), um die Konsistenz zu sichern.
Mein Vorschlag dazu war ja, daß im IO-Die die Tags der Caches auf den Compute-Dies dupliziert werden (oder dort eine andere Speicherstruktur existiert, die für einen Snoop-Filter genutzt wird [es werden also sehr wahrscheinlich ein paar MB SRAM im IO-Die existieren, beim Epyc-IO-Die dann ein paar mehr ;)]). Dadurch spart man sich den Broadcast an alle Dies und muß nur genau dort anfragen, wo es auch wirklich steht und falls es überhaupt irgendwo anders steht (weil das weiß man ja nach Checken der Tag-Kopien im IO-Die). Und diese Überprüfung kann parallel zur Einleitung eines Speicherzugriffs erfolgen, kostet also im Optimalfall keine zusätzliche Latenz für die Sicherstellung der Cachekohärenz (man benötigt nur die Option im Speichercontroller, den Speicherzugriff noch während der Verarbeitung im Speichercontroller wieder zu canceln, falls man feststellt, daß im Speicher nur eine stale copy steht).

Benutzername
2019-05-31, 10:02:03
"confirmed", na klar ;)


Türlich, türlich, sicher, Digger! :biggrin:

DAß er kommen wird ist klar.
Gibt ja sogar engineering samples bei den Mobo-herstellern und die konstruieren für den Strombedarf. Die Frage ist wann? Wann? WAAAANNNN?

Ich vermute ja, daß die Epyc eine ganze Menge chiplets fressen und intel hat ja nicht wirklich was dagegen zu setzen, also kann AMD erstmal ruhig die Profis bedienen. Und Ausbeute ist villeicht auch noch nicht so gut.

Käsetoast
2019-05-31, 10:17:14
Das ist halt AMDs Problem dieses Jahr, das schon öfters angesprochen wurde. AMD hat relativ viele neue Produkte dieses Jahr, die grundsätzlich alle relativ zeitgleich erscheinen. Für das Marketing ist das ein Problem weil man ja positiv im Gespräch bleiben will und nicht das ganze Pulver an einem Event verbläst und dann hat man monatelang gar nichts mehr zu melden. Ich denke zur E3 wird es ein Event geben, das quasi umgekehrt zur Computex wird, also viel Navi mit Benennung der Modelle und Preise und wenig Zen wo man die 6 Kerner dann mal richtig vorstellt. Am 7.7. kommt dann der Release mit richtig konkreten Benchmarks. Je nachdem wie Intel sich verhält werden dann auch die 16 Kerner in Aussicht gestellt bzw das was mit Navi ggf. später dieses Jahr noch kommen wird. Zur Gamescom gibt es dann die Navi Customs zu besprechen und spätestens hier dann auch die Erwähnung der 16 Kerner bzw Threadripper und die entsprechenden Mainboards bzw dann auch was zu den kommenden B550 Boards. Ein Release der 16er erwarte ich dann vielleicht einen Monat nach der Gamescom ggf. zusammen mit irgendeinem Navi Modell das leicht zeitversetzt zum Rest startet. Zur Weihnachtszeit könnte es dann einen Teaser für die CES geben, dass man da zu kommenden Grafikkarten was sagt...

robbitop
2019-05-31, 10:23:06
Finde die 39ns beim L1 nicht so unwahrscheinlich, der wurde halbiert und anders angebunden, da sind solche Sprünge sehr gut möglich.

39ns für L1?

w0mbat
2019-05-31, 10:28:33
Er meint wohl Level1, also bis zum Server gemessen :D

SKYNET
2019-05-31, 10:44:51
AMD hat sich verplappert in Sachen sechzehn Kerne:

Computex 2019: Gamers Nexus confirms 16-core Ryzen 3000 with Leo! (https://www.kitguru.net/components/dominic-moass/computex-2019-gamers-nexus-confirms-16-core-ryzen-3000-with-leo/)(kitguru)

bei etwa 2:50


Okay, war sowieso klar, daß ein 16 Kerner kommen würde, wenn es acht Kern Chiplets gibt. :wink:


aaaaahhhhhhh.... ich will mir nicht 2x innert 3 monaten ne neue CPU kaufen müssen :mad:

gmb
2019-05-31, 12:14:41
Anandtech hat übrigens alle Folien veröffentlicht: https://www.anandtech.com/show/14407/amd-ryzen-3000-announced-five-cpus-12-cores-for-499-up-to-46-ghz-pcie-40-coming-77/2


Da mal wieder ein Mod Zensur betreiben musste, muss ich das nochmal genauer ausführen. Gerade in den Spielebenchmarks kann man so leicht bescheißen mit der RAM Konfig. Und was macht AMD? Bei keinem der Slides steht irgendetwas zu einer System Konfiguration - im Gegensatz zu Intels. Trotzdem wird das einfach so blind hingenommen. Die Hälfte von der gaming Verbesserung kann vom schnelleren RAM entstanden sein. Wenn die jetzt default RAM genommen haben, können aus den 20% plötzlich 10% oder weniger werden, wenn man Zen 1 eh schon mit DDR4-3200 oder höher betreibt. Das Verbesserungspotenzial liegt bei Zen 1 und Skylake höher.

Diskussion moderativer Aktivitäten in den normalen Foren ist ein NoGo. Schreib eine PN an einen Mod oder mache einen Thread im Kontaktforum auf, falls Du was dazu loswerden willst!
Hier wurde keine Antwort von Dir auf den zitierten Post gelöscht (der letzte gelöschte Post von Dir liegt deutlich vor dem von Dir zitierten Post von BoMbY).
Betrachte Dich hiermit als vorgewarnt.

dildo4u
2019-05-31, 12:17:53
AMD verkauft noch nix das wäre kritisch wenn es am 1.7 Preorder aber keine Reviews gibt.

w0mbat
2019-05-31, 12:19:01
Im Presse-Deck sind die Angaben 100% dabei, nur hat die Anand eben nicht hochgeladen. Aber CFL wird sicher nur mit DDR4-2666 betrieben.

MR2
2019-05-31, 12:57:01
@Käsetoast

Hat das nicht AMD selbst gesagt, dass es zur E3 80% um Navi und 20% um Zen 2 geht? Umgekehrt zur Computex. Hab ich zumindest irgendwo gelesen.

Rancor
2019-05-31, 13:10:01
Da mal wieder ein Mod Zensur betreiben musste, muss ich das nochmal genauer ausführen. Gerade in den Spielebenchmarks kann man so leicht bescheißen mit der RAM Konfig. Und was macht AMD? Bei keinem der Slides steht irgendetwas zu einer System Konfiguration - im Gegensatz zu Intels. Trotzdem wird das einfach so blind hingenommen. Die Hälfte von der gaming Verbesserung kann vom schnelleren RAM entstanden sein. Wenn die jetzt default RAM genommen haben, können aus den 20% plötzlich 10% oder weniger werden, wenn man Zen 1 eh schon mit DDR4-3200 oder höher betreibt. Das Verbesserungspotenzial liegt bei Zen 1 und Skylake höher.

Digga.... bricht dir denn wirklich ein Zacken aus der Krone, wenn du mal zugibst das AMD da nen ordentliches Produkt auf den Markt bringt?

Zergra
2019-05-31, 13:15:58
39ns für L1?
Da fehlte der Zweite Kaffee heute morgen :freak::freak:

BoMbY
2019-05-31, 13:20:28
Also dafür dass das die kleinste CPU ist, sind die Ergebnisse nicht schlecht:

https://browser.geekbench.com/v4/cpu/13339177

Das RAM ist jetzt etwas besser, aber immer noch nur DDR4-2933.

dildo4u
2019-05-31, 13:22:55
Schneller als Threadripper 12 Core,schätze mal das Ding fliegt beim Gameing.
Anwendungsperformance stellt das nicht da.

https://browser.geekbench.com/processors/2058

BeetleatWar1977
2019-05-31, 13:48:22
Also dafür dass das die kleinste CPU ist, sind die Ergebnisse nicht schlecht:

https://browser.geekbench.com/v4/cpu/13339177

Das RAM ist jetzt etwas besser, aber immer noch nur DDR4-2933.


zum Vergleich mein 2700x @PBO (160W)

https://browser.geekbench.com/v4/cpu/compare/13341474?baseline=13339177

Gipsel
2019-05-31, 14:04:34
zum Vergleich mein 2700x @PBO (160W)

https://browser.geekbench.com/v4/cpu/compare/13341474?baseline=13339177Für eine 65W CPU mit langsamerem Speicher und 2 Kernen weniger gar nicht mal so schlecht. Und man sieht genau, in welchen Tests die doppelt so breiten FPU-Einheiten reinhauen. Und einige Subtests sind auch deutlich schneller geworden, obwohl sie nicht die FPU nutzen (z.B. LUA, Dijkstra und SQLite). Und nicht Alles davon wird der L3-Cache sein (bei LUA würde ich mal fast auf die Sprungvorhersage eventuell in Verbindung mit dem vergrößerten µOp-Cache bzw. einer verringerten Zugriffszeit des verkleinerten L1-I$ tippen, der die branch mispredict penalty verkleinert [Interpreter sind angeblich notorisch "branchy" mit relativ schwer vorherzusagenen Branches]; aber +43% im single core score [bei eventuell sogar leicht niedrigerer Frequenz, falls XFR bei Ryzen 3k nicht völlig frei dreht; 4,2 vs. 4,3GHz normaler Boost] ist schon mal eine Ansage).

BeetleatWar1977
2019-05-31, 14:40:45
Was mich am meisten ärgert - gleiches Board wie meins.... Aber das neue Bios auf das ich schon die ganze Zeit warte........

Screemer
2019-05-31, 14:43:05
von meinem derzeitigen 1600x sind das >20% st und fast 35% mt steigerung. da überleg ich jetzt nicht lang ob ich den größeren bruder nehmen werde: https://browser.geekbench.com/v4/cpu/compare/13342061?baseline=13339177

SKYNET
2019-05-31, 14:45:29
Also dafür dass das die kleinste CPU ist, sind die Ergebnisse nicht schlecht:

https://browser.geekbench.com/v4/cpu/13339177

Das RAM ist jetzt etwas besser, aber immer noch nur DDR4-2933.


singlecore gleich wie mein biest, multicore vernichtet meiner den natürlich... :D


https://browser.geekbench.com/v4/cpu/compare/12090543?baseline=13339177

Ex3cut3r
2019-05-31, 15:24:52
Also Geekbench ist nicht die Parade Disziplin, vergleichbare Intels machen über 6000 Pkt. im SC. :redface:

hilo
2019-05-31, 15:25:25
Angeblich kein PCI-E 4.0 auf 300er- und 400er-Boards, laut Sweclockers
https://www.sweclockers.com/nyhet/27653-amd-klipper-pci-express-4-0-stod-for-aldre-moderkort-i-400-och-300-serien

dildo4u
2019-05-31, 15:40:32
Also Geekbench ist nicht die Parade Disziplin, vergleichbare Intels machen über 6000 Pkt. im SC. :redface:
8700 ist langsamer,alles was besser läuft gehört zur 91 Watt + Klasse.


https://browser.geekbench.com/processors/2063

Ex3cut3r
2019-05-31, 15:49:42
8700 ist langsamer,alles was besser läuft gehört zur 91 Watt + Klasse.


https://browser.geekbench.com/processors/2063

:up:

BoMbY
2019-05-31, 16:00:22
Das fällt mir gerade erst auf: Wisst Ihr eigentlich was das dümmste bei den ganzen X570-Boards ist? Der Chipset-Lüfter wird, je nach Board, fast zur Hälfte von jeder größeren Grafikkarte blockiert ...

Isen
2019-05-31, 16:03:05
Darum dreht sich die meiste Kritik seit paar Tagen ^^ (GPU ausm Loop nehmen müssen, um da den Staub raus zu popeln)

SKYNET
2019-05-31, 16:30:19
Angeblich kein PCI-E 4.0 auf 300er- und 400er-Boards, laut Sweclockers
https://www.sweclockers.com/nyhet/27653-amd-klipper-pci-express-4-0-stod-for-aldre-moderkort-i-400-och-300-serien


sehen wir dann :)

Tobalt
2019-05-31, 17:51:47
wenn man von 1600 auf 3800x zb upgradet ist dies schon ein enormer schritt innerhalb des gleichen Mobos. Ich hoffe mal dass alle B350 und X370 board hersteller sich bestmöglich um saubere Updates bemühen

Screemer
2019-05-31, 18:41:59
Oh ja. Das hoffe ich auch. Leider bezweifle ich das bei meinem Hersteller sehr. Damals war die Combo aus x370+1600x ein schnappen für 200€. Heute fluche ich über das Board mehr als ich mich freue. Gibt ohne Mod BIOS nicht Mal custom p-states...

Thomas Gräf
2019-05-31, 18:53:44
Darum dreht sich die meiste Kritik seit paar Tagen ^^ (GPU ausm Loop nehmen müssen, um da den Staub raus zu popeln)

Da wohl kein Waterforce Bord für den AMD rauskommt bleibt ev noch die Hoffnung auf EKWB.

https://www.ekwb.com/shop/water-blocks/motherboard-blocks/monoblocks/amd-x470

Blöd für EKWB is aber, wenn die 570'er Bords auch nur 1 Jahr aktuell sind.
Wenn bis Weihnachten da nix für 570 von EKWB erscheint wirds dann wohl so sein.

Unicous
2019-05-31, 18:56:42
AMD wird (gerüchteweise) die TDP für Rome auf 240 Watt steigern (,was meiner Meinung darauf hinweist, dass die 64C Chips keinen Basistakt im niedrigen 1GHz Bereich haben werden, wie von einigen Leuten behauptet wird).


We're told by our sources here at Computex that AMD's Rome has a maximum 240W TDP (to be clear, that’s not officially confirmed by AMD), slotting between Intel's Xeon 8280 and the low-end -AP models (if there is such a thing). Meanwhile, Intel's 9282 and 9242 weigh in at 400W and 350W, respectively.

https://www.tomshardware.com/news/intel-amd-computex-benchmark-epyc-xeon,39544.html

Tom's Hardware scheint in letzter Zeit das mouth piece für Intel zu sein, denn die Info kommt aus einem Artikel in dem Intel zeigt wie durch "Optimierungen" Intel Rome schlagen wird. (TDP, Preis, Sockelanzahl, I/O, etc. mal außen vor gelassen.;)) und Herr Alcorn ist allzu bereit, genau diese Narrative wiederzugeben, auch wenn dann etwas später relativiert wird und dann auf die Diskrepanz von TDP und Preis eingegangen wird.

Linmoum
2019-05-31, 19:05:13
Die Frage ist ja eher, warum Intel sich genötigt sieht, nach wenigen Tagen Benchmarks des Konkurrenten von einem noch nicht veröffentlichten Produkt zu "relativieren" (inkl. des von AMD veröffentlichten Benchmarks zum 8280).
Da schwitzt jemand.

Unicous
2019-05-31, 19:08:42
Außerdem wissen wir ja seit Neuestem, dass Benchmarks völlig egal sind.:freak:

Linmoum
2019-05-31, 19:10:43
Nicht, wenn sie von Intel selbst kommen. ;) Aber wo ich die Footnotes noch sehe

Software and workloads used in performance tests may have been optimized for performance only on Intel microprocessors.
Performance results are based upon test as of May 29, 2019 and may not reflect all publicly available security updates.

Langsam wird's peinlich.

Unicous
2019-05-31, 19:17:10
Letzteres ist ja mittlerweile schon ein running gag.:wink:

Ersteres ist unter Umständen dem "Compiler-Disclaimer" geschuldet, aber wäre natürlich lustig wenn Intel sich einen Optimierten Code gegönnt und AMD eben dies vorenthält. Ist eben auch die Frage wie man das Ganze testet. Lässt man alles auf "default" oder genehmigt man sich selbst Optimierungen und dem Konkurrenten nicht. Oder lässt alles auf optimiertem Code laufen. ¯\_(ツ)_/¯

M4xw0lf
2019-05-31, 19:24:40
Nicht, wenn sie von Intel selbst kommen. ;) Aber wo ich die Footnotes noch sehe




Langsam wird's peinlich.
Diese beiden Fußnoten sind fantastisch :ulol:

Linmoum
2019-05-31, 19:28:33
Letzteres ist ja mittlerweile schon ein running gag.:wink:

Ersteres ist unter Umständen dem "Compiler-Disclaimer" geschuldet, aber wäre natürlich lustig wenn Intel sich einen Optimierten Code gegönnt und AMD eben dies vorenthält. Ist eben auch die Frage wie man das Ganze testet. Lässt man alles auf "default" oder genehmigt man sich selbst Optimierungen und dem Konkurrenten nicht. Oder lässt alles auf optimiertem Code laufen. ¯\_(ツ)_/¯
Ohne das im Detail zu wissen wird man sicher den Best-Case von allem genommen haben. Das Problem ist nur, dass selbst der unter Berücksichtigung aller Aspekte die Benchmarks nicht besser macht. ;D Und Brechstange kommt gerade im Serverumfeld nicht so gut an, wenn man da die Produkte fröhlich saufen lässt. Und im Vergleich zu Rome sind die 350W-400W einfach exorbitant.

hilo
2019-05-31, 19:38:30
"Time-honoured tradition, ladies and gentlemen, time-honoured tradition!
Come to think of it, here's to BAPCo SysMark 2002!"

http://www.vanshardware.com/reviews/2002/08/020822_AthlonXP2600/020822_AthlonXP2600.htm

basix
2019-05-31, 19:45:42
Mein Vater wird ein schönes Upgrade auf nen 3600er bekommen. Der dümpelt noch auf einem E6600 rum :D

Blediator16
2019-05-31, 21:13:38
Mein Vater wird ein schönes Upgrade auf nen 3600er bekommen. Der dümpelt noch auf einem E6600 rum :D

Uff. Du weißt aber schon, dass der 3600er langsamer ist? Sind immerhin 3000 weniger :freak:

SKYNET
2019-06-01, 13:07:38
Uff. Du weißt aber schon, dass der 3600er langsamer ist? Sind immerhin 3000 weniger :freak:

sag sowas nicht, gibt bestimmt genug deppen dies glauben würden :ulol:

amdfanuwe
2019-06-01, 13:59:50
Mal ne Frage an die Profis hier:
Die CPU Chiplets brauchen ja keinen Interposer.
Heißt das, man könnte sie für Mobile und Konsolen auch direkt auf dem Board verlöten?
Oder ist ein Träger wie bei Matisse notwendig?

BlacKi
2019-06-01, 14:03:40
wie willst du sonst den gleichmäßigen höhenabstand garantieren?

reaperrr
2019-06-01, 14:11:09
wie willst du sonst den gleichmäßigen höhenabstand garantieren?
Mal ganz ab von den IF-Verbindungen, die sonst direkt im Board vorhanden sein müssten -> viel zu viel Aufwand.

robbitop
2019-06-01, 14:19:54
Latenz wäre dann auch nicht mehr so rosig. Auf dem gleichen Träger macht das schon Sinn.

BoMbY
2019-06-01, 14:57:57
Da sind (https://twitter.com/momomo_us/status/1134797286276382726) mehr Userbenchmark-Ergebnisse aufgetaucht.

Schaut mal auf die Latenz: https://www.userbenchmark.com/UserRun/17324677

Edit: Wobei man da nie sicher sein kann ob das nicht Fakes sind, wonach das hier irgendwie aussieht:

https://www.userbenchmark.com/UserRun/17303996

Der_Korken
2019-06-01, 15:22:29
Da sind (https://twitter.com/momomo_us/status/1134797286276382726) mehr Userbenchmark-Ergebnisse aufgetaucht.

Schaut mal auf die Latenz: https://www.userbenchmark.com/UserRun/17324677

Edit: Wobei man da nie sicher sein kann ob das nicht Fakes sind, wonach das hier irgendwie aussieht:

https://www.userbenchmark.com/UserRun/17303996

Das sind keine Zen2-CPUs, weil die Latenz bei 16MB viel zu hoch ist. Das Diagramm passt eher zu Zen1, wie in den Twitter-Comments steht.

dargo
2019-06-01, 16:12:51
Oh ja. Das hoffe ich auch. Leider bezweifle ich das bei meinem Hersteller sehr. Damals war die Combo aus x370+1600x ein schnappen für 200€. Heute fluche ich über das Board mehr als ich mich freue. Gibt ohne Mod BIOS nicht Mal custom p-states...
Löl? Schon lange kein so langweiliges Brett wie das Asus X370-Pro gehabt. Es läuft einfach. :cool:

USS-VOYAGER
2019-06-01, 16:20:54
Löl? Schon lange kein so langweiliges Brett wie das Asus X370-Pro gehabt. Es läuft einfach. :cool:

Läuft bei mir auch ohne Probleme.
Werde auf den 3600X wechseln wenn er in Games nicht viel Langsamer als der 3700X sein sollte.
Dürfte von mein 1600X ein Ordentlicher Boost sein. Vor allem für die Index mit den 120-144Hz.

basix
2019-06-02, 00:22:16
AMD hat einen wirklich günstigen Moment für Zen 2 erwischt. Auch Navi könnte sehr gut laufen.

Viele "Altsysteme" Sandy Bridge - Haswell mit 4C sind noch im Umlauf. Ein günstiger Umstieg auf 6-8C bei gleichzeitiger hoher Spieleleistung ist wohl für viele attraktiv. Aufgrund der sehr modernen Plattform mit PCIe 4.0 und massig USB 3.1 10Gbps ebenfalls ein grosses Upgrade verglichen zu älteren Systemen. Die bisherigen Mainstream Plattformen waren mit PCIe 3.0 und je nach dem nicht so wahnsinnig vielen und schnellen USB-Ports nicht wirklich ein Upgrade wert.
Navi wir wohl ebenfalls relativ attraktiv sein, was das Preisleistungsverhältnis anbelangt (verglichen mit dem heutigen Stand). Leute mit älteren Karten könnten somit zum Upgrade bewegt werden.
RAM ist momentan so günstig wie schon lange nicht mehr (oftmals fast 1/2 des Preises wie vor 1 Jahr). Systemkosten werden dadurch profitieren.
SSD Preise sind deutlich tiefer als noch vor 1 Jahr (ca. -1/3) Das ist ebenfalls vorteilhaft für den Systempreis.
Free Sync / Adaptive Sync ist auf dem Vormarsch (inkl. gewisser Öffnung durch Nvidia). Sich einen entsprechenden Monitor zu kaufen ist nicht mehr eine definitive Entscheidung AMD oder Nvidia (klar, mit einigen Einschränkungen).
Neue Konsolen kommen bald, vorläufige Specs sind im Umlauf (8x Zen 2 Cores + Navi_plus). Hier ebenfalls etwas gleichwertiges zu erstehen mit allfälliger Upgrade-Möglichkeit auf der selben AM4 Plattform (z.B. 12C oder Zen 3) hört sich vernünftig an.
Mit PCIe 4.0 und massig USB 3.1 10Gbps ist man gut für die zukunft gerüstet
"Altsysteme" mit Ryzen 1000 / 2000er Derivaten können relativ leicht refreshed werden und unter Umständen massig an Leistung gewinnen.


Alles in allem wird es wohl relativ günstig wie schon lange nicht mehr sich einen leistungsstarken, energieeffizienten, leisen und zukunftstauglichen PC zusammenzustellen. CPU & GPU @ all AMD.

Hasenpfote
2019-06-02, 00:47:04
AMD hat einen wirklich günstigen Moment für Zen 2 erwischt. Auch Navi könnte sehr gut laufen.

....
All Deiner erwähnten Einsparungen werden durch die Boardpreise wieder aufgefressen. 777Euro für das MSI Goldlike :biggrin:
Und nun komm nicht mit "Aber man kann ja n altes X470...."

NEIN! NIX MIT ALTES! :P

Leonidas
2019-06-02, 05:52:18
Gibt es einen Zwang, das MSI Goldlike zu nehmen? Diskussionsgrundlage sind die Preislagen der günstigen X570-Platinen. Und selbst da muß man sehen, ob die Hersteller zur Computex nicht vielleicht ausschließlich ihre überkandidelten Modelle gezeigt haben, die 0815-Ausführungen dagegen nicht. Ist im Grafik-Bereich total üblich, das 0815-Zeugs, was später aber die Marktpreise bestimmt, im Rahmen solcher Messen (u.ä.) nicht einmal zu erwähnen.

dildo4u
2019-06-02, 06:06:26
Im PC World Stream wurde das besprochen die Boards sind teurer in der Produktion,sie erwarten trotzdem 200$ Modelle ich würde das als 50$ Aufpreis gegenüber X470 bezeichnen.


https://youtu.be/CgNEf6Y_-hE?t=3316

Kriegsgeier
2019-06-02, 09:13:01
Leute, was wäre denn wenn 8700k von jetzt 360€ auf 190€ reduziert wäre?

Wäre es nicht ein Hammer Preis?

Nun, es ist bald soweit :-) und das ohne Beteiligung von Intel

Tja so kann’s kommen

rentex
2019-06-02, 10:32:32
Intels Preise werden zwangsläufig fallen...der 9900K pendelt ja schon zwischen 470- 490€.
Da auch die höherwertigen Z390 Boards im Preis fallen, kann man es sich aussuchen.

r3ptil3
2019-06-02, 10:33:21
Die News auf der Titelseite hat einen Fehler:

Bei PUBG steht 6.3%+ beim 8700k, jedoch ist laut Chiphell der Ryzen 3600 schneller als der 8700k (183 / 172 FPS).

tm0975
2019-06-02, 10:47:44
Leute, was wäre denn wenn 8700k von jetzt 360€ auf 190€ reduziert wäre?

Wäre es nicht ein Hammer Preis?

wahnsinn... noch schnell in i3 umbenannt und gut ists. naja abgesehen vom mehrverbrauch. der ist wie hoch? ach was solls, doch kein hammer...

SKYNET
2019-06-02, 11:15:17
wahnsinn... noch schnell in i3 umbenannt und gut ists. naja abgesehen vom mehrverbrauch. der ist wie hoch? ach was solls, doch kein hammer...


irgendwie muss man auch fair bleiben(jetzt nicht zwingend auf dich bezogen) aber wo die AMD CPUs & grakas noch mehr saft gezogen haben, wars immer "ach die paar watt" und nun isses "die intels verbrauchen viel mehr bei gleicher leistung"... da sollte man dann, einfach die füsse still halten...


und nein, ich habe mich nie über den mehrvebrauch gestört, warum auch? weder bin ich ein ultra silentfreak(ok, schlafzimmer rechner schon X-D), noch kratzen mich die 10 franke im jahr an mehrausgaben für den strom, wenn die kiste 100W mehr aus der büchse zieht.

Kriegsgeier
2019-06-02, 11:18:56
Was verbrauchen 8700k bei 4,7 GHz all Core?!

Zwischen 150 und 180 Watt würde ich behaupten

dildo4u
2019-06-02, 11:25:46
Wie kommt ihr auf die Idee das Intel die Preise senken wird Threadripper ist Jahre draußen und der aktuelle 12 Core Intel kostet immer noch über 1000€.


https://geizhals.de/amd-ryzen-threadripper-2920x-yd292xa8afwof-a1867624.html?hloc=de

https://geizhals.de/intel-core-i9-9920x-bx80673i99920x-a1910525.html?hloc=de

N0rG
2019-06-02, 11:59:08
Was verbrauchen 8700k bei 4,7 GHz all Core?!

Zwischen 150 und 180 Watt würde ich behaupten

Eher so 120 bis 130W, sofern es keine totaler OC Krüppel ist und 1,3V braucht für die 4,7 GHz.

dildo4u
2019-06-02, 12:04:44
Tomshardware hat 160 mit AVX Last.


https://www.tomshw.de/2018/10/19/intel-core-i9-9900k-i7-9700k-i5-9600k-im-test-review/13/

arcanum
2019-06-02, 12:17:44
Wie kommt ihr auf die Idee das Intel die Preise senken wird Threadripper ist Jahre draußen und der aktuelle 12 Core Intel kostet immer noch über 1000€.


https://geizhals.de/amd-ryzen-threadripper-2920x-yd292xa8afwof-a1867624.html?hloc=de

https://geizhals.de/intel-core-i9-9920x-bx80673i99920x-a1910525.html?hloc=de

soll wohl eher heißen 8700/k performance zum preis von 190€ bei amd erhältlich. wartet ja nicht jeder darauf, dass intel seine preise senkt um dann nicht bei amd kaufen zu müssen.

ChaosTM
2019-06-02, 12:31:43
Wie kommt ihr auf die Idee das Intel die Preise senken wird Threadripper ist Jahre draußen und der aktuelle 12 Core Intel kostet immer noch über 1000€.


https://geizhals.de/amd-ryzen-threadripper-2920x-yd292xa8afwof-a1867624.html?hloc=de

https://geizhals.de/intel-core-i9-9920x-bx80673i99920x-a1910525.html?hloc=de


Das ist die Überheblichkeit des Marktführers und wäre nebenbei ein Eingeständnis der Niederlage. Die "alten" Prozzis werden daher überteuert in den Listen weitergeführt.

Nazar
2019-06-02, 14:25:25
irgendwie muss man auch fair bleiben(jetzt nicht zwingend auf dich bezogen) aber wo die AMD CPUs & grakas noch mehr saft gezogen haben, wars immer "ach die paar watt" und nun isses "die intels verbrauchen viel mehr bei gleicher leistung"... da sollte man dann, einfach die füsse still halten...


und nein, ich habe mich nie über den mehrvebrauch gestört, warum auch? weder bin ich ein ultra silentfreak(ok, schlafzimmer rechner schon X-D), noch kratzen mich die 10 franke im jahr an mehrausgaben für den strom, wenn die kiste 100W mehr aus der büchse zieht.

Jetzt wird es lustig... :freak:

Bis heute ist die Verlustleistung DAS Ding bei vielen Vergleichstests und hat es sogar in die Tests der Magz geschafft.
Diese "Bitte" um Fairness klingt ein wenig verlogen, jetzt da AMD genau da einen vorlegt wo AMD bisher immer "versagt" hatte.
Ja, du hast recht, es sollte wirklich fair bleiben und man sollte sehr deutlich herausarbeiten, dass AMD mit weniger Verlustleistung sogar bessere Ergebnisse erzielt als Intel. DAS wäre dann wirklich fair! :wink:

Kriegsgeier
2019-06-02, 14:53:47
Glaube mir, sogar CB wird das bescheinigen! Ganz bestimmt

Rabiata
2019-06-02, 15:14:44
Jetzt wird es lustig... :freak:

Bis heute ist die Verlustleistung DAS Ding bei vielen Vergleichstests und hat es sogar in die Tests der Magz geschafft.
Diese "Bitte" um Fairness klingt ein wenig verlogen, jetzt da AMD genau da einen vorlegt wo AMD bisher immer "versagt" hatte.
Ja, du hast recht, es sollte wirklich fair bleiben und man sollte sehr deutlich herausarbeiten, dass AMD mit weniger Verlustleistung sogar bessere Ergebnisse erzielt als Intel. DAS wäre dann wirklich fair! :wink:
Wobei die schiefen Ergebnisse auch daran liegen, daß manche Mainboardhersteller die Leistung recht großzügig bemessen, die die CPU ziehen darf. Das kann erheblich über der offiziellen TDP liegen. Speziell bei Intel.

Da denke ich, daß jeweils zwei Meßwerte wünschenswert wären:

einer bei dem die CPU strikt auf die offizielle TDP beschränkt ist
und einer mit deutlich mehr Spielraum für die Overclocker. Vielleicht TDP plus 50%?

tm0975
2019-06-02, 16:27:25
Wobei die schiefen Ergebnisse auch daran liegen, daß manche Mainboardhersteller die Leistung recht großzügig bemessen, die die CPU ziehen darf. Das kann erheblich über der offiziellen TDP liegen. Speziell bei Intel.

Da denke ich, daß jeweils zwei Meßwerte wünschenswert wären:

einer bei dem die CPU strikt auf die offizielle TDP beschränkt ist
und einer mit deutlich mehr Spielraum für die Overclocker. Vielleicht TDP plus 50%?


ich glaube da verwechselst du was. wir reden wir nicht von oc, sondern davon, dass bei intel 95 watt tdp rein gar nichts aussagt und der verbrauch regelmäßig darüber hinaus geht. wäre da jetzt eine harte grenze, hätte das wohl deutliche negative auswirkungen auf die leistung der intel-cpus.

Schwarzie
2019-06-02, 19:41:42
Da denke ich, daß jeweils zwei Meßwerte wünschenswert wären:

einer bei dem die CPU strikt auf die offizielle TDP beschränkt ist
und einer mit deutlich mehr Spielraum für die Overclocker. Vielleicht TDP plus 50%?

Da würde der 9900K ziemlich abloosen. Unter Prime 95 als worstcase mit stockclocks zieht der je nach Review zwischen 200 und 220W als Package Power.

Apple beispielsweise bremst den Core i9 9980HK im Lastbetrieb auf knapp unter 50W (45WTDP) ein. Der Chip hat einen Basistakt von 2,4Ghz und läuft im Macbook mit grandiosen 2,5Ghz. Um den Single/Duo core Turbo von 5ghz und den Allcoreturbo von 4,2Ghz zu halten brauchts vermutlich deutlich über 100W. Und die Notebookchips sind gebinned bis zum gehtnichtmehr.

Intels TDP ist ein purer Joke.

y33H@
2019-06-03, 06:12:40
Der 9900K ist auch mit hart 95W quasi durchweg schneller als ein 2700X, der Benefit von 200W hängt massiv vom Workload ab.

https://www.golem.de/news/core-i9-9900k-im-test-acht-verloetete-5-ghz-kerne-sind-extrem-1810-136974-5.html

Langlay
2019-06-03, 06:15:24
https://browser.geekbench.com/v4/cpu/compare/13330826?baseline=13374225

Geenbenchvergleich von einem(nicht mir gehörenden) Ryzen 5 3600 vs meinen 2700X@6 Kerne & fixen 4.2 GHz

Ich hab bei mir den RAM Speed auch auf DDR2666 eingestellt wie das Ryzen 3600 System. Als Timings hab ich meine Standard CL14-15-14-28 DDR3466 Timings weiterbenutzt.

Latenzmässig ist mein System ~10ns schneller als der Ryzen 3600, der Memcontroller im IO Die scheint bei einem Thread die vorhandene Bandbreite besser auszunutzten als das ältere Ryzen tun.
Im Multiscore ist der 3600 fast so schnell wie mein 2700X mit 8 Kernen & DDR2666.

Korvaun
2019-06-03, 07:25:43
Kann mir nicht vorstellen das Intel die Preise für schon erhältliche Prozzies senkt. Das werden sie über Rabatte stillschweigend regeln. Neu erscheinende Prozzies könnten dann allerdings preiswerter werden indem sie jeweils eine "Intel-Preisstufe" tiefer in den Markt kommen... bzw. der kommende Consumer-10Core nimmt einfach den Preispunkt des aktuellen 9900K ein und alles andere rückt mind. eine Stufe tiefer.

Tobalt
2019-06-03, 07:42:35
bei den vergleichen zum 3600 könnte man ja fast den Eindruck gewinnen als ob Single Core IPC noch von anderen Dingen als der Bösen Latenz abhängt ;-)

Isen
2019-06-03, 07:53:36
Ich will nur wissen, ob die CPU das Feature mit bringt (CBS@Bios), oder es nen 500er Brett sein muss, um es zu bekommen. Freu mich schon, mit niedrigem Takt die hochtaktenden Intels zu verblasen, damit das 5Ghz Thema mal vom Tisch ist :D :P

Zossel
2019-06-03, 07:58:12
AMD will kein PCIe 4.0 auf alten MBs: https://www.anandtech.com/show/14477/amd-confirms-pcie-4-not-coming-to-older-motherboards

Wahrscheinlich will man Ärger vermeiden falls es auf einigen MBs nicht richtig laufen sollte.

unl34shed
2019-06-03, 08:18:26
Das Problem dürften schon die meisten x370/470er Boards sein, die den PCIe 16 Slot zu 2x8 Zu teilen, die switches, die da verwendet werden sind zu lahm. Und das dürfte ein Großteil der Boards sein.

gravitationsfeld
2019-06-03, 08:22:16
Spielt doch praktisch im Moment eh keine Rolle.

mironicus
2019-06-03, 08:23:52
Im Multiscore ist der 3600 fast so schnell wie mein 2700X mit 8 Kernen & DDR2666.

Ich denke in manchen Dingen wird der Ryzen 3600 noch deutlich schneller sein als ein Ryzen 2700, vor allen wenn es um FPU-lastige Dinge geht. Auf jeden Fall dürfte schon der kleinste Ryzen 3600 den schnellsten 2700x beim Gaming locker übertreffen. Der Kauf von älteren Ryzen 2000-CPUs lohnt sich dann überhaupt nicht mehr, selbst als Schnäppchen nicht.

Ich hoffe ja, dass die Ryzen 3000 bei H265-Enkodierung deutlich zulegen. Da waren nämlich die Intels deutlich schneller im Gegensatz zu H264.

KarlKastor
2019-06-03, 08:30:06
Das Problem dürften schon die meisten x370/470er Boards sein, die den PCIe 16 Slot zu 2x8 Zu teilen, die switches, die da verwendet werden sind zu lahm. Und das dürfte ein Großteil der Boards sein.

Joa, ist wie bei Ivy bridge. Ironischerweise könnten deshalb gerade billige Boards prädestiniert sein. Aber da schenken sich die Hersteller wohl das BIOS Update.

Generell sind aber nur die letzten 8 Lanes geswitcht. Man könnte den ersten Slot mit x8 4.0 befeuern und hätte mit ner passenden Karte ausreichend Durchsatz und konnte den 2. Slot noch mit x8 3.0 betreiben.
Ist die Frage ob es den Herstellern das wert ist, Aufwand zu betreiben.

robbitop
2019-06-03, 09:33:19
bei den vergleichen zum 3600 könnte man ja fast den Eindruck gewinnen als ob Single Core IPC noch von anderen Dingen als der Bösen Latenz abhängt ;-)
Es gibt nicht die eine Größe.
Jede Situation, jeder Subtask, der pro Frame anfällt, hat unterschiedliche Flaschenhälse.
Wenn man sich in GDC Vorträgen mal anschaut, was alles an Tasks in einem Frame (also sagen wir mal innerhalb von 16 ns) verteilt auf so viele Threads an Tasks anfällt, kann man sich das in etwa vorstellen.

Wenn ein Thread viele Instructions hat, bei dem es viele Cache misses gibt, muss der Kern (sofern nicht noch parallel andere Tasks warten) darauf warten, bis diese aus dem RAM geladen sind. Dann ist der Einfluss der Speicherlatenz groß. die Verdopplung des L3 reduziert natürlich die Cachemiss-Ratio.

Je besser etwas sehr gut parallelisiert ist (in der Wartezeit kann man dank SMT andere Tasks auf dem Kern laufen lassen) oder die Hitrate in den Caches groß ist, spielt die Memorylatency keine Rolle.

Und so gibt es bei jeder CPU viele andere potenzielle Flaschenhälse. Man wartet auf das Decoding oder man hat nicht genug Ausführungsressourcen oder man wartet auf ein Load oder Store.

Es gibt sicherlich einige Tasks pro Frame, die bspw durch die Memorylatency gebremst werden und andere wiederum durch das Frontend oder das Backend. Eine Verbesserung in anderen Bereichen hilft dann bei diesen die Bearbeitungsdauer zu reduzieren.

Was ich sagen will, es gibt nicht den einen Flaschenhals. Das gilt für so ziemlich jede Applikation. Es kann aber je nach Applikation sein, dass der ein oder andere Flaschenhals mal mehr Bedeutung hat. Das heißt nicht, dass man die Frametime nicht durch die Verbesserung anderer Flaschenhälse anderer Tasks/Subtasks nicht reduzieren kann.

Wie gesagt: der verdoppelte L3 sollte hier schon etwas Abhilfe schaffen.

ChaosTM
2019-06-03, 09:43:51
Die beste Gelegenheit für Schnäppchenjäger.. 8/16 für lau. Die paar % die du verlierst nehmen die meisten "Normalos" und Gelegenheitspieler gerne in Kauf.

Ex3cut3r
2019-06-03, 13:49:37
AMD will kein PCIe 4.0 auf alten MBs: https://www.anandtech.com/show/14477/amd-confirms-pcie-4-not-coming-to-older-motherboards

Wahrscheinlich will man Ärger vermeiden falls es auf einigen MBs nicht richtig laufen sollte.

Bei einem neukauf wurde ich trotzdem ein X570 Board nehmen, ich denke mal alle GPUs die in Zukunft rls. werden, werden PCIe 4.0 unterstützen.

Neue Konsolen werden auch bald kommen, vlt. hat man PCIe 4.0 einen Bandbreiten Vorteil. Wurde mich zwar wundern wenn es viel bringt, aber man weiß ja nie.

Nur der Lüfter bereitet halt ein wenig Bauchschmerzen, da muss man wohl richtig Reviews studieren, und auf ein Board hoffens welches Zero Fan und/oder im Betrieb einigermaßen leise ist, aber bei solchen Mini Lüfter die einfach keinen Durchsatz haben, mussen eigentlich mit hohen RPM laufen, das bedeutet da ist nix mit leise. Nein, never. :redface:

Das einzige Board welches out of the box ohne Lüfter daher kommt, ist diese Aourus für 500 Tacken. Auch keine Option. Bzw. die Spinnen doch.

taddy
2019-06-03, 14:42:52
Bei einem neukauf wurde ich trotzdem ein X570 Board nehmen, ich denke mal alle GPUs die in Zukunft rls. werden, werden PCIe 4.0 unterstützen.

Neue Konsolen werden auch bald kommen, vlt. hat man PCIe 4.0 einen Bandbreiten Vorteil. Wurde mich zwar wundern wenn es viel bringt, aber man weiß ja nie.

Nur der Lüfter bereitet halt ein wenig Bauchschmerzen, da muss man wohl richtig Reviews studieren, und auf ein Board hoffens welches Zero Fan und/oder im Betrieb einigermaßen leise ist, aber bei solchen Mini Lüfter die einfach keinen Durchsatz haben, mussen eigentlich mit hohen RPM laufen, das bedeutet da ist nix mit leise. Nein, never. :redface:

Das einzige Board welches out of the box ohne Lüfter daher kommt, ist diese Aourus für 500 Tacken. Auch keine Option. Bzw. die Spinnen doch.

Damals zu Zeiten von EHeim und KFZ Radiatoren hat man einfach einen kleinen Wasserkühler auf die Northbrigde geschraubt. Gut möglich, dass diese Kühler ein Revival erleben.

Größtes Problem an diesen Kühlern ist aber, dass kein RGB-Firlefanz eingebaut worden ist. Das kauft ja heutzutage keiner mehr :lol:

aufkrawall
2019-06-03, 14:49:56
Nein, never. :redface:

Oder abmontieren und einen Noctua draufpusten lassen. Wär dann noch die Frage, wie fies die Bastelei wäre.

x-force
2019-06-03, 14:51:34
bei 200€+ preisen für vernünftige boards erwarte ich eine lösung, die weder laut ist noch bei der ich nicht basteln muss.

aufkrawall
2019-06-03, 14:54:28
Kannst viel erwarten, wenn der Tag lang ist. Gibt auch teure Netzteile mit Schrott-Lüftern.

x-force
2019-06-03, 15:19:38
gibt es bestimmt, aber die kaufe ich genauso wenig.

amdfanuwe
2019-06-03, 15:56:58
Mal abwarten, ob nicht noch B550 und B530 Boards ohne Lüfter mit etwas weniger I/O dafür mit PCIe 4.0 Qualifikation zumindest für die CPU Lanes kommen.

Windi
2019-06-03, 17:10:03
Würde ja auch vollkommen reichen, wenn nur die CPU Lanes und die Anbindung zum Chipsatz PCIe 4.0 wären.
Nur sollen die erst ein halbes Jahr später kommen.? Keine Ahnung was das soll, einen gemeinsamen Launch hätte man eigentlich hinbekommen sollen. Sollen erst noch die Lager mit den alten Boards geleert werden? Oder wollten die OEMs das unbedingt, um einige Zeit lang die teuren Boards besser zu verkaufen?

Ich weiß nicht was ich davon halten soll, wenn ich was neues kaufe, dann soll auch alles neu sein. Mal die Tests abwarten, da gibt es ja noch ein paar weitere Baustellen. USB3.0 -> USB3.2

OgrEGT
2019-06-03, 20:02:55
Mal abwarten, ob nicht noch B550 und B530 Boards ohne Lüfter mit etwas weniger I/O dafür mit PCIe 4.0 Qualifikation zumindest für die CPU Lanes kommen.

Jarr... da ich mATX benötige warte ich erst mal auf B550... Oder ob es auch x570 als mATX Variante geben wird? Mir würd ja PCIe 4.0 von der CPU für eine M2 und GPU reichen...

amdfanuwe
2019-06-03, 20:04:12
Sagte Lisa nicht etwas von neuen Formfaktoren?

OgrEGT
2019-06-03, 20:07:32
Andere als eATX, ATX, mATX, ITX?

unl34shed
2019-06-03, 20:20:26
Es gab doch von ASUS (glaub ich) ASRock schon ein x570 µATX

E:
ASRock X570M-Pro4

M4xw0lf
2019-06-03, 21:01:08
Anders als viele Vorgänger haben die X570er leider wohl alle "dank" PCIe 4.0 keinen x1-Slot über dem x16er mehr zwecks Signalstärke. Fand ich sexy um gerade bei µATX die Option auf Soundkarte offen zu halten, ohne sich Gedanken um die Luftzufuhr für die Grafikkarte machen zu müssen.

OgrEGT
2019-06-03, 21:01:39
Ah OK, ist mir entgangen, Danke :smile:

https://pbs.twimg.com/media/D7s6i6uWkAAIdd5.jpg

https://twitter.com/GamersNexus/status/1133564149026267136

MSABK
2019-06-03, 21:51:40
Hmm, Apple setzt beim neuen MacPro immer noch auf Intel Xeon. Dachte vlt steigen sie endlich auf AMD um.

Rabiata
2019-06-03, 21:53:48
Damals zu Zeiten von EHeim und KFZ Radiatoren hat man einfach einen kleinen Wasserkühler auf die Northbrigde geschraubt. Gut möglich, dass diese Kühler ein Revival erleben.
Leicht OT:
Das erinnert mich an mein altes Abit Board von 2004. Kleiner, lauter Kühler auf der Northbridge der nach einem Jahr kaputt war. Habe dann einen Mini-Papst-Lüfter draufgeschraubt, der für einige Jahre gute Dienste geleistet hat. Deutsche Wertarbeit halt :).

Fisch
2019-06-03, 22:05:26
Die H2O-Fraktion soll sich freuen, endlich mal was neues zu kühlen.
Und Chipsatzkühler gibts ja immer noch genug, oder einfach den alten selbstgefrästen aus dem Keller rauskramen :)

Fusion_Power
2019-06-03, 22:48:37
Nur der Lüfter bereitet halt ein wenig Bauchschmerzen, da muss man wohl richtig Reviews studieren, und auf ein Board hoffens welches Zero Fan und/oder im Betrieb einigermaßen leise ist, aber bei solchen Mini Lüfter die einfach keinen Durchsatz haben, mussen eigentlich mit hohen RPM laufen, das bedeutet da ist nix mit leise. Nein, never. :redface:

Hat mich sehr verwundert als ich das erste mal drüber las, dass die neuen AMD Boards (normalerweise) aktiv gekühlt werden müssen. Wie viel Watt zieht so ein Chipsatz? Wäre ja blöd wenn das Board die Stromersparnis moderner AMD CPUs gleich wieder auffrisst. AMD war da ja eh oft hinter Intel zurück.

Leicht OT:
Das erinnert mich an mein altes Abit Board von 2004. Kleiner, lauter Kühler auf der Northbridge der nach einem Jahr kaputt war. Habe dann einen Mini-Papst-Lüfter draufgeschraubt, der für einige Jahre gute Dienste geleistet hat. Deutsche Wertarbeit halt :).
Ach ja, "Papst", die waren früher echt groß im PC-Lüfter Geschäft. Hab aber lange nix mehr von denen gehört. Sind die in der Sparte noch aktiv?

basix
2019-06-03, 23:01:04
X470 = 7W TDP
X570 = 12W TDP

Die Werte gelten aber wohl nur unter Belastung und solange du nicht volle Pulle alle PCIe 4.0 sowie USB 3.1 10Gbit/s Schnittstellen gleichzeitig belastest (z.B. von SSD zu SSD kopieren) wirst du das wohl nie erreichen. Und somit wohl auch die wenigsten von uns hier.

Die Lüfter sollen ja geregelt sein, deswegen mache ich mir noch keinen Kopf.

Ex3cut3r
2019-06-03, 23:12:50
Nein, das stimmt bei AsRock schon mal nicht, laut denen, muss der Lüfter immer laufen. Da in allen Betriebszuständen der Chipsatz sehr warm wird.

Quelle: https://www.computerbase.de/2019-05/amd-x570-luefter/

iuno
2019-06-03, 23:35:26
Hmm, Apple setzt beim neuen MacPro immer noch auf Intel Xeon. Dachte vlt steigen sie endlich auf AMD um.
Ich schaetze mal TB spielt (noch) eine Rolle, sowie der Zeitpunkt. Waere TR mit Zen 2 und entsprechend TB schon am Markt, haette es vielleicht anders ausgesehen.

Mal schauen wie die neue TR Plattform aussieht. Wenn der auch das dicke I/O von Epyc bekommen wuerde, koennte man sich Chipsatz sparen, aber dafuer TB Controller verbauen und hat trotzdem noch genug PCIe. Der Sockel wird ja auch derselbe bleiben oder? Das waere fuer den Mac sicherlich passend gewesen, aber das Timing stimmt halt nicht. Und so "oft" wie Apple den aktualisiert wird es wohl auch die naechsten Jahre nichts mehr werden.

Vielleicht "verschenkt" Intel sein Zeug aber auch einfach, in der momentanen Situation.

basix
2019-06-03, 23:50:25
Nein, das stimmt bei AsRock schon mal nicht, laut denen, muss der Lüfter immer laufen. Da in allen Betriebszuständen der Chipsatz sehr warm wird.

Quelle: https://www.computerbase.de/2019-05/amd-x570-luefter/

OK, das wusste ich nicht. Hört sich aber ungewöhnlich an. Entweder gibt es da 0 Stromsparmechanismen oder sonst ein Problem.

Mal als Vergleich: Ein P35 hatte 18W TDP und dort kamen bei den günstigen Boards oft nur kleine Heatsinks zum Einsatz. Das selbe beim P965 Vorgänger. Mein damaliges X38 hatte sogar 26W TDP. Der wurde schon relativ warm, ist aber auch mehr als das doppelte des X570.

Edit:
Wenn du weiter unten in der verlinkten News zu MSI was liest: Der Lüfter wird bei niedrigen Temperaturen gestoppt. Und das dicke Gigabyte Board kommt sogar rein passiv aus. Die Kühlkörper sehen nicht wahnsinnig gross aus. Die Mainboardhersteller müssen halt wieder einen richtigen Kühlkörper verbauen anstatt Bling Bling Plastik, dann sind 12W Null-Problema.

Rabiata
2019-06-04, 00:02:51
Ach ja, "Papst", die waren früher echt groß im PC-Lüfter Geschäft. Hab aber lange nix mehr von denen gehört. Sind die in der Sparte noch aktiv?
Es gibt sie noch, aber ich habe im "normalen" PC-Handel schon länger keine Angebote mehr gesehen.

ist wohl eher was für Bastler. Reichelt hat einige im Programm, und auf Ebay gibt es natürlich reichlich Anbieter. Aber die Spezifikationen sehen immer noch verlockend aus, vielleicht rüste ich an meinem alten Thermaltake Gehäuse nochmal Lüfter nach :)

amdfanuwe
2019-06-04, 00:37:25
Waere TR mit Zen 2 und entsprechend TB schon am Markt, haette es vielleicht anders ausgesehen.

Apple hat mit der Entwicklung wohl nicht erst gestern angefangen.
Vielleicht existiert TR 32 Core auch nur, weil Apple letztes Jahr nach einer CPU >16 Core gefragt hat? Gefiel ihnen wohl das NUMA Design nicht und ZEN 2 konnte AMD noch nichts vorweisen.
Ach, was solls. Solange nicht ein Insider in seiner Biographie darüber schreibt, erfährt man ja doch nicht was hinter den Kulissen los war.

w0mbat
2019-06-04, 00:46:26
Mal als Vergleich: Ein P35 hatte 18W TDP und dort kamen bei den günstigen Boards oft nur kleine Heatsinks zum Einsatz. Das selbe beim P965 Vorgänger. Mein damaliges X38 hatte sogar 26W TDP. Der wurde schon relativ warm, ist aber auch mehr als das doppelte des X570.
Damals hatte man noch North- und Soutchbridge, die TDP wurde also über zwei Chips verteilt. Und die Northbridge hatte meistens einen mega fetten heatsink drauf, der auch sehr hoch sein konnte, weil keine Karten drüber passen mussten.

Schau dir mal alte X38er Boards an. Da trügt dich dein Gedächtnis :smile:

Ex3cut3r
2019-06-04, 01:22:23
OK, das wusste ich nicht. Hört sich aber ungewöhnlich an. Entweder gibt es da 0 Stromsparmechanismen oder sonst ein Problem.

Mal als Vergleich: Ein P35 hatte 18W TDP und dort kamen bei den günstigen Boards oft nur kleine Heatsinks zum Einsatz. Das selbe beim P965 Vorgänger. Mein damaliges X38 hatte sogar 26W TDP. Der wurde schon relativ warm, ist aber auch mehr als das doppelte des X570.

Edit:
Wenn du weiter unten in der verlinkten News zu MSI was liest: Der Lüfter wird bei niedrigen Temperaturen gestoppt. Und das dicke Gigabyte Board kommt sogar rein passiv aus. Die Kühlkörper sehen nicht wahnsinnig gross aus. Die Mainboardhersteller müssen halt wieder einen richtigen Kühlkörper verbauen anstatt Bling Bling Plastik, dann sind 12W Null-Problema.

Ja, da bin ich bei dir, aber von den Rls. Boards haben alle einen Lüfter außer eins von Gigabyte und das kostet 500€. :freak: :redface:

Mainboard Reviews werden auf jeden fall auch nochmal ein Ticken Interessanter werden. ^^

basix
2019-06-04, 07:14:40
@Wombat:
Nein, mein Gedächtnis trügt nicht ;) Das X38 Board sowie ein P55 habe ich noch hier :D Die X38er hatten wirklich massive Heatsinks, aber ich bezog mich bei den kleinen Kühlkörpern auf die günstigen P35er. Und da war nix mit massiv und Heatpipe ;) siehe z.B.
https://de.empowerlaptop.com/p/gigabyte-ga-p35-s3g-motherboard-w1711/?currency=USD&gclid=EAIaIQobChMIo6CD94fP4gIVgoXVCh1qQQj1EAQYAyABEgJrY_D_BwE

Aber schlussendlich kann man sagen: Es würde vermutlich auch locker ohne Lüfter gehen. Vielleicht lernen wir noch wieso AMD das den Mainboard Herstellern mehr oder minder vorgegeben hat

Rancor
2019-06-04, 07:52:32
Ein B550 Board tut es auch und die werden keine Lüfter haben.

M4xw0lf
2019-06-04, 08:01:46
Ein B550 Board tut es auch und die werden keine Lüfter haben.
Ja, nur wann. :-/

Dorn
2019-06-04, 08:20:58
Ja, nur wann. :-/soon

Piefkee
2019-06-04, 08:25:44
https://www.msn.com/en-ca/sports/other/google-is-announcing-stadias-pricing-and-launch-details-this-week/ar-AACkHc5

Google stellt bereits vor der E3 Stadia vor. Tippe darauf, dass sie ebenfalls EPYC als CPU nennen ;)

mironicus
2019-06-04, 11:06:23
Ich frage mich, ob es AMD schafft, eine 16 Kern-CPU mit 105 Watt TDP und 4.7 GHz Boost herauszubringen. Mich hatte schon beim 12 Kerner erstaunt, dass es 100 MHz mehr Boost hat als der 3800x trotz gleicher TDP. Oder vielleicht mit 125 Watt TDP?

Linmoum
2019-06-04, 11:11:23
Der SC spielt aber auch keine Rolle, der 3900X wird trotz gleicher TDP wie der 3800X einen geringen All Core haben.

amdfanuwe
2019-06-04, 11:47:56
Ich frage mich, ob es AMD schafft, eine 16 Kern-CPU mit 105 Watt TDP und 4.7 GHz Boost herauszubringen. Mich hatte schon beim 12 Kerner erstaunt, dass es 100 MHz mehr Boost hat als der 3800x trotz gleicher TDP. Oder vielleicht mit 125 Watt TDP?
Boost hat nichts mit TDP zu tun. Der 12 Kerner mit höherem Boost hat mich nicht überrascht. Ist doch logisch, dass die Ausbeute an Chips bei denen der schlechteste Core in einem CCX abgeschaltet wird wesentlich höher ist als Chips mit 8 Cores die alle den hohen Boost liefern.
Von daher müßte AMD schon verdammt gut selektieren und nur die Besten der besten nehmen um überhaupt 4,6GHz Boost bei 16 Core liefern zu können.
Ich denke eher, es werden wie bei 8 Core nur 4,5GHz Boost.

Auch deshalb war ich so fixiert auf einen 8 Core mit 2 x 4 Core Chiplets. Da wäre ein Boost von 4,7 GHz drin gewesen.

Edit:
Vielleicht hat AMD auch deshalb den 16 Kerner noch nicht vorgestellt. Sie müssen erst mal entsprechend Ausbeute haben.
Der 12 Kerner mit höchstem Boost sieht zudem als Top Produkt erstmal besser aus als ein 16 Kerner mit geringeren Takten. Ist man ja nicht gewöhnt im Desktop. Da hat das Top Produkt auch die höchsten Takte zu liefern.

Leonidas
2019-06-04, 12:21:42
Die News auf der Titelseite hat einen Fehler:

Bei PUBG steht 6.3%+ beim 8700k, jedoch ist laut Chiphell der Ryzen 3600 schneller als der 8700k (183 / 172 FPS).


War meinerseits nie anders gedacht. +6,3% von 8700K zu 3600, von links nach rechts zu lesen. Ich habe es inzwischen aber nochmals deutlicher gemacht.




https://browser.geekbench.com/v4/cpu/compare/13330826?baseline=13374225
Geenbenchvergleich von einem(nicht mir gehörenden) Ryzen 5 3600 vs meinen 2700X@6 Kerne & fixen 4.2 GHz


:up:

rentex
2019-06-04, 13:17:45
Was taugt den PUBG überhaupt als Benchmark?

Rancor
2019-06-04, 13:23:04
Single Core.

rentex
2019-06-04, 13:43:38
Ja dann.