PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN 2/Zen+ (Pinnacle Ridge): Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8

Adam D.
2019-03-05, 01:46:27
https://wccftech.com/amd-ryzen-3000-cpu-specs-prices-online-retailer-ryzen-9-3850x-leak/

Hoffentlich kommt das so..
16/32 mit über 5 ...

edit.: hab den falschen Thread erwischt.
Wenn das auch nur halbwegs stimmt, wäre das der größte Einschnitt im CPU-Markt seit ... Sandy Bridge? 32 Threads mit hohem Takt für knapp 500€. Wenn ich da an die Zeit vor Ryzen zurückdenke... Ohne wären wir jetzt wahrscheinlich bei 6 Kernen von Intel für 600€ :freak:

w0mbat
2019-03-05, 08:40:36
Ich halte das immer noch für unrealistisch. AMD ist keine gemeinnütziger Verein, wen Zen2 10%+ mehr IPC und mehr Takt hat liegt man fast gleich auf mit Intel, da muss man nichts verschenken.

][immy
2019-03-05, 08:40:54
Wenn das auch nur halbwegs stimmt, wäre das der größte Einschnitt im CPU-Markt seit ... Sandy Bridge? 32 Threads mit hohem Takt für knapp 500€. Wenn ich da an die Zeit vor Ryzen zurückdenke... Ohne wären wir jetzt wahrscheinlich bei 6 Kernen von Intel für 600€ :freak:
naja, ich gehe jetzt nicht davon aus, das die angaben so wirklich stimmen könnten. Klingt eher nach Wunschdenken. 16 Cores, ok, das dürfte mit 7nm auf der in etwa gleichen Fläche wie bisher 8 Cores möglich sein. Aber dazu dann 5,1 GHz Boost, klingt dann nicht mehr so realistisch. Mag dann natürlich eine Art Boost für einen Kern sein, aber trotzdem glaube ich nicht, das Ryzen plötzlich derartige Taktsprünge vollbringen wird. Dazu war er bisher einfach zu schlecht taktbar.

Aber wenn das doch zutreffen sollte, müsste Intel mal endlich seine Fertigung in den Griff oder ihre neue Arch fertig bekommen. In den letzten Jahren hat Intel ja nichts wirklich mehr verändert an der CPU selbst, außer mehr Kerne drauf zu packen um mithalten zu können. Die müssten eigentlich noch was in der Hinterhand haben, sobald sie ihre Fertigung in den Griff bekommen.

btw, wenn der AM4 16 Kerne bekommt, bekommen wir dann einen Threadripper mit 64-Kernen und 128 Threads?

Ich halte das immer noch für unrealistisch. AMD ist keine gemeinnütziger Verein, wen Zen2 10%+ mehr IPC und mehr Takt hat liegt man fast gleich auf mit Intel, da muss man nichts verschenken.
Naja, du vergisst dabei, das es sich um AMD handelt nicht um Intel. AMD muss sich nach wie vor noch trotz guter Produkte im Markt behaupten. Das geht leider nur über den Preis. Denn AMD wird von den meisten nach wie vor gemieden nur weil nicht Intel auf dem Computer drauf steht.

Abgesehen davon geht der Preis ja nach oben. Den 2600 gibt es aktuell für ~130€ laut der Liste (auch wenn es wirklich mehr nach Wunschdenken aussieht) wären es ja gleich $260 für den 3600. Man würde also so fahren wie bisher bei den GPUs. Blos keine eigene Konkurrenz ins Haus holen. Das würde aber auch dafür sprechen, das 7nm nach wie vor nicht günstiger geworden ist, sondern grad mal dazu ausreicht mehr raus zu holen, aber dafür auch mindestens den gleichen Preis zu zahlen.

basix
2019-03-05, 18:43:40
[immy;11942335']btw, wenn der AM4 16 Kerne bekommt, bekommen wir dann einen Threadripper mit 64-Kernen und 128 Threads?

Nicht zwingend, könnte auch 32C oder 48C sein. Die ersten Threadripper besassen auch nur die doppelte Anzahl Kerne. Bei 32C könnte man schätzungsweise bei 4.0 GHz anstatt 3.0 Ghz Takt sein und dazu höhere IPC haben. Mit solch einer Konfiguration könnte man schon mal +40-50% schneller sein. Ob die Zahlen so stimmen ist aber Speku.
64C würde ich erst für Zen 3 erwarten aber ich lasse mich auch überraschen.

dargo
2019-03-05, 19:09:01
Ich halte das immer noch für unrealistisch. AMD ist keine gemeinnütziger Verein, wen Zen2 10%+ mehr IPC und mehr Takt hat liegt man fast gleich auf mit Intel, da muss man nichts verschenken.
Wieso hat AMD Ryzen 1 zum Release "verschenkt"? Schon vergessen was damals die Sixcores bei Intel gekostet haben? Ein Zen+ Octacore kostete zum Release auch wesentlich weniger als Zen.

R7 1800X = 559€
R7 2700X = 319€

Ein Octacore @Ryzen 2 für ~250€ ist absolut realistisch.

][immy
2019-03-05, 19:22:45
Nicht zwingend, könnte auch 32C oder 48C sein. Die ersten Threadripper besassen auch nur die doppelte Anzahl Kerne. Bei 32C könnte man schätzungsweise bei 4.0 GHz anstatt 3.0 Ghz Takt sein und dazu höhere IPC haben. Mit solch einer Konfiguration könnte man schon mal +40-50% schneller sein. Ob die Zahlen so stimmen ist aber Speku.
64C würde ich erst für Zen 3 erwarten aber ich lasse mich auch überraschen.
Einen 32 core threadripper gibt es ja schon. Die nächste verdopplung wäre also 64 kerne. Sowas möchte ich in den esx servern auf der arbeit haben :)

mczak
2019-03-06, 05:44:02
Nicht zwingend, könnte auch 32C oder 48C sein. Die ersten Threadripper besassen auch nur die doppelte Anzahl Kerne. Bei 32C könnte man schätzungsweise bei 4.0 GHz anstatt 3.0 Ghz Takt sein und dazu höhere IPC haben. Mit solch einer Konfiguration könnte man schon mal +40-50% schneller sein. Ob die Zahlen so stimmen ist aber Speku.

Alternativ wäre auch vernünftige TDP möglich (wobei meine Vermutung wäre dass es wohl sowieso bei 32 Kernen bei 180W bleibt), bei immer noch deutlich höherer Geschwindigkeit als die alten Threadripper (da gab es auch Szenarien wo zudem die asymmetrische Speicheranbindung doch bemerkbar war). Wäre zumindest für mich persönlich interessanter :biggrin:.

64C würde ich erst für Zen 3 erwarten aber ich lasse mich auch überraschen.
Ist schwer zu sagen - da der ja das Server-IO-Die verwendet (davon gehe ich jedenfalls aus, was anderes ergibt eigentlich keinen Sinn) ist prinzipiell natürlich die Möglichkeit da die 64 Kerne zu bringen. Ich würde die aber auch nicht unbedingt gerade zuerst erwarten - 48 Kerne sind da wohl schon realistischer.

dildo4u
2019-03-10, 07:09:21
Digital Foundry hat auch festgestellt das 6 Cores ohne HT ans Limit kommen selbst mit einer 1660 Ti.

https://youtu.be/IS-L4DCynk0?t=251

Der 2600X hat noch Luft.

YA-8enmY69Y

aufkrawall
2019-03-10, 11:17:28
Ich seh in dem oberen Video nur einen 8700k und in dem unteren eine 1080 Ti. Kann sein, dass du dir vermeintlich passende Videos für deine Aussage etwas arg schnell zusammen geklickt hast?

Schnoesel
2019-03-10, 11:31:00
Is leider ziemlich zusammengeschmissen im Video, weiter hinten kommt dann der I5 8400.

https://youtu.be/IS-L4DCynk0?t=828

Naja die CPU hatte von Beginn an ein Ablaufdatum.

aufkrawall
2019-03-10, 12:01:22
Na ja, das mit AC ist nichts neues und Anthem geht bei CB mit 2600X auf 47fps runter. Interessanter wär ein Querschnitt durch verschiedene Spiele mit Frametimegraphen.

dargo
2019-03-10, 12:09:29
Digital Foundry hat auch festgestellt das 6 Cores ohne HT ans Limit kommen selbst mit einer 1660 Ti.

https://youtu.be/IS-L4DCynk0?t=251

Der 2600X hat noch Luft.

https://youtu.be/YA-8enmY69Y
Lol... da sucht man sich Schrottsoftware aus, kombiniert das ganze mit einer Geforce und schon steht die Schlussfolgerung. ;D Das gleiche bitte nochmal mit einer Radeon. ;) Der Treiberoverhead bei dem AC-Schrott ist dermaßen hoch, dass hier NV erstaunlicherweise die Treiberlast ganz gut auf viele Threads verteilen kann.

BlacKi
2019-03-10, 12:21:22
Digital Foundry hat auch festgestellt das 6 Cores ohne HT ans Limit kommen selbst mit einer 1660 Ti.

https://youtu.be/IS-L4DCynk0?t=251

Der 2600X hat noch Luft.

https://youtu.be/YA-8enmY69Y


könnt ihr genauere angaben machen? das verlinkte AC O von euch zeigt mir einen 8400 mit besseren percentile und keinen spikes. luft hat der 2600x vl wirklich mehr, aber ein spiel macht aus einer schnellen cpu keine schlechte. ausserdem ist der 2600x übertaktet und teurer und läuft mit den ram settings unvorteilhaft ggü. intel. heutzutage würde ich den 9400f nehmen mit 100mhz mehr takt und günstigerem preis. damals war der 2600x deutlich teurer als der 8400.

dargo
2019-03-10, 12:29:56
könnt ihr genauere angaben machen? das verlinkte AC O von euch zeigt mir einen 8400 mit besseren percentile und keinen spikes.
Auch das kann Bullshit sein. Dafür müsste man bei Ryzen SMT deaktivieren um genaueres zu erfahren. Für die niedrigeren 1% low und 0,1% low könnte in dem Fall der Geforcetreiber verantwortlich sein. Am besten wäre noch wenn man zusätzlich noch einen i7-8700 bis i7-8700T zum Vergleich nimmt.

aufkrawall
2019-03-10, 12:32:44
Der Frametime-Graph des AC: Od.-Benchmarks zeigt afair auch absoluten Quatsch an.

fondness
2019-03-10, 12:34:02
[immy;11942870']Einen 32 core threadripper gibt es ja schon. Die nächste verdopplung wäre also 64 kerne. Sowas möchte ich in den esx servern auf der arbeit haben :)

Es bleibt wohl erstmal bei 32C/64T für Threadripper. Die Mehrleistung erreicht man durch wesentlich mehr Takt dank 7nm plus mehr IPC plus bessere IMC-Anbindung. Vielleicht kommt dann ein Jahr später 64C für Threadripper, ähnlich wie man es bei Threadripper 1 auch gemacht hat.

dargo
2019-03-10, 12:34:44
Der Frametime-Graph des AC: Od.-Benchmarks zeigt afair auch absoluten Quatsch an.
Er meint den AB.

aufkrawall
2019-03-10, 12:41:53
Er meint den AB.
Ich frag mich, wie dieser Tester das OSD konfiguriert hat, wenn der Frametime-Graph derart offensichtlich nur komplett unnütze Linien anzeigt.

Pirx
2019-03-12, 15:45:14
AM4 "Serverboard" von Asrock https://www.planet3dnow.de/cms/44972-asrock-rack-x470d4u-servermainboard-mit-sockel-am4-ab-ende-maerz/

das dann mit einem gemütlichen Ryzen 3...

hq-hq
2019-03-12, 23:52:31
Der 2600X hat noch Luft.



nö hat er nicht, immer wieder ist ein Thread oder gar mehrere auf 100% im Anschlag :freak: ; er pfeifft nur noch nicht aus allen Löchern :biggrin:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66037&stc=1&d=1552431313

Benutzername
2019-03-13, 00:06:40
AM4 "Serverboard" von Asrock https://www.planet3dnow.de/cms/44972-asrock-rack-x470d4u-servermainboard-mit-sockel-am4-ab-ende-maerz/

das dann mit einem gemütlichen Ryzen 3...

Ich mag das no-nonsense Design. :smile:

Leider nur ein VGA Ausgang mit irgendweiner Aspeed Graka. Ansonsten wäre das ja was für eine kleine CAD Workstation mit einem Ryzen G. :(

w0mbat
2019-03-13, 00:13:16
Ganz selten ist für dich "immer wieder"? Der 8400 ist fast immer voll am Anschlag, der 2600X hast meißt noch viel Luft. Aber Kirschen Pflücken und so...

N0Thing
2019-03-13, 00:49:07
nö hat er nicht, immer wieder ist ein Thread oder gar mehrere auf 100% im Anschlag :freak: ; er pfeifft nur noch nicht aus allen Löchern :biggrin:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66037&stc=1&d=1552431313

Bei den Daten würde ich den 2600X bevorzugen.

Ex3cut3r
2019-03-13, 03:59:54
Warum? Schau mal auf die FPS, der Intel lastet die GPU besser aus, als der Ryzen 2600x trotz 6 Threads mehr. Der Ryzern im Bild läuft mit 4,2 während der Intel mit läppischen 3,8 läuft. Aber Ryzen rockt wie immer. :uup:

Achill
2019-03-13, 07:15:12
Warum? Schau mal auf die FPS, der Intel lastet die GPU besser aus, als der Ryzen 2600x trotz 6 Threads mehr. Der Ryzern im Bild läuft mit 4,2 während der Intel mit läppischen 3,8 läuft. Aber Ryzen rockt wie immer. :uup:

Man muss das Video anschauen, dann sieht man, dass die Aufnahme zeitlich versetzt ist. Der Screenshot als Momentaufnahme suggeriert daher etwas falsches, da man zwei verschiedene Stellen im Spiel sieht. Kann man auch am Hintergrund erkennen ...

dargo
2019-03-13, 09:37:11
nö hat er nicht, immer wieder ist ein Thread oder gar mehrere auf 100% im Anschlag :freak: ; er pfeifft nur noch nicht aus allen Löchern :biggrin:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66037&stc=1&d=1552431313
Tja... bedanke dich bei der secret sauce im DX11 Treiber von Nvidia. :P Durch das Auslagern der Treiberlast auf mehrere Threads läuft hier auch ein 12 Threader am Anschlag. Funktioniert auch einigermaßen wie man bei den avg.fps sieht. Bei den 1% low und 0,1% low scheint die secret sauce nicht wirklich zu überzeugen sofern die Messung korrekt ist.

w0mbat
2019-03-13, 09:39:36
Man muss das Video anschauen, dann sieht man, dass die Aufnahme zeitlich versetzt ist. Der Screenshot als Momentaufnahme suggeriert daher etwas falsches, da man zwei verschiedene Stellen im Spiel sieht. Kann man auch am Hintergrund erkennen ...
Das weiß hq-hq doch auch, er hat doch nicht ohne Grund genau diesen screenshot gewählt. Der Ryzen ist schon eine Szene weiter, der 8400 noch bei der anspruchslosen Stelle. Ein paar Sekunden später liegen alle 6 Kerne des 8400 bei 100% und die FPS fallen in den Keller, deutlich unter denen des 2600X.

MikePayne
2019-03-13, 09:54:19
nö hat er nicht, immer wieder ist ein Thread oder gar mehrere auf 100% im Anschlag :freak: ; er pfeifft nur noch nicht aus allen Löchern :biggrin:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66037&stc=1&d=1552431313

Wenn du schon sowas machst, dann bitte von der selben Szene. Danke für die Fake-News äh Screenshots :ugly:

Brillus
2019-03-13, 10:00:03
nö hat er nicht, immer wieder ist ein Thread oder gar mehrere auf 100% im Anschlag :freak: ; er pfeifft nur noch nicht aus allen Löchern :biggrin:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=66037&stc=1&d=1552431313

Ok halten wir fest 2600x hat bessere AVG FPS, bessere 1% frame rate, und da wiean am Hintergrund sieht aktuelle an unterschiedlicher Position in der Szene, ist aktuelle Framerate und CPU Auslastung genau nichtssagend, ich sehe nicht den geringsten Vorteil für den Intel.

dildo4u
2019-03-13, 10:00:22
Im Digital Foundry Video passiert das auch bei Anthem es liegt also nicht nur an Ubis alter Engine.Ich hätte nicht gedacht das die neuen i5 wieder so schnell Obsolut werden wie die Quads,hätte damit erst gerechnet wenn die neuen Konsolen kommen.

dargo
2019-03-13, 10:28:05
Absolut? :freak: Du meinst wohl eher obsolet. :biggrin:

Und was hat DF in Athem festgestellt? Dass 6 Threads mit einer Geforce bei einer DX11 Applikation ans Limit kommen? Das liegt garantiert nicht an der Applikation. ;) Mit einer Radeon wird der 6 Threader keine Probleme bekommen, zumindest nicht was die Anzahl der Threads angeht.

Was besseres konnte ich auf die schnelle nicht finden.
https://youtu.be/hP8HMYgM1Yg?t=965

Irgendwie verwendet bei YT jeder mit einer Vega 12-16 Threads CPUs.

SKYNET
2019-03-13, 10:33:41
Absolut? :freak: Du meinst wohl eher obsolet. :biggrin:

Und was hat DF in Athem festgestellt? Dass 6 Threads mit einer Geforce bei einer DX11 Applikation ans Limit kommen? Das liegt garantiert nicht an der Applikation. ;) Mit einer Radeon wird der 6 Threader keine Probleme bekommen, zumindest nicht was die Anzahl der Threads angeht.


pssst, sag doch nicht einfach das die GF treiber grütze sind... sind doch laut diverser spezis hier die übertreiber, keine anderen funktionieren besser :ulol:

btw. bin mit dem radeon treiber mehr happy als mit dem NV treiber, läuft runder und der grösste vorteil: eine software für alles.

Screemer
2019-03-13, 10:36:22
nur weil der nv treiber die threads verstärkt auslastet muss das noch lange nicht zu schlechterem spielerlebnis führen. mich würde in dem fall oben eher ein test 2600x mit und ohne ht interessieren.

dargo
2019-03-13, 10:45:48
pssst, sag doch nicht einfach das die GF treiber grütze sind...
Habe ich auch nicht gesagt, sie funktionieren halt unter DX11 anders. Ich finds nur bescheuert daraus irgendwelche Schlüsse aufs Multithreading der Engine zu ziehen.

SKYNET
2019-03-13, 11:13:02
Habe ich auch nicht gesagt, sie funktionieren halt unter DX11 anders. Ich finds nur bescheuert daraus irgendwelche Schlüsse aufs Multithreading der Engine zu ziehen.

sie funzen unter DX11 kacke, man muss nicht alles durch die blume sprechen ;)

hätte ich ne 1060 da, würde ich glatt mal testen, wie hoch der stromverbrauch der CPU ist bei den beiden karten(580 vs 1060).

weil dann relativiert sich evtl. auch der mehrverbrauch der polaris/vega ggü. pascal/turing ein wenig.

Screemer
2019-03-13, 11:39:15
hätte ich ne 1060 da, würde ich glatt mal testen, wie hoch der stromverbrauch der CPU ist bei den beiden karten(580 vs 1060).

weil dann relativiert sich evtl. auch der mehrverbrauch der polaris/vega ggü. pascal/turing ein wenig.
das ist etwas was immer wieder im raum steht. deshalb hätte ich seit jahren gerne avg. verbräuche des gesamtsystems während aller benchruns. kann ja nicht so schwierig sein ein verdammtes strommessgerät zwischen benchtable und steckdose zu stecken. scheinbar hat aber niemand, wirklich niemand, interesse daran. dargo, ich und andere haben das in den benchthreads zu allen möglichen karten und cpus gefordert. das wird schlicht und einfach ignoriert. ich kann mir zwar nicht vorstellen, dass der verbrauch mit nv-karte dermaßen ansteigt und damit die differenz zwischen amd- und nv-karten der letzten jahre aufwiegt aber vielleicht relativieren solche tests das ganze.

Achim_Anders
2019-03-13, 11:55:56
Was sollte denn überhaupt Kriterium sein? Watt/fps? Watt/minfps? Watt einfach so? Dumm wenn ein System 25 und das andere 80 fps auf dem Bildschirm bringt...
Was ist mit Chill, was imo für Spiele wie Witcher 3 zum Beispiel sehr gut funktioniert. V-sync und andere Begrenzer.
Ich finde diese ganze Verbrauchsdebatte in nem Gamingrechner reichlich schwachsinnig. Solange es leise ist, ist mir der Verbrauch Schnuppe. Und da muss man halt individuell schauen, welches Custommodell leise genug arbeitet für die eigenen Ansprüche, egal welcher Hersteller.

dildo4u
2019-03-13, 12:06:55
World of Tanks hat den besten Ryzen Support das kommt mal aus dem Nichts.


9mTKVDXsOgI

SKYNET
2019-03-13, 14:04:33
World of Tanks hat den besten Ryzen Support das kommt mal aus dem Nichts.


https://youtu.be/9mTKVDXsOgI

halt mal schön zu sehen, das es auch games gibt, die mehr auf threads als auf singelcore speed stehen :smile:

SKYNET
2019-03-13, 14:11:09
das ist etwas was immer wieder im raum steht. deshalb hätte ich seit jahren gerne avg. verbräuche des gesamtsystems während aller benchruns. kann ja nicht so schwierig sein ein verdammtes strommessgerät zwischen benchtable und steckdose zu stecken. scheinbar hat aber niemand, wirklich niemand, interesse daran. dargo, ich und andere haben das in den benchthreads zu allen möglichen karten und cpus gefordert. das wird schlicht und einfach ignoriert. ich kann mir zwar nicht vorstellen, dass der verbrauch mit nv-karte dermaßen ansteigt und damit die differenz zwischen amd- und nv-karten der letzten jahre aufwiegt aber vielleicht relativieren solche tests das ganze.

klar werdens keine welten sein, aber jetzt mal als beispiel nen 2600X, voll ausgelastet ist das ja kein wirkliches sparwundern und genehmigt sich mal schnell 120W mit PBO, wenn das dann aber bei der AMD karte dann nur noch 80W sind, weil die CPU eher bei 60% rumdümpelt, wäre das bei nem mittelklasse system mit 2060 vs. V56 dann nur noch 10W im gesammtsystem differenz... 1:1 übertragbar auf intelsysteme, weil da wirds nicht anders sein mit der auslastung durch den treiber :upara:

und pflichte dir bei, nen strommessgerät(darf dann schon ein besseres sein = +/- 100€) sollte jede halbwegs grössere redaktion wohl zustande bringen.

Screemer
2019-03-13, 14:26:12
Was sollte denn überhaupt Kriterium sein? Watt/fps? Watt/minfps? Watt einfach so? Dumm wenn ein System 25 und das andere 80 fps auf dem Bildschirm bringt...
Was ist mit Chill, was imo für Spiele wie Witcher 3 zum Beispiel sehr gut funktioniert. V-sync und andere Begrenzer.
Ich finde diese ganze Verbrauchsdebatte in nem Gamingrechner reichlich schwachsinnig. Solange es leise ist, ist mir der Verbrauch Schnuppe. Und da muss man halt individuell schauen, welches Custommodell leise genug arbeitet für die eigenen Ansprüche, egal welcher Hersteller.
Dir ist der Verbrauch vielleicht schnuppern und dir ist vielleicht auch bekannt, dass es Möglichkeiten gibt die Leistungsaufnahme einzugrenzen.


Darum geht es aber bei der Metrik doch gar nicht. Es geht um die alte Geschichte, dass AMD Karten prinzipiell mehr leistung aus der Dose nuckeln als ihre nv-pendants um aufs gleiche Performancelevel zu kommen. Hinzu kommt noch, dass Nvidia mit dx11 häufig die bessere Performance bei niedrigeren Verbrauch der GPU abliefert. Das wird häufig dem Nvidia-Treiber zu geschrieben, der workload would möglich mutithreaded an die CPU abgibt. Wenn dem wirklich so ist und die CPU durch den nv-treiber mehr zu tun bekommt, dann steigt natürlich deren Verbrauch und somit ist eine Gesamtbetrachtung des gesamten Systemverbrauchs während eines Benchmarks interessant. Natürlich muss man das ins Verhältnisse zur Leistung setzen.

Ex3cut3r
2019-03-13, 20:38:21
Man muss das Video anschauen, dann sieht man, dass die Aufnahme zeitlich versetzt ist. Der Screenshot als Momentaufnahme suggeriert daher etwas falsches, da man zwei verschiedene Stellen im Spiel sieht. Kann man auch am Hintergrund erkennen ...

Da hast du in der Tat recht, habe nur das Bild gesehen, nicht das Video. Sry, trotzdem denke ich das ein 6C CL ohne HT aber mit OC @ ab 4,5 + schnellen DDR4 schneller unterwegs wäre, aber im Video ist der 2600X eindeutig besser.

Freestaler
2019-03-13, 20:55:33
Da hast du in der Tat recht, habe nur das Bild gesehen, nicht das Video. Sry, trotzdem denke ich das ein 6C CL ohne HT aber mit OC @ ab 4,5 + schnellen DDR4 schneller unterwegs wäre, aber im Video ist der 2600X eindeutig besser.
Nur hat das doch nichts mit der Diskussion zu tun. In der gleichen Preissklasse wie 1600x/2600x gab bzw. Gibts von Intel weder 6C noch offener Multi. Von Z Board für SpeicherOC da sonst nur 2666 noch nichtmal gesprochen. Ergo sieht es zumindest mit AC:O und NV Graka so aus, als die Empfehlung für 4c/8T oder 6nonHt vor Rayzen 6c/12T sich jetzt bereits als falsche herausstellen.

dargo
2019-03-13, 21:35:17
In der gleichen Preissklasse wie 1600x/2600x gab bzw. Gibts von Intel weder 6C noch offener Multi.
Offener Multi ok... aber ansonsten?
https://geizhals.de/intel-core-i5-9400f-bx80684i59400f-a1968119.html?hloc=at&hloc=de

Mortalvision
2019-03-13, 21:48:01
Der ist zu lahm im base core. 2,9 vs 3,6 GHz!

Linmoum
2019-03-13, 21:52:25
Base ist irrelevant, der All Core vom 9400F liegt bei 3.9GHz.

hq-hq
2019-03-13, 22:00:55
Ok halten wir fest 2600x hat bessere AVG FPS, bessere 1% frame rate, und da wiean am Hintergrund sieht aktuelle an unterschiedlicher Position in der Szene, ist aktuelle Framerate und CPU Auslastung genau nichtssagend, ich sehe nicht den geringsten Vorteil für den Intel.

mir ging es nicht um den schwächeren i5 8400, nur hat der 2600x keine Reserven mehr - und die Szenen sind nicht 100% vergleichbar - sieht man ja an den NPCs

w0mbat
2019-03-13, 22:02:35
Genau, 12T hat keine Reserven mehr. Selten so gelacht :ugly:

hq-hq
2019-03-13, 22:04:21
Genau, 12T hat keine Reserven mehr. Selten so gelacht :ugly:

ja blöd wenn es einen FPS Drop gibt weil die CPU im Anschlag ist :freak: :biggrin:

w0mbat
2019-03-13, 22:15:07
In einem unoptimiertem Spiel mit Denuvo, das allgemein auf Ryzen schlecht läuft?

Echt blöd :D

Mortalvision
2019-03-13, 22:17:58
Ihr habt beide nicht unrecht. Dem 2600X fehlen für die letzten 100m im Marathon einfach die zwei Kerne vom 2700X oder, selbst mit optimiertem Speicher, die mit einer K CPU erreichbaren 5GHz Taktraten sowie die krass kurzen Lx Cache Latenzen!

Setzt man das aber in Relation zu 180€ CPU und 120€ Board = 300€ im Gegensatz zu 400€ plus 120-159€ Board = 550€, bleiben 250€ übrig, das ist von einer RX 590 zur 2070 oder von einer 2070 zu einer guten 2080/ Radeon VII. Oder andere gute Anschaffungen (Monitor/Audio).

SKYNET
2019-03-13, 22:29:53
Base ist irrelevant, der All Core vom 9400F liegt bei 3.9GHz.

der vom 2600X bei 4.05GHz... ;)

Freestaler
2019-03-13, 23:44:48
Offener Multi ok... aber ansonsten?
https://geizhals.de/intel-core-i5-9400f-bx80684i59400f-a1968119.html?hloc=at&hloc=de 6c, hoppla sorry mein Fehler. Dachte x400 sind 4c. Ändert aber nichts daran, dass es den hypothetischen CPU von Exe nicht gibt, zumindest nicht in dem Preisfeld mit 4,5 und schnellem speicher auf gpnstigem Board. Und wenn nun CPU die es nicht gibt, für Grundlagen bei der Kaufempfehlung dienen dürfen, dann nimm ich ein 8192c amd ryzen 1337 mit 1337ghz. Der ist dann mit schnellem ddr13 auch besser.

hq-hq
2019-03-13, 23:53:59
In einem unoptimiertem Spiel mit Denuvo, das allgemein auf Ryzen schlecht läuft?

Echt blöd :D


Jo ist blöd, darum geht dem 2600x wohl die Luft aus. Mit 4.8GHz (oder gleich 5GHz) wäre es wesentlich entspannter, da braucht es nicht noch mehr Kerne.
Über den i5 8400 müsste man eigentlich kein Wort verlieren aber er mogelt sich so gut bei den min fps durch. Wie schon erwähnt wurde, es fehlt noch ein Video mit den gleichen CPUs zusammen mit einer dicken Vega.

Brillus
2019-03-14, 01:40:01
Jo ist blöd, darum geht dem 2600x wohl die Luft aus. Mit 4.8GHz (oder gleich 5GHz) wäre es wesentlich entspannter, da braucht es nicht noch mehr Kerne.
Über den i5 8400 müsste man eigentlich kein Wort verlieren aber er mogelt sich so gut bei den min fps durch. Wie schon erwähnt wurde, es fehlt noch ein Video mit den gleichen CPUs zusammen mit einer dicken Vega.
Kannst du mir mal erklären wo 58fps 1% percentile Luft raus ist? und auserdem ist er avg 16% wie dein Vergleich.

hq-hq
2019-03-14, 21:25:53
Kannst du mir mal erklären wo 58fps 1% percentile Luft raus ist? und auserdem ist er avg 16% wie dein Vergleich.

ja das Offensichtliche ist immer leicht erklärt

der 2600x schafft es die 1080Ti meist zu rund 90% auszulasten, sind dann pauschal so 100fps, es tauchen aber immer wieder Stellen im Video auf wo der 2600x die 1080Ti deutlich ausbremst und sie auf knapp 60% Auslastung runterzieht -> fps drop

in dem geteilten Bildauschnitt waren 9 von 12 Treads bei 100% und die verbleibenden 3 bei 92%

-> dem 2600x geht überaus deutlich die Luft aus, die GPU beginnt zu verhungern, unabhängig davon wie niedrig oder hoch deine Ansprüche bei den fps sind

darum sag ich keine Reserven, keine Luft mehr, denn die sollten doch solche Einbrüche abfedern :freak:

:uhippie:

Achill
2019-03-14, 22:30:46
Beide Prozessoren kosten ~200€ - der 2600X kann die 1080TI etwas besser Auslasten als der i5-8400. Und beiden Prozessoren haben nicht genug Power um die 1080TI - zumindest in diesem Spiel - voll auszulasten.

Hab ich etwas vergessen?

hq-hq
2019-03-14, 22:55:01
Beide Prozessoren kosten ~200€ - der 2600X kann die 1080TI etwas besser Auslasten als der i5-8400. Und beiden Prozessoren haben nicht genug Power um die 1080TI - zumindest in diesem Spiel - voll auszulasten.

Hab ich etwas vergessen?


stimmt

vielleicht hast du diesen Beitrag vergessen:

" Zitat von dildo4u Beitrag anzeigen

Der 2600X hat noch Luft."

Brillus
2019-03-14, 22:56:51
ja das Offensichtliche ist immer leicht erklärt

der 2600x schafft es die 1080Ti meist zu rund 90% auszulasten, sind dann pauschal so 100fps, es tauchen aber immer wieder Stellen im Video auf wo der 2600x die 1080Ti deutlich ausbremst und sie auf knapp 60% Auslastung runterzieht -> fps drop

in dem geteilten Bildauschnitt waren 9 von 12 Treads bei 100% und die verbleibenden 3 bei 92%

-> dem 2600x geht überaus deutlich die Luft aus, die GPU beginnt zu verhungern, unabhängig davon wie niedrig oder hoch deine Ansprüche bei den fps sind

darum sag ich keine Reserven, keine Luft mehr, denn die sollten doch solche Einbrüche abfedern :freak:

:uhippie:

Stellt man die Auflösung hört, hängt es an der GPU, stell sie runter auf 320x200 und ein 9900K bremst sogar eine 2080Ti aus.

FPS die quasi nie unter 60 fallen (1 Percentile bei 58) ist nicht Luft raus sondern super spielbar.

hq-hq
2019-03-15, 00:28:36
Stellt man die Auflösung hört, hängt es an der GPU, stell sie runter auf 320x200 und ein 9900K bremst sogar eine 2080Ti aus.

FPS die quasi nie unter 60 fallen (1 Percentile bei 58) ist nicht Luft raus sondern super spielbar.

ok

https://media.giphy.com/media/qIqoqkqWha08g/giphy.gif

BlacKi
2019-03-15, 02:29:54
stimmt

vielleicht hast du diesen Beitrag vergessen:

" Zitat von dildo4u Beitrag anzeigen

Der 2600X hat noch Luft."
dafür ist er in anderen games schneller. soll jeder picken was er will.

dildo4u
2019-03-15, 13:24:24
Hab bisher noch keine CPU Tests der Final gesehen aber Division 2 rennt bei mir recht gut in DX12,ist selbst in 720p noch GPU limitiert rennt wie erwartet massiv besser als Far Cry New Dawn.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11949770&postcount=1


Der Bench verhält sich lustigerweise die der FC Benchmark der letzte Abschnitt ist extra CPU Lastig.

dildo4u
2019-03-18, 12:44:46
CB hat jetzt Division 2 CPU Tests in DX11 und 12.

https://www.computerbase.de/2019-03/the-division-2-benchmark-test/3/#abschnitt_prozessorbenchmarks_inklusive_dx11_und_dx12_update

Die 99 Frametimes sind extrem dicht beisammen ein 2600X sollte weniger als 10% Rückstand auf einen 8700k haben.
Der Intel kostet zur Zeit 200€ mehr,also könnte man zwei 2600X kaufen,oder natürlich besser von RTX 2070 auf 2080 gehen.(+30% Leistung)

JVC
2019-03-19, 10:31:38
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/48969-ryzen-cpu-auf-der-ces-soll-um-30-bis-40-gebremst-worden-sein.html
"Ryzen-CPU auf der CES soll um 30 bis 40 % gebremst worden sein"

"Es dürfte also noch einmal spannend werden, wenn AMD die Ryzen-Prozessoren der 3. Generation final vorstellen und dann auch näher auf die Leistung eingehen wird."

:smile:

m.f.g. JVC

Pirx
2019-03-19, 10:36:14
Viel mehr "Saft" können sie auf das kleine, feine (fein strukturierte) Chiplet möglw. auch nicht draufgeben.

Der_Korken
2019-03-19, 10:40:15
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/48969-ryzen-cpu-auf-der-ces-soll-um-30-bis-40-gebremst-worden-sein.html
"Ryzen-CPU auf der CES soll um 30 bis 40 % gebremst worden sein"

"Es dürfte also noch einmal spannend werden, wenn AMD die Ryzen-Prozessoren der 3. Generation final vorstellen und dann auch näher auf die Leistung eingehen wird."

:smile:

m.f.g. JVC

30-40% gedrosselt muss nix heißen. Wenn der Achtkerner mit 75W bereits vor der Taktwall steht, dann wird der auch mit 30% mehr Verbrauch keine 5% mehr schneller. Außerdem fände ich es komisch, wenn AMD bereits mit dem Achtkener das komplette Verbrauchsbudget ausnutzt, wenn auf dem Sockel noch bis zu doppelt so viele Kerne kommen sollen. Die verkaufen sich natürlich nicht gut, wenn der Achtkerner durch den gleichen Verbrauch bei allen Workloads bis 16 Threads bereits genauso schnell ist und erst danach abfällt.

Screemer
2019-03-19, 10:42:41
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/48969-ryzen-cpu-auf-der-ces-soll-um-30-bis-40-gebremst-worden-sein.html
"Ryzen-CPU auf der CES soll um 30 bis 40 % gebremst worden sein"

"Es dürfte also noch einmal spannend werden, wenn AMD die Ryzen-Prozessoren der 3. Generation final vorstellen und dann auch näher auf die Leistung eingehen wird."

:smile:

m.f.g. JVC
warum zitiert man so? das schürt doch nur wieder fanboydiskussionen.

Die genannten 75 W Leistungsaufnahme sollen nicht dem vollen Potenzial des Prozessors entsprochen haben. Stattdessen soll eine Drosselung um 30 bis 40 % stattgefunden haben. Damit würden wir bei einer Leistungsaufnahme von 95 bis 105 W landen, was typisch für einen High-End-Desktop-Prozessor wäre. Nun lassen sich diese 30 bis 40 % nicht einfach in eine entsprechend höhere Taktung (die noch immer unbekannt ist) umrechnen und auch die Leistung wird nicht gleich um diese Spanne ansteigen, aber dennoch wäre dies ein Indiz dafür, dass AMD sich bewusst noch etwas Luft gelassen hat, um gegen Intels Comet-Lake-Prozessoren, die über bis zu 10 Kerne verfügen sollen, antreten zu können.

JVC
2019-03-19, 10:56:15
https://www.planet3dnow.de/cms/45214-amd-mit-neuen-funktionen-beim-ryzen-3000-speichercontroller-valhalla/
"... soll der neue Speicherkontroller eine partielle Fehlerkorrektur beim Hauptspeicher auch ohne ECC-Speicher besitzen."

:smile:

m.f.g. JVC

][immy
2019-03-19, 11:53:46
warum zitiert man so? das schürt doch nur wieder fanboydiskussionen.
also wenn ich das richtig verstehe, hat man den ryzen so stark im Verbrauch gedrosselt, bis man ungefähr die Werte eines 9900k hatte. Das ergibt durchaus sinn.
Man hat also noch etwas Luft nach oben (wobei die letzten x Prozent meist sehr viel mehr Watt benötigen). Bei mehr als 8 Kernen wird das dann im Cinebench natürlich richtig interessant.

Aber was sagt Cinebench schon wirklich aus. Man könnte jetzt höchstens die Tendenz erkennen, das AMD mit den 7nm CPUs locker mit Intels chips mithalten kann (@Stock nicht übertaktet). Wenn dem dann am ende wirklich so ist, bringt Intel vermutlich wieder ihre 150-180W Strategie ins spiel die man schon bei dem P4 so herrlich gefahren ist. Denn Luft nach oben hat der 9900k auch noch mit man ihn lässt.

Schnoesel
2019-03-19, 13:28:04
Bis man die werte eines 9900k hatte der nicht auf stock! 95watt festgesetzt wurde. Insofern müsste der 9900k auf 4,7GHZ allcore gelaufen sein. Viel Luft ist da nicht mehr.

Ist aber letztlich auch egal da sich Games anders verhalten als CB.

Brillus
2019-03-19, 14:10:41
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/48969-ryzen-cpu-auf-der-ces-soll-um-30-bis-40-gebremst-worden-sein.html
"Ryzen-CPU auf der CES soll um 30 bis 40 % gebremst worden sein"

"Es dürfte also noch einmal spannend werden, wenn AMD die Ryzen-Prozessoren der 3. Generation final vorstellen und dann auch näher auf die Leistung eingehen wird."

:smile:

m.f.g. JVC

Meine Meinung dazu, da ist was in den falschen Hals gekommen, und die 95-105w sind für den mit 2 Chiplets.

Pirx
2019-03-19, 14:32:48
falscher Thread übrigens;)

SKYNET
2019-03-19, 15:31:32
Meine Meinung dazu, da ist was in den falschen Hals gekommen, und die 95-105w sind für den mit 2 Chiplets.

kommt drauf an, AMD sagte ja das es erstmal auch bei 8C bleibt... dann würde das schon hinhauen mit den 40%... weil sie werden die CPUs sicherlich nicht sparsamer machen für die desktop varianten, sondern schneller.

mobile wohl umgedreht, minimal mehr speed, aber maximale effiziens

Brillus
2019-03-19, 16:38:08
kommt drauf an, AMD sagte ja das es erstmal auch bei 8C bleibt... dann würde das schon hinhauen mit den 40%... weil sie werden die CPUs sicherlich nicht sparsamer machen für die desktop varianten, sondern schneller.

mobile wohl umgedreht, minimal mehr speed, aber maximale effiziens

Wo haben die gesagt es kommt nur 8c? Das musst du mir Mal verlinken, die haben nach meinem Wissen 8 c gezeigt und stark angedeutet das es noch mehr werden.

SKYNET
2019-03-19, 18:05:39
Wo haben die gesagt es kommt nur 8c? Das musst du mir Mal verlinken, die haben nach meinem Wissen 8 c gezeigt und stark angedeutet das es noch mehr werden.

lisa sagte es sei platz für mehr, aber mit keinem wort es kommen im sommer auch grad 12/16C :wink:

Langlay
2019-03-19, 18:27:57
lisa sagte es sei platz für mehr, aber mit keinem wort es kommen im sommer auch grad 12/16C :wink:

Das zumindest 12c kommen, dafür spricht das es da schon Engineering Samples gibt.


https://www.userbenchmark.com/UserRun/14076820

Brillus
2019-03-19, 19:50:35
lisa sagte es sei platz für mehr, aber mit keinem wort es kommen im sommer auch grad 12/16C :wink:

Deine Aussage war aber sie(/AMD) hat gesagt das nicht mehr als 8c kommt, was was ganz anderes ist.

JVC
2019-03-20, 09:52:45
Gerade der 12 Kerner zum Start wäre gut für Resteverwertung!
(man kann 2 teildefekte Dies nehmen, 6+6)

Wohingegen der 8 Kerner ein vollständig funktionierendes benötigt ...

Das man sich den 16Kerner aufhebt kann gut sein,
aber in Anbetracht des 50 Jahre Jubiläums würde ich mir den 3850X eher früh als spät wünschen :smile:

m.f.g. JVC

SKYNET
2019-03-20, 10:19:02
Gerade der 12 Kerner zum Start wäre gut für Resteverwertung!
(man kann 2 teildefekte Dies nehmen, 6+6)

Wohingegen der 8 Kerner ein vollständig funktionierendes benötigt ...

Das man sich den 16Kerner aufhebt kann gut sein,
aber in Anbetracht des 50 Jahre Jubiläums würde ich mir den 3850X eher früh als spät wünschen :smile:

m.f.g. JVC


8 kerne können sich auch wie folgt zusammensetzen: 4+4, 6+2 :wink:

JVC
2019-03-20, 10:44:23
8 kerne können sich auch wie folgt zusammensetzen: 4+4, 6+2 :wink:

Stimmt auch wieder ... 12 Kerne über 8+4 :confused:
4+4=8 und 4+2=6 ... ne glaub ich irgendwie nicht :eek:

Dann würde es auch 10Kerner geben (6+4 , 8+2)

m.f.g. JVC

Rogue
2019-03-20, 10:44:50
Wird es zum Start des Ryzen 2 neue Chipsätze geben oder was hat man dafür auf dem Mainboard zu haben?

JVC
2019-03-20, 11:35:43
Wird es zum Start des Ryzen 2 neue Chipsätze geben

Es wird neue Chipsätze geben (550, 570).


oder was hat man dafür auf dem Mainboard zu haben?


Den Sockel AM4, plus Dem entsprechendem Bios.

m.f.g. JVC

Rogue
2019-03-20, 11:53:23
Ist aber davon auszugehen das entsprechende Boards parallel launchen?
Hab im anderen Thread gelesen das die AM4 Boards wohl seitens der Entwickler etwas weniger aufmerksamkeit erfahren. Gibts da bessere/schlechtere Hersteller?

JVC
2019-03-20, 12:05:45
Es wird vermutet, dass der Launch zum Anfang nur 12 Kerne aufbieten wird.
(bis zu 105W)
Und der 16 Kerner dann, etwas später, mit den neuen Chipsätzen kommt.
(bis zu vermutlich 130W oder gar mehr... hängt vielleicht von Intel ab und wie weit Die gehen)

Nix genaues, weis man noch nicht :freak:

m.f.g. JVJ

dildo4u
2019-03-20, 12:06:17
Mann bekommt Schrottige Boards für Intel und für AMD.Es gab erst Ärger bei Intel da viele Z370 Boards den 9900k dank schlechter VRMs nicht voll ausfahren konnten.Bei AMD ist das weniger kritisch da sie sich an die eigenen TDP Angaben halten.

Achim_Anders
2019-03-20, 12:07:31
Es gibt wie immer und überall gute und schlechte Produkte. Pauschale Aussagen zu Herstellern können mit 570/550 Chipsatz schon wieder hinfällig sein.

Bei x470 hat asus gute und schlechte Bretter. Frag nach bprodukten und nicht nach Herstellern...

Rogue
2019-03-20, 13:23:15
Da gings glaube ich eher ums Bios, aber man wird eh Tests abwarten müssen.

JVC
2019-03-20, 13:28:12
Vorsicht Hirngespinst !

Wenn der 3600X (8Kerne ~75W) dem 9900K (8Kerne~140W) die Stirn bieten kann dann ...

Wird der 3700X (12Kerne ~105W) dem "101000K" (10Kerne~180W?) die Stirn bieten.

AMD könnte dann den 3800X mit ~140W bringen (ist im Endeffekt 2 mal der 8Kerner) ...

Oder in "aufheben", um damit im "Notfall" locker auf Intel Reagieren zu können.
(man könnte dann eben den Verbrauch, wie Intel, ganz einfach nach oben korrigieren
um egal was Intel auf die beine stellt, locker eine bessere Antwort zu bieten)


Das wäre seit langem das erste mal, das AMD Reserven hat
und dabei gelassen herabschaut, was Intel da gerade so versucht :freak:

ODER ES KOMMT SO WIE ICH´s MIR WÜNSCHEN WÜRDE ...

Ich hoffe das AMD in die Vollen geht und als erstes den "Jubiläums-CPU"
3850X ohne Watt-Begrenzung für die treuen Fans für 850.- auf den Markt wirft.
(also ich würde ihn jetzt sofort kaufen)

UND der Demonstrativ bis zu 5,2Ghz Max-Boost auf 2 Kernen bietet :eek:
(den AllCoreBoost kann man dann im Bios über die Wattbegrenzung frei wählen)

Danach kommt heuer nix schnelleres mehr von AMD.
(der reguläre 3800X wird "ToppDog" im Herbst und wesentlich günstiger
bei ~140W verbrauch und Max-Boost 5,1Ghz)

Hirngespinst ende.

Mann Spinn ich heut wieder was zusammen :freak:

m.f.g. JVC

rentex
2019-03-20, 13:48:15
Mir würde es schon reichen, wenn der 3600X beim 9700K landet.
Hirngespinst + Realismus Ende 😂

SKYNET
2019-03-20, 14:02:57
Mir würde es schon reichen, wenn der 3600X beim 9700K landet.
Hirngespinst + Realismus Ende 😂

9700k... und in MT vernichtet er ihn dann... ok, das tut jetzt schon nen 2600X ;D

kruemelmonster
2019-03-20, 14:35:38
Ist aber davon auszugehen das entsprechende Boards parallel launchen?
Hab im anderen Thread gelesen das die AM4 Boards wohl seitens der Entwickler etwas weniger aufmerksamkeit erfahren. Gibts da bessere/schlechtere Hersteller?

Falls du den "Ryzen + Mainboard + RAM Erfahrungen"-Thread meinst, das war eine reine Behauptung ohne jegliche Indizien. Es stand die Frage im Raum woher Leistungs bzw OC-Unterschiede zwischen AM4 Boards kommen, und in Ermangelung einer vernünftigen These hieß es dann dass die besten Leute an Intel Plattformen arbeiten sollen. Ja ne is klar.

JVC
2019-03-20, 15:31:01
Zu mindestens ist es mit steigender Kern Zahl immer schwieriger,
die CPU einfach AllCore zu übertakten.

Selbst wenn der 3700X 5Ghz auf 2 Kernen packen sollte, vermute ich,
das man Die mit allen 12 Kernen nicht erreichen wird ...

Da könnte der 3600X eventuell einen Vorteil haben ...
(wenn einem die Selektion nicht einen strich durch die Rechnung macht)

Vielleicht ist er ja wirklich n OC Wunder, dann wäre der 8 Kerner,
rein zum Spielen, möglicherweise die bessere Wahl :freak:

Es bleibt interessant :smile:

m.f.g. JVC

Rogue
2019-03-20, 15:35:52
@kruemelmonster
Als Neueinsteiger diesen Thread zu überfliegen und zu versuchen daraus Infos zu extrahieren war nicht soo einfach :D

Benutzername
2019-03-20, 22:26:03
Es wird vermutet, dass der Launch zum Anfang nur 12 Kerne aufbieten wird.
(bis zu 105W)
Und der 16 Kerner dann, etwas später, mit den neuen Chipsätzen kommt.
(bis zu vermutlich 130W oder gar mehr... hängt vielleicht von Intel ab und wie weit Die gehen)

Nix genaues, weis man noch nicht :freak:

m.f.g. JVJ

Ich habe den VErdacht daß die 550 und 570 Chips sich sowieso kaum außer etwas Politur von ihren Vorgängern unterscheiden. Was sollte man da auch groß ändern? Sie aber mit anderen TDP Vorraussetzungen kommen um die Ryzen2 zu versorgen kommen. (und PCIe 4.0 sicher zu liefern) Also quasi in HArdware verdongeln, daß dann vernünftige boards bereitstehen und die Ryzen 3x00 wirklich ausnutzen können. nicht so wie bei intel,wo der Chip zwar passt, es aber klemmt beim Strom, wie ein paar posts weiter oben ja schon erwähnt.

Benutzername
2019-03-20, 22:29:45
Zu mindestens ist es mit steigender Kern Zahl immer schwieriger,
die CPU einfach AllCore zu übertakten.

Selbst wenn der 3700X 5Ghz auf 2 Kernen packen sollte, vermute ich,
das man Die mit allen 12 Kernen nicht erreichen wird ...

Da könnte der 3600X eventuell einen Vorteil haben ...
(wenn einem die Selektion nicht einen strich durch die Rechnung macht)

Vielleicht ist er ja wirklich n OC Wunder, dann wäre der 8 Kerner,
rein zum Spielen, möglicherweise die bessere Wahl :freak:

Es bleibt interessant :smile:

m.f.g. JVC


Und wie wäre es mit einem hypotethischen Ryzen 3x00 der nur acht oder zehn Kerne hat, aber zwei chiplets benutzt? wäre er vielleicht ebsser zu übertakten? Wäre natürlich teuerer als einer mit nur einem chiplet, aber scchlechte Kerne könnten so abgeschaltet werden. Eröffnet natürlich die Möglichkeit aller möglicher Kombinationen wie viele Kerne auf den Chiplets jeweils sind. *kopfschmerz*

Brillus
2019-03-20, 22:48:55
Ich habe den VErdacht daß die 550 und 570 Chips sich sowieso kaum außer etwas Politur von ihren Vorgängern unterscheiden. Was sollte man da auch groß ändern? Sie aber mit anderen TDP Vorraussetzungen kommen um die Ryzen2 zu versorgen kommen. (und PCIe 4.0 sicher zu liefern) Also quasi in HArdware verdongeln, daß dann vernünftige boards bereitstehen und die Ryzen 3x00 wirklich ausnutzen können. nicht so wie bei intel,wo der Chip zwar passt, es aber klemmt beim Strom, wie ein paar posts weiter oben ja schon erwähnt.
Ich geh mal davon aus das die neuen Chipsets mit PCIe4 angebunden sind und auch Tip ich mal auf Support für USB 3.2. Und Stromversorgung hat ziemlich sicher nichts mit dem Chipsatz zu tun.

Benutzername
2019-03-20, 23:26:00
Ich geh mal davon aus das die neuen Chipsets mit PCIe4 angebunden sind und auch Tip ich mal auf Support für USB 3.2. Und Stromversorgung hat ziemlich sicher nichts mit dem Chipsatz zu tun.

Jein. Bei den neuen boards für 550/570 schreibt AMd dann eine stärkere Stormversorgung vor und daß die Leiterbahnen gut genug sind für PCIe 4.0. Der 550/570 chip selbst hat damit nicht direkt was zu tun, ja.

rentex
2019-03-21, 10:38:44
9700k... und in MT vernichtet er ihn dann... ok, das tut jetzt schon nen 2600X ;D

MT ist für AMD, aktuell nicht das Problem😉

SKYNET
2019-03-21, 11:10:49
MT ist für AMD, aktuell nicht das Problem😉


doch, auch da... weil 8700k --> 2600X, 9900k --> 2700X

erst wenn man preisbereinigt vergleicht, liegt AMD in MT vorne ;)

rentex
2019-03-21, 14:05:21
Ist ein Argument.

SKYNET
2019-03-21, 14:22:48
Ist ein Argument.


jopp, muss halt realistisch bleiben... aber preisbereinigt wischt AMD da natürlich mit intel den boden... nen 2920X mit 12C/24T oder nen 1950X mit 16C/32T vernichtet nen 9900k ja spielend in MT anwendungen, und kostet wie der 9900k um die 600 taler.

oder man nimmt nen 1920X... 12/24 für knapp 400 steine, da kann intel einfach nix entgegensetzen... :)

JVC
2019-03-21, 18:06:48
Pst nicht so laut ...
Weis doch schon jeder, das "Intel outside" ist, außer bei reinen Gamern ...

m.f.g. JVC

YfOrU
2019-03-21, 19:21:02
jopp, muss halt realistisch bleiben... aber preisbereinigt wischt AMD da natürlich mit intel den boden... nen 2920X mit 12C/24T oder nen 1950X mit 16C/32T vernichtet nen 9900k ja spielend in MT anwendungen, und kostet wie der 9900k um die 600 taler.

So eindeutig ist es nicht. Der 9900K ist inzwischen 100€ günstiger als der 2920X und die Plattform um weitere 120€.

Hinzu kommt das der 2920X abseits vom absoluten Optimum (CPU Rendering/Encoding) in den meisten üblichen Workstation Anwendungen langsamer ist. Insgesamt hat der 9900K eine deutlich konsistentere Performance und ist daher nüchtern betrachtet heute fast immer die bessere Wahl.

SKYNET
2019-03-21, 22:14:38
So eindeutig ist es nicht. Der 9900K ist inzwischen 100€ günstiger als der 2920X und die Plattform um weitere 120€.

Hinzu kommt das der 2920X abseits vom absoluten Optimum (CPU Rendering/Encoding) in den meisten üblichen Workstation Anwendungen langsamer ist. Insgesamt hat der 9900K eine deutlich konsistentere Performance und ist daher nüchtern betrachtet heute fast immer die bessere Wahl.


nur wenns auf takt ankommt... und dann nimmt man halt nen 1920X... der bügelt den 9900k in MT auch noch gewaltig ;)

rentex
2019-03-22, 05:59:08
Meine Zielanwendung ist auch Gamen...sorry, das ich es nicht erwähnt habe. Ob WINRAR ein paar Sekunden schneller läuft, ist nicht so wichtig😉
Ich möchte trotzdem vorzugsweise auf ZEN2 umsteigen...wenn dann auch die Singlethread Performance passt.

Rancor
2019-03-22, 08:01:37
Erstmal abwarten wie Zen 2 sich im live Betrieb schlägt. Bisher sieht es gut aus, aber ein Benchmark reicht da nicht aus um da ne vernünftige Prognose bezgl. Gamingleistung abzugeben.

dildo4u
2019-03-22, 08:09:31
Scheint kein Sale zu sein Mindfactory hat den 2700 jetzt für 215€,scheint so das der und der 2600X auf Dauer billiger sind.

Rogue
2019-03-22, 10:35:29
Findet ihr man sollte die Threadripper mit den i9´s vergleichen?
Das sind doch eigentlich unterschiedliche Kategorien.

Nen aktuellen Ryzen zu kaufen macht doch jetzt eigentlich keinen sinn mehr oder? Die nächste Generation soll sehr sehr bald da sein.
Zumindest bereitet man schon fleissig Boards darauf vor (https://www.golem.de/news/matisse-erste-hauptplatinen-unterstuetzen-amds-ryzen-3000-1903-140183.html).

JVC
2019-03-22, 10:51:25
Findet ihr man sollte die Threadripper mit den i9´s vergleichen?
Das sind doch eigentlich unterschiedliche Kategorien.


Der Kunde hat meist einen gewissen Betrag den er investieren möchte/kann
und dafür will er natürlich möglichst viel haben.

Ob i9 oder TR oder sonnst was, spielt meist eine untergeordnete Rolle.
(außer man hat spezielle Vorlieben, so wie mancher nur BMW oder nur VW fährt)

Daher ist es in meinen Augen das wichtigste, über den Preis zu vergleichen.
(und da nicht nur CPU´s untereinander, sondern den kompletten Preis des Systems)

m.f.g. JVC

p.s.: kleines Beispiel.
ASRock X399 Phantom Gaming 6 ~260.- + AMD Ryzen Threadripper 1920X, 12x 3.50GHz ~380.- =~620.-
MSI MPG Z390 Gaming Plus ~140.- + Intel Core i9-9900K, 8x 3.60GHz ~520.- =~660.-
(wobei dann in MC Anwendungen, AMD~18-20% schneller als Intel ist)
https://cpu.userbenchmark.com/Compare/Intel-Core-i9-9900K-vs-AMD-Ryzen-TR-1920X/4028vs3934

Wobei der Vergleich etwas hinkt, da AMD dann in fast allem mehr bietet als Intel.
(64Lanes, und das MB spielt sowieso in einer anderen Liga... Plus gute aufrüstbarkeit)
Nur noch in Spielen fährt man im Moment noch besser mit Intel.
(wobei dieser "Spiele-Vorteil" für Intel spätestens bei einem modernen 4K Bildschirm keine Rolle mehr spielt)

Pirx
2019-03-22, 10:56:28
da gibts ja auch noch klitzekleine Plattformunterschiede und die Frage, ob man wirklich in eine Sackgasse investieren sollte

SKYNET
2019-03-22, 11:46:07
da gibts ja auch noch klitzekleine Plattformunterschiede und die Frage, ob man wirklich in eine Sackgasse investieren sollte

stimmt, darum würde ich nicht mehr auf nen 9900k setzen...

der TR4 sockel wird sicherlich den AM4 überleben, einfach weil der gleiche sockel im server bereich wohl noch locker 3-4 jahre existieren wird ;)

JVC
2019-03-22, 11:55:00
der TR2 sockel wird sicherlich den AM4 überleben, einfach weil der gleiche sockel im server bereich wohl noch locker 3-4 jahre existieren wird ;)

Diese Überlegung macht es mir im Moment schwer ...
(bin nicht recht zufrieden mit dem Asus AM4)

Sollte keine "JubiläumsCPU" kommen und der 16Kerner tatsächlich erst im Herbst ...
(bleibt nur die Frage, wann TR 3K kommt)

m.f.g. JVC

Edit:
https://www.techpowerup.com/253954/amd-ryzen-3000-zen-2-bios-analysis-reveals-new-options-for-overclocking-tweaking
"...since each 8-core chiplet consists of two 4-core CCX (compute complexes), much like existing AMD designs. At the chiplet-level you can dial down core counts from 4+4 to 3+3, 2+2, and 1+1, but never asymmetrically, such as 4+0 (which was possible on first-generation Zen)."
Was in ...
4+4 + 4+4 = 16Kerne
3+3 + 3+3 = 12Kerne
... münden würde.
Der 8Kerner könnte 4+4 = 8Kerne haben oder 2+2 + 2+2 = 8Kerne :confused:
(mit Igpu ginge aber nur 4+4 + GPU)
Der 6Kerner ist scheinbar nur mit einem Chiplet zu realisieren.
Ebenso wie der 4Kerner mit Igpu nur ein Chiplet haben kann.

Ich vermute, das die Ausbeute gar nicht mal so schlecht ist
und fast immer zu mindestens 3+3 der 4+4 funktionieren.
3+3 reicht für 6 und 12Kerne, die besseren kommen in den 12Kerner die schlechteren in den 6Kerner.
Der 8 Kerner wird vermutlich die schlechten 4+4 bekommen und der 16Kerner die guten ...
AMD kann mit einem Chiplet und etwas Selektion alles abdecken ... wirtschaftlicher geht's kaum ...

Brillus
2019-03-22, 17:18:03
stimmt, darum würde ich nicht mehr auf nen 9900k setzen...

der TR4 sockel wird sicherlich den AM4 überleben, einfach weil der gleiche sockel im server bereich wohl noch locker 3-4 jahre existieren wird ;)

Denk ich nicht, ich glaub beide werden ziemlich gemeinsam ersetzt,nämlich wenn ddr5 kommt.

JVC
2019-03-23, 09:15:16
Denk ich nicht, ich glaub beide werden ziemlich gemeinsam ersetzt,nämlich wenn ddr5 kommt.

Ich denke schon ^^

Wäre nicht zum ersten mal, das AMD rückwärtskompatibel bleibt.

Die CPU´s haben manchmal 2 Speicherkontroller.
Der 9900K unterstützt auch noch DDR 3 ;)
https://www.computerbase.de/2018-10/gigabyte-h310m-ds2v-ddr3-intel-core-i9/
"Intel Core i9-9900K mit DDR3-1333 kombinierbar"


m.f.g. JVC

SKYNET
2019-03-23, 10:30:46
Ich denke schon ^^

Wäre nicht zum ersten mal, das AMD rückwärtskompatibel bleibt.

Die CPU´s haben manchmal 2 Speicherkontroller.
Der 9900K unterstützt auch noch DDR 3 ;)
https://www.computerbase.de/2018-10/gigabyte-h310m-ds2v-ddr3-intel-core-i9/
"Intel Core i9-9900K mit DDR3-1333 kombinierbar"


m.f.g. JVC

wird eh kommen das DDR4 und DDR5 beides nutzbar ist, der transenverbrauch ist maginal und es macht die kunden und vor allendingen die OEs glücklich... letztere haben oftmals tonnen von speicher auf halde, den sie erstmal loswerden müssen.

dildo4u
2019-03-23, 13:52:35
iUfpSOmC8jk

JVC
2019-03-23, 18:49:52
:eek:

Und das teil kann mit den neuen Fernsehern VRR :freak:

Sowas von gekauft, nur so zum funn :biggrin:
(sicher nett für den "nur FHD" Beamer ;D )

Später dann den neuen 7nm mit iGPU rein und AB geht's ... ;D
... Supermario oder sonnst was, im Garten an der Hauswand und so ....
(beides könnte, sogar zum Picknicken oder campen, mein I3 versorgen :crazy:)
(das ist ein klitzekleiner Vorgeschmack auf die neuen Consolen)

M.f.g. JVC

p.s.: Kann man den wo vorbestellen !?
Edit:
Beim Händler meines Vertrauens bestellt ... der wartet auch schon darauf :tongue:

https://geizhals.at/asrock-deskmini-a300-90bxg3g01-a30ga0w-a1970086.html
Frechheit das wier Ösis immer die letzten sind -_-

SKYNET
2019-03-23, 19:21:52
:eek:

Und das teil kann mit den neuen Fernsehern VRR :freak:

Sowas von gekauft, nur so zum funn :biggrin:
(sicher nett für den "nur FHD" Beamer ;D )

Später dann den neuen 7nm mit iGPU rein und AB geht's ... ;D
... Supermario oder sonnst was, im Garten an der Hauswand und so ....
(beides könnte, sogar zum Picknicken oder campen, mein I3 versorgen :crazy:)
(das ist ein klitzekleiner Vorgeschmack auf die neuen Consolen)

M.f.g. JVC

p.s.: Kann man den wo vorbestellen !?
Edit:
Beim Händler meines Vertrauens bestellt ... der wartet auch schon darauf :tongue:

viel eher würd mich interessieren ob das board ram OC zulässt... gibt ja genug fetten DDR4 sodimm.... mit 3400 C14 dürfte nen 2400G recht gut abgehen.

JVC
2019-03-23, 19:23:48
Jap, wurde glaub ich im Video gesagt das ...
"Ram bis 3200 rauf unterstützt wird und auch OC möglich ist"

m.f.g. JVC

p.s.:
Muss ich dann irgendwann mal ausprobieren ...
Aus dem Kofferraum heraus oder auch von hinterm Lenkrad aus
in der Nacht wo an ner großen weißen Wand spielen :D
(müsste man nur noch die Elektrik, gas Lenkung ..., für n Rennsimulator abgreifen :freak: ...ne ich spinn schonwieder ... )

Ädit: Gibt schon Brauchbares.
https://geizhals.at/g-skill-ripjaws-so-dimm-kit-16gb-f4-3000c16d-16grs-a1505763.html?hloc=at
G.Skill RipJaws SO-DIMM Kit 16GB, DDR4-3000, CL16-18-18-43 ~120.- ,
+ Intel SSD 760p 512GB, M.2 ~120.- , + AMD Ryzen 5 2400G, 4x 3.60GHz ~130.- ,
+ ~150.- den "Rechner":biggrin:
= 520.-
Wäre eine Typische Empfehlung für so Leute die ...
"schnell mal was brauchen was alles kann und am besten nix Kost und Platz hams eigentlich ah kann ..."
Das Ding hinter den Fernseher (den als Monitor nutzen, was die Box ja sogar mit VRR kann) und gut ist.

SKYNET
2019-03-23, 23:07:59
Jap, wurde glaub ich im Video gesagt das ...
"Ram bis 3200 rauf unterstützt wird und auch OC möglich ist"

m.f.g. JVC

p.s.:
Muss ich dann irgendwann mal ausprobieren ...
Aus dem Kofferraum heraus oder auch von hinterm Lenkrad aus
in der Nacht wo an ner großen weißen Wand spielen :D
(müsste man nur noch die Elektrik, gas Lenkung ..., für n Rennsimulator abgreifen :freak: ...ne ich spinn schonwieder ... )

Ädit: Gibt schon Brauchbares.
https://geizhals.at/g-skill-ripjaws-so-dimm-kit-16gb-f4-3000c16d-16grs-a1505763.html?hloc=at
G.Skill RipJaws SO-DIMM Kit 16GB, DDR4-3000, CL16-18-18-43 ~120.- ,
+ Intel SSD 760p 512GB, M.2 ~120.- , + AMD Ryzen 5 2400G, 4x 3.60GHz ~130.- ,
+ ~150.- den "Rechner":biggrin:
= 520.-
Wäre eine Typische Empfehlung für so Leute die ...
"schnell mal was brauchen was alles kann und am besten nix Kost und Platz hams eigentlich ah kann ..."
Das Ding hinter den Fernseher (den als Monitor nutzen, was die Box ja sogar mit VRR kann) und gut ist.


dann UV bei der CPU, takt hoch(4GHz AC sollte easy gehen mit weniger als standard spannung), vega hochdrehen, speicher hochdrehen... 1080p daddelkiste :biggrin:

JVC
2019-03-24, 12:05:22
dann UV bei der CPU, takt hoch(4GHz AC sollte easy gehen mit weniger als standard spannung), vega hochdrehen, speicher hochdrehen... 1080p daddelkiste :biggrin:

:up:
Aber wohl eher "Kistchen" ... passt ja fast in die Handfläche :eek:
(das Ding ist kleiner als ein Standardnetzteil)

Das wird mein neuer mobiler Dattelrechner ...
Den nimmt man schnell mal zu nem Kumpel mit und nutzt dort hald den Fernseher.

m.f.g. JVC

Hihi
https://www.youtube.com/watch?v=HQl1eS6g4cM

Edit: (27.03.2019)
Ok, wenn hier schon verlinkte News, die das Tema betreffen, einfach gelöscht werden, nur weil es ein User als spamm meldet ...
(Wird das nicht geprüft bevor gelöscht wird ? Oder eine Erklärung warum wäre nett)
Spar ich mir in Zukunft das "Neuigkeiten verlinken".

gmb
2019-04-06, 00:04:50
Es sind neue Pinnacle Ridge CPU Tests mit Tropico 6 aufgetaucht.


https://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/tropico-6-test-gpu-cpu-2
http://www.pcgameshardware.de/Tropico-6-Spiel-61017/Specials/Benchmark-Release-Test-Unreal-Engine-4-Systemanforderungen-1278907/2/#a1

Auch interessant:

Kommt statt der Geforce eine Radeon zum Einsatz, werden im harten CPU-Limit, das unsere Testszene abbildet, noch geringere Bildraten erreicht.

aufkrawall
2019-04-06, 00:11:44
Die Performance der UE4 ist einfach göttlich. Zum Glück konzentriert Epic sich mit 4.22 nicht darauf, diese bis ins Absurde noch weiter zu verbessern, sondern baut endlich mal Raytracing ein! =)

w0mbat
2019-04-06, 00:18:01
Bei gleichem Takt ist ein 8C/16T Zen+ ca. 2% schneller als ein 6C/12T Zen+... macht aber auch Sinn das Spiel nicht auf mehr Kerne zu optimieren, beide schaffen ja locker 30 FPS im min. :ugly:

Und der goldene 9900K zeigt mal wieder seine absolute Stärke, zersägt er mit OC@5,2GHz doch die Ryzen CPUs und liefer 56 FPS min! Der Stolz der Technik!

SKYNET
2019-04-06, 00:24:10
Bei gleichem Takt ist ein 8C/16T Zen+ ca. 2% schneller als ein 6C/12T Zen+... macht aber auch Sinn das Spiel nicht auf mehr Kerne zu optimieren, beide schaffen ja locker 30 FPS im min. :ugly:

Und der goldene 9900K zeigt mal wieder seine absolute Stärke, zersägt er mit OC@5,2GHz doch die Ryzen CPUs und liefer 56 FPS min! Der Stolz der Technik!

was meiner wohl auf 4.5GHz da machen würde :upara:

Unicous
2019-04-06, 00:30:27
Die Performance der UE4 ist einfach göttlich. Zum Glück konzentriert Epic sich mit 4.22 nicht darauf, diese bis ins Absurde noch weiter zu verbessern, sondern baut endlich mal Raytracing ein! =)
http://www.quickmeme.com/img/b5/b5af8c5a51915aa14b9bcf695fd01e954610f9dbdd162beea1e58201b0e1b253.jpg

N0Thing
2019-04-06, 01:41:35
http://www.quickmeme.com/img/b5/b5af8c5a51915aa14b9bcf695fd01e954610f9dbdd162beea1e58201b0e1b253.jpg

Dann ist dein Sarkasmusdetektor wohl defekt. :(

Unicous
2019-04-06, 01:54:21
https://media1.tenor.com/images/e5e91360089456411ef660428fb48270/tenor.gif

N0Thing
2019-04-06, 02:00:08
Das ist so absurd.

Lehdro
2019-04-06, 02:25:54
Die Skalierung mit zusätzlichen Kernen und Threads ist stark verbesserungswürdig, um es diplomatisch zu formulieren. Man könnte stattdessen auch die Worte "katastrophal" oder "prähistorisch" verwenden.
`nuff said.
Man sieht dass EPIC lieber Geld für Exklusivdeals auf EGS rausschmeißt, statt Ihre Kernkompetenz aufzubessern. Das sagt einem eigentlich alles, was man wissen muss. Wenn die mit Abstand schnellste CPU dort nichtmal die 60 FPS halten kann sitzen die Prioritäten einfach verkehrt.

Unicous
2019-04-06, 02:42:25
Man hofft ja, dass Wendehals und serial liar Tim Sweeney ordentlich auf die Fresse fliegt, aber dank Fortnite wird das auf kurz oder lang wohl nicht passieren.:rolleyes:

Da fragt man sich was passiert wäre, wenn sie aus dem Rohrkrepierer nicht den lächerlich erfolgreichen Battle Royale Modus geschnitzt hätten.

iuno
2019-04-06, 09:28:26
Ich bin Mal gespannt, ob Google dahingehend Einfluss nimmt. Man hat ja Epic als Partner genannt und klar 60 FPS angegeben. Gerade im CPU Limit wird das interessant, da der Takt relativ niedrig ist und man Grafikdetails auch einfach runterschrauben kann. Gerade auch hinsichtlich der Latenz sollte man dort zusehen, dass man auch 60 FPS hält.

dildo4u
2019-04-06, 10:33:27
Die Performance der UE4 ist einfach göttlich. Zum Glück konzentriert Epic sich mit 4.22 nicht darauf, diese bis ins Absurde noch weiter zu verbessern, sondern baut endlich mal Raytracing ein! =)
RT erfordert eine Low Level API,das ist das einzige was eine Verbreitung der neuen API erzwingt.Wie PCGH schon schreibt für die meisten UE Entwickler macht es kaum ein Unterschied welche API sie nutzen da sie keine CPU lästigen Games bauen.
Fortnite rennt locker mit 120fps auf Ryzen.

BlacKi
2019-04-06, 10:52:13
RT erfordert eine Low Level API,das ist das einzige was eine Verbreitung der neuen API erzwingt.Wie PCGH schon schreibt für die meisten UE Entwickler macht es kaum ein Unterschied welche API sie nutzen da sie keine CPU lästigen Games bauen.
Fortnite rennt locker mit 120fps auf Ryzen.
pubg? ark? usw. sie bauen sie vl nicht selbst, aber wie müssen sie spielen:wink:

gmb
2019-04-06, 11:03:49
RT erfordert eine Low Level API,das ist das einzige was eine Verbreitung der neuen API erzwingt.Wie PCGH schon schreibt für die meisten UE Entwickler macht es kaum ein Unterschied welche API sie nutzen da sie keine CPU lästigen Games bauen.
Fortnite rennt locker mit 120fps auf Ryzen.


Glaube ich nicht. Für simple shooter ist das kein Problem, trotzdem wird es sicher viele UE4 games mit Simulationsanteil geben, wo man eben keine 100+ fps mit mainstream CPUs rausbekommt. In Astroneer das gleiche Problem mit der CPU Performance, auf Xbox mit low level noch schlimmer. Oder schau dir Assetto Corsa Competizione an. Die meisten games wird man selber nicht kennen. Das praktische ist immerhin daran, dass sich solche Spiele gut für gaming Tests bei CPUs eignen und die Unterschiede gut aufzeigen, weil man dann nicht so leicht ins GPU Limit läuft. Deswegen ist der Tropico 6 Test so wunderbar.

Screemer
2019-04-06, 11:28:40
Jup ganz wunderbar um zu zeigen dass ue4 Kernschrott ist was threadskalierung angeht. Was hat man Mal über unity geschimpft. Das waren noch Zeiten.

Benutzername
2019-04-08, 19:17:46
Jup ganz wunderbar um zu zeigen dass ue4 Kernschrott ist was threadskalierung angeht. Was hat man Mal über unity geschimpft. Das waren noch Zeiten.

Die Unreal Engine war noch nie gut mit mehreren Kernen. Warum sollte das mit vielen Kernen irgendwie besser werden. Besonders wenn die Prioritäten woanders liegen. Fortnite läuft, also warum an der engine schrauebn. neuen Store hochziehen, verspricht mehr Geld falls es läuft. Kann man jetzt nicht sagen es wäre die falsche Geschäftsentscheidung.

M4xw0lf
2019-04-11, 11:05:27
Wurde das schon irgendwo hier gepostet? Mindfactory CPU-Verkäufe von März:

https://i.imgur.com/l6vL4E7.png

https://www.reddit.com/r/AMD_Stock/comments/bahfbc/mindfactory_sales_data_for_march_2019/

Linmoum
2019-05-29, 21:39:35
https://i.gyazo.com/0d06bc3e14ee131d89075db427807b03.png

Auch wenn Zen2 vor der Tür steht, aber mit World War Z und TD2 Gold Edition dazu ist das echt unschlagbar.

Tarkin
2019-05-30, 10:41:49
Wurde das schon irgendwo hier gepostet? Mindfactory CPU-Verkäufe von März:

https://i.imgur.com/l6vL4E7.png

https://www.reddit.com/r/AMD_Stock/comments/bahfbc/mindfactory_sales_data_for_march_2019/

mich würde auch mal der April interessieren - und bald auch Mai 😉

Screemer
2019-05-30, 13:26:28
mich würde auch mal der April interessieren - und bald auch Mai 😉
....

dildo4u
2019-05-31, 22:16:38
2700 ist auch im Sale 198€.

Mindfactory CPU Verkäufe für Mai.

https://imgur.com/a/JbEU5HR#HikK8AP

dildo4u
2019-06-11, 09:50:54
Es gab wohl OS Seitige Scheduler fixes im Mai Update.Wär mal interessant wie viel das bei Threadripper bringt.

https://live.staticflickr.com/65535/48041829303_155ad480af_h.jpg (https://flic.kr/p/2gchW6M)y8nxtm08um331 (https://flic.kr/p/2gchW6M) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.anandtech.com/show/14525/amd-zen-2-microarchitecture-analysis-ryzen-3000-and-epyc-rome/3

Linmoum
2019-06-15, 19:20:43
https://i.gyazo.com/4469da714aab78acf39b8e26ec7e42cb.png

Wer will? :D

Mortalvision
2019-06-15, 19:25:44
Für meinen Stadtteil würde es wohl knapp reichen ;D

Oranje7
2019-06-15, 20:37:18
Falls du meinen 1600 non X für 100 abkaufst nehm ich einen 2600X :tongue:

Redneck
2019-06-18, 16:35:08
Hi, wann ist mit ersten reviews zu rechnen? Doch nicht etwa erst zum 7.7.?

N0Thing
2019-06-18, 16:57:27
Hi, wann ist mit ersten reviews zu rechnen? Doch nicht etwa erst zum 7.7.?

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587883

BlacKi
2019-06-18, 17:57:37
Falls du meinen 1600 non X für 100 abkaufst
auf ebay werden sie für 119€+ verkauft.

dildo4u
2019-07-02, 12:24:36
MF CPU Verkäufe im Juni.

https://imgur.com/a/zbn2ttw

aufkrawall
2019-08-29, 20:44:02
(Fortsetzung im richtigen Thread)
So kacke kann die Skalierung ja gar nicht sein. :freak:

Tja, GTX 660 eingebaut, und es läuft bei ihm im CPU-Limit nun ca. doppelt so schnell, also wie bei dildo. Die CPU läuft also richtig.
Ist der AMD-Treiber nun wirklich dermaßen grottig, wie es zunächst den Anschein hat?

Nö, denn mit DXVK, also Vulkan, ändert sich erstmal nichts (Nvidia ist auch hier viel schneller). Und nun das Kuriose: Wenn ich mit 6700k und Polaris in Crysis 3 mit DXVK eine Nvidia-GPU spoofe, läuft es in der Lift-Szene im CPU-Limit mal eben einfach so 20% schneller. :freak:
Das läuft dann also schneller als mit nativem D3D11, das an das Spiel eine AMD-GPU meldet! :facepalm:
Womöglich ist das gerade mit mehr verfügbaren Threads um so schädlicher.
Morgen wird das nochmal mit Radeon + Ryzen beleuchtet.

Borderlands 2/TPS läuft allerdings wirklich so kacke auf dem Ryzen vs. Intel, mit der Nvidia-GPU gibt es hier keinen magischen Performance-Boost festzustellen (bzw. nur etwas unter D3D9, das aber auch nicht schneller als D9VK ist).

aufkrawall
2019-09-13, 20:43:25
Schlimmer gehts immer: Und zwar mit Borderlands 3. Läuft bei meinem Bruder mit Navi in 4k ständig bei ~25fps im CPU-Limit.
2600 OC: ~30fps
https://abload.de/thumb/ryzen2dkhp.jpg (https://abload.de/image.php?img=ryzen2dkhp.jpg)

6700k: 90fps
https://abload.de/thumb/skylakek6jkc.png (https://abload.de/image.php?img=skylakek6jkc.png)

Die Diskrepanz ist nicht immer dermaßen krass, aber auch "nur" 50-100% schneller ist jetzt nicht gerade ohne. Haben an zig Stellen und in zig Fights die fps verglichen, es ist wirklich durchgängig schlimm.
Kann man jetzt lange philosophieren, dass da bei der Anwendung irgendwas im Argen liegen muss. Bringt einem als Zocker nur herzlich wenig.

dildo4u
2019-09-13, 20:59:43
Und was passiert in DX12?Die Performance ist extrem komisch dafür das AMD Hardware Partner ist.

Lehdro
2019-09-13, 22:27:17
Kann man jetzt lange philosophieren, dass da bei der Anwendung irgendwas im Argen liegen muss.
Das kann man eigentlich mit Bestimmtheit sagen: Ja. Denn das ist ein äußerst krasser Fall der nicht wirklich erklärbar ist. 200% Leistungsunterschied sind einfach nur ein klarer Hinweis auf Softwaregrütze.

Bringt einem als Zocker nur herzlich wenig.
Ja, also los, als Bug melden.

aufkrawall
2019-09-13, 22:50:43
Und was passiert in DX12?Die Performance ist extrem komisch dafür das AMD Hardware Partner ist.
DX12 scheint tatsächlich um ein Vielfaches schneller zu laufen, so ca. 3x bis 4x. :freak:
Allerdings hat es noch u.a. Grafikfehler und den kaputten Start. Auf Anti-Lag müsste man auch noch verzichten.

mboeller
2019-10-12, 23:30:56
Aldi Süd bringt am 24.10. einen PC mit Ryzen 5 2600 + Nvidia 1650 für 599,- Euro.

falls das jemanden interessiert

dildo4u
2019-11-29, 06:39:22
Mindfactory hat schon den Cybersale z.b 2700X für 149€.

eLw00d
2019-12-01, 00:48:13
Mindfactory hat schon den Cybersale z.b 2700X für 149€.

Den hab ich mir gesnackt. :D

Welchen Arbeitsspeicher würdet ihr für einen Ryzen 7 2700X auf einem MSI B450 Tomahawk Max nehmen?

Corsair DIMM 32 GB DDR4-3000 Kit / CL15 17-17-35 (https://www.alternate.de/Corsair/DIMM-32-GB-DDR4-3000-Kit-Arbeitsspeicher/html/product/1478430?)

Corsair DIMM 32 GB DDR4-3200 Kit / CL16 18-18-36 (https://www.alternate.de/Corsair/DIMM-32-GB-DDR4-3200-Kit-Arbeitsspeicher/html/product/1478445?)

G.Skill DIMM 32 GB DDR4-3600 Kit / CL16 19-19-39 (https://www.alternate.de/G-Skill/DIMM-32-GB-DDR4-3600-Kit-Arbeitsspeicher/html/product/1584628?)

Thunder99
2019-12-01, 10:42:07
Wenn du nicht planst auf Ryzen 3k oder 4k zu gehen den 3200, ansonsten 3600

eLw00d
2019-12-01, 10:50:20
Cool, danke!

Bei dem 3600er werde ich dann nicht dieses XMP Profil nutzen können und muss alles selbst einstellen, nehme ich an?

Thunder99
2019-12-01, 10:53:37
Cool, danke!

Bei dem 3600er werde ich dann nicht dieses XMP Profil nutzen können und muss alles selbst einstellen, nehme ich an?
Teste es, aber ansonsten ja. Kannst ja die Timings aufschreiben und dann entsprechend beim Takt einstellen was funktioniert. Kannst auch den Ryzen DRAM Calculator verwenden als Richtlinie :)

eLw00d
2019-12-01, 12:30:22
Teste es, aber ansonsten ja. Kannst ja die Timings aufschreiben und dann entsprechend beim Takt einstellen was funktioniert. Kannst auch den Ryzen DRAM Calculator verwenden als Richtlinie :)

Hast Recht. Dann gönne ich mir den. 😁
Danke für die Hilfe!

Ich hatte auch eigentlich den 3700x ins Auge gefasst. Aber der wäre einfach mehr als doppelt so teuer gewesen bei gleicher Anzahl Kernen. Die Mehrleistung war es mir dann doch nicht wert. Aber sobald es da mal nen ordentlichen Preisrutsch gibt werde ich zuschlagen.

w0mbat
2019-12-01, 12:51:54
Zen+ macht oft nur DDR4-3200 oder vielleicht noch 3400 mit, je nach Chipgüte.

Denniss
2019-12-01, 13:21:18
Warum schrottigen Corsair-Speicher kaufen wenn es von Micron den Crucial Ballistix Sport LT mit sehr guten Speicherbausteinen gibt?

eLw00d
2019-12-01, 13:37:50
Warum schrottigen Corsair-Speicher kaufen wenn es von Micron den Crucial Ballistix Sport LT mit sehr guten Speicherbausteinen gibt?

Du meinst diese hier?

https://www.mindfactory.de/product_info.php/32GB-Crucial-Ballistix-Sport-LT-V2-Dual-Rank-grau-DDR4-3000-DIMM-CL15-D_1296002.html

Haben die denn deutlich mehr Leistung, als die von mir aufgeführten?
Für den geringen Aufpreis hätte ich gerne die Beleuchtung. 🙈😁

Denniss
2019-12-01, 18:03:42
gleich den 3200er, da sind immer die Micron E-dies drauf (auch beim 3000); zudem sind oft 3600 und mehr drin.
Bei Corsair und Co gibt es oft verschiedene Revisionen mit unterschiedlichen Chips

SKYNET
2019-12-01, 18:56:05
Zen+ macht oft nur DDR4-3200 oder vielleicht noch 3400 mit, je nach Chipgüte.

nene, zen+ machte nahezu jeder min. 3466 mit... selbst zen1 machten viele 3466...

eLw00d
2019-12-01, 23:00:00
gleich den 3200er, da sind immer die Micron E-dies drauf (auch beim 3000); zudem sind oft 3600 und mehr drin.
Bei Corsair und Co gibt es oft verschiedene Revisionen mit unterschiedlichen Chips

Ich hatte im hardwareluxx gelesen, dass eher das 3000er CL15 Kit empfohlen wird.
Ist da die Chance größer gute e-dies zu bekommen oder denkst du, dass es keinen Unterschied macht ob 3200er CL16 oder 3000er CL15?

w0mbat
2019-12-01, 23:33:32
nene, zen+ machte nahezu jeder min. 3466 mit... selbst zen1 machten viele 3466...
Genau, deshalb schaffen viele nichtmal 3200... :freak:

SKYNET
2019-12-02, 00:12:34
Genau, deshalb schaffen viele nichtmal 3200... :freak:

wäre mir aber neu, das irgendwer mit b-die nicht min. 3400 fahren konnte, egal ob zen1 oder zen+... bei den meisten war ja das problem, das sie die V-SoC hochgezogen haben... aber zen1/+ mochte das garnicht in den meisten fällen... mit default SoC kam ich auch nur bis 3000MHz... kaum SoC auf 0.95V gesenkt, liefen 3600 und knackte den weltrekord :tongue:

w0mbat
2019-12-02, 00:13:24
Wer redet über B-die? Das Thema ist billiger RAM.

Screemer
2019-12-02, 00:17:15
wäre mir aber neu, das irgendwer mit b-die nicht min. 3400 fahren konnte, egal ob zen1 oder zen+...

Da meld ich mich doch einfach mal als Herr irgendwer.

SKYNET
2019-12-02, 00:20:10
Wer redet über B-die? Das Thema ist billiger RAM.

wen interessiert billiger abfall-gammel-ram? ich habe 300€ auf den tisch gelegt damals, für meinen 2x8GB 4266er...

http://m.quickmeme.com/img/73/73abfb5a1919a9631f4dfca890e710ed8157a92f72c4f31552040f7806cd2959.jpg

;D ;D ;D

SKYNET
2019-12-02, 00:24:27
Da meld ich mich doch einfach mal als Herr irgendwer.

gib mir die CPU und ich beweise dir, das es ein userfehler war... wie in 99.9% der fälle :wink:

Screemer
2019-12-02, 00:26:53
Klar. Bist der King.

SKYNET
2019-12-02, 00:31:51
Klar. Bist der King.

ich glaube in sachen OC macht mir keiner was vor, herzchen :love3:

bist ja auch schon lange genug dabei, um zu wissen WER ich bin, WAS ich kann, und WO mein name überall auf platz 1 stand.

Screemer
2019-12-02, 01:09:36
Ich sag ja der King im Block äh radlladen. Goldensample... Warum musst du dich eigentlich jedes mal so aufspielen?

Denniss
2019-12-02, 01:18:09
Ich hatte im hardwareluxx gelesen, dass eher das 3000er CL15 Kit empfohlen wird.
Ist da die Chance größer gute e-dies zu bekommen oder denkst du, dass es keinen Unterschied macht ob 3200er CL16 oder 3000er CL15?der 3200er ist besser da er gleich 3200 ohne Basteln abietet. Zudem ist der für Stabilität wichtige Gear Down Mode standardmäßig an, bei 3000 CL15 ist der aus.

Tesseract
2019-12-02, 01:31:11
die 3000er haben niedrigere absolute latenzen im XMP und sind dementsprechend wahrscheinlich besser gebinnt. der takt ist ziemlich egal, da schaffen sowieso beide mehr und GDM ist deswegen aus weil damit nur gerade CL einstellbar sind, also 14 oder 16. für manuelles tuning zählt beim kauf nur das binning weil man damit wahrscheinlich bessere chips bekommt.

Lehdro
2019-12-02, 16:21:40
wäre mir aber neu, das irgendwer mit b-die nicht min. 3400 fahren konnte, egal ob zen1 oder zen+...
Los komm her und stell das bei mir stabil ein, damit auch Karhu ordentlich durchläuft. Denn Booten und zocken kann ich mit 3466 locker, aber spätestens Karhu spuckt Fehler aus :redface:

Ist definitiv B-Die :)

RainingBlood
2019-12-02, 16:46:27
Samsung B-Die ist nicht gleich B-Die. PCGH hat da schon richtige OC Krüppel getestet und den Ratschlag gegeben, keinen B-Die RAm zu kaufen, der mit schlechten Timings "beworben" wird (Wenn man OC im Sinn hat).

Denniss
2019-12-02, 17:52:30
die guten B-die müssten 3200 CL14 oder 3600 CL16 sein, mit schlechteren Timings ist halt Mist.

Chrisch
2019-12-02, 18:35:38
Kann man so nicht pauschalisieren. Meine TridentZ sind auch 3600 17-18-18-38 spezifiziert und trotzdem mMn eher gute als schlechte B-Dies ;)

eLw00d
2019-12-02, 18:37:14
Was schaffen die denn so bei dir?

Screemer
2019-12-02, 18:44:43
Wirklich schlechte b-dies sehen so aus:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67548&d=1566434636

Freestaler
2019-12-02, 18:56:26
Ich glaub meine sind schlechter ,4133-19-21-21,was 9.2 bis 10.2ns ergibt. Mit 3800x nun 3708-16-18-18. Und dummerweisse hilft Spannung (1.6v) nicht wirklich. @Skynet, ich will sowieso noch 2x16 holen. Willst meine jetztigen BDie zum Testen?

Tante Edit: Ja, das sind meine schlechter oder gleichschlecht ;-) Aufjedenfall habe ich diesmal keine Stress neu zu kriegen (Wobei ich zwischen 3200Cl14, 3600Cl16 BDie und Micro EDie am überlegen bin, Dimm Höhe ist auch noch so ein Thema). das Letztemal musste es schnell gehen und da nahm ich was da war an BDies.

SKYNET
2019-12-02, 19:44:23
Samsung B-Die ist nicht gleich B-Die. PCGH hat da schon richtige OC Krüppel getestet und den Ratschlag gegeben, keinen B-Die RAm zu kaufen, der mit schlechten Timings "beworben" wird (Wenn man OC im Sinn hat).

korrekt... habe auch sone krüppel liegen... patriot viper, mehr als 3400 stabil mit C16 sind bei 1.5V nicht drinnen... und das liegt an keiner CPU von mir, die machen alle min. 3600MHz :cool:

Screemer
2019-12-02, 19:46:33
Ich glaub meine sind schlechter ,4133-19-21-21,was 9.2 bis 10.2ns ergibt. Mit 3800x nun 3708-16-18-18. Und dummerweisse hilft Spannung (1.6v) nicht wirklich. @Skynet, ich will sowieso noch 2x16 holen. Willst meine jetztigen BDie zum Testen?
das sind 3200er ;)

Freestaler
2019-12-02, 20:27:53
das sind 3200er ;)
Aber keine CL14-14-14? Kann ja fast nicht sein.

Benutzername
2019-12-02, 20:48:26
Wirklich schlechte b-dies sehen so aus:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67548&d=1566434636

10er timings? Wie das? :eek:

Screemer
2019-12-02, 20:56:06
Das sind ns.

Benutzername
2019-12-02, 21:17:17
Das sind ns.

Oh stimmt. HAbe nix gesagt. :redface:

senator
2020-01-01, 11:16:13
Bei CB wurde gepostet das es den 1600 jetzt als Zen+ gibt, und er ist auch bei Geizhals gelistet.
https://geizhals.de/amd-ryzen-5-1600-12nm-yd1600bbafbox-a2201923.html?show_description=1

Denniss
2020-01-01, 11:28:38
Schon seit Weihnachten bekannt:
https://wccftech.com/first-gen-amd-ryzen-cpus-are-appearing-with-12nm-zen-architecture/

konkretor
2020-01-01, 13:33:36
https://www.golem.de/news/zen-amd-verkauft-ryzen-5-1600-mit-flotteren-cpu-kernen-2001-145799.html

Denniss
2020-01-01, 13:51:07
warum den Wiederkäuer verlinken und nicht den zitierten Test ?
https://www.planet3dnow.de/cms/53613-amd-spendiert-ryzen-5-1600-pinnacle-ridge-dies-zen/

Daredevil
2020-01-01, 13:56:04
Ui. nett. :)

dargo
2020-01-01, 14:04:03
Der P/L Sieger schlechthin, dagegen sieht selbst die gesamte Ryzen 3000 Reihe schlecht aus.

Odal
2020-01-01, 14:14:09
Und wo ist der Unterschied zum 2600 (mal von ein paar Mhz Takt abgesehen)?

DeadMeat
2020-01-01, 14:14:14
Nur der import 3500er aus China kann da etwas gegenhalten, allerdings mit deutlich mehr aufwand und Risiko.

Und wo ist der Unterschied zum 2600 (mal von ein paar Mhz Takt abgesehen)?

Laut p3now nichts außer 25€ weniger Listenpreis und eben die mhz.

Screemer
2020-01-01, 14:58:48
hab mir jetzt mal einen bestellt. als ersatz für meinen doch etwas krüppeligen 1600x. mal schauen ob ich ihn behalten werde oder der 1600x bis zur 4000er serie doch im im rechner bleibt. nach verkauf des 1600x könnte das ein nullsummenspiel werden.

aufkrawall
2020-01-01, 15:01:46
Schätze, es lohnt den Aufwand nicht. Ich kann mich nur wiederholen, dass die paar Taler mehr für einen 3600 absolut gut angelegt wären. Das ist so wenig Geld, und in manchen Anwendungen und Spielen ist der Unterschied schon arg spürbar.

Daredevil
2020-01-01, 15:03:37
Meinte, das geht sich gegen Null aus?
Würde mich wundern, wenn du den alten 1600x noch für um die 50-60€ los wirst, mehr doch nicht.
Aber trotzdem sicherlich ein gutes Sidegrade, wenn du gerade im CPU Limit bist, wie ich auch schon mit meinem 1600er ab und an.
( Ich hab ja glücklicherweise nen 2700x hier im Forum fürn Hunni erschnappert, da habe ich nicht nur SC, sondern auch mehr Kernö )

Wir kommen uns dann auf jeden Fall bald beim Verkauf des 1600 in den Weg. Preisabsprache per PM? :D ^^

Screemer
2020-01-01, 15:08:12
Schätze, es lohnt den Aufwand nicht. Ich kann mich nur wiederholen, dass die paar Taler mehr für einen 3600 absolut gut angelegt wären. Das ist so wenig Geld, und in manchen Anwendungen und Spielen ist der Unterschied schon arg spürbar.
der preis liegt bei +100%. in relation dazu sind das halt mehr als nur ein paar taler.

Meinte, das geht sich gegen Null aus?
Würde mich wundern, wenn du den alten 1600x noch für um die 50-60€ los wirst, mehr doch nicht.

dann schauste mal auf ebay und wirst staunen, dass die dinger zwischen 85 und 100+€ verkauft werden. zwecks kostenoptimierung werd ich den auch nicht hier im board anbieten ;(

aufkrawall
2020-01-01, 15:13:26
der preis liegt bei +100%. in relation dazu sind das halt mehr als nur ein paar taler.

Für PC-Hardware insgesamt ist es sehr wenig, außerdem könnte man noch den Wiederverkaufswert für Zen 3 einpreisen. Dann sinkt der Veraufswert des 1600 noch weiter.

SKYNET
2020-01-01, 15:25:50
Nur der import 3500er aus China kann da etwas gegenhalten, allerdings mit deutlich mehr aufwand und Risiko.



Laut p3now nichts außer 25€ weniger Listenpreis und eben die mhz.


und nur 6 fäden, gibt tatsächlich spiele wo der 3500X hinter nen 2600X fällt...

SKYNET
2020-01-01, 15:29:12
Der P/L Sieger schlechthin, dagegen sieht selbst die gesamte Ryzen 3000 Reihe schlecht aus.

laut igor, macht AMD das in erster linie um intel weiterhin ans bein zu pissen, da schneller als die i3 bei gleichem preis, normal würden die dinger sonst in der tonne landen, weil ryzen 1000 ist EOL :biggrin:

dargo
2020-01-01, 15:31:04
Schätze, es lohnt den Aufwand nicht. Ich kann mich nur wiederholen, dass die paar Taler mehr für einen 3600 absolut gut angelegt wären. Das ist so wenig Geld, und in manchen Anwendungen und Spielen ist der Unterschied schon arg spürbar.
Ich bin ja vom R5 1600 @3,8Ghz auf den R5 3600 gewechselt. Im nachhinein war das reiner Spaßkauf. Außer in AC: O ist für mich persönlich in keinem Spiel der Umstieg spürbar. Selbst in AC: O ist die Spürbarkeit gering. Der Hype war größer als der spürbare Performancezuwachs. ;) Ok... ich habe einen guten B-Die. Mit Budget-Speicher ist Ryzen 3000 weniger im Nachteil als noch 1000/2000.

laut igor, macht AMD das in erster linie um intel weiterhin ans bein zu pissen, da schneller als die i3 bei gleichem preis, normal würden die dinger sonst in der tonne landen, weil ryzen 1000 ist EOL :biggrin:
Ist auch ein guter Schachzug. Im Prinzip der beste Einstieg in PC-Gaming im low Budget.

und nur 6 fäden, gibt tatsächlich spiele wo der 3500X hinter nen 2600X fällt...
Wo soll das der Fall sein?

Typ_pHOjYzM

Im Prinzip ist es völlig latte was von den 3 CPUs im Rechner steckt. Liegen eh alle drei nah beieinander. Ich betrachte das übrigens aus Sicht von einem normalen Spieler. Für den einen oder anderen 3DC-eler sind ja bereits +/-5% kriegsentscheidend wo man sich dann seitenlang die Rübe einhaut. :wink:

aufkrawall
2020-01-01, 16:01:29
Ich bin ja vom R5 1600 @3,8Ghz auf den R5 3600 gewechselt. Im nachhinein war das reiner Spaßkauf. Außer in AC: O ist für mich persönlich in keinem Spiel der Umstieg spürbar. Selbst in AC: O ist die Spürbarkeit gering. Der Hype war größer als der spürbare Performancezuwachs. ;) Ok... ich habe einen guten B-Die. Mit Budget-Speicher ist Ryzen 3000 weniger im Nachteil als noch 1000/2000.

Du verallgemeinerst mal wieder "deine Spiele" = "Spiele".

dargo
2020-01-01, 16:07:16
Ich verallgemeinere gar nichts. Ich spreche aus der eigenen Erfahrung. Und da habe ich sogar in Settings geschaut mit denen kein normaler Spieler heute noch zockt. Aber ich freue mich schon auf die seitenlangen Diskussionen dieses Jahr zum Ryzen 4000 wo dann Ryzen 3000 zum Elektroschrott im 3DC deklariert wird weil ersterer u.U. 10-15% in 720p in gestellten Szenen schneller ist und dadurch alles ohne Ryzen 4000 im Rechner unspielbar ist. :tongue: Ich frage mich ernsthaft was die ganzen Steam-User mit ihren alten Quadcores zocken? Außer Tetris dürfte damit ja heute nichts mehr laufen.

aufkrawall
2020-01-01, 16:10:39
Du kannst auch BF5 BR für 144Hz Target nehmen. Gut, ist ein Scheißspiel und läuft auch mit 16T auf anderen Maps wie unsauberer Schrott. Ändert aber nichts daran, dass es solche Fälle gibt. Wie viel einem das wert ist, ist eine gänzlich andere Frage. Trotzdem ist Zen 2 deutlich besser.

SKYNET
2020-01-01, 16:11:56
Ich bin ja vom R5 1600 @3,8Ghz auf den R5 3600 gewechselt. Im nachhinein war das reiner Spaßkauf. Außer in AC: O ist für mich persönlich in keinem Spiel der Umstieg spürbar. Selbst in AC: O ist die Spürbarkeit gering. Der Hype war größer als der spürbare Performancezuwachs. ;) Ok... ich habe einen guten B-Die. Mit Budget-Speicher ist Ryzen 3000 weniger im Nachteil als noch 1000/2000.


Ist auch ein guter Schachzug. Im Prinzip der beste Einstieg in PC-Gaming im low Budget.


Wo soll das der Fall sein?

https://youtu.be/Typ_pHOjYzM

Im Prinzip ist es völlig latte was von den 3 CPUs im Rechner steckt. Liegen eh alle drei nah beieinander. Ich betrachte das übrigens aus Sicht von einem normalen Spieler. Für den einen oder anderen 3DC-eler sind ja bereits +/-5% kriegsentscheidend wo man sich dann seitenlang die Rübe einhaut. :wink:


https://www.techspot.com/review/1966-amd-ryzen-5-3500x/

DeadMeat
2020-01-01, 16:14:16
und nur 6 fäden, gibt tatsächlich spiele wo der 3500X hinter nen 2600X fällt...

Das hatte ich bisher noch nicht gesehen, ich dachte bei 6Kerner ist der fehlende SMT bisher nicht zu merken. Hast du da beispiele ? Ich wollt mir aus Spaß vielleicht einen bestellen.

aufkrawall
2020-01-01, 16:17:08
Das hatte ich bisher noch nicht gesehen, ich dachte bei 6Kerner ist der fehlende SMT bisher nicht zu merken. Hast du da beispiele ? Ich wollt mir aus Spaß vielleicht einen bestellen.
Das ist schon lange bekannt, bereits in älteren Tests des BF5 SP von HU loseten die 6C Intels ohne HTT bei den low-fps ab.
6C 6T sind ok für Mini-ITX-Kisten, die nicht für Spiele genutzt werden. Ansonsten aber nicht.

DeadMeat
2020-01-01, 16:20:04
Jo tatsache, darauf hatte ich nich geachtet. Das macht dann selbst aus Bastelgründen eher wenig Sinn. Hätte nicht gedacht das es so schnell schon auswirkungen hat.

dargo
2020-01-01, 16:29:18
https://www.techspot.com/review/1966-amd-ryzen-5-3500x/
Völlig unglaubwürdige Ergebnisse teilweise.

Edit:
AC: O wäre für mich noch nachvollziehbar wenn der 2600X mit einer Geforce minimal vor dem 3500X liegt. Die Treiberlast kann Nvidia in diesem Spiel recht gut auf mehr Threads auslagern. Aber was haben die da bei BF V gemessen? Ein 6 Threader @i5-9600K verliert von 1080p auf 1440p mit der 2080TI bei 1% low 7%. Schon das ist komisch, es sei denn die Szene ist eher gpu-limitiert. Nur wenn das der Fall ist wie kann dann ein 3500X in der gleichen Szene 19% verlieren? Das ergibt überhaupt keinen Sinn. Treiberfuckup? Test-System im Arsc...? Ähnliches sieht man bei denen in SotTR. Die Intel-CPU verliert 3% während die AMD CPU in einer höheren Auflösung in einem CPU-Test (:freak:) 12% verliert.

Division 2 ist dann richtig geil. :D Intel verliert 16%, AMD 3%. X-D Und der Hit dabei... bei den avgs. ist plötzlich ein i5-9600K langsamer als ein i5-9400F in 1440p. :uconf2: ;D Ich finde das immer toll wenn irgendwelche Reviewer was messen ohne die Sinnhaftigkeit der Ergebnisse zu hinterfragen. :usweet: Klickbaits ahoi! :uup:

Linmoum
2020-01-01, 16:31:11
Ja. So unglaubwürdig, dass selbst bei CB der 3600 in FHD ~25% flotter als der 2600 (nicht 1600) ist und auch PCGH in "gestellten 720p" auf +30% für den 3600 kommt - ebenfalls zum 2600.

Der schnellere Speicher @Stock hilft natürlich auch, man muss die deutlichen Unterschiede aber auch nicht wegreden, die nachweisbar vorhanden sind.

dargo
2020-01-01, 16:51:17
Oh man... lese dir nochmal durch wie mein R5-1600 lief. Im schlimmsten Fall läuft der @Default mit 3,4Ghz. Das sind schon 10% weniger Takt als meine CPU. Als weiteres hatte die CPU B-Dies als Partner mit scharfen Timings/Subtimings. Wenn man natürlich Stock vs. Stock vergleicht (auch beim Speicher und dann sogar mit unterschiedlichen Frequenzen) wird der Vorteil im absoluten CPU-Limit logischerweise größer als meine +22% ausfallen.

Odal
2020-01-01, 18:30:03
Laut p3now nichts außer 25€ weniger Listenpreis und eben die mhz.

So ganz verstehe ich halt nicht warum das Ding mit DDR4-2666 statt DDR4-2933 wie beim 2600er angegeben wird. AMD hätte das Ding ja auch 2500er nennen können - käme dann auch noch etwas frischer rüber.

Ich bin ja vom R5 1600 @3,8Ghz auf den R5 3600 gewechselt. Im nachhinein war das reiner Spaßkauf. Außer in AC: O ist für mich persönlich in keinem Spiel der Umstieg spürbar. Selbst in AC: O ist die Spürbarkeit gering. Der Hype war größer als der spürbare Performancezuwachs. ;) Ok... ich habe einen guten B-Die. Mit Budget-Speicher ist Ryzen 3000 weniger im Nachteil als noch 1000/2000.

Das habe ich mich schon gefragt warum du von einem 1600 auf einen 3600 gewechselt bist, denn das lohnt (zumindest da das meiste eh GPU limitiert ist) nicht.

Wenn man nicht gerade Hochfrequenz Gamer ist, dann langt sogar noch der übertaktete 10 Jahre alte erste i5 für das Meiste.

dargo
2020-01-01, 18:40:21
Das habe ich mich schon gefragt warum du von einem 1600 auf einen 3600 gewechselt bist, denn das lohnt (zumindest da das meiste eh GPU limitiert ist) nicht.

Hat mich nur 116€ gekostet, von daher wayne. Aber stimmt schon... hätte ich mir auch sparen können und dann direkt auf Ryzen 4000 gehen.

SKYNET
2020-01-01, 21:19:29
Oh man... lese dir nochmal durch wie mein R5-1600 lief. Im schlimmsten Fall läuft der @Default mit 3,4Ghz. Das sind schon 10% weniger Takt als meine CPU. Als weiteres hatte die CPU B-Dies als Partner mit scharfen Timings/Subtimings. Wenn man natürlich Stock vs. Stock vergleicht (auch beim Speicher und dann sogar mit unterschiedlichen Frequenzen) wird der Vorteil im absoluten CPU-Limit logischerweise größer als meine +22% ausfallen.


also, ums kurz zu machen: mein 2700X auf 4.5GHz und mit bedeutend besseren speicher als du ihn hast, war genau 1-2% schneller als der 3600 auf 4.2GHz mit gleichen speichertakt und timings... da dein 1600 aber sicherlich keine 4.5GHz macht, wird er beudeutend langsamer sein als der 3600 es zb. auf 4.2GHz wäre.... hinzu kommt, das die timings bei zen1/+ deutlich besser reinhauen als bei zen2. ;)

Daredevil
2020-01-01, 21:33:45
Das habe ich mich schon gefragt warum du von einem 1600 auf einen 3600 gewechselt bist, denn das lohnt (zumindest da das meiste eh GPU limitiert ist) nicht.


Der Crytek RT Benchmark ist in WQHD auch CPU limitiert bei mir. :D
Aber ja, zu 90% reicht die Kiste noch aus.
Es ist nur arg peinlich, wenn man in 4K mit einer 2080ti dann ( z.B. bei Jedi Fallen Order ) im CPU Limit landet, weil 4Ghz nicht ausreichen für über konstant 80fps.

Von 1600 auf 3600 ist imho schon ein krasser Schritt, der eben auch nicht viel kostet. Von 2600 auf 3600 wiederum ist ne andere Geschichte. ( Von 1600 auf 2600 ist ja auch nicht Weltbewegend. )

dargo
2020-01-01, 21:48:53
Der Crytek RT Benchmark ist in WQHD auch CPU limitiert bei mir. :D

Zockst du schon oder benchmarkst du noch?

btw.
Welche Aussagekraft soll Neon Noir überhaupt haben? Die ist gleich Null. In dem Quatsch ist hier selbst die 150W Navi 10 durch den R5 3600 offenbar limitiert. Denn das Powerlimit wird nicht durchgehend ausgeschöpft und der GPU-Takt ist um die 100Mhz höher als sonst in Games.

Edit:
Wenn du natürlich mit einer 2080Ti unterwegs bist dann kann etwas mehr Bums unten rum durch den 3600 nicht schaden. Wenn du allerdings in 4k zockst relativiert sich das dann wieder schnell.


Es ist nur arg peinlich, wenn man in 4K mit einer 2080ti dann ( z.B. bei Jedi Fallen Order ) im CPU Limit landet, weil 4Ghz nicht ausreichen für über konstant 80fps.

Peinlich ist höchstens die UE4, die immer noch mit winziger Ausnahme auf DX11 rumeiert. Hat überhaupt einer außer von Microsoft Interesse die UE4 mit DX12 auszuliefern?

=Floi=
2020-01-01, 22:32:14
dich sollte man wirklich einfach auf ignor setzen.

Odal
2020-01-01, 23:00:58
Es ist nur arg peinlich, wenn man in 4K mit einer 2080ti dann ( z.B. bei Jedi Fallen Order ) im CPU Limit landet, weil 4Ghz nicht ausreichen für über konstant 80fps.

Puh naja nur 80FPS in einem Singleplayer Game würde ich nicht als peinlich bezeichnen. 60FPS Limiter rein und gut? (spart Strom und schont die Umwelt und ein wenig auch den Geldbeutel)


Von 1600 auf 3600 ist imho schon ein krasser Schritt, der eben auch nicht viel kostet. Von 2600 auf 3600 wiederum ist ne andere Geschichte. ( Von 1600 auf 2600 ist ja auch nicht Weltbewegend. )

("nicht Weltbewegend" - x) + "nicht Weltbewegend" = krass :confused:

Da habe ich aber einen anderen Maßstab (ok wenn ich bedenke wieviel CPUs einige in den letzten 10-11 Jahren gewechselt haben :tongue:)

Benutzername
2020-01-02, 02:57:41
edit: ich sehe ich bin viel zu spät dran

dildo4u
2020-01-02, 06:26:12
Es ist nur arg peinlich, wenn man in 4K mit einer 2080ti dann ( z.B. bei Jedi Fallen Order ) im CPU Limit landet, weil 4Ghz nicht ausreichen für über konstant 80fps.

Die Frametimes sind auch auf einem 9900k nicht sonderlich optimal,eher ein Software als Hardware Problem.

Ohne OC 60-90 fps mit Intels 500€ CPU.

https://www.pcgameshardware.de/Star-Wars-Jedi-Fallen-Order-Spiel-61743/Specials/PC-Test-Benchmark-Review-Steam-1337230/2/#a1


Ich hab mir grad Borderlands 3 gekauft und es läuft komplett sauber in DX12,ein AAA Team sollte das mittlerweile gebacken bekommen.

Rancor
2020-01-02, 08:26:56
Bin auch am überlegen ob ich von dem 1600 @ 3,9Ghz mit Krüppel Ram ( 3200er Hynix@3000CL14 weil es sonst crasht ) wechsel. Aber selbst mit Krüppelram bin ich in WQHD mit der 2080 sogut wie nie im CPU Limit. Also wäre es ergo Schwachsinn, andererseits wiederum hätte ich schon Bock auf nen 3700x :D

Daredevil
2020-01-02, 08:44:05
("nicht Weltbewegend" - x) + "nicht Weltbewegend" = krass :confused:

Da habe ich aber einen anderen Maßstab (ok wenn ich bedenke wieviel CPUs einige in den letzten 10-11 Jahren gewechselt haben :tongue:)
Ist halt schon ein Unterschied.
1600 > 2600 sind ca. 25%
2600 > 3600 sind ca. 20%

Im CPU Limit bei 80fps sinds vom 1600 auf 2600 dann 100FPS - +20FPS
Im CPU Limit bei 100fps sinds vom 2600 auf 3600 dann 120FPS - +20FPS
Im CPU Limit bei 80fps sinds vom 1600 auf 3600 dann 120FPS - +40FPS

Also ich muss ja nicht groß rechnen, der Umstieg ist halt lohnenswerter, deutlich. ^^
Ich hab haltn 120hz Screen und der will befeuert werden, bei ner 60hz Möhre wäre das alles in grünem Bereich, klar.

@dargo
Ich zocke gerade Chrono Trigger auf dem AppleTV. :D

@dildo4u
Frametimes sind dank Laderucklet eh mistig, aber die avg FPS meine ich schon. Slowdowns sind an manchen Stellen halt nicht schön.

Freestaler
2020-01-02, 08:46:05
@Rancor, bock reicht vollkommen ;-). Zumindest von nem 1700@3,9@3466cl16 auf nen 3800x@3700cl14. Macht einfach Laune wieder mal was zum Basteln zu haben. Lego technics ist da nicht günstiger und zumindest bei mir steht das nach dem basteln nur rum.

dargo
2020-01-02, 10:35:30
Jetzt verstehe ich auch den neuen R5 1600 in 12nm.
https://www.anandtech.com/show/13915/amd-amends-agreement-with-globalfoudries-set-to-buy-wafers-till-2021

Da sind sicherlich paar Kapazitäten bei GF frei geworden. Wäre zumindest naheliegend.

Ist halt schon ein Unterschied.
1600 > 2600 sind ca. 25%
2600 > 3600 sind ca. 20%

Hast du die Prozentwerte jetzt einfach frei Schnauze verdoppelt? :freak:
wJguDHmytaE

PS: bei BF V stimmt da was mit Zen+ nicht.

Oder das hier, da hat man gleich Intel auch dabei, ist allerdings OC bei AMD.
j8iZEWGYWok

dargo
2020-01-02, 10:59:33
dp

Odal
2020-01-02, 11:36:29
Ist halt schon ein Unterschied.
1600 > 2600 sind ca. 25%
2600 > 3600 sind ca. 20%


zw. Zen u. Zen+ sollte ein viel geringerer Unterschied als zw. Zen+ und Zen2 sein (nicht umgekehrt).


Also ich muss ja nicht groß rechnen, der Umstieg ist halt lohnenswerter, deutlich. ^^
Ich hab haltn 120hz Screen und der will befeuert werden, bei ner 60hz Möhre wäre das alles in grünem Bereich, klar.


Hat der kein FreeSync? Oder kann man da keinen 60Hz Modus einstellen? (dann solltest du mal mit CRU nachbessern). Die meisten Singleplayer Games lasse ich mit Radeon Chill 30-60 laufen. So ganz erschließt sich mir da nicht was einem mehr als 60Hz im Singleplayer bringen :confused:

w0mbat
2020-01-02, 11:45:13
Laut CB sind es von 1600X auf 2600X ca. 14% Mehrleistung und von 2600X auf 3600X ca. 18% (1080p, Frametimes). Der 3600X ist 34% schneller als der 1600X. Interessant finde ich auch, dass der 2600X ca. 10% vor dem 2600 liegt, 3600X und 3600 aber fast gleich auf.

Air Force One
2020-01-02, 12:05:56
was sagt ihr? den neuen 1600er für 100€ oder einen 2700X gebraucht für 100€ inkl?

Screemer
2020-01-02, 12:08:22
2700x. was gibt's da zu überlegen?

M4xw0lf
2020-01-02, 12:20:39
was sagt ihr? den neuen 1600er für 100€ oder einen 2700X gebraucht für 100€ inkl?
Der "neue" 1600 hätte doch auch maximal die Techstufe des 2700. Da gibts in der Tat nichts zu überlegen, solange das Angebot für letzteren seriös erscheint.

Air Force One
2020-01-02, 12:35:14
Ja ist ein privates Angebot von einem Kumpel. Ich fand die Frage eher schwer daher hab ich euch gefragt. zwischen dem 2700 und 2700X ist ja auch kein großer Unterschied.
Wollte eigentlich den "neuen" 1600 oder den 3600. der 3600 ist ja schneller als die beiden aber vom Preis auch her doppelt so teuer aber nicht doppelt so schnell...

Zergra
2020-01-02, 12:52:19
Sehe da nicht soviel Sinn drinnen. Lieber im Sommer dann auf Zen3 wechseln.

=Floi=
2020-01-02, 16:37:43
edit: ich sehe ich bin viel zu spät dran

sylvester? :ugly:
War dein intel zu langsam?!

Benutzername
2020-01-02, 18:28:45
sylvester? :ugly:
War dein intel zu langsam?!

Nö, mein übertakteter Phenom II. :P


Aber um was zum neuen Ryzen 1600 noch beizutragen: warum heißt der genauso wie der andere und nur die aufgedruckte Bestellnummer ist anders in einem einzigen Buchstaben? Verkauft AMD so viele Ryzen 1600 an OEMs, daß denen die Zen1 Chips ausgegangen sind?

dildo4u
2020-01-02, 18:39:46
Könnte einfach der Ausschuss sein der den 2600 Takt nicht packt.

dargo
2020-01-02, 19:25:00
Das merkt man erst nach fast 21 Monaten? :freak:

Linmoum
2020-01-02, 19:56:43
Das scheint man schon deutlich früher gemerkt zu haben, die Meldungen gibt es nur erst jetzt zu dem Thema ;).

Wenn ich die Beschriftung auf unserem Heatspreader richtig deute, wurde das Die bereits in KW 12 des Jahres 2019 belichtet, also etwa im März 2019. Das sind also keine, die erst kürzlich produziert und noch schnell vor Jahresende abgenommen werden müssen, sondern welche, die schon ein Dreiviertel Jahr auf Halde liegen.
https://www.planet3dnow.de/vbulletin/threads/434828-AMD-spendiert-Ryzen-5-1600-Pinnacle-Ridge-Dies-Zen-?p=5265212&viewfull=1#post5265212

dildo4u
2020-01-03, 07:25:38
Laut dem wird der alte 1600 nicht mehr produziert.All Core liegt über 3.6Ghz vs 3.3Ghz beim alten 1600.
Es macht jetzt kein sinn mehr 2600 zu kaufen.

wRO_AUdmfis

dargo
2020-01-03, 09:51:18
Lol... durch den neuen R5 1600 ist das P/L von Ryzen 3000 noch schlechter geworden. :freak: Zwischen 17% und 25% ist nur noch der R5 3600 schneller als der neue R5 1600 bei den Games von GN. Im Schnitt also ~20%.

btw.
Bin gespannt wann der nächste Shitstorm kommt weil die CPU zu hoch boostet als von AMD angegeben. ;D

Karümel
2020-01-03, 11:10:57
Lol... durch den neuen R5 1600 ist das P/L von Ryzen 3000 noch schlechter geworden. :freak: Zwischen 17% und 25% ist nur noch der R5 3600 schneller als der neue R5 1600 bei den Games von GN. Im Schnitt also ~20%.


Hast Du weitete Test parat?

dargo
2020-01-03, 11:11:44
Hat doch dildo verlinkt. :confused:

Achso... weitere Tests... nein.

Edit:
Eine Sache verwundert mich bei GN etwas, die 3,3Ghz Boost. Ich hatte hier nie weniger als 3,4Ghz @Stock beim alten R5 1600 gesehen. Auch nicht in Prime95 was mehr heizt als Cinebench.

davidzo
2020-01-03, 22:44:59
Nö, mein übertakteter Phenom II. :P


Aber um was zum neuen Ryzen 1600 noch beizutragen: warum heißt der genauso wie der andere und nur die aufgedruckte Bestellnummer ist anders in einem einzigen Buchstaben? Verkauft AMD so viele Ryzen 1600 an OEMs, daß denen die Zen1 Chips ausgegangen sind?


Ich glaube nicht das es an den schlechten 2600er DIEs liegt, viel eher an der hohen Nachfrage nach dem 1600er. Da muss man kein marketing, keine Neueinführungen machen, wenn die Backorders so groß sind. Außerdem kann man nicht so einfach eine CPU abkündigen, da muss es schon etwas vorlauf geben. Zudem trasht der 1600er gerade noch sehr erfolgreich den i3 8100, also eine der CPUs die bei Intel gut lieferbar sind und auf alten, kleinen DIEs basiert. Es macht also sinn den 1600er nicht zugunsten des 2600ers auslaufen zu lassen, weil man so etwas in dem preisbereich anbieten kann, ohne dass man den Mehrumsatz der Kunden verliert die bereit sind den Aufpreis des 2600ers zu zahlen. Das nennt man Preisdifferenzierung, also ein und dasselbe Produkt zu verschiedenen preisen anbieten um immer das maximum abzugreifen was die Kunden bereit sind dafür auszugeben.



All Core liegt über 3.6Ghz vs 3.3Ghz beim alten 1600.

Hast du falsch verstanden, Steve hat 3399 gesagt, also 3,4Ghz.


Eine Sache verwundert mich bei GN etwas, die 3,3Ghz Boost.
Siehe oben, es sind 3,4Ghz. Sieht man aber eigentlich aus der Grafik auch: In der Mitte zwischen 3200 und 3600 liegt nicht 3300...

Windi
2020-01-03, 23:19:39
Nur weil ich etwas verwirrt bin:
Besteht der neue 1600er jetzt aus dem Zen+ Silizium (12nm) und bekommt einfach nur die alte Zen1 Firmware?


Zen und Zen+ haben ja den selben Schaltplan, kein einziger Transistor hat sich in der Maske geändert. Das heißt, der Neue müßte sich exakt so verhalten wie der Alte, nur das er sich im Durchschnitt minimal besser takten lässt. (Aber beim Alten konnte man ja auch mal Glück haben.)
Der große Fortschritt bei Zen+ war ja die neuere Firmware mit ihren aggressiveren Latenzen. Das könnten dann wirklich Chips sein, die die besseren Timings von Zen+ nicht geschafft haben.