Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020
https://twitter.com/KOMACHI_ENSAKA/status/1135939738496430080
Renoir kommt anscheinend mit der alten Vega GPU und nicht Navi. Hinter der CPU und dem Fertigungsprozess steht noch ein Fragezeichen.
basix
2019-06-04, 21:18:18
Macht für mich keinen Sinn, vor allem wenn RDNA so stromsparend sein soll.
Linmoum
2019-06-04, 21:21:08
Ergibt auch Null Sinn, zumal Renoir sicher nicht vor 2020 kommen wird. Da wird man entsprechend Navi nutzen.
Lehdro
2019-06-04, 22:44:19
https://twitter.com/KOMACHI_ENSAKA/status/1135939738496430080
Renoir kommt anscheinend mit der alten Vega GPU und nicht Navi. Hinter der CPU und dem Fertigungsprozess steht noch ein Fragezeichen.
Das könnte also rein theoretisch bedeuten das Renoir früher als erwartet kommt - ansonsten macht der "Rückschritt" auf Vega nicht wirklich Sinn.
amdfanuwe
2019-06-04, 23:42:45
Tick, Tock?
Mit V20 7nm getestet.
Jetzt mit Renoir 7nm+/6nm EUV testen?
Kann man sich voll auf die Produktionsprobleme konzentrieren und muß nicht auch noch nach Logikfehlern suchen. Zudem hätte man schnell eine sparsame APU für Notebook und embedded ohne Treiberprobleme.
Navi dann erst mit DDR5 in der APU?
Piefkee
2019-06-05, 07:23:48
https://twitter.com/KOMACHI_ENSAKA/status/1135939738496430080
Renoir kommt anscheinend mit der alten Vega GPU und nicht Navi. Hinter der CPU und dem Fertigungsprozess steht noch ein Fragezeichen.
Bei Renoir steht allgemein ein Fragezeichen bei Komachi. Er bezieht sich nur darauf, dass irgendein APU String im Treiber möglicherweise Renoir ist hinter dem GFX9 steht. Ist alles andere als eine feste aussage.
Bei Renoir steht allgemein ein Fragezeichen bei Komachi. Er bezieht sich nur darauf, dass irgendein APU String im Treiber möglicherweise Renoir ist hinter dem GFX9 steht. Ist alles andere als eine feste aussage.
Zu welcher APU soll das ganze dann gehören? Kommt noch ein Zwischenschritt?
Screemer
2019-06-05, 07:46:47
Custom-soc aus dem zmatch? ;)
Piefkee
2019-06-05, 08:06:19
https://twitter.com/KOMACHI_ENSAKA/status/1083437519356612608
https://pbs.twimg.com/media/Dwkkp1_UwAEXyLc.jpg
https://pbs.twimg.com/media/DwkkqdQVsAEoems.jpg
basix
2019-06-05, 08:11:12
Navi benutzt kein IF? Dann könnte das irgendwie passen....
Niall
2019-06-05, 09:41:00
Ich habe irgendwie den Überblick verloren, zwei Fragen:
Ein neuer HEDT Chipsatz als Ersatz für den X399 wird es dieses Jahr geben oder nicht? Die Threadripper sollen ja weitergeführt werden –*kommt da dieses Jahr schon was oder erst 2020? :D
dildo4u
2019-06-05, 09:49:03
X399 bleibt erhalten. https://youtu.be/ml7rHtCHoFE?t=535
Der X570 wird bei Castle Peak sicherlich als X599 zweckentfremdet werden. Das dauert aber noch.
Bezüglich Renoir, ich vermute, dass Vega einfach die flächenmäßig kleinere Variante ist. Man wird denke 14CUs verbauen.
Niall
2019-06-05, 09:57:41
Danke Dir/ Euch. Das MEG X399 Creation ist auch ein nettes Board zusammen mit einem kleinen TR … awww … :D
SKYNET
2019-06-05, 10:07:51
Danke Dir/ Euch. Das MEG X399 Creation ist auch ein nettes Board zusammen mit einem kleinen TR … awww … :D
ich würde da mal warten, würde mich nicht wundern wenn der 3900X in 99% der anwendungen den 2950X einfach mal ganz easy glättet... das 1% das über ist, sind dann die sachen, die mehr speicherbandbreite wollen und der quadchannel, seine muskeln spielen lassen kann. :smile:
dildo4u
2019-06-05, 10:10:33
Siehe das Video oben Zen 2 kommt auch als Threadripper.
Niall
2019-06-05, 10:19:38
Siehe das Video oben Zen 2 kommt auch als Threadripper.
… eben – könnte man also jetzt einen kleinen TR drauf parken und da der Unterbau bleibt, den Prozessor mit Zen 2 upgraden.
BoMbY
2019-06-05, 10:33:14
Bezüglich Renoir, ich vermute, dass Vega einfach die flächenmäßig kleinere Variante ist. Man wird denke 14CUs verbauen.
Es könnte auch sein dass Renoir wider erwarten nicht die 7nm APU ist, sondern einfach eine etwas größere 12mn APU (ähnlich wie dieser Fenghuang Raven).
basix
2019-06-05, 10:51:59
Bei CB gibt es eine aktualisierte CPU-Rangliste:
https://www.computerbase.de/thema/prozessor/rangliste/#abschnitt_die_noch_schnellsten_cpus_fuer_spiele
Überschrift der Spiele-Rangliste:
"Die (noch) schnellsten CPUs für Spiele"
Weiss da jemand vielleicht schon mehr? :D
mironicus
2019-06-05, 11:04:22
Weiss da jemand vielleicht schon mehr? :D
Das Trauma beginnt! Nach so vielen Jahren fällt die letzte Bastion... :freak:
… eben – könnte man also jetzt einen kleinen TR drauf parken und da der Unterbau bleibt, den Prozessor mit Zen 2 upgraden.
Es ist noch nicht klar, ob die alten Bretter wirklich zu Castle Peak (so der Codename des neuen) kompatibel sind. Das wär auf jeden Fall ein gewisses Risiko. Ich würds nicht machen.
Es könnte auch sein dass Renoir wider erwarten nicht die 7nm APU ist, sondern einfach eine etwas größere 12mn APU (ähnlich wie dieser Fenghuang Raven).
Guter Gedanke, darauf wär ich gar nicht gekommen. Aber du hast recht, das würde echt viel Sinn ergeben, wenn das Ding gar nicht 7nm ist.
SKYNET
2019-06-05, 11:14:00
Bei CB gibt es eine aktualisierte CPU-Rangliste:
https://www.computerbase.de/thema/prozessor/rangliste/#abschnitt_die_noch_schnellsten_cpus_fuer_spiele
Überschrift der Spiele-Rangliste:
Weiss da jemand vielleicht schon mehr? :D
wird wohl nne harter schlag in die fresse von intelbase sein, wenn sie nicht mehr ihr geliebtes intelchen auf platz eins haben... sondern AMD in anwendungen UND games den thron inne hat ;D
w0mbat
2019-06-05, 11:36:32
Ich würde die Klappe noch nicht ganz so weit aufreißen, noch kennen wir die Benchmarks nicht. Es ist sehr gut möglich, dass ein 9900K immer noch etwas schneller ist.
dildo4u
2019-06-05, 11:37:50
Jup der Intel ist über 25% weg,man wird Zen 2 dahin bekommen aber nicht mit dem Ram den die meisten Kaufen werden.
Mit DDR4 4000 wirft man die 100€ Preisvorteil des 8 Cores weg.
Evil Ash
2019-06-05, 11:38:44
wird wohl nne harter schlag in die fresse von intelbase sein, wenn sie nicht mehr ihr geliebtes intelchen auf platz eins haben... sondern AMD in anwendungen UND games den thron inne hat ;D
?
AMD ist doch beim Gaming weit abgeschlagen (79,0 zu 99,7). Da reichen selbst 20 % nicht ...
SKYNET
2019-06-05, 11:40:01
Jup der Intel ist über 25% weg,man wird Zen 2 dahin bekommen aber nicht mit dem Ram den die meisten Kaufen werden.
25% vom 2700X... nun rechnen wir mal die 15% IPC drauf + den mehrtakt... winke winke 9900K... der KS kanns evtl. in games wieder mit dem 3800X / 3900X aufnehmen, in anwendungen wird intel nun aber laaaange zeit hinten sein, wieder... ;D
ChaosTM
2019-06-05, 11:45:48
Wenn es nur 20% vom 2700er sind ist der Aufrüstdruck eher gering - spart Geld :)
Ich denke Intel wird noch minimal die Nase vorne haben.
Sind bei den 20% eigentlich die Verlust durch die gestopften Sicherheitslöcher enthalten?
Intel hat da mit 16% ziemlich viele mehr verloren als AMD (3%). K.a. ob sich das auch auf die Spiele Leistung auswirkte.
+15% IPC +7% Tackt (beim 2700X->3900X) = sehr knapp für den 9900K
(abgesehen davon das der 9900K dann in Anwendungen gar kein Land mehr sieht^^)
Berücksichtigt man auch noch die Preise ...
m.f.g. JVC
dildo4u
2019-06-05, 11:48:32
Zum Takt kann man noch nix sagen,ein 2700X läuft nicht mit Boosttakt beim Gameing.Das wird das selbe bei Zen 2 sein,4.6 Ghz Boost könnten 4.3 beim Gameing sein.
Schnoesel
2019-06-05, 11:50:41
Overall erwarte ich auch, dass der 9900k in Games noch leicht vorne sein wird.
Dennoch wird Zen2 wohl mit Abstand das bessere Gesamtpaket sein, da jucken mich die paar % in den Games absolut 0.
Aber warten wir mal ab.
Zum Takt kann man noch nix sagen,ein 2700X läuft nicht mit Boosttakt beim Gameing.
Hm, hab zwar noch nicht viel getestet mit meinem 2700X
aber der klebt nahezu an 4,35Ghz (mit bis zu 4Kernen)
solange nicht mehr als ~50-75% Last anliegen ;)
(also bei allen "SC-Spielen" kann man sagen)
m.f.g. JVC
SKYNET
2019-06-05, 11:55:27
Zum Takt kann man noch nix sagen,ein 2700X läuft nicht mit Boosttakt beim Gameing.Das wird das selbe bei Zen 2 sein,4.6 Ghz Boost könnten 4.3 beim Gameing sein.
bitte was? was sind dann die 4250-4450MHz die meiner bei games anlegt mit XFR/PBO O_o
BlacKi
2019-06-05, 11:57:57
+15% IPC +7% Tackt (beim 2700X->3900X) = sehr knapp für den 9900K
(abgesehen davon das der 9900K dann in Anwendungen gar kein Land mehr sieht^^)
Berücksichtigt man auch noch die Preise ...
m.f.g. JVC
wieso nehmt ihr die 15% ipc für games? wieviel man dafür auf games übertragen kann man noch garnicht ahnen. ausserdem beinhalten die 15%ipc schon schnelleren 3200er ram vs 2666mhz ram. in realen szenarien wird man immernoch 10-15% abstand in den games haben. bei den kleineren versionen mit niedrigerem takt wird der abstand noch größer.
Schnoesel
2019-06-05, 11:59:45
Aber Aber wieso? Ja wieso nicht? Es kommt wohl enorm auf das Game drauf an, wir haben ja ein + von 11%-35% (laut Folien ggenüber Zen+) gesehen. In "den Games" gibts eben nicht. Ich wette es wird Games geben da lässt man sogar einen 9900k hinter sich. Gemittelt wird man wohl etwas zurückliegen. Wayne.
dildo4u
2019-06-05, 11:59:49
bitte was? was sind dann die 4250-4450MHz die meiner bei games anlegt mit XFR/PBO O_o
Bestimmt innerhalb von 105 Watt.:rolleyes: Wenn du schon auf den 9900k für das überfahren des TDP kackst musste hier die selbe Messlatte anlegen.
w0mbat
2019-06-05, 12:03:50
wieso nehmt ihr die 15% ipc für games? wieviel man dafür auf games übertragen kann man noch garnicht ahnen. ausserdem beinhalten die 15%ipc schon schnelleren 3200er ram vs 2666mhz ram. in realen szenarien wird man immernoch 10-15% abstand in den games haben. bei den kleineren versionen mit niedrigerem takt wird der abstand noch größer.
Ne, die IPC behinhaltet ganz sicher keinen schnelleren RAM.
aufkrawall
2019-06-05, 12:05:12
Was soll immer diese hirnrissige Effizienz-Debatte, das ist doch abseits von Notebooks und Mini-ITX einfach nur ein bescheuerter Fetisch...
dildo4u
2019-06-05, 12:06:08
wieso nehmt ihr die 15% ipc für games? wieviel man dafür auf games übertragen kann man noch garnicht ahnen. ausserdem beinhalten die 15%ipc schon schnelleren 3200er ram vs 2666mhz ram. in realen szenarien wird man immernoch 10-15% abstand in den games haben. bei den kleineren versionen mit niedrigerem takt wird der abstand noch größer.
Zen+ unterstützt offizell 2933 der Sprung ist minimal,sie haben die Games vs 2700X nicht 1800x gebencht.
Wenn du schon auf den 9900k für das überfahren des TDP kackst musste hier die selbe Messlatte anlegen.
Witzig ^^
Natürlich räume ich dem 9900K den Mehrverbrauch ein :smile:
(bei rigorosen 95W wäre er jetzt schon fast nur Schrott ^^)
Daher sollte man AMD diesen auch immer einräumen ;)
(aber wenigstens hält sich AMD im Default an seine Angaben)
m.f.g. JVC
ChaosTM
2019-06-05, 12:08:37
der 3700er könnte knapp dahinter, der etwas stromstärkere 3800er dann gleichauf oder mit minimalem Vorsprung rauskommen..
BlacKi
2019-06-05, 12:20:15
Zen+ unterstützt offizell 2933 der Sprung ist minimal,sie haben die Games vs 2700X nicht 1800x gebencht.
ich bezog mich auf den 9900k der mit 2666er gegengebencht wird, aber praktisch keiner ihn mit 2666 betreibt. aber selbst von 2933 auf 3200 ist bei ryzen noch performance zu holen, natürlich keine ganzen 15%.
Ne, die IPC behinhaltet ganz sicher keinen schnelleren RAM.
auf die ipc hat ramtakt sehr wohl einfluss, auch wenn er in den spielen mehr reinbringt.
w0mbat
2019-06-05, 12:22:04
AMD schreibt sehr genau wie sie die 15% mehr IPC ermittelt haben und dort Spiel der RAM keine Rolle.
dildo4u
2019-06-05, 12:30:11
ich bezog mich auf den 9900k der mit 2666er gegengebencht wird, aber praktisch keiner ihn mit 2666 betreibt. aber selbst von 2933 auf 3200 ist bei ryzen noch performance zu holen, natürlich keine ganzen 15%.
Wer hat den 9900k mit 2666 gebencht?AMD hat die Gameing Benches nur gegen den 2700X gemacht,bis auf PUBG was vermutlich GPU Limitiert war.
https://live.staticflickr.com/65535/48006634197_463c4fcbb1_h.jpg (https://flic.kr/p/2g9bxPB)10-1080.e90f1613 (https://flic.kr/p/2g9bxPB) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Es bleibt bis zum Schluss spannend ^^
Mir ist es egal wie die "Tests" ausfallen ...
Der 12Kerner wird gekauft.
Freu mich schon tierisch auf´s spielen mit der CPU...
(was der wohl unter ner guten Wakü schafft ?)
Und der neue "RAM-Teiler" wird auch spannend :biggrin:
m.f.g. JVC
SKYNET
2019-06-05, 14:02:28
Bestimmt innerhalb von 105 Watt.:rolleyes: Wenn du schon auf den 9900k für das überfahren des TDP kackst musste hier die selbe Messlatte anlegen.
spielt garkeine rolle für den 9900k ob er 95W oder ohne TDP limit rennt... der boostet in beiden fällen 1-2C auf 5GHz....
der 2700X aber nicht mit TDP 105W bis 4350MHz bzw. gute bis 4450MHz :P
mironicus
2019-06-05, 14:34:57
Ich bin gespannt auf die Systeme mit denen getestet wird, ob AMD gleich schon Mainboards mit 4000+ MHZ-Speicher verschicken wird?
Linmoum
2019-06-05, 14:40:31
Getestet wird eigentlich überall nur mit den offiziellen Specs, also 3200. Der Rest halt extra als OC-Benchmarks.
SKYNET
2019-06-05, 14:54:59
Getestet wird eigentlich überall nur mit den offiziellen Specs, also 3200. Der Rest halt extra als OC-Benchmarks.
viel wichtiger ist, 7.7 issn sonntag, ab da sollen die CPUs verfügbar sein, hoffe meiner ist dann schon am samstag im kasten... kann ich den ganzen websites am abend die show stehlen, indem ich nen blog aufmache und da mal schnell kohle mit mache mit den ganzen klicks ;D
maximus_hertus
2019-06-05, 15:51:07
Es ist halt die Frage, ob die NDA für Tests auch "erst" am 7.7. endet.Evtl. gibt es die Reviews schon am Dienstag, den 2.7. oder am Mittwoch, den 3.7.. Den Donnerstag, 4.7. würde ich hingegegen nahezu ausschließen.
BoMbY
2019-06-05, 16:18:03
Naja, Vorverkaufsstart und NDA-Deadline wäre schon am 7.7. möglich. Die Online-Artikel kann man ja vorbereiten und auf Timer stellen, dafür müsste prinzipiell niemand am Wochenende arbeiten (wenn deren Software nicht zu doof ist), wobei das natürlich dann noch ein guter Puffer wäre, falls es mal wieder alles zu knapp wird.
https://twitter.com/KOMACHI_ENSAKA/status/1083437519356612608
https://pbs.twimg.com/media/Dwkkp1_UwAEXyLc.jpg
https://pbs.twimg.com/media/DwkkqdQVsAEoems.jpg
Das ist ja dann eine sichere Quelle. Ja außer AMD hat die Einträge absichtlich verfälscht, wovon ich erstmal nicht ausgehe. Wäre schon krass, wenn Renoir immer noch mit der alten Vega kommt, während Intel eine neue Architektur bringt nächstes Jahr.
Linmoum
2019-06-05, 16:20:38
https://browser.geekbench.com/v4/cpu/13405455
Weiterer 3600, diesmal mit DDR4-2133.
Gipsel
2019-06-05, 16:50:13
https://browser.geekbench.com/v4/cpu/13405455
Weiterer 3600, diesmal mit DDR4-2133.
Vielleicht findet ja einer noch ein oder zwei 1866er-Riegel. Oder betreibt ihn mal im Single Channel.:lol:
maximus_hertus
2019-06-05, 16:51:03
Naja, Vorverkaufsstart und NDA-Deadline wäre schon am 7.7. möglich. Die Online-Artikel kann man ja vorbereiten und auf Timer stellen, dafür müsste prinzipiell niemand am Wochenende arbeiten (wenn deren Software nicht zu doof ist), wobei das natürlich dann noch ein guter Puffer wäre, falls es mal wieder alles zu knapp wird.
Dazu ist es in (sehr) vielen Ländern üblich, dass die großen Geschäfte auch Sonntags aufhaben.
Warten wir mal den Montag ab, dann sollte man evtl. etwas mehr wissen.
Niall
2019-06-05, 18:07:25
Interessant ist der 9900K für mich aufgrund der extremen Taktung auf zwei Kernen trotzdem irgendwo. Beispiel: CGI Designer mit 3ds Max, Rendern, klar auf den Task wirfst Du so vielen hochgetaktete Kernen wie Du bekommen kannst (und die Lizenz zulässt), jedenfalls im »klassischen« Modus. 3ds Max an sich ist aber z.T. immer noch so uralt, dass einige vorgelagerte Prozesse schlicht nur auf einem oder zwei Cores abgekaspert werden, ganz zu Schweigen von einigen Plugins. Habe ich also eine Workstation auf welcher ich sowohl Scene-Setup inklusive allem machen muss und nachher kleinere Sachen rausschießen muss, wird der i9 doch attraktiver als die AMDs. Solange man den Aufpreis zahlen will.
Ich spreche hier nicht von 10'000+ € Workstations mit 128GB ECC RAM und 2x 32Cores, sondern von einem Homeoffice-Arbeitsplatz für kleine Sachen mit der Möglichkeit große Dinge woanders rechnen zu lassen. ;)
Ich denke man muss häufig echt schauen was für einen mit bestimmten Anwendungsprofil der beste Kompromiss bzw. das beste Gesamtpaket ist.
aufkrawall
2019-06-05, 18:29:48
Habe ich also eine Workstation auf welcher ich sowohl Scene-Setup inklusive allem machen muss und nachher kleinere Sachen rausschießen muss, wird der i9 doch attraktiver als die AMDs.
Wir sind hier im Zen 2-Thread und kennen dessen Leistung noch gar nicht. :rolleyes:
Niall
2019-06-05, 19:12:41
Wir sind hier im Zen 2-Thread und kennen dessen Leistung noch gar nicht. :rolleyes:
Sorry, hatte mich da etwas verlaufen. :freak:
rentex
2019-06-05, 19:15:19
Drehen langsam alle am Rad...
dargo
2019-06-05, 19:21:40
Ist die Hitze. :D
Niall
2019-06-05, 20:04:55
Schwer erhitZend. :freak: *Ba-Dumm-Tsss*
dildo4u
2019-06-05, 20:14:12
Adored hat ein neues Video krank der Typ beschwert sich das die 7nm CPUs nicht bis 5Ghz Boosten und angeblich verkauft ein AMD nur Schrott 8 Core Dies.
Der sollte mal langsam leise sein mit der ganzen Scheiße die er verzapft hat.
rentex
2019-06-05, 20:33:58
Echt! War doch klar das in der Anfangsphase der Fertigung, keine Wunder vollbracht werden können, ohne eine Herdplatte im Rechner zu haben🤷*♂️
x-force
2019-06-05, 20:44:41
es macht schon sinn, daß die 8kerner nicht das gelbe vom ei sind.
das war schon in den beiden vorigen generationen der fall. die besten wanderten auf threadripper.
bei den 3000ern wird man die besser gehenden chips eben auf den 12kerner setzen, damit hier unter einhaltung der tdp besser geboostet werden kann bzw überhaupt noch 12 kerne bei akzeptablen takt in das thermische budget passen.
mich stört viel mehr, daß der adored typ keine vernünftige aussprache hat, als das was er behauptet. ;)
Lehdro
2019-06-05, 20:52:18
bei den 3000ern wird man die besser gehenden chips eben auf den 12kerner setzen, damit hier unter einhaltung der tdp besser geboostet werden kann bzw überhaupt noch 12 kerne bei akzeptablen takt in das thermische budget passen.
Genau, dass der top 8 Kerner und der 12 Kerner zumindest auf dem Papier recht ähnliche Taktraten und die gleiche TDP aufweisen lässt schon ein bisschen aufhorchen. Wobei wir noch gar nix über die praktischen Taktraten wissen - naja vielleicht kommt ja Montag bissl mehr an Infos. Immer diese Salamitaktik :mad:
mich stört viel mehr, daß der adored typ keine vernünftige aussprache hat, als das was er behauptet. ;)
Ist halt schottisch. Schau dir mal die ersten Videos an, da liegen mittlerweile Welten dazwischen. :redface:
dildo4u
2019-06-05, 20:59:06
Wer sagt denn das der 12 Core fürs Gameing besser ist,die 4.6Ghz Boost könnten schon dazu da sein um den Latenz Nachteil zu überbrücken.
Der 8 Core könnte z.b mit deutlich langsameren Ram auskommen und die selbe Performance zu erzielen.
AMD hat z.b auch den 8 Core genutzt um ihn gegen den 9900k zu stellen in PUBG,könnte ein Hinweis auf Gameing Performance sein.
SKYNET
2019-06-05, 21:07:33
Adored hat ein neues Video krank der Typ beschwert sich das die 7nm CPUs nicht bis 5Ghz Boosten und angeblich verkauft ein AMD nur Schrott 8 Core Dies.
Der sollte mal langsam leise sein mit der ganzen Scheiße die er verzapft hat.
ein dilletantischer versuch seine fake news von den angeblichen preislisten und spezifikationen über ryzen 3000 zu kaschieren ;D
Linmoum
2019-06-05, 21:10:57
"OMG der Boost ist vom 1800X zum 2700X höher angestiegen als vom 2700X zum 3800X wtf hat AMD da gemacht???!!"
"Vega20 taktet 20% höher aber der Base Clock vom 3800X ist nur 8% höher als der vom 1800X wtf AMD???!!"
Zudem ist er nicht beeindruckt und sagt, dass (von dem, was er so liest) auch nur wenige beeindruckt sind. Aha. Zwar Schwachsinn, aber ok (dass manche weniger beeindruckt sind, weil er mit seinen Fake-Leaks einen unsäglichen Hype aufgebaut hat und es Leute gibt, die dem ernsthaft geglaubt haben... hey, who cares). Es kommt einfach nur Unfug aus seinem Mund. Traurig eigentlich, dass bei reddit und unter dem Video immer noch so viele Leute ihm die Stange halten.
dildo4u
2019-06-05, 21:19:10
Das mit dem Takt ist echt der Hit,Intel schafft es mit einem massiv höheren Budget nicht die 10nm Modelle auf 14nm+++ Speed zu bringen.Es ist offensichtlich eine Leistung den Takt zu steigern,das kommt nicht automatisch durch den Shrink.
Lowkey
2019-06-05, 21:22:26
Mit AMD News kann man gerade eine Menge Geld verdienen. Das gestrige Video von Hardware Unboxed zum Zen 2 ist relativ lang und provokativ "Too Good to be True, A Recap of The Lead-up to Zen 2". Ich schaue es mir nicht an. Adored auch nicht. Das sind doch alles nur Spekulationen und Clickbait. Wenn es verläßliche Infos gibt, dann wird sie ein gewisser Jemand in den 3DC News am nächsten Tag ausführlich erläutern.
x-force
2019-06-05, 21:31:26
@dildo
das geht doch auf keine kuhhaut mehr was du alles zusammenwürfelst und durcheinander bringst.
fast alles was von dir(selbst) kommt hinkt irgendwie, oder macht wenig sinn.
intels fertigungsprobleme haben nichts mit amds takt auf 7nm samsung zu tun.
bei gleichem design bringt ein schrink auch automatisch takt, denn die signallaufzeiten werden entsprechend geringer. das hat aber absolut nichts damit zu tun, daß du einen takt nicht fahren kannst, weil es probleme in der fertigung gibt.
ich denke niemand von uns hier hat ausreichend wissen über intels interna, falls die überhaupt selbst wissen woran es scheitert, um abschätzen zu können, welchen speed intel am ende auf 10nm erreicht.
dildo4u
2019-06-05, 21:35:07
Kann sein das ich kein Plan habe aber es macht für mich noch weniger Sinn GPU mit CPU zu vergleichen und daraus abzuleiten das Zen 2 bis 5Ghz boosten müsste.
Linmoum
2019-06-05, 21:51:22
Das mit dem Takt ist echt der Hit,Intel schafft es mit einem massiv höheren Budget nicht die 10nm Modelle auf 14nm+++ Speed zu bringen.Es ist offensichtlich eine Leistung den Takt zu steigern,das kommt nicht automatisch durch den Shrink.
Natürlich, schau dir Broadwell und jetzt CFL an. Der 6900K hatte 3.2/3.7GHz (mit Turbo Boost 3.0 waren es bis zu 4.0GHz), der 9900K schafft 5GHz und der KS Ende des Jahres sogar 5GHz auf allen Kernen. Und sowohl Broadwell als auch CFL sind 14nm.
Das Intel nicht aus dem Stand heraus mit 10nm dieselben Taktraten schafft wie mit über die Jahre bis ins kleinste optimierten 14nm ist nun wenig verwunderlich.
Unabhängig von Intel scheint das ein gängiger Irrtum zu sein, dass man erwartet, dass der Takt von 14nm/12nm auf jetzt 7nm einen großen Sprung macht weil... ja, muss so. 7nm sind ja besser. Und Quervergleiche zwischen GPUs und CPUs sind halt sowieso Schwachsinn.
SKYNET
2019-06-05, 22:28:11
denk der fette taktsprung kommt mit Zen3 :)
basix
2019-06-05, 22:30:17
denk der fette taktsprung kommt mit Zen3 :)
Nope, sogar AMD sagt "moderate gains and focus on energy efficiency" ;)
Ich denke mit Zen 3 werden wir aufs Loch die 5.0 GHz sehen und noch was IPC (5-10%) obendrauf. Mehr nicht. Dafür den 16 Kerner und dazu noch guten All-Core Clocks. Soweit ich mich erinnere, soll Zen 3 ja in "all 7nm" kommen.
kommt wohl halt auf die Transistorperformance an, die Bezeichnungen der Prozesse sind ja nur noch Marketing
gravitationsfeld
2019-06-05, 22:50:24
Das mit dem Takt ist echt der Hit,Intel schafft es mit einem massiv höheren Budget nicht die 10nm Modelle auf 14nm+++ Speed zu bringen.Es ist offensichtlich eine Leistung den Takt zu steigern,das kommt nicht automatisch durch den Shrink.
Doch, schon. Nur verbaut man halt auch wieder mehr Transistoren um die IPC zu heben, was das Takt-Potential verringert insgesamt, aber halt eine bessere Leistung pro Watt ergibt. Letzteres ist eben extrem wichtig im Mobil-Bereich.
Zudem erwartet der Markt eben auch neue Features wie 256 bit breite AVX-Einheiten. Das kostet auch Frequenz.
Opprobrium
2019-06-05, 22:50:34
Seit wann ist denn der Gigahertz Wahn wieder ausgebrochen? Ich dachte das hätte sich mit Pentium 4 und Athlon XP erledigt? Aber seit Intel ihre mit 1PS gekühlte 5Ghz Geschichte aufgefahren haben scheint das ja wieder in Mode gekommen zu sein :rolleyes:
Ex3cut3r
2019-06-05, 22:57:28
Wenn du Gamer bist geht nix ohne Takt, grade bei MP Spielen wie BF1/BF5/PUBG und Co.
r3ptil3
2019-06-05, 23:00:56
Wenn du Gamer bist geht nix ohne Takt, grade bei MP Spielen wie BF1/BF5/PUBG und Co.
Nein, bis auf die letzten 2 Jahre ist die Entwicklung stehen geblieben.
Wird in 2-3 Jahren wieder deutlich anders, vergleichbar anno 2006.
Linmoum
2019-06-05, 23:02:08
Wenn du Gamer bist geht nix ohne Takt, grade bei MP Spielen wie BF1/BF5/PUBG und Co.
Der 9590 möchte gerne mit dir reden.
Daredevil
2019-06-05, 23:05:49
Wenn du Gamer bist geht nix ohne Takt, grade bei MP Spielen wie BF1/BF5/PUBG und Co.
Ich hab mit meinem X5650@4.4ghz und meinem 3930k@4.2ghz kein einziges Spiel unter 80fps gespielt, keins. Im harten „Ich brauch ne neue cpu“ Limit war ich in den letzten Jahren nicht einmal. ( Details manchmal gesenkt, aber stets immer fluffig )
Wer native 144hz will, da verstehe ich das, aber als normaler Gamer ist brauchen generell eine schwierige Beschreibung bei CPUs.
basix
2019-06-05, 23:05:55
Seit wann ist denn der Gigahertz Wahn wieder ausgebrochen? Ich dachte das hätte sich mit Pentium 4 und Athlon XP erledigt? Aber seit Intel ihre mit 1PS gekühlte 5Ghz Geschichte aufgefahren haben scheint das ja wieder in Mode gekommen zu sein :rolleyes:
Die 5 sieht einfach gut aus ;) Ist halt wie z.B. 10 eine "runde" Zahl. Nicht mehr, nicht weniger.
dildo4u
2019-06-05, 23:09:49
Wenn du Gamer bist geht nix ohne Takt, grade bei MP Spielen wie BF1/BF5/PUBG und Co.
Deine Lieblings Firma behauptet das Ice Lake mal ebend 500 MHz gegenüber den 14nm Modelle überbrückt.Kann natürlich sein das sie Mist verbreiten ich bezweifle es aber.
w0mbat
2019-06-05, 23:20:18
Wenn du Gamer bist geht nix ohne Takt, grade bei MP Spielen wie BF1/BF5/PUBG und Co.
Die 4GHz schafft mein 2600X auch und zwar ohne OC oder PBO ;)
CompuJoe
2019-06-05, 23:29:23
Wenn du Gamer bist geht nix ohne Takt, grade bei MP Spielen wie BF1/BF5/PUBG und Co.
Ich hätte hier einen FX9590 für dich rennt unter Wasser (AIO) mit 5,2Ghz Allcore. Habe auch noch ein Mainboard dafür da.
Was mir auch derbe auf den Senkel geht ist bei Youtube unter den Videos wo alle wegen dem Takt jammern.
Wartet doch erst mal ab was netto rauskommt aus Zen 2.
Denniss
2019-06-05, 23:49:02
Das gestrige Video von Hardware Unboxed zum Zen 2 ist relativ lang und provokativ "Too Good to be True, A Recap of The Lead-up to Zen 2".Das Statement bezog sich auf den Müll von Adoredtv das so viel Fragezeichen und Merkwürdigkeiten aufwies das es einfach nicht stimmen konnte. Im Endeffekt war es ja auch das - absoluter Müll, von vorne bis hinten an den Haaren herbeigezogen und mit Scotch gewürzt.
SKYNET
2019-06-06, 00:35:00
Das Statement bezog sich auf den Müll von Adoredtv das so viel Fragezeichen und Merkwürdigkeiten aufwies das es einfach nicht stimmen konnte. Im Endeffekt war es ja auch das - absoluter Müll, von vorne bis hinten an den Haaren herbeigezogen und mit Scotch gewürzt.
hoffe ja das auf der E3 AMD das ding mit boxed auf 5.4GHz drückt :D
dann will ich mal sehen, was der adored spasti dann sagt ;D
Linmoum
2019-06-06, 00:36:24
Hoffe mal eher, dass mehr als der SC-Boost möglich ist. ;)
Leonidas
2019-06-06, 04:20:05
denk der fette taktsprung kommt mit Zen3 :)
Da kommen IMO keine dicken Taktsprünge mehr. Das dürfte sich langsam nach oben robben.
Korvaun
2019-06-06, 07:30:31
Seit wann ist denn der Gigahertz Wahn wieder ausgebrochen? Ich dachte das hätte sich mit Pentium 4 und Athlon XP erledigt? Aber seit Intel ihre mit 1PS gekühlte 5Ghz Geschichte aufgefahren haben scheint das ja wieder in Mode gekommen zu sein :rolleyes:
Ganz simpel: Die Topmodelle haben diese Schwelle mittlerweile erreicht (zumindest Intel), und das im Lieferzustand. Die 5Ghz sind also im OC-Bereich von "jedermann" angekommen, deshalb das höhere Interesse ;)
und plötzlich ist der Energieverbrauch sowas von unwichtig
BlacKi
2019-06-06, 08:11:29
und plötzlich ist der Energieverbrauch sowas von unwichtig
du meinst die 250w die nur beim stresstesten anliegen? real beim spielen bleibt es unter 100w@144hz. stromverbrauch gpu ist nicht vergleichbar mit dem stromverbrauch cpu.
Schnoesel
2019-06-06, 08:14:05
Ach und weil Stromverbrauch ja keine anderen Auswirkungen hat außer Kosten zu verursachen hast deinen geköpft?
Mit persönlich ist der Verbrauch auch erstmal egal, aber es sind schon mehr als nur normalen Kosten. Es muss alles von Kühlung bis zur Stromversorgung, Mainboard etc. größer dimensioniert sein, also weinger Verbrauch ist immer gut.
dildo4u
2019-06-06, 08:17:18
Naja wenn du ein 12 Core hast kannst du nebenbei locker noch streamen,da wäre es suboptimal wenn CPU und GPU je über 200 Watt raushauen.
dargo
2019-06-06, 08:20:21
du meinst die 250w die nur beim stresstesten anliegen? real beim spielen bleibt es unter 100w@144hz.
Das wäre schon 3x höher als meine CPU.
BlacKi
2019-06-06, 08:45:25
Das wäre schon 3x höher als meine CPU.
ist auch höher als meine cpu. aber ob das system nun 350 oder 400w zieht den großen unterschied macht? deshalb spielt bei der cpu der verbrauch eher eine untergeordnete rolle und wenn man schon ne wakü hat, sind auch keine mehrausgaben vorhanden.
Screemer
2019-06-06, 08:46:42
Das wäre schon 3x höher als meine CPU.
Glaubt dir doch niemand, dass du deinen ryzen mit ~33W durch z.b. the division schickst. Selbst mit Low Details und 144hz.
Linmoum
2019-06-06, 08:51:38
Dargos 1600 besitzt sogar die Fähigkeit, Strom zu erzeugen. ;)
Rancor
2019-06-06, 09:00:12
Mir ist der Takt sowas von Latte. Es zählt das was hinten rauskommt.
basix
2019-06-06, 09:58:17
Also ich empfinde den Stromverbrauch oder besser gesagt die Effizienz als die absolut wichtigste Eigenschaft. Geringer Stromverbrauch = geringere Energiekosten, Raum heizt sich weniger auf, leisere Kühlung, schonender für die Umwelt (Strom + Material). Die nicht mal 10% Leistung die meine 2080 Ti @ 150W verglichen mit Default 260W verliert ist nicht der Rede wert (= man spürt es nicht). Mittlerweile lasse ich die CPU auch nur noch auf 4.0 GHz bei 1.05V laufen. Die zusätzlichen 10% im besten Fall wird man meistens nicht bemerken.
SKYNET
2019-06-06, 10:07:33
Da kommen IMO keine dicken Taktsprünge mehr. Das dürfte sich langsam nach oben robben.
mhhh, ja geht wohl nur noch in die breite... auch gut, 32 kerne im desktop in 2 jahren :D
SKYNET
2019-06-06, 10:14:42
Glaubt dir doch niemand, dass du deinen ryzen mit ~33W durch z.b. the division schickst. Selbst mit Low Details und 144hz.
halte ich auch für ein wenig unrealistisch, mein 2700X zieht so um die 50-60W aus der dose je nach game(XFR/PBO -0.1V offset), und das trotz fixen 60fps :)
MadPenguin
2019-06-06, 10:33:13
Ich finde alles ziemlich lustig. Intel Anhänger, welche immer AMDs CPU wegen Verbrauch verarscht haben, freuen sich nun auf 5Ghz bei wahrscheinlich doppeltem oder dreifachem Verbrauch :D
10nm wird an jeder Ecke schöngeredet. Jungs wacht auf. 10nm ist ein Rohrkrepierer und wird nur in homeopatischen Mengen produziert werden. AMD reisst Intel gerade den Arsch auf. Überall.
Adam D.
2019-06-06, 10:40:32
Ich finde alles ziemlich lustig. Intel Anhänger, welche immer AMDs CPU wegen Verbrauch verarscht haben, freuen sich nun auf 5Ghz bei wahrscheinlich doppeltem oder dreifachem Verbrauch :D
10nm wird an jeder Ecke schöngeredet. Jungs wacht auf. 10nm ist ein Rohrkrepierer und wird nur in homeopatischen Mengen produziert werden. AMD reisst Intel gerade den Arsch auf. Überall.
Mich fasziniert mal wieder, wie hochemotional diese Debatte geführt wird von den ganzen Fanboys. AMD wird das erste Mal seit vielen Jahren wieder richtig konkurrenzfähig sein, das ist doch für alle gut, selbst für Intel-Verehrer, die zumindest auf günstigere Preise hoffen können.
Wie sich das entwickeln wird langfristig, weiß keiner. Als AMD Intel das letzte Mal "den Arsch aufgerissen hat", haben sie mit einer Architektur geantwortet, die über Jahre hinweg konkurrenzlos gut war. Zwar kam danach eine Phase der Stagnation, aber Konkurrenzkampf schadet trotzdem so gut wie nie.
SKYNET
2019-06-06, 10:43:09
Mich fasziniert mal wieder, wie hochemotional diese Debatte geführt wird von den ganzen Fanboys. AMD wird das erste Mal seit vielen Jahren wieder richtig konkurrenzfähig sein, das ist doch für alle gut, selbst für Intel-Verehrer, die zumindest auf günstigere Preise hoffen können.
Wie sich das entwickeln wird langfristig, weiß keiner. Als AMD Intel das letzte Mal "den Arsch aufgerissen hat", haben sie mit einer Architektur geantwortet, die über Jahre hinweg konkurrenzlos gut war. Zwar kam danach eine Phase der Stagnation, aber Konkurrenzkampf schadet trotzdem so gut wie nie.
ich glaube die intel verehrer scheisst nur an, das sie 500-600 für ne CPU rausgehauen haben, die wohl nächsten monat nur noch ein wenig mehr als die hälfte kosten wird ;D
Fragman
2019-06-06, 10:49:07
ich glaube die intel verehrer scheisst nur an, das sie 500-600 für ne CPU rausgehauen haben, die wohl nächsten monat nur noch ein wenig mehr als die hälfte kosten wird ;D
Die Zeiten, in denen man die CPU's von beiden Herstellern auf ein Bord packen konnte, sind aber schon lange vorbei. Deshalb wird da keiner wegen 200 Euro rum heulen. Vor allem nicht, wenn die Leistung ähnlich ist.
SKYNET
2019-06-06, 10:51:25
Die Zeiten, in denen man die CPU's von beiden Herstellern auf ein Bord packen konnte, sind aber schon lange vorbei. Deshalb wird da keiner wegen 200 Euro rum heulen. Vor allem nicht, wenn die Leistung ähnlich ist.
ach, wieviele haben über den preis vom 9900k gejammert, und ihn dann trotzdem gekauft... wenn das ding dann auf einmal 30% billiger wird, würds mich auch anscheissen ;D mein 2700X ist bis dato ziemlich preis stabil geblieben :)
Fragman
2019-06-06, 11:03:07
200€ können aber schnell egal sein, wenn man sich dadurch den Boardwechsel inkl Neuinstallation seines Systems spart. Zumindest bin ich aus dem Alter raus und das Geld spielt da dann keine Rolle.
SKYNET
2019-06-06, 11:36:07
200€ können aber schnell egal sein, wenn man sich dadurch den Boardwechsel inkl Neuinstallation seines Systems spart. Zumindest bin ich aus dem Alter raus und das Geld spielt da dann keine Rolle.
ich bin in nem alter wo geld eine rolle spielt... weil es eigentlich unnötiger schnick schnack ist, mein 2700X würde sicherlich noch 3-4 jahre ausreichen, aber so sind hobbies nunmal :tongue:
rentex
2019-06-06, 11:53:49
Sollte der Preis für den 9900K unter dem R7 3800X liegen, hat AMD aber ein Problem. Da ebenfalls die MB Preise für die x570 höher liegen, als für Z390 Versionen.
dildo4u
2019-06-06, 12:06:06
Es wird X470 Boards geben die wieder Aufkleber bekommen und sofort kompatibel sind.
Und die MSI Boards kann man z.b ohne CPU flashen,es gibt kein zwang für X570.
tm0975
2019-06-06, 12:12:28
200€ können aber schnell egal sein, wenn man sich dadurch den Boardwechsel inkl Neuinstallation seines Systems spart. Zumindest bin ich aus dem Alter raus und das Geld spielt da dann keine Rolle.
dann hast du also schon immer AMD gekauft. diese plattfomrstabilität von AMD ist schon klasse :-)
x-force
2019-06-06, 12:28:53
Mich fasziniert mal wieder, wie hochemotional diese Debatte geführt wird von den ganzen Fanboys.
absolut, daher habe ich auch mal die stichwörter eingepflegt.
wirklich unglaublich wie die leute schlange stehen um sich für die ignore zu bewerben.
dargo
2019-06-06, 13:03:00
Glaubt dir doch niemand, dass du deinen ryzen mit ~33W durch z.b. the division schickst. Selbst mit Low Details und 144hz.
Dargos 1600 besitzt sogar die Fähigkeit, Strom zu erzeugen. ;)
Stimmt... sind aktuell 2W mehr. :cool:
https://abload.de/thumb/thedivision2_2019_06_dfke1.jpg (https://abload.de/image.php?img=thedivision2_2019_06_dfke1.jpg)
Ich kann aber gerne noch die Spannungen etwas senken damit du die 33W siehst. ;) Habe da eh zu großen Puffer drauf. Mal davon ab... wusste gar nicht, dass nur Division 2 gespielt wird (wobei das bei mir aktuell sogar so zutrifft :D). Im Schnitt der Spiele sind es weniger als 33W.
Sollte der Preis für den 9900K unter dem R7 3800X liegen, hat AMD aber ein Problem. Da ebenfalls die MB Preise für die x570 höher liegen, als für Z390 Versionen.
Lol... jetzt kommt wieder der X570 Zwang? :freak:
Screemer
2019-06-06, 13:09:57
Not Bad. Welchen Takt hält dein ryzen da?
Lowkey
2019-06-06, 13:12:24
Im Computerbase Forum werden reihenweise imaginäre Intel Fanboys beschimpft. Die Debatte ist hochemotional.
Die quälende Frage ist die, ob ein x570 für die maximale bzw. optimale Leistung von R3k ausreichend oder nicht? Und wie bekomme ich ein x470 ohne Biosupdate und Flashback ans laufen? Die Sticker kommen, aber nicht zum Release und ich befürchte First-Day-R3K-Promotionen, die durch das notwendige, teurere x570 relativ teurer werden.
Wenn Speicher so eine Rolle spielt, wie man in den neueren Benchmarks sieht, dann wären für mich DDR4-4400 Pflicht um die maximale Leistung von R3k zu bekommen.
Mein zweites Kaufszenario wäre ein ITX PC, denn 7nm sehe ich bei ausreichenden 3000 Mhz als führend an. Mit 3000mhz und 6 Kernen kann ich die 120hz in Fornite mit dem CFL halten. Der Verbrauch dürfte zwischen 40 und 65 Watt liegen. Mit einem einfachen R3K könnte man sicherlich diesen Wert deutlich unterbieten, gerade wegen den 7nm im unteren Mhz Bereich. Eigentlich müßte R3k die ideale Notebook CPU werden, wäre da nicht Icelake.
dargo
2019-06-06, 13:16:03
Not Bad. Welchen Takt hält dein ryzen da?
3,8Ghz, wie gehabt. Mit 3,7Ghz könnte ich in Division 2 schon knapp unter 30W kommen.
BlacKi
2019-06-06, 13:21:40
Stimmt... sind aktuell 2W mehr. Im Schnitt der Spiele sind es weniger als 33W.
tolle werte, aber wenn ich die 144hz nehme die ich gemeint habe komme ich mit deinen 35w bei 91 fps auf 55w bei 144hz und nicht ein drittel.:wink:
Rancor
2019-06-06, 13:24:53
Leute haltet mal den Ball flach. Bisher gibt es keine unabhängigen systematisch durchgeführten Benchmarks.
Im Prinzip wissen wir nichts darüber, wie gut oder schlecht Zen2 in Spielen wird.
r3ptil3
2019-06-06, 13:30:51
Leute haltet mal den Ball flach. Bisher gibt es keine unabhängigen systematisch durchgeführten Benchmarks.
Im Prinzip wissen wir nichts darüber, wie gut oder schlecht Zen2 in Spielen wird.
AMD hat doch selber Werte publiziert...
Die Prognosen der User hier werden schon ziemlich richtig sein. Besser als ein 8700K, aber nicht ganz auf 9900K Niveau.
dargo
2019-06-06, 13:31:11
tolle werte, aber wenn ich die 144hz nehme die ich gemeint habe komme ich mit deinen 35w bei 91 fps auf 55w bei 144hz und nicht ein drittel.:wink:
Du hattest von 144Hz gesprochen, nicht von 144fps. ;) Es sind nunmal meine Spielsettings, und das zahle ich auch an der Steckdose. Irgendwelches künstliches Szenario herbeizaubern bringt da nichts. Für 144fps kannst du gerne 3-5W drauf rechnen wenn du möchtest.
btw.
Du spielst Division 2 auch nicht mit 144fps. :P
https://www.youtube.com/watch?v=xAy8FTHKrh8
Rancor
2019-06-06, 13:31:30
Naja das sind Hersteller Benchmarks.......
r3ptil3
2019-06-06, 13:33:03
Naja das sind Hersteller Benchmarks.......
Welche seit dem ersten Ryzen nie wirklich übertrieben waren... Dafür wurde AMD ja sogar gelobt.
Semmel
2019-06-06, 13:41:22
Schade finde ich vor allem, dass es nun doch keinen 16-Kerner gibt. Ich nutze das Teil nicht nur zum Zocken und kann mehr Kerne immer gebrauchen. Der Sprung auf den 12-Kerner ist mir irgendwie zu klein.
Meint ihr, der 16-Kerner wird noch irgendwann nachgeschoben?
Und wird Zen 2 jetzt die letzte AM4-Generation sein?
BlacKi
2019-06-06, 13:41:38
Du hattest von 144Hz gesprochen, nicht von 144fps. ;) Es sind nunmal meine Spielsettings, und das zahle ich auch an der Steckdose. Irgendwelches künstliches Szenario herbeizaubern bringt da nichts. Für 144fps kannst du gerne 3-5W drauf rechnen wenn du möchtest.
btw.
Du spielst Division 2 auch nicht mit 144fps. :P
https://www.youtube.com/watch?v=xAy8FTHKrh8
darum ging es nicht.
eigentlich ging es darum, ob der mehrverbrauch der cpu ne rolle spielt gegenüber der gpu. und das tut es nicht. erst wenn der cpu verbrauch in die nähe kommt in der die gpu liegt.
dargo
2019-06-06, 13:46:39
eigentlich ging es darum, ob der mehrverbrauch der cpu ne rolle spielt gegenüber der gpu. und das tut es nicht. erst wenn der cpu verbrauch in die nähe kommt in der die gpu liegt.
Das sehe ich nicht so, ich habe keine Wakü auf der CPU. Und da möchte ich nicht unbedingt in Games über ~50W kommen. Ich mag es wenn ich meinen 120mm Lüfter auf der CPU nicht höre. Das soll auch so bleiben. :)
Schnoesel
2019-06-06, 14:05:17
Und selbst mit Wakü: Das ist alles im gleichen Kreislauf. Klar ist das Verhältnis GPU/CPU klar zugunsten der CPU aber je nachdem wie dimensioniert deine Wakü ist, ob extern verbaut oder intern kann das schon einen Unterschied machen.
Das muss aber in Endeffekt jeder selbst wissen und entscheiden ob das für ihn von Belang ist.
BTW das Game das bei mir am meisten CPU Power zieht ist CIV VI@ DX11. Scheint ein richtiger Powervirus zu sein das Game.
SKYNET
2019-06-06, 14:09:24
Schade finde ich vor allem, dass es nun doch keinen 16-Kerner gibt. Ich nutze das Teil nicht nur zum Zocken und kann mehr Kerne immer gebrauchen. Der Sprung auf den 12-Kerner ist mir irgendwie zu klein.
Meint ihr, der 16-Kerner wird noch irgendwann nachgeschoben?
Und wird Zen 2 jetzt die letzte AM4-Generation sein?
Zen3 wird auch noch AM4 sein, da bis einschliesslich 2020 der AM4 sockel offiziell supportet wird, denke Zen4 wird wohl auch noch zumindest ein teil für AM4 kommen(low end mit DDR4).
was sind dir an 50% mehr MT power, zuwenig? O_o
von nem 2700X auf nen 3700X sehe ich auch kein bedarf, wenn die kiste vorrangig für alles andere ausser gamen genutzt wird, wenn man zocken tut, ist nen 3800X wohl schon nen dicker sprung, und der 3900X ebenso, + das er in anwendungen richtig abgehen wird. denke er wird den TR 2950X in fast allen situationen schlagen.
USS-VOYAGER
2019-06-06, 14:18:03
Stimmt... sind aktuell 2W mehr. :cool:
[url=https://abload.de/image.php?img=thedivision2_2019_06_dfke1.jpg]
Lässt sich das auch mit MSI Afterburner anzeigen? Wenn ja welcher Punkt ist das den ich dafür anschalten muss?
Edit: Ok HWinfo brauch ich wohl noch dazu.
Hott3X
2019-06-06, 14:18:49
Ich freu mich auf den Sprung von meinem 1600x auf 3700X, dass gibt bestimmt einen ordentlichen Boost. Dazu noch vom 95W TDP auf 65W, was meiner Kühlung im Ncase auch
entgegen kommt, grade im Sommer. Fehlt nur noch eine AMD Grafikkarte mit 1080er Leistung bei 120Watt.
Lehdro
2019-06-06, 14:36:57
BTW das Game das bei mir am meisten CPU Power zieht ist CIV VI@ DX11. Scheint ein richtiger Powervirus zu sein das Game.
Kann ich bestätigen, einziges Game welches sogar teilweise die 550W (komplettes System) bei mir knackt, sonst liege ich eher so bei ~350-450W im Schnitt. Aber hey, wofür gibt es custom Waküs, da kann ich über die vermeintliche Lautstärke nur lachen, egal wie warm die Umgebung ist. Hoffentlich passt Castle Peak auch noch in das nette MSI Creation, dann gibts nochmal schön einen Nachbrenner für TR4 :biggrin:
dargo
2019-06-06, 14:37:42
BTW das Game das bei mir am meisten CPU Power zieht ist CIV VI@ DX11. Scheint ein richtiger Powervirus zu sein das Game.
Eher ein Nvidia-Treiber-Overhead-Virus sofern deine Sig. stimmt. ;)
Schnoesel
2019-06-06, 15:16:46
Ja ist gut möglich. Auf DX11 knallt der alle 16 Threads auf bis zu 60% zu.
Lehdro
2019-06-06, 15:34:29
Ja ist gut möglich. Auf DX11 knallt der alle 16 Threads auf bis zu 60% zu.
Ich meine mich erinnern zu können das ich damals auf DX12 gespielt habe und es hat sich nicht großartig verändert.
Oddzz
2019-06-06, 15:42:19
Und wie bekomme ich ein x470 ohne Biosupdate und Flashback ans laufen? Die Sticker kommen, aber nicht zum Release und ich befürchte First-Day-R3K-Promotionen, die durch das notwendige, teurere x570 relativ teurer werden.
Zur Not könnte man sich eine A6 9500 für ~35€ gönnen und mit dem das BIOS updaten oder auf ein MSI board zurückgreifen wie z.B. ein x470 Carbon Pro und mit einem USB Stick upgraden. Gibt sicher auch andere Hersteller mit USB Flashback Funktion, aber ich glaube MSI hat die Funktion durch die Bank aktiviert. Solltest dich dann aber vorher genauer informieren.
Schnoesel
2019-06-06, 15:46:47
Ich meine mich erinnern zu können das ich damals auf DX12 gespielt habe und es hat sich nicht großartig verändert.
Kann ich später nochmal checken.Aber mir war als wäre die Auslastung in DX12 geringer.
Um nicht ganz OT zu sein:
Gskill mit extra Ryzen Ram (Samsung A-Dies):
https://www.pcgameshardware.de/RAM-Hardware-154108/News/GSkill-Trident-Z-Neo-DDR4-AMD-Ryzen-3000-1283610/
dargo
2019-06-06, 15:52:14
Finde ich klasse. Endlich konzentriert sich ein Speicherhersteller verstärkt Richtung AMD. :up: Mal sehen ob an der besseren Kompatibilität wirklich was dran ist oder ob es nur Marketing ist. Die Praxis wird es bald zeigen. :)
AMD hat doch selber Werte publiziert...
Welche seit dem ersten Ryzen nie wirklich übertrieben waren... Dafür wurde AMD ja sogar gelobt.
Du bist echt naiv, bist du etwa der Gehirnwäsche verfallen? Wenn AMD es ernst gemeint hätte, hätten sie absolute Zahlen rausgegeben, inklusive der kompletten Systemdetails und mit einem 9900k im Vergleich, was sie eben nicht getan haben. Schon Ryzen 1 wurde im Vorfeld für gaming viel besser eingeschätzt, weil AMD für Ryzen 1 gutmütige Benchmarks wie Cinebench verwendet hat, die ja auch gut aussahen. Oder, was AMD auch immer gerne gemacht hat, sie haben ihre CPUs im GPU Limit verglichen, um zu suggerieren, sie wären gleichauf mit Intel, die gaming Schwäche hat AMD schön verheimlicht. Erst in unabhängigen Tests wird sich die Wahrheit zeigen. Zu erwähnen wäre noch, dass dieses mal berücksichtigt werden mus, dass auf default AMD deutlichen schnelleren RAM supported als Intel, was für games einen enormen Vorteil darstellt. Folglich bietet Intel ein deutlich größeres Potenzial beim RAM.
SKYNET
2019-06-06, 16:14:18
Du bist echt naiv, bist du etwa der Gehirnwäsche verfallen? Wenn AMD es ernst gemeint hätte, hätten sie absolute Zahlen rausgegeben, inklusive der kompletten Systemdetails und mit einem 9900k im Vergleich, was sie eben nicht getan haben. Schon Ryzen 1 wurde im Vorfeld für gaming viel besser eingeschätzt, weil AMD für Ryzen 1 gutmütige Benchmarks wie Cinebench verwendet hat, die ja auch gut aussahen. Oder, was AMD auch immer gerne gemacht hat, sie haben ihre CPUs im GPU Limit verglichen, um zu suggerieren, sie wären gleichauf mit Intel, die gaming Schwäche hat AMD schön verheimlicht. Erst in unabhängigen Tests wird sich die Wahrheit zeigen. Zu erwähnen wäre noch, dass dieses mal berücksichtigt werden mus, dass auf default AMD deutlichen schnelleren RAM supported als Intel, was für games einen enormen Vorteil darstellt. Folglich bietet Intel ein deutlich größeres Potenzial beim RAM.
AMD bietet generell mehr potenzial beim ram, weil die CPU architektur eine ganz andere ist...
oh warte, bevor du gehst, du hast deine blaue brille und fan-fahne liegen lassen, bitte mitnehmen aus diesem thread, danke! :)
BlacKi
2019-06-06, 16:30:26
Finde ich klasse. Endlich konzentriert sich ein Speicherhersteller verstärkt Richtung AMD. :up: Mal sehen ob an der besseren Kompatibilität wirklich was dran ist oder ob es nur Marketing ist. Die Praxis wird es bald zeigen. :)
da spielt auch der preis ne rolle. jenachdem wieviel RGB, gold und diamanten man draufpackt.
Semmel
2019-06-06, 16:39:51
Zen3 wird auch noch AM4 sein, da bis einschliesslich 2020 der AM4 sockel offiziell supportet wird, denke Zen4 wird wohl auch noch zumindest ein teil für AM4 kommen(low end mit DDR4).
was sind dir an 50% mehr MT power, zuwenig? O_o
Ich will in meinem PC #1 einfach irgendwann noch den fettesten AM4-Prozessor als Upgrade verbauen, den es geben wird. Ob das das neue Spitzenmodell sein wird ist fraglich.
Schnoesel
2019-06-06, 16:50:05
@Lehdro
Jetzt weiß ich warum ich das mit einer solchen Diskrepanz in Erinnerung hatte. Scheinbar hat sich seit Release eine Menge getan in der Engine und/oder Treiber (wobei das natürlich nicht 100% vergleichbar ist, weil andere Karte aber auch Lategame)
DX11 Kurz nach Release:
Gute 85 Watt bei über 60% CPU Auslastung
https://i.postimg.cc/7Yq1tW0b/1.jpg
Stand jetzt
DX11
Immer noch gute 70 Watt aber wesentlich weniger Last
https://i.postimg.cc/pVC5rX5X/DX-11.jpg
DX12
Noch 66 Watt und etwas weniger Last als mit DX11
https://i.postimg.cc/9Q52jyX4/DX12.jpg
dargo
2019-06-06, 17:08:53
da spielt auch der preis ne rolle. jenachdem wieviel RGB, gold und diamanten man draufpackt.
Langfristig erwarte ich ähnliche Preise. Flare X kostet auch das selbe wie die Trident Z Samsung B-Dies.
Ex3cut3r
2019-06-06, 17:12:33
oh warte, bevor du gehst, du hast deine blaue brille und fan-fahne liegen lassen, bitte mitnehmen aus diesem thread, danke! :)
Jetzt hast du es ihm aber gegeben. :rolleyes:
Was ein Kindergarten hier. :facepalm:
Ryzen 3000 wird stand jetzt gut werden auch für Gamer. Ist doch schön für alle. Wieso die "Köpfe einschlagen" ?
basix
2019-06-06, 17:53:51
was sind dir an 50% mehr MT power, zuwenig? O_o
Sorry, aber als "Tüpflischiisser" (;)) sage ich: Es sind wohl eher +70% :D
@Gaming: Wir haben ja als Referenzwert den 2700X bekommen. Jetzt nimmt man den Mittelwert aller gezeigten +% Werte des 3800X und man wird vermutlich relativ nah am schlussendlichen Durchschnitt liegen ;)
Rancor
2019-06-06, 17:58:00
Jetzt hast du es ihm aber gegeben. :rolleyes:
Was ein Kindergarten hier. :facepalm:
Ryzen 3000 wird stand jetzt gut werden auch für Gamer. Ist doch schön für alle. Wieso die "Köpfe einschlagen" ?
Weil es in den Augen einiger nicht sein kann, das AMD CPUs baut, die ggf im Gesamtpaket das bessere Angebot als die Intel Produkte darstellen.
Ich verstehe diese Hersteller-Liebe auch nicht, aber so sind nunmal einige hier.
Zossel
2019-06-06, 18:01:00
ach, wieviele haben über den preis vom 9900k gejammert, und ihn dann trotzdem gekauft... wenn das ding dann auf einmal 30% billiger wird, würds mich auch anscheissen
Warum soll das schlecht sein wenn Sachen billiger werden?
r3ptil3
2019-06-06, 18:39:59
Du bist echt naiv, bist du etwa der Gehirnwäsche verfallen? Wenn AMD es ernst gemeint hätte, hätten sie absolute Zahlen rausgegeben, inklusive der kompletten Systemdetails und mit einem 9900k im Vergleich, was sie eben nicht getan haben. Schon Ryzen 1 wurde im Vorfeld für gaming viel besser eingeschätzt, weil AMD für Ryzen 1 gutmütige Benchmarks wie Cinebench verwendet hat, die ja auch gut aussahen. Oder, was AMD auch immer gerne gemacht hat, sie haben ihre CPUs im GPU Limit verglichen, um zu suggerieren, sie wären gleichauf mit Intel, die gaming Schwäche hat AMD schön verheimlicht. Erst in unabhängigen Tests wird sich die Wahrheit zeigen. Zu erwähnen wäre noch, dass dieses mal berücksichtigt werden mus, dass auf default AMD deutlichen schnelleren RAM supported als Intel, was für games einen enormen Vorteil darstellt. Folglich bietet Intel ein deutlich größeres Potenzial beim RAM.
1. Keine Fakten verdrehen. AMD hat bei Ryzen 1 Cinebench-Ergebnisse rausgehauen und keine Gaming-Benchmarks. Ryzen 1 war ein Erfolg, auch obwohl Ryzen keine Chance hatte in Sachen Gaming-Peformance - das Gesamtpaket hat Intel mächtig unter Druck gesetzt.
2. Jetzt (2019/Ryzen 3) haben Sie Gaming-Benchmarks publiziert. Warte also einfach ab was jetzt kommt. Ohne Grund hätte AMD sowas nicht publiziert.
Meine Meinung:
Ein 3800X wird sich etwas über einem 8700k und unterhalb einem 9900k platzieren, ob mit schnellerem RAM oder nicht.
robbitop
2019-06-06, 19:06:05
Außerhalb der absoluten Spitze war auch Ryzen ein sehr gutes Produkt aus P/L Sicht. Die Frage ist immer was die Referenz ist. Die absolute Spitze oder der Mainstream? Ohne Frage wurde AMD durch Zen1 wieder wettbewerbsfähig. Zumindest im für die meisten bezahlbaren Marktbereich. Also außerhalb der letzten wenigen Prozent an Enthusiasten.
Selbst wenn zen2 nicht das absoulte Spitzenprodukt im Bereich Gaming besiegt, so wird der Abstand offenbar zumindest sehr gering und in Anwendungen wird er schneller.
Das ist für ein so vergleichbar kleines Unternehmen mit noch vor wenigen Jahren nicht wettbewerbsfähigen Produkten doch eine beachtliche Leistung.
Wettbewerb belebt bekanntlich das Geschäft und ist somit gut für uns Endkunden.
Auch für Intelkäufer. Zen hat Intel dazu gezwungen stärkere Produkte zu bringen und die Kosten pro Core zu senken. Super für alle.
Keine Ahnung wir man diesen Fakt nicht sehr gut finden kann.
Menace
2019-06-06, 19:16:56
Außerhalb der absoluten Spitze war auch Ryzen ein sehr gutes Produkt aus P/L Sicht. Die Frage ist immer was die Referenz ist. Die absolute Spitze oder der Mainstream? Ohne Frage wurde AMD durch Zen1 wieder wettbewerbsfähig. Zumindest im für die meisten bezahlbaren Marktbereich. Also außerhalb der letzten wenigen Prozent an Enthusiasten.
Man muss auf die Standard-Trolle nicht immer eingehen. Zur damaligen Zeit kam ein 8C/16T bei 65 W zu bezahlbaren Preisen mit einem Sockel der immer noch für die kommende Generation wohl funktioniert. Weiß gar nicht, was es da zu diskutieren gibt, intel hat so etwas bewusst nicht gemacht; dass die Kunden das Jahrelang hingenommen haben wundert mich da eher. Man muss nicht über jedes Troll-Stöckchen rüberspringen. :wink:
Mandalore
2019-06-06, 22:57:17
1. Keine Fakten verdrehen. AMD hat bei Ryzen 1 Cinebench-Ergebnisse rausgehauen und keine Gaming-Benchmarks. Ryzen 1 war ein Erfolg, auch obwohl Ryzen keine Chance hatte in Sachen Gaming-Peformance - das Gesamtpaket hat Intel mächtig unter Druck gesetzt.
2. Jetzt (2019/Ryzen 3) haben Sie Gaming-Benchmarks publiziert. Warte also einfach ab was jetzt kommt. Ohne Grund hätte AMD sowas nicht publiziert.
Meine Meinung:
Ein 3800X wird sich etwas über einem 8700k und unterhalb einem 9900k platzieren, ob mit schnellerem RAM oder nicht.
Vergiss es, Zen 2 hat eine bessere IPC als CL Refresh, der 8700 K hat nichtmal in nem Benchmark was zu suchen bei der neuen Kraftverteilung...
SKYNET
2019-06-07, 00:13:42
Vergiss es, Zen 2 hat eine bessere IPC als CL Refresh, der 8700 K hat nichtmal in nem Benchmark was zu suchen bei der neuen Kraftverteilung...
ich finde, auch low-end CPUs wie der 8700k sollten mit getestet werden, damit leute die vor nem jahr ihre CPU gekauft haben, wissen wo sie jetzt stehen ;D
r3ptil3
2019-06-07, 03:10:11
Vergiss es, Zen 2 hat eine bessere IPC als CL Refresh, der 8700 K hat nichtmal in nem Benchmark was zu suchen bei der neuen Kraftverteilung...
War nur die Gaming-Performance gemeint mit "zwischen 8700K und 9900K".
rentex
2019-06-07, 05:53:33
Der 8700K ist natürlich noch wettbewerbsfähig🙄 Auch wenn ich auf den 3800X spekuliere, muss er sich bei den kommenden Reviews erst beweisen. Um es nochmal zu betonen: Es existieren keine Benchmarks von ZEN2, außer denen von AMD und hier wird schon von der Performancekrone schwadroniert🙄
oder der 7700K...:ucrazy4:
mboeller
2019-06-07, 07:18:24
Das ist für ein so vergleichbar kleines Unternehmen mit noch vor wenigen Jahren nicht wettbewerbsfähigen Produkten doch eine beachtliche Leistung.
Wettbewerb belebt bekanntlich das Geschäft und ist somit gut für uns Endkunden.
ich würde es ja ein wenig drastischer formulieren:
Mitte 2016, also vor nur 3 Jahren war AMD nahezu Tod. Und jetzt ... ; einfach IRRE!
dargo
2019-06-07, 07:19:36
Man muss auf die Standard-Trolle nicht immer eingehen. Zur damaligen Zeit kam ein 8C/16T bei 65 W zu bezahlbaren Preisen mit einem Sockel der immer noch für die kommende Generation wohl funktioniert. Weiß gar nicht, was es da zu diskutieren gibt, intel hat so etwas bewusst nicht gemacht; dass die Kunden das Jahrelang hingenommen haben wundert mich da eher. Man muss nicht über jedes Troll-Stöckchen rüberspringen. :wink:
Diese Trolle vergessen offenbar auch gerne was Kunden vor nicht allzulanger Zeit für einen Sixcore noch bezahlen durften (einfach mal auf die Preisentwicklung klicken).
https://geizhals.de/intel-core-i7-5930k-bx80648i75930k-a1121098.html
Heute kostet selbst der schnellste Sixcore bei Zen+ nur einen Bruchteil davon.
https://geizhals.de/amd-ryzen-5-2600x-yd260xbcafbox-a1804460.html?hloc=at&hloc=de
tm0975
2019-06-07, 07:35:14
ich finde, auch low-end CPUs wie der 8700k sollten mit getestet werden, damit leute die vor nem jahr ihre CPU gekauft haben, wissen wo sie jetzt stehen ;D
:-)))
ich bin schon gespannt, was jetzt an neuen benchmark-ideen kommt, im das blau in einem besseren licht darzustellen. vermutlich 80% AVX-512
Zossel
2019-06-07, 07:45:27
:-)))
ich bin schon gespannt, was jetzt an neuen benchmark-ideen kommt, im das blau in einem besseren licht darzustellen. vermutlich 80% AVX-512
Spiele in 240p testen :-)
Mr.Magic
2019-06-07, 08:08:38
Diese Trolle vergessen offenbar auch gerne was Kunden vor nicht allzulanger Zeit für einen Sixcore noch bezahlen durften (einfach mal auf die Preisentwicklung klicken).
2014 vs. 2018? OK.
ps: Der i7-5930K sollte auf 4.5Ghz dem Ryzen Paroli bieten können, hat sich also amortisiert.
dildo4u
2019-06-07, 08:12:22
Der 8700k ist immer noch bei 370,also 170€ Aufpreis zum Zen 2 Sixcore.
dargo
2019-06-07, 08:29:12
2014 vs. 2018? OK.
ps: Der i7-5930K sollte auf 4.5Ghz dem Ryzen Paroli bieten können, hat sich also amortisiert.
Löl? Der hat schon per Default 140W TDP. Was hat er dann mit 4,5Ghz Allcore? >200W? ;D
basix
2019-06-07, 09:35:02
5930K ist aber auch nicht die Referenz. Das ist eher der 5820K für damals 400$ ;) Teuer war der wegen der X99 und DDR4 Plattform, bis Skylake released wurde.
Und wenn man eine gute CPU erwischt hatte (so wie ich :D) dann waren es eher 150W im Cinebench. Prime etc. ist sinnfrei. Mein aktueller 5960X wäre aber im Bereich 200W.
robbitop
2019-06-07, 09:46:07
Der 5820K mit schnellem ddr4 und OC war sicherlich eine CPU die extrem langlebig war und auch noch ein paar Jahre durchhalten sollte, solange man nicht auf high-fps aus ist.
Ich beiße mir heute noch in den Hintern, dass ich nicht noch ein paar Wochen gewartet habe und einen 4790K gekauft habe. Ich wusste vom 5820K - aber wollte unbedingt zu meinem Jahresurlaub meinen PC upgraden. :D
w0mbat
2019-06-07, 10:07:52
Ich würde mal etwas Piano machen hier. Klar, Zen2 wir vermutlich sehr schnell, aber ein 5GHz i9-9900K sehr schnellem RAM wird mMn immer noch schneller sein. Und da wir wissen, dass nur sehr wenige Spiele von mehr als 6C/12T profitieren gilt dies natürlich auch für den i7-8700K.
Ich lasse mich gerne positiv überraschen, aber wenn ein Ryzen 7 3800X <10% hinter einem 9900K bei 720p benchmarks liegt, dann bin ich happy :)
Denke auch, bei vielen (auch grade älteren) Spielen wird der Ringbus nach wie vor ein Vorteil sein. MMn wird sich das erst mit der nächsten Konsolengeneration ändern. Immerhin wird Zen2 wohl auch dank des Supports der Infrastruktur (Mainboards+OEMs) die Verbreitung fördern, sodass Spielehersteller im PC-Markt Zen-Optimierungen mehr in den Fokus nehmen werden. Die eigentliche Architektur wird deutlich schneller sein als Skylake - hier ist Zen1 ja schon echt nah dran (wenn man von AVX2 absieht), aber bei Spielen spielt eben I/O ne größere Rolle.
Es wird aber wohl so sein, dass die Unterschiede kaum noch relevant sind. Ist ja jetzt schon so. Es gibt kein Spiel, dass selbst mit Zen1 irgendwelche Einschränkungen hätte. Das ist alles Jammern auf hohem Niveau. 4 Kerne 4 Threads macht halt keinen Spass mehr, aber das war ja absehbar.
Daredevil
2019-06-07, 10:17:58
AMD sagt ganz klar, sie werden Industry Leader in drei wichtigen Segmenten, die sich der Kunde wünscht.
Single Core Performance, Multi Core Performance und Effizienz.
Ich glaube nicht, dass AMD aktuell in einer Position ist, wo man Quatsch erzählen sollte vor seinen Aktionären.
Demnach sehe ich kein Zweifel daran, dass Intel ( leicht ) geschlagen wird.
Fragman
2019-06-07, 10:32:47
Default Takt könnten sie das werden, zumindest bei den normalen CPU's.
Der Intel 5GHz ist dann aber ein anderer Brocken, wobei der aber auch etwas außer Konkurenz läuft. Allein der Kühlaufwand wird das Ding teuer machen.
SKYNET
2019-06-07, 10:37:20
Default Takt könnten sie das werden, zumindest bei den normalen CPU's.
Der Intel 5GHz ist dann aber ein anderer Brocken, wobei der aber auch etwas außer Konkurenz läuft. Allein der Kühlaufwand wird das Ding teuer machen.
achwas, kommt bestimmt nen passender halter für nen TR kühler, dann geht das schon ;D
dargo
2019-06-07, 10:43:37
5930K ist aber auch nicht die Referenz. Das ist eher der 5820K für damals 400$ ;)
Und wo ist da der Unterschied jetzt? Wenn du den kleinsten Hassi Sixcore nimmst dann musst du als Vergleich auch den kleinsten Sixcore bei Zen(+) nehmen. Dann wären wir bei 114€(130€).
Schnoesel
2019-06-07, 11:00:39
Ich würde auch meine Erwartungen erstmal ein wenig zurückschrauben. Selbst wenn Zen2 "nur" bei Games auf 8700k Niveau liegt. Das wäre doch nicht schlecht, man bedenkt dass der 8700k vor gar nicht allzulanger Zeit die schnellste Gaming CPU war.
Geekbench und Cinebench können mich zumindest nicht beeindrucken, daraus lässt sich die Gaming Performance auch 0 ableiten und AMD hat nur gegen die eigenen CPUs gebencht nicht gegen Intel. Schätze wenn sie den 9900k schlagen könnten in Games hätten sie das gezeigt (Evtl. kommt das noch zur E3 das schließe ich nicht aus). Bis dahin glaube ich nicht das man ohne OC an die Leistung rankommt. Muss man imo auch nicht wenn man Anschaffungspreis, Verbrauch und Anwendungsperformance mit in die Rechung einbezieht.
Erstmal Tests abwarten, danach geht das Hauen und Stechen zwischen den Lagern eh wieder weiter.
Von Vergleichen gegenüber einer Uralt CPU wie den 5820k halte ich auch nix. Jeder der sich den damals gekauft hat konnte sich glücklichschätzen. Der ist heute noch sher gut zu gebrauchen.
SKYNET
2019-06-07, 11:15:37
Ich würde auch meine Erwartungen erstmal ein wenig zurückschrauben. Selbst wenn Zen2 "nur" bei Games auf 8700k Niveau liegt. Das wäre doch nicht schlecht, man bedenkt dass der 8700k vor gar nicht allzulanger Zeit die schnellste Gaming CPU war.
Geekbench und Cinebench können mich zumindest nicht beeindrucken, daraus lässt sich die Gaming Performance auch 0 ableiten und AMD hat nur gegen die eigenen CPUs gebencht nicht gegen Intel. Schätze wenn sie den 9900k schlagen könnten in Games hätten sie das geziegt (Evtl. kommt das noch zur E3 das schließe ich nicht aus). Bis dahin glaube ich nicht das man ohne OC an die Leistung rankommt. Muss man imo auch nicht wenn man Anschaffungspreis, Verbrauch und Anwendungsperformance mit in die Rechung einbezieht.
Erstmal Tests abwarten, danach geht das Hauen und Stechen zwischen den Lagern eh wieder weiter.
Von Vergleichen gegenüber einer Uralt CPU wie den 5820k halte ich auch nix. Jeder der sich den damals gekauft hat konnte sich glücklichschätzen. Der ist heute noch sher gut zu gebrauchen.
nen 8700k wird ziemlich sicher, schon von 3600 non-X geschlagen...
Schnoesel
2019-06-07, 11:17:00
Dein Wort in Gottes Ohr :-)
SKYNET
2019-06-07, 11:24:49
Dein Wort in Gottes Ohr :-)
warum soll ich mir selber was ins ohr reden? :upara:
@Schnoesel
Doch, der 3800X lief in PubG gegen den 9900K.
Aber ich denke auch, 8700K Leistung in Games wäre super!
Schnoesel
2019-06-07, 11:44:36
Das war aber kein Bench mit irgendwelchen Systemangaben. Da wäre ich sehr vorsichtig. Wenn das Ding größtenteils im GPU Limit lief ist die Aussagekraft nahe 0.
Bei Zen1 Release hat AMD auch BF1 und Sniper Elite 4 auf 4k laufen lassen und gegen den 6900k antreten lassen. Dennoch war overall der 6900k in Games die durchgehen schnellere CPU. Ja es hat sich einiges geändert. Zu Zen 1 waren die Spiele nicht auf Zen optimiert, Ram Probleme am Anfang, Takt etc. dennoch denke ich das gesunde Skepsis angebracht ist.
Und glaubt mir keiner wünscht sich so sehr das AMD Intel nass macht. Ob das passieren wird? Hoffen wirs :biggrin:
SKYNET
2019-06-07, 11:47:13
http://is2.4chan.org/g/1558900239858.gif
Schnoesel
2019-06-07, 11:49:46
Made my day :-)
dargo
2019-06-07, 11:51:41
Geekbench und Cinebench können mich zumindest nicht beeindrucken, daraus lässt sich die Gaming Performance auch 0 ableiten und AMD hat nur gegen die eigenen CPUs gebencht nicht gegen Intel. Schätze wenn sie den 9900k schlagen könnten in Games hätten sie das gezeigt (Evtl. kommt das noch zur E3 das schließe ich nicht aus).
Warum wieder so kompliziert? Hier hast du einen Schnitt von 10 Games.
https://www.computerbase.de/thema/prozessor/rangliste/#abschnitt_die_noch_schnellsten_cpus_fuer_spiele
Ich sehe da +26% für den i9-9900K. AMD hatte eigene Benchmarks zwischen +11% bis +34% gezeigt. Im Schnitt der sechs gezeigten Games also +22%. Es wird also je nach Wahl der Games ein Kopf an Kopf Rennen. Optimiert man die (Sub)timings kriegt man halt noch paar Prozent drauf. Und ja... ich weiß, dass man den Speicher bei Intel auch optimieren kann. Bevor der nächste wieder um die Ecke kommt.
SKYNET
2019-06-07, 11:54:15
Warum wieder so kompliziert? Hier hast du einen Schnitt von 10 Games.
https://www.computerbase.de/thema/prozessor/rangliste/#abschnitt_die_noch_schnellsten_cpus_fuer_spiele
Ich sehe da +26% für den i9-9900K. AMD hatte eigene Benchmarks zwischen +11% bis +34% gezeigt. Im Schnitt der sechs gezeigten Games also +22%. Es wird also je nach Wahl der Games ein Kopf an Kopf Rennen. Optimiert man die (Sub)timings kriegt man halt noch paar Prozent drauf. Und ja... ich weiß, dass man den Speicher bei Intel auch optimieren kann. Bevor der nächste wieder um die Ecke kommt.
wenn das speicher tuning auf zen2 soviel bringt wie bei zen/zen+, ist am ende, beide mit getunten speicher... richtig, AMD schneller... weil auf intel bringts %ual ja nur ca. halb soviel wie auf amd :)
dargo
2019-06-07, 11:56:30
Du könntest mal langsam deinen Hypertrain bremsen. Wenn CPU A +/-5% besser/schlechter abschneidet als CPU B ist das für mich die selbe Leistungsklasse. :rolleyes:
ChaosTM
2019-06-07, 12:04:01
Ich spiel in 4k - daher sind die Vor/Nachteile sehr überschaubar bis nicht vorhanden. Ich warte doch lieber auf den 16 Kerner.
rentex
2019-06-07, 12:16:54
@dargo Sehe ich genau so.
robbitop
2019-06-07, 12:28:47
Ich würde auch darauf tippen, dass 9900K und Zen2 bei Spielen im gleichen Korridor liegen. Es wird aber auch Spiele geben, bei denen der 9900K vorn sein wird. IdR sind die abhängig von der Memorylatency. Und an dem 15..20ns Vorteil vom Ringbus wird man IMO wahrscheinlich nicht vorbeikommen.
Zen 2 scheint nicht ganz die Taktraten vom 9900K zu erreichen aber (wenn die Memorylatency nicht relevant ist) eine leicht höhere IPC zu haben.
Max OC vs Max OC und jeweils voll getunter Speicher würde ich darauf tippen, dass der 9900K in Spielen leicht vorn bleibt.
Der Abstand ist dann aber vermutlich nicht mehr so groß, dass ein wirklich fühlbarer Vorteil entsteht IMO.
Was ggf. problematisch sind, sind die 24 Threads vom 12C. Es gab beim Threadripper Launch ja einige Spiele, die mit mehr als 20 Threads nicht klar kamen.
dargo
2019-06-07, 13:15:14
Was ggf. problematisch sind, sind die 24 Threads vom 12C. Es gab beim Threadripper Launch ja einige Spiele, die mit mehr als 20 Threads nicht klar kamen.
Überhaupt kein Problem, machst halt SMT off. Welches Spiel profitiert von mehr als 12 Cores? :tongue: Alternativ halt 2 Cores im Bios für Problemspiele deaktivieren.
robbitop
2019-06-07, 13:25:08
Möglich ist vieles. Aber entweder verzichtet man dann auf SMT (was hin und wieder nett ist) oder man schaltet immer um. Der 16C wäre dafür noch etwas netter. :)
TwoBeers
2019-06-07, 13:42:20
Mal abseits von dem Intel vs. AMD Gerangel.
Was wird eigentlich besser in Spielen laufen? 3900x oder 3800x? Gerade auch wenn es um OC geht. Kann man den 8 Kerner vielleicht höher takten als den 12 Kerner?
Oder werden für den 12 Kerner bessere DIEs benutzt?
Da bin ich mal sehr gespannt. :)
Da würd ich mal drauf wetten, da der 12-Kerner einen höheren Maximaltakt bekommt. War ja bei AMD bisher immer so.
Savay
2019-06-07, 13:46:58
Was wird eigentlich besser in Spielen laufen? 3900x oder 3800x?
Lass mich kurz in die Glaskugel schauen....
....
....
....
....
Die Antwort lautet: Ja, 42! :wink:
Da würd ich mal drauf wetten, da der 12-Kerner einen höheren Maximaltakt bekommt.
Hängt ja wohl davon ab wie die Yields sind und wie stark sie binnen können/müssen.
Wenn Zen+ aber ein Maßstab wäre...was ich vorsichtig bezweifele, da stärker verändert und anderer Fertiger:
Die 2000er TR haben ja auch nen etwas höheren Boost...trotzdem gehen die im Mittel nun auch nicht unbedingt besser als die meisten 2700X.
Wo es wohl eher nen Unterschied geben dürfte: X vs. Non-X
w0mbat
2019-06-07, 13:53:34
Überhaupt kein Problem, machst halt SMT off. Welches Spiel profitiert von mehr als 12 Cores? :tongue: Alternativ halt 2 Cores im Bios für Problemspiele deaktivieren.
Kann man das nicht auch alles in Windows via Ryzen Master?
basix
2019-06-07, 13:54:14
Und wo ist da der Unterschied jetzt? Wenn du den kleinsten Hassi Sixcore nimmst dann musst du als Vergleich auch den kleinsten Sixcore bei Zen(+) nehmen. Dann wären wir bei 114€(130€).
Wieso? Weil der 5930K praktisch keinen Mehrwert ggü. 5820K bot und +50% teurer war. Marktrelevanz deswegen = 0 (nur wenige haben sich den gekauft). Und du hast von 6C Einstieg geredet, und das war definitiv der 5820K.
Aber ansonsten: Ja der 1600er / 2600er ist extrem günstig und deswegen so beliebt ;) An deiner Aussage habe ich den Rest ja nicht bemängelt, durch Ryzen wurden wir mit viel günstigeren und gkeichzeitig starken Kernen beschenkt.
unl34shed
2019-06-07, 13:55:40
Kann man das nicht auch alles in Windows via Ryzen Master?
Braucht meines Wissens ein Neustart.
Savay
2019-06-07, 13:56:29
Kann man das nicht auch alles in Windows via Ryzen Master?
Reboot braucht es dennoch.
Das Tool setzt nur aus Windows raus die Flags für das Bios.
Ist aber trotzdem wesentlich bequemer als im UEFI (Maus Support hin oder her) rumzufummeln, da halt nur 2 Klicks.
w0mbat
2019-06-07, 13:57:24
OK, trotzdem einfacher als ins BIOS zu gehen. Und ein reboot braucht 10s.
dargo
2019-06-07, 13:59:03
Möglich ist vieles. Aber entweder verzichtet man dann auf SMT (was hin und wieder nett ist) oder man schaltet immer um. Der 16C wäre dafür noch etwas netter. :)
Zeig mir bitte welches Game mit 12C/12T langsamer läuft als 8C/16T.
nen 8700k wird ziemlich sicher, schon von 3600 non-X geschlagen...
Wird knapp https://cpu.userbenchmark.com/Compare/AMD-Ryzen-5-3600-vs-Intel-Core-i7-8700K/4040vs3937
(selbst der 9700K ist nur ~7% vorne, kostet aber ~das Doppelte)
(da bekomm ich direkt Lust darauf nen 3600 zum Spaß zu grillen^^)
m.f.g. JVC
Leonidas
2019-06-07, 14:23:24
AMD sagt ganz klar, sie werden Industry Leader in drei wichtigen Segmenten, die sich der Kunde wünscht.
Single Core Performance, Multi Core Performance und Effizienz.
... und jetzt muß man davon nach die kreative Umschreibung des Marketings abziehen, dann kommt man der Wahrheit am nächsten. Dazu ist zu beachten, wie das Marketing letztlich vorgeht:
1. Wie umschreibt man am besten Dinge, die negativ sind?
2. Wie läßt man etwas nach viel mehr klingen, als es eigentlich ist?
3. Regelrecht falsch darf keine Aussage sein, Mehrdeutigkeit ist Trumpf.
Für mich bedeutet das, ketzerisch gesprochen, das AMD mit seiner Aussage darauf hofft, das wir sie für die Spiele-Performance beziehen, obwohl sie dafür nicht gedacht/ausgelegt ist. Gerade die Nennung der "Single Core Performance" zeigt an, das hierbei theoretische Benchmarks im Einsatz waren, so etwas misst schließlich niemand im Spielebereich. Ergo heisst das ganze: Tolle Anwendungs-Performance, Effizienz - aber Spiele-Performance nur zweiter Sieger. Spekulation Ende.
TwoBeers
2019-06-07, 14:23:57
Wo es wohl eher nen Unterschied geben dürfte: X vs. Non-X
Das auf alle Fälle, das war ja schon bei Zen so (wenn auch nicht so ausgeprägt), bzw Zen+ (wo es schon einen ganz schönen Unterschied ausmacht = OC beim X quasi nicht mehr nötig).
Was ich mich eher frage, ob ein 12 Kerner schneller in sein Temp/Power Limit läuft, als der 8 Kerner und deswegen PBO/OC bei dem 8 Kerner höher geht?!
Aber ein besserer DIE beim 12 Kerner könnte das wieder ausgleichen.
Hmm..
SKYNET
2019-06-07, 14:25:28
Zeig mir bitte welches Game mit 12C/12T langsamer läuft als 8C/16T.
denke eher 12C/12T dürfte schneller sein in den meisten game situationen als 8C/16T...
1. Wie umschreibt der Hersteller am besten Dinge, die negativ sind?
2. Wie läßt man etwas nach viel mehr klingen, als es eigentlich ist?
3. Regelrecht falsch darf keine Aussage sein, Mehrdeutigkeit ist Trumpf.
Na dann beurteile alle Hersteller bitte mal nach den gleichen Regeln :smile:
(Schindluder betreiben alle, aber ich sehe AMD bei weitem nicht an erster Stelle ^^)
m.f.g. JVC
Oddzz
2019-06-07, 14:32:19
Kann man das nicht auch alles in Windows via Ryzen Master?
Man kann auch einfach sowas wie Process Hacker 3 (https://wj32.org/processhacker/nightly.php) als Task Manager-Ersatz nehmen und die Affinity entsprechend einstellen für jeden einzelnen Prozess. Mit meinem 6-Kerner wären das dann die Kerne 0 2 4 6 8 10. Kann man dann einfach abspeichern und immer wenn der Prozess startet werden nur die "echten" Kerne verwendet. Alternativ geht auch ProcessLasso oder simple Batch Dateien, aber mir gefällt PH3 am besten.
aufkrawall
2019-06-07, 14:36:01
Das funktioniert nicht immer nebenwirkungsfrei bez. Performance-Nachteilen. Könnte allerdings trotzdem häufig eine zufriedenstellende Lösung sein.
dargo
2019-06-07, 14:40:10
Für mich bedeutet das, ketzerisch gesprochen, das AMD mit seiner Aussage darauf hofft, das wir sie für die Spiele-Performance beziehen, obwohl sie dafür nicht gedacht/ausgelegt ist. Gerade die Nennung der "Single Core Performance" zeigt an, das hierbei theoretische Benchmarks im Einsatz waren, so etwas misst schließlich niemand im Spielebereich. Ergo heisst das ganze: Tolle Anwendungs-Performance, Effizienz - aber Spiele-Performance nur zweiter Sieger. Spekulation Ende.
Was für theoretische Benchmarks? Auf der AMD-Folie sind 6 Games zu sehen.
Brillus
2019-06-07, 14:41:27
Überhaupt kein Problem, machst halt SMT off. Welches Spiel profitiert von mehr als 12 Cores? :tongue: Alternativ halt 2 Cores im Bios für Problemspiele deaktivieren.
Man bräuchte halt ein tool das CPUs für Anwendungen cersteckt wie es früher zu Doszeiten welche gab um ram zu verstecken für Spiele die mit mehr als 16mb nicht liefen. (OT: wenn ich dran denke das ich nun 16gb im Rechner habe)
Wäre ja fast wichtig,
das es Spiele gibt wo Intel schneller ist
und auch welche wo AMD schneller ist.
Bei einem eindeutigen Sieger würde mir in den Foren fast Etwas fehlen ^^
m.f.g. JVC
CompuJoe
2019-06-07, 14:54:43
Man kann auch einfach sowas wie Process Hacker 3 (https://wj32.org/processhacker/nightly.php) als Task Manager-Ersatz nehmen und die Affinity entsprechend einstellen für jeden einzelnen Prozess. Mit meinem 6-Kerner wären das dann die Kerne 0 2 4 6 8 10. Kann man dann einfach abspeichern und immer wenn der Prozess startet werden nur die "echten" Kerne verwendet. Alternativ geht auch ProcessLasso oder simple Batch Dateien, aber mir gefällt PH3 am besten.
Ich nutze Process Lasso schon sehr lang, besonders bei Spielen die nicht auf Ryzen optimiert sind bringt das oft sehr viel.
Manche ältere Spiele mögen es nicht von CCX zu CCX geschubst zu werden.
Zossel
2019-06-07, 14:58:23
Ich nutze Process Lasso schon sehr lang, besonders bei Spielen die nicht auf Ryzen optimiert sind bringt das oft sehr viel.
Manche ältere Spiele mögen es nicht von CCX zu CCX geschubst zu werden.
Ist dieser Bug in Windows immer noch nicht gefixt?
SKYNET
2019-06-07, 15:03:36
Ist dieser Bug in Windows immer noch nicht gefixt?
also nen TR2950X hat eigentlich keine probleme mehr in games...
CompuJoe
2019-06-07, 15:04:16
Ist dieser Bug in Windows immer noch nicht gefixt?
Es liegt nicht immer am Windows Scheduler, manchmal ist einfach die Software blöd.
Und wenn mehr als ein Thread genutzt wird schmeißt Windows immer noch alles hin und her wie es lustig ist.
Aber ich habe mich seit ein paar Monaten nicht mehr damit beschäftigt, müßte ich mal wieder tun.
mironicus
2019-06-07, 15:23:06
Gibt es eigentlich eine Ryzen Tweaker Software mit der man die CPU in Windows untervolten kann, bzw. jeder Taktstufe (P0, P1, P2...) die Voltzahl festlegen kann? Ich verwende auf einem alten Phenom II-System noch eine Software die Phenom MSR Tweaker heißt, damit kann ich genau das tun und das Programm läuft als Service im Hintergrund.
Vielleicht kann man den R3900x so untervolten das er deutlich unter 100 Watt zieht beim Enkodieren von Videos, so 90-85 Watt. :)
robbitop
2019-06-07, 15:39:16
Zeig mir bitte welches Game mit 12C/12T langsamer läuft als 8C/16T.
Darauf bezog ich mich nicht. :)
Sondern dass 16C/16T netter wäre. Dass 12C/12T ausreichend sind in den meisten Fällen aktuell, glaube ich gern. Es ist einfach nett immer SMT anzuhaben. Sollte es in Spielen mal was bringen, muss ich es nicht austesten. Und in Anwendungen bringt es hin und wieder schon was. Mehr wollte ich gar nicht ausdrücken. :)
SKYNET
2019-06-07, 15:47:59
Darauf bezog ich mich nicht. :)
Sondern dass 16C/16T netter wäre. Dass 12C/12T ausreichend sind in den meisten Fällen aktuell, glaube ich gern. Es ist einfach nett immer SMT anzuhaben. Sollte es in Spielen mal was bringen, muss ich es nicht austesten. Und in Anwendungen bringt es hin und wieder schon was. Mehr wollte ich gar nicht ausdrücken. :)
hoffe nur, AMD fängt nicht sonen schrott an wie intel, und bringt CPUs(ab 6 kerne) ohne SMT...
Thunderburne
2019-06-07, 16:17:30
Och ich fänd nen 16 Core ohne HT auch nice.
SKYNET
2019-06-07, 16:27:10
Och ich fänd nen 16 Core ohne HT auch nice.
https://thumbs.gfycat.com/ImperfectUntidyGopher-size_restricted.gif
:ulol:
Thunderburne
2019-06-07, 16:34:47
Besser als ein 12 Kern mit SMT.
Leonidas
2019-06-07, 16:46:55
Na dann beurteile alle Hersteller bitte mal nach den gleichen Regeln :smile:
(Schindluder betreiben alle, aber ich sehe AMD bei weitem nicht an erster Stelle ^^)
Das war nicht auf AMD gemünzt, sondern eher allgemein gesprochen.
Was für theoretische Benchmarks? Auf der AMD-Folie sind 6 Games zu sehen.
... gegen sich selber. Damit gewinnt man keine Performance-Leadership. Die gewinnt man nur gegen Intel.
PS: Das soll nicht bedeuten, das es nicht klappen könnte für AMD. AMD hat es nur nicht spezifisch versprochen.
Och ich fänd nen 16 Core ohne HT auch nice.
Mich würde eher eine Mechanik unter Windows anturnen, wo Windows je nach vorliegender Software dieser (nur dieser) nur echtre CPU-Kerne zum arbeiten gibt. D.h. Deaktivierung/Aktivierung von HT/SMT volldynamisch und vor allem Software-bezogen. Sprich, während sich die CPU mit dem Spiel XYZ ohne HT/SMT abmüht, liegen für andere Programme weiterhin die HT/SMT-Ressourcen vor. Allerdings vermutlich nur ein Wunschtraum. Bevor so etwas realisiert wird, hat wohl auch die letzte Software dann HT/SMT begriffen.
Nein ich will nicht auf den 16Kerner warten :freak:
Oder weis man schon wie viel später der einschlägt?
Ich habs bis jetzt mit 4Kernen ausgehalten,
da werd ich doch wohl mit 12 genug haben :O
Wenn nur nicht der Basteltrieb wäre ^^
m.f.g. JVC
SKYNET
2019-06-07, 16:52:54
Besser als ein 12 Kern mit SMT.
nö, der 12/24er wird in jedem fall schneller sein als der 16/16... und das bei weniger verlustleistung ;)
Nein ich will nicht auf den 16Kerner warten :freak:
Oder weis man schon wie viel später der einschlägt?
Ich habs bis jetzt mit 4Kernen ausgehalten,
da werd ich doch wohl mit 12 genug haben :O
Wenn nur nicht der Basteltrieb wäre ^^
m.f.g. JVC
mir puppe, im schlimmsten fall wird der 12er wieder vertickt... AMD isnd ja ziemlich preisstabil, wenn ich sehe für wieviel gebrauchte 2700X auf ebay & co. weggehen :freak:
BlacKi
2019-06-07, 18:14:49
mir puppe, im schlimmsten fall wird der 12er wieder vertickt... AMD isnd ja ziemlich preisstabil, wenn ich sehe für wieviel gebrauchte 2700X auf ebay & co. weggehen :freak:
die topmodelle eher nicht. siehe 1800x XD und was ist der 3900x? ein teures topmodell.
Thunderburne
2019-06-07, 18:21:54
nö, der 12/24er wird in jedem fall schneller sein als der 16/16... und das bei weniger verlustleistung ;)
https://youtu.be/RXjEU7gjq2o
Für Spiele bezweifle ich das.
Thunderburne
2019-06-07, 18:24:53
nö, der 12/24er wird in jedem fall schneller sein als der 16/16... und das bei weniger verlustleistung ;)
Für Spiele bezweifle ich das.
https://www.youtube.com/watch?v=RXjEU7gjq2o&feature=youtu.be
@Thunderburne
Die echten Zocker wissen, das mans besser deaktiviert ;)
Egal ob bei Intel oder AMD ...
m.f.g. JVC
rentex
2019-06-07, 18:45:53
Warum sollte momentan, alles oberhalb eines 8C/16T plötzlich besser zum Gamen geeignet sein? Hängt ja immer noch von der Game Engine ab🤷*♂️
In Anwendungen wird es wie immer anders aussehen.
Es wird ein klarer Gleichstand AMD/Intel in der Performance erwartet, mit Vorteilen für AMD im Verbrauch und Infrastruktur (X570). Preislich wird es aber dann wirklich interessant...
Linmoum
2019-06-07, 18:49:05
die topmodelle eher nicht. siehe 1800x XD und was ist der 3900x? ein teures topmodell.
Der 1800X war ja auch von Anfang an zu teuer, da man für $100 bzw. $170 weniger einen 1700(X) bekommen hat. Das Problem hatte der 2700X nicht, der ist auch deswegen seit Release extrem preisstabil gewesen.
Das wird genauso beim 3900X der Fall sein. 12C/24T als Alleinstellungsmerkmal im Mainstream-Sockel beider Hersteller, dazu im Vergleich zum 3700X/3800X durch zwei Chiplets zusätzlich den (fast) doppelten Cache. Einzig vergleichbares Produkt ist ein 2920X der langsamer ist, weniger Cache hat, mehr Strom säuft und auf einer teureren Plattform ist. Also komplett unattraktiv.
Warum sollte momentan, alles oberhalb eines 8C/16T plötzlich besser zum Gamen geeignet sein?
Naja jetzt wo langsam Mehrkernunterstützung in Spiele einkehrt,
haben sich schon viele diese Frage gestellt.
Die Frage ist eher, wie lange du die CPU nutzen willst!
Bei ~2 Jahren, würde ich wenns preisbewusst sein soll zu 6/12 raten.
Bei bis zu 4Jahren, zu 8/16.
Strebt man etwas mehr an sind 10/20 anzuraten.
ABER wenn man sich gerne "langwierige Wegefährten" zusammen baut :wink:
Würde ich zu mindestens 12/24 eher 16/32 raten :tongue:
Aber das wäre nur eine spontane Einschätzung von mir
ohne zu wissen was du mit dem Rechner machen willst
oder auch nur dein Budget zu kennen ...
m.f.g. JVC
Benutzername
2019-06-07, 19:06:28
Naja jetzt wo langsam Mehrkernunterstützung in Spiele einkehrt,
haben sich schon viele diese Frage gestellt.
Die Frage ist eher, wie lange du die CPU nutzen willst!
Bei ~2 Jahren, würde ich wenns preisbewusst sein soll zu 6/12 raten.
Bei bis zu 4Jahren, zu 8/16.
Strebt man etwas mehr an sind 10/20 anzuraten.
ABER wenn man sich gerne "langwierige Wegefährten" zusammen baut :wink:
Würde ich zu mindestens 12/24 eher 16/32 raten :tongue:
Aber das wäre nur eine spontane Einschätzung von mir
ohne zu wissen was du mit dem Rechner machen willst
oder auch nur den Budget zu kennen ...
m.f.g. JVC
Ehrlich Meine einschätzung ist, es wird die Anzahl der Kerne durch die nächste Generation der Konsolen begrenzt werden. Also mit 8/16 kommt man locker die nächsten vier fünf Jahre hin. Selbst 6/12 sollten locker reichen. klar,wird ein paar Ausnahmespiele geben, die alles ausreizen können und sogar eine Threadripper auslasten, aber das wird die große Ausnahme sein. Warumsollten die Engineprogrammierer für nur eine kleinen Teil der möglichen Ahrdware so eine Mühe machen? Selbst die meisten PCs werden nciht so viele Kerne haben.
tm0975
2019-06-07, 19:16:30
Ehrlich Meine einschätzung ist, es wird die Anzahl der Kerne durch die nächste Generation der Konsolen begrenzt werden. Also mit 8/16 kommt man locker die nächsten vier fünf Jahre hin. Selbst 6/12 sollten locker reichen. klar,wird ein paar Ausnahmespiele geben, die alles ausreizen können und sogar eine Threadripper auslasten, aber das wird die große Ausnahme sein. Warumsollten die Engineprogrammierer für nur eine kleinen Teil der möglichen Ahrdware so eine Mühe machen? Selbst die meisten PCs werden nciht so viele Kerne haben.
das ist doch unbestritten. aber warum sollte ich meine cpu deshalb begrenzen. gibt ja noch einiges, was im hintergrund laufen könnte, hängt natürlich von den hobbies des anwenders ab. bei mir ist videobearbeitung während des zockens z.b. kein problem.
? Ok, das wahr vielleicht nicht ganz offensichtlich ... Mein Fehler.
Mein letzter Post war ne "nostradamusvorhersage" :freak:
Da ist von nix bis allem je nach dem und aber alles drinnen :wink:
(SRY dachte das war offensichtlich genug ... nicht streiten)
m.f.g. JVC
BlacKi
2019-06-07, 19:27:13
Der 1800X war ja auch von Anfang an zu teuer, da man für $100 bzw. $170 weniger einen 1700(X) bekommen hat. Das Problem hatte der 2700X nicht, der ist auch deswegen seit Release extrem preisstabil gewesen.
Das wird genauso beim 3900X der Fall sein. 12C/24T als Alleinstellungsmerkmal im Mainstream-Sockel beider Hersteller, dazu im Vergleich zum 3700X/3800X durch zwei Chiplets zusätzlich den (fast) doppelten Cache. Einzig vergleichbares Produkt ist ein 2920X der langsamer ist, weniger Cache hat, mehr Strom säuft und auf einer teureren Plattform ist. Also komplett unattraktiv.
mit dem 16c auf dem markt wird der 12c ziemlich im wert fallen. dem 2700x wird das demnächst auch passieren. einen beachtlichen dropp gabs beim 1800x ebenfalls als der 2700x kam.
Warum sollte momentan, alles oberhalb eines 8C/16T plötzlich besser zum Gamen geeignet sein? Hängt ja immer noch von der Game Engine ab*♂️
In Anwendungen wird es wie immer anders aussehen.
Es wird ein klarer Gleichstand AMD/Intel in der Performance erwartet, mit Vorteilen für AMD im Verbrauch und Infrastruktur (X570). Preislich wird es aber dann wirklich interessant...
man geht von einem höheren boost aus. 4,7ghz stehen im raum.
Daredevil
2019-06-07, 22:50:20
... und jetzt muß man davon nach die kreative Umschreibung des Marketings abziehen, dann kommt man der Wahrheit am nächsten. Dazu ist zu beachten, wie das Marketing letztlich vorgeht:
1. Wie umschreibt man am besten Dinge, die negativ sind?
2. Wie läßt man etwas nach viel mehr klingen, als es eigentlich ist?
3. Regelrecht falsch darf keine Aussage sein, Mehrdeutigkeit ist Trumpf.
Für mich bedeutet das, ketzerisch gesprochen, das AMD mit seiner Aussage darauf hofft, das wir sie für die Spiele-Performance beziehen, obwohl sie dafür nicht gedacht/ausgelegt ist. Gerade die Nennung der "Single Core Performance" zeigt an, das hierbei theoretische Benchmarks im Einsatz waren, so etwas misst schließlich niemand im Spielebereich. Ergo heisst das ganze: Tolle Anwendungs-Performance, Effizienz - aber Spiele-Performance nur zweiter Sieger. Spekulation Ende.
Hier das Zitat, es geht speziell um Gaming:
https://youtu.be/ml7rHtCHoFE?t=60
"Gamers want Single Threadet performance, they want Multi Threadet Performance and they want Power Efficiency and 3rd Gen Ryzen is the Industry Leader in all three of those"
Screemer
2019-06-08, 05:09:34
Ist ein ziemlicher bold claim. Hoffentlich machen die da nicht nur auf dicke Hose.
robbitop
2019-06-08, 07:55:24
Ggf unter der Einschränkung der Einhaltung der TDP?
dildo4u
2019-06-08, 08:16:38
Jup 9900k@95 Watt sollte Schlagbar sein,der All Core Boost sollte dort unter 4.5ghz liegen.
nairune
2019-06-08, 09:25:10
Wenn wir schon mal dabei sind: Der Mikrotext ständig nervt auch.
---
Für den 12C befürchte ich auch einen stärkeren Wertverlust (alleine schon durch den high end Preis), allerdings hat er im Vergleich zum 1800X damals den Vorteil, einen echten Mehrwert in Form von 50% mehr Kernen zu haben. Solang die Preissenkung nicht durch AMD mit dem 16C kommt, schätze ich müsste man schon eine Weile warten, um ihn billig zu bekommen. Also mindestens auf die nächste Generation.
rentex
2019-06-08, 09:35:02
@JVC: Vier bis Fünf Jahre sind angepeilt.
Mit freundlichen Grüßen
rentex
😉
Hier liegen die Nerven blank :D.
Ist euch mal aufgefallen, dass AMD in Wirklichkeit voll die Retro-Schiene fährt? Mainboardchipsätze mit Propeller, die Rückkehr der Northbridge (wenn auch auf dem Träger :D). Erinnert alles ein bisschen an späte 90er.
Mal zum Auflockern.
Menace
2019-06-08, 10:02:58
Ich verstehe es auch nicht (liegt es am Wetter?). Schlechter wird das Produkt nicht werden (Mainboard kann man ja auch 4X0er nehmen) und Ryzen 1+ ist doch auch schon ganz passabel. Selbst wenn der 9900K eindeutig in den Spielen vorne liegt (eindeutig ist ja hier schon 5+%), so what. Jeder kann entsprechend seines Anwendungsprofils zuschlagen.
Mich überrascht es aber in den letzten zwei Jahren, dass der hier schon als tot proklamierte Hersteller doch so ordentlich intel vor sich her scheuchen kann (siehe Super-PC in Norwegen).
kommt doch auch noch der 550er
x-force
2019-06-08, 10:09:52
Erinnert alles ein bisschen an späte 90er.
bis auf die preise.
athlon 600 600dm 1dm/mhz, passendes gutes mainboard 150dm
das war halbwegs günstig für ein topmodell, heute verdienen amd und mainboardhersteller wesentlich besser.
SavageX
2019-06-08, 10:22:20
bis auf die preise.
athlon 600 600dm 1dm/mhz, passendes gutes mainboard 150dm
das war halbwegs günstig für ein topmodell, heute verdienen amd und mainboardhersteller wesentlich besser.
Heute sind "Top-Mainboards" aber meinem Gefühl nach auch vollkommen vollgestopft mit Zeugs, welches in die Ecke Overclocking, Unlocking, Zusatzcontrollerzeugs, RGB-Bling und "Military-Style" geht. Bei Top-Mainboards aus der Jahrhundertwende war man gut bedient mit "läuft stabil und schnell" - fertig.
Eigentlich möchte ich, dass meine Mainboards so aussehen: https://www.heise.de/ct/artikel/Test-Sparsames-Mainboard-Fujitsu-D3643-H-fuer-Intel-Core-i-8000-4157333.html - da ist der Ofen aber wohl auch aus.
Wenn wir schon mal dabei sind: Der Mikrotext ständig nervt auch.
Weck lassen oder alles groß schreiben ?
(der Mikrotext dient nur als zusätzliche Erklärung,
da ich das Gefühl habe öfter mal missverstanden zu werden)
(auf meinem Schirm ist auch der Mikrotext "riesig" ^^)
MFG . JVC
Hm binn hald "alte Schule" ... mal schaun ob ichs mir abgewöhnen kann ^^
Tyrann
2019-06-08, 10:32:44
Eigentlich möchte ich, dass meine Mainboards so aussehen: https://www.heise.de/ct/artikel/Test-Sparsames-Mainboard-Fujitsu-D3643-H-fuer-Intel-Core-i-8000-4157333.html - da ist der Ofen aber wohl auch aus.
https://geizhals.de/asrock-rack-x470d4u-a2009567.html?hloc=de
;)
SavageX
2019-06-08, 10:41:12
https://geizhals.de/asrock-rack-x470d4u-a2009567.html?hloc=de
;)
Oh, sehr nice, nur halt sehr wenige USB-Ports hinten und keine digitalen Displayausgänge (der VGA-Port hängt am Aspeed Management-Controller).
Aber hier sieht man mal, wie schlicht VRMs aussehen können, die einen 2700X mit 105 Watt TDP zuverlässig in der Luft halten können. Aktuelles UEFI: "Support Ryzen 7nm CPU" - die passen auch rein.
Tyrann
2019-06-08, 11:04:07
ja, ist halt als Serverboard gedacht
SKYNET
2019-06-08, 11:15:08
bis auf die preise.
athlon 600 600dm 1dm/mhz, passendes gutes mainboard 150dm
das war halbwegs günstig für ein topmodell, heute verdienen amd und mainboardhersteller wesentlich besser.
günstig? willst also jetzt auch pro MHz eine mark = 50 cent zahlen? und das pro core versteht sich ;D
N0Thing
2019-06-08, 12:00:27
Weck lassen oder alles groß schreiben ?
(der Mikrotext dient nur als zusätzliche Erklärung,
da ich das Gefühl habe öfter mal missverstanden zu werden)
(auf meinem Schirm ist auch der Mikrotext "riesig" ^^)
MFG . JVC
Hm binn hald "alte Schule" ... mal schaun ob ichs mir abgewöhnen kann ^^
Ein Text in einheitlicher Größe ist angenehmer zu lesen, einen erläuternden Zusatz kann man auch ganz normal mit einem zweiten Satz hinzufügen. ;)
https://geizhals.de/asrock-rack-x470d4u-a2009567.html?hloc=de
;)
Ein bisschen hübscher dürften Mainboards für mich schon aussehen, aber eine andere Farbe des PCBs würde da schon ausreichen. Diese grünen PCBs verbinde ich ebenso wie weiße Plastikgehäuse mit Elektroschrott aus den 90ern.
SKYNET
2019-06-08, 13:03:56
weisse gehäuse? du meisnt wohl eher mausgrau :D
Piefkee
2019-06-08, 13:22:42
https://pbs.twimg.com/media/D8httlSWkAE64H9?format=png&name=small
Jetzt ist es amtlich, Rome hat doch einen ordentlichen Base Clock von 2,2Ghz
Zossel
2019-06-08, 13:27:03
Diese grünen PCBs verbinde ich ebenso wie weiße Plastikgehäuse mit Elektroschrott aus den 90ern.
Dabei ist grüner Lötstopp der hochwertigste.
Linmoum
2019-06-08, 13:31:47
https://pbs.twimg.com/media/D8httlSWkAE64H9?format=png&name=small
Jetzt ist es amtlich, Rome hat doch einen ordentlichen Base Clock von 2,2Ghz
Viel relevanter sind doch die 225W TDP, nachdem zuletzt ja (auch) von 240W die Rede war.
Das wird ein wahres Massaker geben. 225W Rome vs. 350/400W Cascade Lake.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.