Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020
][immy
2019-03-14, 11:15:43
Bei 7nm hat man wesentlich mehr Prozessschritte und Masken. Von daher ist die Fehlerwahrscheinlichkeit schonmal höher als bei 14nm. Durch den höheren Aufwand ist 7nm also nicht per se billiger.
Durch 7nm ergeben sich keine relevanten Kostenvorteile gegenüber 14nm.
Vorteil 7nm ist halt: kleinerer Chip und geringerer Verbrauch.
zu Vega Packdichte:
Vega 10 495mm²
Vega 20 331mm²
Der Faktor 2x bezeiht sich auf die Logik, nicht auf den Chip und den I/O.
nicht zu vergessen, das man bei Vega VII wohl nicht umsonst 4 CUs deaktiviert hat. Dürfte passiert sein um möglichst viele Chips verwenden zu können, was wieder darauf hinweist, das die Yields zumindest aktuell wohl alles andere als gut sind. Zudem liefert man noch eine defekte GPU gleich mit (wenn vielleicht auch nur bei den Reviewern).
Wundert mich aber wirklich das sie nicht noch ein Abfallprodukt erstellt haben mit noch mehr deaktivierten CUs mit weniger Takt. verkauft werden. auch der HBM Speicher ließe sich sicherlich zu teilen deaktivieren wenn dort Fehler vorhanden sind. Aber da man Vega VII über den eigenen 14nm Karten positioniert hat, mag es auch einfach daran liegen, das man sich keine eigene Konkurrenz schaffen wollte. Oder das kommt noch.
Bei 7nm hat man wesentlich mehr Prozessschritte und Masken. Von daher ist die Fehlerwahrscheinlichkeit schonmal höher als bei 14nm. Durch den höheren Aufwand ist 7nm also nicht per se billiger.
Durch 7nm ergeben sich keine relevanten Kostenvorteile gegenüber 14nm.
Vorteil 7nm ist halt: kleinerer Chip und geringerer Verbrauch.
zu Vega Packdichte:
Vega 10 495mm²
Vega 20 331mm²
Der Faktor 2x bezeiht sich auf die Logik, nicht auf den Chip und den I/O.
Klar ist die Fehleranfälligkeit höher. Wenn man damit trotzdem gute Yields schafft ist das aber schlechtweg egal.
][immy
bei V20 sind 4 CUs deaktiviert, weil man keinen vollen Chip vorgesehen hat für den Consumermarkt. Wofür auch? Natürlich ist das Yieldoptimierung, aber das hat mit dem Prozess nix zu tun, das hätten die so oder so gemacht.
Ein V20 mit weniger HBM hätte sicherlich ein neues Package und neuen Interposer gebraucht, das hat man sich gespart. Man hat eh Produktionskapazität bei GloFo übrig, lohnt sich also nicht, die knappen TSMC-Ressourcen für den V10-Markt zu verschwenden. Da spielen so viele Dinge mit hinein, dass V20 im V10-Markt dennoch billiger wäre, hat damit wenig zu tun.
V20 war der Pipecleaner für 7nm HPC. Das hat gut funktioniert, so gut, dass man die Dinger jetzt sogar im Consumermarkt verscherbelt. So rum ist es richtig gedacht.
amdfanuwe
2019-03-14, 11:28:17
Klar ist die Fehleranfälligkeit höher.
Einigen wir uns darauf: Die Kosten für einen Transistor sind in 7nm geringer.
Durch den erhöhten Aufwand in der Produktion und in der Entwicklung bleiben die Kosten für einen Chip in 7nm und 14 nm nahezu gleich.
Durch 7nm ergibt sich (noch) kein Kostenvorteil für einen Chip.
w0mbat
2019-03-14, 11:34:47
Wir wissen nur eines: wir wissen zu wenig um die genauen Kosten von 14nm und 7nm zu vergleichen.
Klar, die Speku dass 7nm in der Produktion günstiger sind, die erhöhten Kosten in der Entwicklung das aber wieder aufwiegen, ist plausibel. Aber es sind nur Spekulationen.
amdfanuwe
2019-03-14, 11:45:36
[immy;11949073']
Wundert mich aber wirklich das sie nicht noch ein Abfallprodukt erstellt haben mit noch mehr deaktivierten CUs mit weniger Takt. verkauft werden. auch der HBM Speicher ließe sich sicherlich zu teilen deaktivieren wenn dort Fehler vorhanden sind. Aber da man Vega VII über den eigenen 14nm Karten positioniert hat, mag es auch einfach daran liegen, das man sich keine eigene Konkurrenz schaffen wollte. Oder das kommt noch.
Der Takt und die 4CUs weniger werden schon so gewählt sein, dass nicht mehr viel Abfall bleibt.
Der HBM wird geprüft zugekauft. Da gibt es keine Fehlerhaften.
Radeon 7 bringt mehr Leistung als Vega 64. Warum sollte man sie anders positionieren? Sie ist fast gleichschnell wie die Konkurrenz zu dem Preispunkt und bringt noch Features wie doppelten Speicher und höhere DP Leistung mit. Passt doch. Der reine Gamer wird eher zu Nvidia greifen, für die mit weiteren Interessen wie Videobearbeitung... ist Radeon 7 das bessere Paket.
Im Preis runtergehen kann man schließlich immer noch wenn sich das Lager füllt.
Man könnte das auch anders aufziehen: Die vollwertige MI60 wird so gut nachgefragt, dass genügend MI50 in eingeschränkter Form als Radeon VII für den Consumermarkt übrig bleiben.
amdfanuwe
2019-03-14, 12:09:18
Wir wissen nur eines: wir wissen zu wenig um die genauen Kosten von 14nm und 7nm zu vergleichen.
Klar, die Speku dass 7nm in der Produktion günstiger sind, die erhöhten Kosten in der Entwicklung das aber wieder aufwiegen, ist plausibel. Aber es sind nur Spekulationen.
Stimm ich dir zu.
Im Prinzip geht es nur darum: Früher konnte man in einem kleineren Prozessnode mehr Kerne oder mehr CUs draufpacken und den Chip zum geichen Preis anbieten. Bei gleicher Fläche blieb der Preis nahezu gleich.
Das klappt mit 7nm nicht mehr. In 7nm kostet der mm² nahezu doppelt soviel wie in 14nm. Vielleicht wird es mit EUV 7nm+ oder 5nm wieder günstiger.
Windi
2019-03-14, 12:16:44
Es gab jetzt ja schon öfters Fertigungsverfahren von TSMC, die nicht wirklich billiger pro Transistor geworden sind. Die paar Kunden die diese Verfahren dann nutzten, waren dann vor allem am niedrigeren Stromverbrauch oder höheren Taktraten interessiert. Sah man dann sehr gut im Smartphonemarkt, wo diese "besseren" Verfahren dann nur für die teuren Highend Modelle genutzt wurden. Auch Jahre später stellte keiner seine Mainstreammodelle auf diese Fertigungsverfahren um.
Ähnlich sieht es momentan für den 7nm Prozess aus. Apple läßt schon seit einem dreiviertel Jahr in gigantischen Stückzahlen problemlos fertigen. Trotzdem schafft es TSMC nicht die restliche Kundschaft dafür zu begeistern. Wenn wirklich der selbe Chip von 14nm in 7nm geschrumpft günstiger wäre, dann würden denen alle die Tür einrennen.
Bei AMD macht der 7nm Prozess natürlich Sinn, da man mit den höheren Taktraten Intel weiter einholen (überholen) kann. Auch ist der gesenkte Stromverbrauch sehr nützlich, wenn man einen Serverprozessor mit 64 Kernen auflegen will.
Zusätzlich kann man dank des Chipletdesigns alles auslagern, was unnötigerweise die neue teure Fertigung verschwenden würde.
Wäre 7nm wirklich so "billig", dann würde der Markt nicht so reagieren.
Wir wissen nur eines: wir wissen zu wenig um die genauen Kosten von 14nm und 7nm zu vergleichen.
Klar, die Speku dass 7nm in der Produktion günstiger sind, die erhöhten Kosten in der Entwicklung das aber wieder aufwiegen, ist plausibel. Aber es sind nur Spekulationen.
Genau, das ist das Problem. Die Produktion ist deutlich günstiger (nur wenn der Yield stimmt natürlich), die Entwicklung erheblich teurer (1/3 mehr Mannstunden als 14nm AFAIK).
mboeller
2019-03-14, 12:54:54
ich weiß ja nicht wie ihr alle auf die Idee kommt, dass ein 7nm Transistor genauso teuer ist wie ein 14nm Transistor.
Hier steht das Gegenteil. Hab extra was zu TSMC gesucht:
https://www.quora.com/Are-there-ways-to-build-transistors-much-cheaper-than-what-intel-does-in-its-CPUs
https://qph.fs.quoracdn.net/main-qimg-d1f2ff5a55887e445a0e2d3edb7feb60
hier steht was ähnliches, aber TSMC wird nicht direkt erwähnt. Der 16nm Prozess sollte aber der TSMC Prozess sein:
https://electroiq.com/2017/02/innovations-at-7nm-to-keep-moores-law-alive/
http://semimd.com/wp-content/uploads/2017/01/cost-projections.jpg
Der Fortschritt ist nicht mehr so groß wie früher, aber definitiv vorhanden.
amdfanuwe
2019-03-14, 13:13:17
ich weiß ja nicht wie ihr alle auf die Idee kommt, dass ein 7nm Transistor genauso teuer ist wie ein 14nm Transistor.
Das liegt daran, das die Waferkosten zwar höher sind aber auch die Cell Density hoch geht, also mehr Transistoren draufpassen.
Wenn du dir das Diagrammm " Relativ Cost per Unit" anschaust, siehst du ja auch, das die Kosten bei 7nm nicht wesentlich runtergehen.
Da die Diagramme auch schon ein paar Jahre alt sind stellt sich jetzt die Frage, ob sie da schon mit 7nm EUV gerechnet haben oder den aktuellen 7nm Prozess zugrunde legen, der ja teurer sein dürfte als EUV.
2016 kam ja grade 16nm auf und die Diagramme verdeutlichen, warum sich 20nm nicht gelohnt haben und die Firmen direkt auf 16nm gingen. Für die Nodes danach sind es ja nur Schätzungen.
M4xw0lf
2019-03-14, 13:15:24
ich weiß ja nicht wie ihr alle auf die Idee kommt, dass ein 7nm Transistor genauso teuer ist wie ein 14nm Transistor.
Hier steht das Gegenteil. Hab extra was zu TSMC gesucht:
https://www.quora.com/Are-there-ways-to-build-transistors-much-cheaper-than-what-intel-does-in-its-CPUs
https://qph.fs.quoracdn.net/main-qimg-d1f2ff5a55887e445a0e2d3edb7feb60
hier steht was ähnliches, aber TSMC wird nicht direkt erwähnt. Der 16nm Prozess sollte aber der TSMC Prozess sein:
https://electroiq.com/2017/02/innovations-at-7nm-to-keep-moores-law-alive/
http://semimd.com/wp-content/uploads/2017/01/cost-projections.jpg
Die Datenpunkte bis 5 nm sind nicht nur ähnlich, sondern ziemlich sicher identisch in beiden Abbildungen.
Setsul
2019-03-14, 13:57:35
Was? Lesen soll helfen ... Das Paper ist von vor ziemlich genau einem Jahr.
Lesen hilft wirklich:
"Figure 10.
Cost-per-Pixel trends versus Price-per-Transistor as presented in 2006 (Y axis is a Logarithmic scale)."
Und hier sogar direkt im Bild:
https://www.spiedigitallibrary.org/ContentImages/Proceedings/10583/1058303/FigureImages/00001_PSISDG10583_1058303_page_11_1.jpg
Figure 2 hat kein Datum dabei hat aber EXAKT den gleichen Verlauf wie Figure 10 und auch Copyright@VLSI Research.
Das ist alles zitiert aus seinem eigenen Paper von 2006.
Also entweder hat der 2006 perfekte Vorhersagen bis 2017 gehabt, obwohl sich 16/14nm und 10nm unerwartet verzögert haben bei allen Foundries und Intel oder das sind keine aktuellen Daten.
Oder eine ganz einfache Rechnung: TSMC hat von 2014 (20nm) bis 2018 (7nm) ungefähr 3x density geschafft. 3,5 Jahre. Wir können auch großzügig sein und sagen 3 in 3 Jahren. Verdoppelung alle 2 Jahre hieße 2 in 2 oder 4 in 4. Passt ungefähr.
Wafer sind teurer geworden. Das ist sicher. Wie kann sich der Preis pro Transistor alle zwei Jahre halbieren wenn die Anzahl der Transistoren pro Wafer sich verdoppelt, aber der Preis des Wafers sich erhöht? Die Rechnung geht nicht auf.
@mboeller:
Aufpassen, das sind Vorhersagen von 2016 die nicht unbedingt ganz dem aktuellen Stand entsprechen.
Außerdem sind viele Spielereien mit Cell Size hier nicht relevant.
TSMC gibt 3x von 16nm zu 7nm an, wenn ich mich richtig erinnere, aber für HP ist es 2x wie AMD selbst sagt. 9T -> 6T ist zwar toll für Mobile aber schon bei 12nm hat AMD das nicht genutzt.
Meine Güte. Das ist von AMD nicht genutzt, weil die keine neuen Masken gebaut haben :freak:. Dir ist aber auch jedes Mittel recht.
amdfanuwe
2019-03-14, 14:38:26
Wird es ein hoher Aufwand sein, von 7 nm DUV auf 7 nm EUV zu wechseln?
Da sonst keiner auf deine Frage eingegangen ist:
Was ich bisher mitbekommen habe, spart man durch eine EUV Maske mehrere DUV Masken ein. Allerdings werden nur ca. 20% der DUV Masken durch EUV Masken ersetzt.
Beispiel: Anstatt 20 Prozesschritte bei DUV mit mehreren Masken braucht man dann nur noch 5 Prozessschritte mit einer EUV Maske.
Hab auf die schnelle nichts genaues gefunden.
Also zu deiner Frage: Es sollte relativ "leicht" sein von einem 7nm DUV Design auf 7 nm EUV zu wechseln, da 80% der DUV Masken gleich bleiben.
Bei 5nm soll der EUV Anteil weiter erhöht werden.
Complicated
2019-03-14, 15:00:09
IRC war von ca. 42 Masken bei TSMC 7nm die Rede in einem Artikel und eine Reduzierung um 12 Masken durch DUV->7nm+ mit EUV geplant. Ob das dann auch so kam ist natürlich nicht gesagt. Finde das jetzt auch nicht auf die schnelle, stand aber auf semiwiki.
BoMbY
2019-03-14, 15:40:45
Lesen hilft wirklich:
Also manchmal muss man doch echt an der Menschheit zweifeln ... Du suchst Dir ein Bild raus, was nur eingefügt wurde um Bezug zu einer vorherigen Veröffentlichung herzustellen, damit man weiß worüber er schreibt, und daran machst Du irgendwas fest was aber dem Rest des Papers widerspricht?
Setsul
2019-03-14, 23:15:33
Meine Güte. Das ist von AMD nicht genutzt, weil die keine neuen Masken gebaut haben :freak:. Dir ist aber auch jedes Mittel recht.
Ja, deshalb sagt AMD auch selbst dass sie bei Zen2 und Vega 20 nur 2x density statt der 3x von Mobile/LP bekommen. Können sie sich da auch keine neuen Masken leisten?
Also manchmal muss man doch echt an der Menschheit zweifeln ... Du suchst Dir ein Bild raus, was nur eingefügt wurde um Bezug zu einer vorherigen Veröffentlichung herzustellen, damit man weiß worüber er schreibt, und daran machst Du irgendwas fest was aber dem Rest des Papers widerspricht?
Alle 3 Bilder sind von 2006.
Also entweder folgert der aus Daten von 2006, dass er recht hatte, oder alle seine Vorhersagen sind perfekt eingetreten trotz aller Verzögerungen oder sie sind falsch aber die Schlussfolgerung ist dass die Kosten trotzdem sinken weil wegen ist eben so.
Das ist alles nur Wiederkäuen seiner alten Artikel und dann am Ende ein Absatz dazu dass EUV zwar teuer ist, aber ja nicht für alle Layer benutzt wird, deshalb wird alles wieder viiiiiel billiger.
AMD Ryzen: Neuer Codename "Valhalla" aufgetaucht
http://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Neuer-Codename-Valhalla-aufgetaucht-1277641/
Valhalla? Was soll das denn bedeuten..."ist in der nordischen Mythologie der Ruheort der in einer Schlacht gefallenen Kämpfer" Hoffentlich meinen sie auch Intel damit, nicht sich selbst ;-)
Screemer
2019-03-16, 22:16:34
Ich fände halt Ragnarök viel geiler.
SKYNET
2019-03-17, 00:45:46
Ich fände halt Ragnarök viel geiler.
mjölnir ;)
AMD Ryzen: Neuer Codename "Valhalla" aufgetaucht
http://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Neuer-Codename-Valhalla-aufgetaucht-1277641/
Valhalla? Was soll das denn bedeuten..."ist in der nordischen Mythologie der Ruheort der in einer Schlacht gefallenen Kämpfer" Hoffentlich meinen sie auch Intel damit, nicht sich selbst ;-)
In der Quelle der Quelle: (March 15, 2019)
https://www.criticalhit.net/technology/amds-codename-for-their-new-zen-family-is-valhalla/
"This might signal that a launch is imminent, and the rumour mill has been telling enthusiasts to expect a late April or early May launch for Ryzen 3000."
m.f.g. JVC
AMD Ryzen: Neuer Codename "Valhalla" aufgetaucht
http://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Neuer-Codename-Valhalla-aufgetaucht-1277641/
Valhalla? Was soll das denn bedeuten..."ist in der nordischen Mythologie der Ruheort der in einer Schlacht gefallenen Kämpfer" Hoffentlich meinen sie auch Intel damit, nicht sich selbst ;-)
da ist ja allein der Name schon fast Plichtkauf ;D
mjölnir ;)
Würde dann zumindest die Parellelen mit dem Clawhammer (erster A64) abbilden
davidzo
2019-03-17, 13:44:13
Da sonst keiner auf deine Frage eingegangen ist:
Was ich bisher mitbekommen habe, spart man durch eine EUV Maske mehrere DUV Masken ein. Allerdings werden nur ca. 20% der DUV Masken durch EUV Masken ersetzt.
Beispiel: Anstatt 20 Prozesschritte bei DUV mit mehreren Masken braucht man dann nur noch 5 Prozessschritte mit einer EUV Maske.
Hab auf die schnelle nichts genaues gefunden.
Also zu deiner Frage: Es sollte relativ "leicht" sein von einem 7nm DUV Design auf 7 nm EUV zu wechseln, da 80% der DUV Masken gleich bleiben.
Bei 5nm soll der EUV Anteil weiter erhöht werden.
Ja, EUV braucht weniger Masken und ja, die meisten Metal Layer(2-10 + thick metal) bleiben sowie in DUV. Aber ich würde trotzdem nicht davon ausgehen dass man viele der Masken einfach portieren kann. Die Designrules für EUV sind gänzlich anders, die EDA-tools werden damit auch ganz andere Transistoranordnungen erzeugen, die wieder neue DUV Interconnect und Powerplane Masken erfordern. Strukuren mit EUV zu erzeugen die im wesentlichen den Designrules von DUV entsprechen, wird nicht einfach sein, bzw. erheblichen Entwicklungsaufwand für EDA-tools erfordern, den man schon beim nächsten Chip gar nicht mehr braucht. Zudem lässt man dann die Performance-Vorteile von EUV einfach liegen.
Wenn überhaupt, dann kann man eher die Masken für die 100nm+ pitched Layer (6 und aufwärts) und die Thick metal Masken wieder benutzen. Die kosten aber sowieso nicht viel...
SKYNET
2019-03-17, 15:21:40
Würde dann zumindest die Parellelen mit dem Clawhammer (erster A64) abbilden
clawhammer ist ein spielstil auf einem Banjo ;)
Setsul
2019-03-17, 15:59:50
@davidzo:
Grundsätzlich sollte EUV weniger Einschränkungen als DUV haben, aber man lässt damit natürlich alle Vorteile außer der Kosten liegen. Nicht schlecht wenn das das einzige Ziel ist, aber wenn die Konkurrenz mehr investiert und z.B. höheren Takt bekommt durch volles Ausnutzen von EUV siehts natürlich nicht mehr so toll aus.
Und dann gibts natürlich Probleme wenn man mit EUV weniger Metal Layers hat. Also wenn man 3 oder 4 1D DUV Metal Layers durch 2 oder 3 2D EUV Metal Layers ersetzt sind die Ersparnisse natürlich größer, aber einfach das Routing kopieren geht dann definitiv nicht mehr.
Und richtig, den "großen" Masken trauert keiner nach, also ist die Billigvariante eines DUV->EUV Ports wahrscheinlich nicht wirklich sinnvoll.
Der_Korken
2019-03-17, 16:34:15
Ich fände halt Ragnarök viel geiler.
Ragnarök dürfte eher die nächste Architektur von Intel sein, bei der sozusagen das Imperium mit voller Kraft zurückschlägt. Ein zweiter Conroe.
Piefkee
2019-03-18, 09:46:23
Im overclock.net Forum gibt es auch schon einige Infoschnipsel zu Zen2 und dem zuletzt verteilten agesa Update:
Ebenfalls von 1usmus gepostet...
Translation into simple language. We have:
1) New memory controller with partial error correction for nonECC memory
2) Desktop processor with two (2 CCD) chiplets on board, 32 threads maximum
3) New MBIST (Memory built-in self-test)
4) Core watchdog - is a fail/safe function used to reset a system in case the microprocessor gets lost due to address or data errors
5) XFR - at the moment I do not see anything special about it, the algorithm and limits have been updated. Scalar Controll come back with new processors.
6) Updated core control has a symmetric configuration of the active cores . In 2CCD configurations, each chiplet has its own RAM channel in order to minimize latency to memory access. 1 channel on 8 cores will be a bottleneck if you use the system in the default state.
7) PCI GEN 4 for CH7
Punkt 6 klingt interessant...Pro Chiplet ein eigener RAm Channel...
unl34shed
2019-03-18, 11:29:16
7) heißt der Chipsatz ist mit PCIe 4 angebunden?
Jo das war ja schon vorher klar. Wird aber evtl. nur für den 570X gelten, nicht für B und A, da ja nur dieser von AMD selbst stammt und die anderen wieder ASMedia-Chips sind.
Jedem CCD einen eigenen RAM-Kanal zuzuweisen ist ne schlaue Lösung in Sachen Latenz. Das wird dann Epyc 2 wohl auch so machen, pro 2 CCD je 2 Kanäle, bei CP dann pro CCD ein Kanal.
maximus_hertus
2019-03-18, 13:36:13
7) heißt der Chipsatz ist mit PCIe 4 angebunden?
Nein. Nur der erste PCIe 16 ist wohl PCIe 4.0 und nur das ASUS CH7 Board (X470). Afaik ist jedes AM4 Board PCIe 4 "fähig", insofern das Signal sauber durchkommt und der Hersteller ein entsprechendes Update anbietet.
BoMbY
2019-03-18, 14:02:24
Jedem CCD einen eigenen RAM-Kanal zuzuweisen ist ne schlaue Lösung in Sachen Latenz.
Wieso sollte das so sein? Die Speichercontroller sind alle auf dem I/O-Die. Die Daten zu den CPU-Chiplets werden Paketvermittelt ausgetauscht. Die Latenz (zumindest auf AM4) sollte immer gleich sein. Das ergibt eigentlich absolut keinen Sinn, außer die Bandbreite ist das Problem, nicht die Latenz.
Zossel
2019-03-18, 16:30:23
Ja, aber besonders interessant finde ich die neuen Funktionen wie etwa das zuweisen von Speichercahnnels an Chiplets und die partielle Implementation von ECC bei nicht ECC Speicher.
Hat da jemand den Energieerhaltungssatz der Informatik widerlegt?
Also mehr Redundanz geschaffen ohne mehr Redundanz bereitzustellen?
Jedem CCD einen eigenen RAM-Kanal zuzuweisen ist ne schlaue Lösung in Sachen Latenz. Das wird dann Epyc 2 wohl auch so machen, pro 2 CCD je 2 Kanäle, bei CP dann pro CCD ein Kanal.
Klingt extrem merkwürdig, jeder Core greift ja quasi beliebig in den gesamten Speicher.
Der_Korken
2019-03-18, 16:39:04
Das mit der Aufteilung der Speicherkanäle klingt komisch. Werden die Daten nicht möglichst stark über beide Riegel gestreut, damit man bei jedem Zugriff mit voller Bandbreite lesen kann? In dem Fall muss ein Chiplet sowieso in annähernd 50% der Fälle auf den anderen Kanal. Und falls Chiplets alle Daten immer in ihren lokalen Channel reinschreiben, was passiert, wenn der entsprechende Prozess mal auf den anderen Chiplet gescheduled wird? Da würden dann ständig Daten im RAM hin und herkopiert. Eigentlich bin ich davon ausgegangen, dass der IO-Chip für einen komplett uniformen Speicherzugriff sorgen sollte.
unl34shed
2019-03-18, 16:45:00
Nein. Nur der erste PCIe 16 ist wohl PCIe 4.0 und nur das ASUS CH7 Board (X470). Afaik ist jedes AM4 Board PCIe 4 "fähig", insofern das Signal sauber durchkommt und der Hersteller ein entsprechendes Update anbietet.
Ach misst. CH7 ist Crosshair 7, nicht Channel 7,... . Dachte das wäre nicht boardspezifisch. Mein Fehler.
So wird das ja auch nicht sein. Ich hab das mehr so verstanden, dass ein CCD einen Speicherkanal präferiert, auf die Idee, das so statisch zu sehen, bin ich garnicht gekommen.
SKYNET
2019-03-18, 21:08:46
Jo das war ja schon vorher klar. Wird aber evtl. nur für den 570X gelten, nicht für B und A, da ja nur dieser von AMD selbst stammt und die anderen wieder ASMedia-Chips sind.
Jedem CCD einen eigenen RAM-Kanal zuzuweisen ist ne schlaue Lösung in Sachen Latenz. Das wird dann Epyc 2 wohl auch so machen, pro 2 CCD je 2 Kanäle, bei CP dann pro CCD ein Kanal.
der erste PCIe Slot hat null mit dem Chipsatz zutun, der ist nativ mit der CPU verbunden, heisst wenn die boards qualitativ gut genug sind, langt nen schlichtes biosupdate, nur die Slots 2(3, 4 usw.) laufen über den Chipsatz = weiterhin PCIe 4.0)
basix
2019-03-18, 21:26:28
Punkt 6 klingt interessant...Pro Chiplet ein eigener RAm Channel...
Wenn ich das implementieren müsste wäre das wohl eher eine per Default Priorisierung. Bevorzugt wird von Chiplet X aus mit RAM-Channel X gearbeitet. Liegen Daten auf Channel Y benötigt man einfach einen zusätzlichen Schritt in der Logik. Umgekehrt beim zweiten Chiplet. Je nach dem liegen die Daten aus Channel X schon in Chiplet X, dann kann Chiplet Y direkt aus dem Cache von Chiplet X lesen, anstatt auf den DRAM zugreifen zu müssen. Irgendwie sowas würde Sinn machen.
Wieso das Sinn machen würde: Möglichst wenig Traffic zum DRAM und ein Memorycontroller Verteilschritt entfällt im Default-Modus (geringere Latenz, optimierter Energieverbrauch). Umso weniger Channel, umso weniger Latenz. Sieht man ja auch am Vergleich Dual vs. Quad Channel.
Wieso das keinen Sinn machen würde: Unter Umständen keine uniforme Speicherlatenzen, je nachdem wo die Daten liegen. Das hat man vermutlich aufgrund der 2 Chiplets und der mehreren CCX aber eh schon.
Setsul
2019-03-19, 00:09:24
Wie stellt ihr euch vor dass das implementiert wird? Die physische Adresse ist schon im L1 bekannt. Der IMC kann nicht einfach in einen anderen Channel an eine andere Adresse schreiben bloß weil er gerade lustig ist. Genauso wenig kann man aus Channel A lesen wenn die Daten in Channel B liegen.
Die CPU hat nichts zu melden, deshalb muss das OS bei NUMA Scheduling die Threads auch auf Kerne packen die zu den Adressen passen (und umgekehrt). Die CPU kann nicht einfach mal entscheiden dass bestimmte Adressen jetzt bei B statt bei A sind und einfach alles rüberkopieren weil ein Thread auf einen anderen Kern geschoben wurde.
gravitationsfeld
2019-03-19, 00:29:49
Niemand (*) benutzt NUMA-APIs. Das waere ein wirklich komisches Design.
(*) Vielleicht irgend welche Datenbanken, aber das ist echt obskur.
mczak
2019-03-19, 03:52:29
Vielleicht enthält der Chip ja tatsächlich 2 MC mit je einem Kanal, mit je eigenem Cache-Directory? Irgendwie weiss man da ja noch zu wenig (auch bei Epyc 2) wie das genau aussieht...
Ich könnte mir schon vorstellen dass das im Prinzip ähnlich aussieht wie bei der ersten Generation, einfach dass nun die MCs halt alle auf demselben Die sind. Allerdings hätte ich bei den Desktop-Chips schon gedacht dass man da ganz normal eigentlich bloss 1 MC hat und einen dual-channel interleave macht. (Bei epyc 2 macht man das auf jeden Fall anders, interleave über alle Kanäle wäre extrem nicht sinnvoll selbst wenn das ginge, was aber noch nichts über die Anzahl MCs aussagt.)
gravitationsfeld
2019-03-19, 03:59:22
Cache-Directory ist eine Moeglichkeit, aber das braucht Unmengen an SRAM.
Setsul
2019-03-19, 11:13:32
Ich verstehe immernoch nicht was ihr das implementieren wollt.
Um Interleaving auszuschalten braucht man nicht zwei IMCs.
Wie wollt ihr die Daten von einem Chiplet dazu bringen einen Channel zu bevorzugen?
amdfanuwe
2019-03-19, 11:17:53
Was verstehst du unter Unmengen?
Ich komme für Rome auf ca. 30MB macht ca. 60mm² auf dem I/O aus.
Für AM4 wären es dann ca. 7,5MB -> 15mm² auf dem I/O.
amdfanuwe
2019-03-19, 11:54:42
Wie wollt ihr die Daten von einem Chiplet dazu bringen einen Channel zu bevorzugen?
Indem das OS den virtuellen Adressraum einer Applikation auf den physikalischen Ram mapped, der von einem Channel bedient wird?
Klappt natürlich nicht bei interleaved und wenn die Applikation mehr Ram benötigt, als pyhsikalisch an einem Channel vorhanden ist, werden natürlich noch weitere Channel benötigt.
Bsp.: An einem Channel hängen 8GB RAM.
Der Programmcode, statische Variablen und reservierte Bereiche einer Applikation wird auf Channel 2 in die ersten 6GB geladen.
Soweit finden alle Zugriffe der Applikation erstmal nur auf Channel 2 statt.
Werden noch dynamisch Speicher angefordert, gehen die erst mal in die letzten 2 GB des Channel 2.
Dank TLB merkt die Applikation nichts davon und findet ihre Daten und Programmcode im virtuellem 4TB Adressraum dort vor, wo sie sein sollten.
Wird noch mehr Speicher alloziert, muß ein weiterer Channel hinzugezogen werden, da die 8GB Physikalischen Ram auf Channel 2 voll sind.
Melden alle Channel: ich bin voll, wird auf die Festplatte ausgelagert.
amdfanuwe
2019-03-19, 12:18:38
interleave über alle Kanäle wäre extrem nicht sinnvoll
Macht interleaved überhaupt noch Sinn? Die IF sind ja nur so schnell wie ein Channel. Bei interleaved Betrieb müßten die Daten dann gepuffert werden, bis sie über den IF im Cache abgeladen werden. Wären bei 8 fach interleaved 512 Byte pro IF.
Setsul
2019-03-19, 12:30:40
Triple Post muss wirklich nicht sein.
Das hat alles nichts mit dem Chip zu tun. Interleave aus und dann kann das OS sich völlig beliebig aussuchen wo es die Daten hinlegen will. Und die Page File hat damit überhaupt nichts zu tun. Auf dem Chip wird dafür rein gar nichts implementiert und die CCDs haben nicht "eigene" RAM-Channel.
Brillus
2019-03-19, 14:18:20
Triple Post muss wirklich nicht sein.
Das hat alles nichts mit dem Chip zu tun. Interleave aus und dann kann das OS sich völlig beliebig aussuchen wo es die Daten hinlegen will. Und die Page File hat damit überhaupt nichts zu tun. Auf dem Chip wird dafür rein gar nichts implementiert und die CCDs haben nicht "eigene" RAM-Channel.
Das wäre dann aber eine OS Funktion und keine vom BIOS.
Setsul
2019-03-19, 15:02:51
Das ist ja mein Problem. Interleave ausschalten kann ich auf jeder CPU mit jedem OS.
Was soll das bitte sein, dass jedes Chiplet einen eigenen RAM-Channel hat? Wie soll das gehen? Die physischen Adressen sind fix. Egal auf welchem Kern das läuft kann ich dir allein durch die physische Adresse, die eben schon im L1 bekannt ist, sagen in welchen Channel das muss. Der IMC kann weder Threads rumschieben, noch kann er einfach Adressen beliebig verändern. Soll da etwa nochmal paging implementiert werden damit der IMC beliebig verschieben kann? Das ist nicht gut für die Latenz.
Du versteifst dich da auf was. So starr wird das nicht aussehen. Das wird ne relativ simple Lösung sein, um die Latenz zu maskieren, die durch diese 2-Chip-Lösung entsteht. Das ist einfach nicht hinreichend Präzise ausgedrückt gewesen, um da irgendwelche Schlüsse daraus zu ziehen. Mal sehen, vielleicht bekommen wir bald nen Einblick in die Funktionsweise von Epyc2, dann dürften wir in etwa wissen, wie das Speichersystem gebaut ist. Standard ist es sicherlich nicht, das wird schon etwas Rafinesse mitbringen. Im Moment hat jeder seine eigenen Vorstellungen, das lohnt aber nicht darüber zu streiten.
mczak
2019-03-19, 16:35:37
Macht interleaved überhaupt noch Sinn? Die IF sind ja nur so schnell wie ein Channel. Bei interleaved Betrieb müßten die Daten dann gepuffert werden, bis sie über den IF im Cache abgeladen werden. Wären bei 8 fach interleaved 512 Byte pro IF.
Deswegen macht 8-fach interleaved natürlich auch keinen Sinn.
Ich dachte aber die Links wären deutlich schneller als 1 Speicherkanal, da würde dann Interleave über 2 Kanäle Sinn machen. Aber eigentlich habe ich keine Ahnung was die Links da am Ende hinkriegen werden (und auf der anderen Seite hängt das natürlich auch vom Speichertakt ab, wobei die Link-Bandbreite da wieder gekoppelt sein könnte). Wobei die Links da ja auch bidirektional sind, der Speicher aber nicht, wenn so ein Link also bloss eine unidirektionale Bandbreite hat die derjenigen eines Speicherkanals entspricht könnte 2x Interleave also trotzdem Sinn ergeben.
Brillus
2019-03-19, 16:42:07
Das ist ja mein Problem. Interleave ausschalten kann ich auf jeder CPU mit jedem OS.
Was soll das bitte sein, dass jedes Chiplet einen eigenen RAM-Channel hat? Wie soll das gehen? Die physischen Adressen sind fix. Egal auf welchem Kern das läuft kann ich dir allein durch die physische Adresse, die eben schon im L1 bekannt ist, sagen in welchen Channel das muss. Der IMC kann weder Threads rumschieben, noch kann er einfach Adressen beliebig verändern. Soll da etwa nochmal paging implementiert werden damit der IMC beliebig verschieben kann? Das ist nicht gut für die Latenz.
Hast mich wohl falsch verstanden, ich finde das als BIOS Feature mit 1 Channel pro Chip auch Blödsinn. Einzige Variante die ich mir da vorstellen könnte wäre RAM gespiegelt und beim lesen hat jeder sein eigenen Channel, aber kann mir nicht vorstellen daß das irgendwie sinnvoll was bringt.
Setsul
2019-03-19, 18:52:25
Ja, sicher ist nur dass man nicht getrennte Adressräume machen kann oder erzwingen kann, dass Threads nur auf einen Channel zugreifen.
Das einzige was ich mir vorstellen kann ist wieder eine NUMA-Optimierung. Also z.B. Broadcast + late tag checking. Also anstatt zweiten CCX checken, dann zum I/O-Die, dort die Tags checken obs auf dem anderen Die liegt und dann erst zum RAM gleich zum anderen CCX und zum I/O-Die schicken, dort direkt an den RAM gehen und dann die Request canceln wenn der Tag Check sagt dass es schon auf dem richtigen Die im anderen CCX ist oder auf dem anderen Die modified ist oder wenn die Antwort vom anderen Die schneller wäre (wegen hoher RAM-Auslastung).
Zusätzlich Interleaving aus damit man mehr unabhängige Requests bearbeiten kann.
Das würde dann automatisch alles ohne Sharing beschleunigen, wäre aber natürlich schlecht wenn Threads auf unterschiedlichen Dies auf den gleichen Daten arbeiten und kostet etwas mehr Strom.
@Brillus:
Mirroring gibts auch jetzt schon, das wäre nicht wirklich neu.
Brillus
2019-03-19, 19:58:21
Hat da jemand den Energieerhaltungssatz der Informatik widerlegt?
Also mehr Redundanz geschaffen ohne mehr Redundanz bereitzustellen?
Den Chip den ich auf der Arbeit aktuell am programmieren macht genau das ECC auf normalem RAM, sind halt (in meinem Fall) 1/5 des physikalischen RAMs nicht ansprechbar weil ECC drin liegt, das ist jetzt kein Hexenwerk Speichertonkoller darauf hin auszulegen.
Zossel
2019-03-19, 23:30:35
Den Chip den ich auf der Arbeit aktuell am programmieren macht genau das ECC auf normalem RAM, sind halt (in meinem Fall) 1/5 des physikalischen RAMs nicht ansprechbar weil ECC drin liegt, das ist jetzt kein Hexenwerk Speichertonkoller darauf hin auszulegen.
Mit Speicher der "mal 2 hoch n" organisiert ist? Was für ein Chip ist das?
amdfanuwe
2019-03-20, 00:39:30
Mit Speicher der "mal 2 hoch n" organisiert ist?
Spielt doch keine Rolle. Läßte halt die paar letzten Bytes ungenutzt, für die es kein ECC mehr gibt.
2Bit ECC/(2Bit ECC+ 8 Bit Data) = 2/10 = 1/5
20% des RAM werden mit ECC Bits belegt.
Zossel
2019-03-20, 06:50:40
Spielt doch keine Rolle. Läßte halt die paar letzten Bytes ungenutzt, für die es kein ECC mehr gibt.
2Bit ECC/(2Bit ECC+ 8 Bit Data) = 2/10 = 1/5
20% des RAM werden mit ECC Bits belegt.
Das gibt dann krumme Faktoren in der Berechnung der realen Adressen, und jedwedes Alignment ist dann für den Popo. Das dürfte das Speichersystem ziemlich langsam machen.
Daher auch meine Frage welcher Chip das ist.
Brillus
2019-03-20, 07:22:45
Das gibt dann krumme Faktoren in der Berechnung der realen Adressen, und jedwedes Alignment ist dann für den Popo. Das dürfte das Speichersystem ziemlich langsam machen.
Daher auch meine Frage welcher Chip das ist.
Gr712rc, ich programmier Satelliten, und es sind 32bit + 8bit. Ist der Kontrolle fürs Prom. Und der ECC wird von hinten nach vorne im Speicher Bereich geschrieben, wobei ich mir gerade bei Dual Channel da auch bessere. Varianten vorstellen kann.
Zossel
2019-03-20, 08:18:57
Gr712rc, ich programmier Satelliten, und es sind 32bit + 8bit. Ist der Kontrolle fürs Prom. Und der ECC wird von hinten nach vorne im Speicher Bereich geschrieben, wobei ich mir gerade bei Dual Channel da auch bessere. Varianten vorstellen kann.
Da spielt ja Geschwindigkeit (100 MHz) keine Rolex. BTW: Es sind 25% nicht 20%:
The SDRAM area can optionally also be protected using Reed-Solomon coding. In this case a 16-bit checksum is used for each 32-bit word, and any two adjacent 4-bit (nibble) errors can be corrected.The maximum SDRAM capacity supported is 1 GiB + 25% or 50% for EDAC checksum over 2 banks when not using SRAM. When also using SRAM the maximum amount of supported SDRAM is 512 MiB + 25% or 50% for EDAC checksum over 1 or 2 banks.
amdfanuwe
2019-03-20, 11:06:52
BTW: Es sind 25% nicht 20%:
Es kommen 25% für den ECC Speicher hinzu. Vom Gesamtspeicher werden also 20% für ECC genutzt.
Brillus
2019-03-20, 22:14:41
Das gibt dann krumme Faktoren in der Berechnung der realen Adressen, und jedwedes Alignment ist dann für den Popo. Das dürfte das Speichersystem ziemlich langsam machen.
Daher auch meine Frage welcher Chip das ist.
Kann man machen ohne das Alignment kaputt geht. Du kannst es so machen das die Adressen vorne ihr ECC ganz hinten im Speicher haben, die ECC addresse lässt sich dann ganz einfach durch invertieren, Bit masking und schieben berechnen also Sachen die super billig in Hardware sind. Daher auch meine Aussage wegen 2 Channels. Ich würde den ECC von Channel 0 ans Ende von Channel 1 Schreiben und umgekehrt und am besten so das der ECC von einer Cacheline eine Vielfaches der Zugriffsgranularität des Speichers ist.
gravitationsfeld
2019-03-20, 22:37:16
"Normale" DDR-ECC-DIMMs haben 12.5% mehr Speicher (72 bits statt 64 bits).
Zossel
2019-03-21, 07:37:43
Kann man machen ohne das Alignment kaputt geht. Du kannst es so machen das die Adressen vorne ihr ECC ganz hinten im Speicher haben, die ECC addresse lässt sich dann ganz einfach durch invertieren, Bit masking und schieben berechnen also Sachen die super billig in Hardware sind. Daher auch meine Aussage wegen 2 Channels. Ich würde den ECC von Channel 0 ans Ende von Channel 1 Schreiben und umgekehrt und am besten so das der ECC von einer Cacheline eine Vielfaches der Zugriffsgranularität des Speichers ist.
Bei einem 1/4 (statt einem 1/5) kostet mich die Adressberechnung der ECC-Bits quasi "nichts":
Die beiden MSBs sind dann fix, und die restlichen LSBs werden aus den MSBs der Daten-Bits gebildet, da braucht noch nicht mal einen Shift das kann kann durch die Verdrahtung erzeugt werden.
Allerdings verliere ich außer bei linearen Zugriffen trotzdem fast die gesamte zusätzliche Bandbreite des zweiten Speicherkanals weil DRAM die Daten in Blöcken (typischerweise eine Cacheline) liefert.
amdfanuwe
2019-03-21, 10:20:08
2 Bit ECC pro Byte sind doch 1/4.
Setsul
2019-03-21, 11:54:25
Es kommt ein bisschen auf die Größe an. Invertieren geht immer, über MSBs gehts bei den "richtigen" Größen. Shift braucht man aber trotzdem, wobei Shift um eine Konstante natürlich nur Verdrahtung ist.
Also z.B. mit 1,25 GB geht das, ECC bekommt 10 als MSBs und dann um 2 nach rechts geshiftete Adresse als LSBs.
Wenn man genau 2 GB hat dann müssten die ECC bits von 0x0 zu 0x66400000 bzw. 0b01100110010... (1636 MiB Daten, 409 MiB ECC).
1/4 ECC, 3/4 Daten ist meines Wissens nach auch nicht schön zu berechnen weil die ECC Adresse alle 3 Datenadressen um 1 steigen muss und durch 3 teilen ist nicht so einfach wie Shift. Außerdem hätte man dann 3*x Blockgröße was die Geschwindigkeit ruiniert und nicht zu Cachelines passt. Das würde man nur machen wenn man Daten und ECC in einen vollen Block legt, um sich den zweiten Zugriff ans Ende zu sparen.
https://www.tweakpc.de/news/44062/msi-veroeffentlicht-erste-bios-updates-fuer-zen-2-cpus/
"MSI veröffentlicht erste BIOS-Updates für Zen-2-CPUs"
https://www.tomshardware.com/news/motherboard-bios-update-amd-ryzen-3000-cpus,38872.html
"Asus, MSI and Biostar have rolled out BIOS updates for their existing AMD B450, X370, and X470 motherboards to support the upcoming AMD Ryzen 3000-series"
https://www.planet3dnow.de/cms/45296-hwinfo64-v6-03-3710-beta-mit-zen-2-support/
"HWiNFO64 v6.03–3710 Beta mit Zen 2 Support"
Mühsam ernährt sich das Eichhörnchen ...
(fallen die 350 Mobos jetzt wirklich durch den Rost ?)
(hieß ja der Bios-Chip wäre "zu klein")
m.f.g. JVC
Relic
2019-03-21, 14:23:29
https://www.tweakpc.de/news/44062/msi-veroeffentlicht-erste-bios-updates-fuer-zen-2-cpus/
"MSI veröffentlicht erste BIOS-Updates für Zen-2-CPUs"
https://www.tomshardware.com/news/motherboard-bios-update-amd-ryzen-3000-cpus,38872.html
"Asus, MSI and Biostar have rolled out BIOS updates for their existing AMD B450, X370, and X470 motherboards to support the upcoming AMD Ryzen 3000-series"
https://www.planet3dnow.de/cms/45296-hwinfo64-v6-03-3710-beta-mit-zen-2-support/
"HWiNFO64 v6.03–3710 Beta mit Zen 2 Support"
Mühsam ernährt sich das Eichhörnchen ...
(fallen die 350 Mobos jetzt wirklich durch den Rost ?)
(hieß ja der Bios-Chip wäre "zu klein")
m.f.g. JVC
Biostar hat für seine B350 Mainboards auch das AGESA Update gebracht.. https://www.biostar.com.tw/app/en/mb/introduction.php?S_ID=870#download
Kehaar
2019-03-21, 15:09:13
Mühsam ernährt sich das Eichhörnchen ...
(fallen die 350 Mobos jetzt wirklich durch den Rost ?)
(hieß ja der Bios-Chip wäre "zu klein")
Da ich ja bei mir einen Zen-2-Umstieg nicht ausschließen will, hoffe ich, dass folgende Aussage natürlich auch für mein MSI-B350-Mainboard weiter gilt: "Trotzdem unterstützen sowohl der B350-, als auch der B450-Chipsatz alle AMD-CPUs, die bis 2020 veröffentlicht werden." (https://de.msi.com/blog/amd-ryzen-b350-vs-b450-chipset-difference). Wie Relic mit dem Biostar-BIOS andeutet, könnte es möglich sein.
unl34shed
2019-03-21, 15:21:15
Technisch spricht nichts dagegen, der Chipsatz ist ja nur noch ein Schnittstellenchip. Kann natürlich sein, dass die Mainboard Hersteller die Arbeit sparen wollen.
Kehaar
2019-03-21, 15:28:55
Durch ihre Aussage hat MSI es ja zumindest indirekt zugesichert. Mal sehen, was dann in der Realität rauskommt.
kunibätt
2019-03-21, 15:40:19
Bei Asrock ist ebenfalls ein B350 verfügbar.
SKYNET
2019-03-21, 17:17:48
was mich wundert, ist das massive rollout von den biosen... normal passiert das immer erst wenige(6-8) wochen vor erscheinen der CPUs... kommen Zen2 also wohl schon im mai auf den markt.
Opprobrium
2019-03-21, 17:37:53
was mich wundert, ist das massive rollout von den biosen... normal passiert das immer erst wenige(6-8) wochen vor erscheinen der CPUs... kommen Zen2 also wohl schon im mai auf den markt.
Sind die denn sicher für Zen2? Oder für Picasso Desktop?
a.) gibt es offenbar keinen Picasso Desktop, sondern nur mobile und b.) würde es keine neue Versionierung geben, gab es bei RR auch nicht.
Sind die denn sicher für Zen2? Oder für Picasso Desktop?
https://www.tweakpc.de/news/44062/msi-veroeffentlicht-erste-bios-updates-fuer-zen-2-cpus/
"MSI veröffentlicht erste BIOS-Updates für Zen-2-CPUs"
https://www.tomshardware.com/news/motherboard-bios-update-amd-ryzen-3000-cpus,38872.html
"Asus, MSI and Biostar have rolled out BIOS updates for their existing AMD B450, X370, and X470 motherboards to support the upcoming AMD Ryzen 3000-series"
https://www.planet3dnow.de/cms/45296-hwinfo64-v6-03-3710-beta-mit-zen-2-support/
"HWiNFO64 v6.03–3710 Beta mit Zen 2 Support"
was mich wundert, ist das massive rollout von den biosen... normal passiert das immer erst wenige(6-8) wochen vor erscheinen der CPUs... kommen Zen2 also wohl schon im mai auf den markt.
Die Anzeichen auf ende Mai hin verdichten sich ... was da dann auch kommen mag ^^
m.f.g. JVC
Das Asus Strix X370 hat auch den neuen AGESA abbekommen. Das geht wild durcheinander und betrifft Boards völlig unabhängig vom Chipsatz.
SKYNET
2019-03-21, 22:16:48
Die Anzeichen auf ende Mai hin verdichten sich ... was da dann auch kommen mag ^^
m.f.g. JVC
jopp, hat also der 7nm zug wohl doch massiv aufgeholt, freut mich sehr für AMD, und jede woche wo die länger auf dem markt sind, ist mehr umsatz und weniger potenzielle intel käufer.
rentex
2019-03-22, 05:55:46
Ihr redet schon über ZEN2!? Dachte Juni/Juli wäre erst der Termin?
dildo4u
2019-03-22, 06:13:20
Mitte 2019 ist der Termin,alles andere ist Spekulation.Es kann gut sein das alle Bordhersteller Sampels bekommen die aber nicht zwangsweise finale Performance haben.
Nuvirus
2019-03-22, 06:33:33
Ist ja auch wichtig das die Boards das Bios früh bekommen sonst ist es wieder ein Problem das man nicht auf günstige B450 Boards etc zugreifen kann als Neukäufer da evtl. das Bios Update noch nicht drauf ist so wird das Problem zumindest teilweise angegangen - Altbestände kann es ja trotzdem immer geben die dann noch ein Upgrade brauchen.
Könnte ja auch sein das zum Start erstmal nur X570 oder so verfügbar ist und sonst die alten Boards herhalten müssen und Hersteller mit gutem Support statten halt auch jetzt bereits die älteren Boards mit Bios Updates aus.
Wäre natürlich schön wenn die CPUs früher als gedacht kommen das AMD gut Kasse gegenüber Intel machen kann das wäre ja auch für das Budget der Grafikkarten Entwicklung wichtig bzw. generell wenn AMD immer stärker wird.
Unrockstar
2019-03-22, 09:40:43
Wenn AMD im Mai Tatsache die Bombe platzen lassen sollte, würde das nicht nur mich überraschen. Es ist einfach zu früh für BIOS Samples. Harren wir der Dinge aus, die da kommen
SKYNET
2019-03-22, 10:17:10
gestern abend meldete sich bei mir jemand... Zen2 reviews sehen wir ende mai :)
Rancor
2019-03-22, 10:48:17
Und bei mir meldete sich jemand und sagt Ende August :rolleyes:
Etwas mehr Infos wären schon gut..
Piefkee
2019-03-22, 11:44:38
gestern abend meldete sich bei mir jemand... Zen2 reviews sehen wir ende mai :)
Kannst du dein Statement etwas konkretisieren? :cool:
rentex
2019-03-22, 12:27:25
ZEN 2 und die neuen Chipsätze müsste jetzt schon fertig sein und in Produktion, das Ende Mai Reviews kommen. Kann ich jetzt nicht ganz glauben. Ende August eher.
Man hätte anfang des Jahres irgendwas hören müssen (Boardpartner usw...), das der Start ohne weiteres, vorgezogen wird.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/48244-amd-beschleunigt-seine-epyc-prozessoren-weiter.html (10.01.2019)
"Die EPYC-Prozessoren der zweiten Generation sollen laut AMD die ersten Prozessoren auf Basis der Zen-2-Architektur sein, die das Licht der Welt erblicken. Von der Mitte 2019 spricht AMD als Termin und man befinde sich voll im Zeitplan. Damit dürfte der Start der Serverprozessoren und der Ryzen-Desktop-Modelle in einen ähnlichen Zeitraum fallen..."
https://www.pcbuildersclub.com/2019/03/amd-bestaetigt-launchzeitraum-von-ryzen-3000-auch-threadripper-3000-bestaetigt/ (07.03.2019)
"Kürzlich sind bei einem Retailer in Singapur gleich mehrere Prozessoren im Sortiment samt Preisen aufgetaucht. Der Händler Bizgram hat auch in der Vergangenheit bereits öfter noch nicht releaste Produkte in den Katalog aufgenommen, die kurze Zeit später dann auf den Markt kamen."
https://www.pcwelt.de/news/Navi-Grafikkarten-von-AMD-puenktlich-zur-Gamescom-10558821.html (19.03.2019)
"Die neue CPU-Generation mit Zen-2-Architektur will AMD voraussichtlich auf der Computex Ende Mai 2019 vorstellen. Das Lineup umfasst zehn Prozessoren mit bis zu 16 Kernen."
https://www.gamezoom.net/artikel/AMD_Ryzen_3000_Launch_zur_gamescom_2019_-43009 (19.03.2019)
"In den letzten Wochen häuften sich die Meldungen und Details zu AMDs kommenden Ryzen-3000-Prozessoren in 7 Nanometern."
"So soll die Ryzen-3000-Generation mit Zen-2-Architektur zum Launch Mitte 2019 (vermutlich auf der Computex-Messe ab dem 28. Mai 2019) insgesamt 10 Modelle umfassen und bis zu 16 Kerne bieten. Für dieses Jahr ebenfalls angekündigt ist die dritte Generation der Ryzen Threadripper Prozessoren."
gestern abend meldete sich bei mir jemand... Zen2 reviews sehen wir ende mai :)
Scheint ja immer wahrscheinlicher zu werden :smile:
m.f.g. JVC
Edit:
aaaaaalt
Aha, so kommt man also einfacher zu 14K Posts ...
Aber du könntest uns ja, an deinem scheinbar noch aktuellerem Wissen, teil haben lassen?
y33H@
2019-03-22, 13:27:44
aaaaaalt
SKYNET
2019-03-22, 13:59:40
Und bei mir meldete sich jemand und sagt Ende August :rolleyes:
Etwas mehr Infos wären schon gut..
die gleiche person die mich damals mit den A64 stuff fütterte der von A - Z 100% richtig war. :)
robbitop
2019-03-22, 14:00:44
Athlon 64? Das sind mittlerweile 1,5 Jahrzehnte...
RainingBlood
2019-03-22, 14:15:08
die gleiche person die mich damals mit den A64 stuff fütterte der von A - Z 100% richtig war. :)
vor oder nach dem Release oO
Mich juckts auch. Warte nur noch auf den Release. Meine CPU ist dann 6 Jahre alt und die GPU 2 1/2..
bbott
2019-03-22, 14:20:41
Apple hat doch 7nm Kapazitäten nicht abgerufen und somit mehr und schneller für AMD Platz gemacht, also warum sollte Ende Mai nicht möglich sein?
Athlon 64? Das sind mittlerweile 1,5 Jahrzehnte...
also nicht mal ein halbes Arbeitsleben;)
Aber sollte nicht vorher noch Rome kommen? Da sieht man dann ja schon sehr viel. Jedenfalls werden sie EPYC und Ryzen sicher nicht zusammen vorstellen.
edit: oder doch: alles wird am 1. Mai zum 50. Geburtstag mit Navi vorgestellt (die Matrix wird dabei gesprengt), mit unterschiedlichen Launchterminen
https://www.techpowerup.com/253954/amd-ryzen-3000-zen-2-bios-analysis-reveals-new-options-for-overclocking-tweaking (22.03.2019)
"AMD Ryzen 3000 "Zen 2" BIOS Analysis Reveals New Options for Overclocking & Tweaking"
https://www.overclock.net/forum/11-amd-motherboards/1690489-asus-prime-x470-pro-issues-successes-40.html#post27902884 (03.22.2019)
"Good News!
Asus support replied me with new Bios 4602 that adds PBO options on AI Tweaker menu including the scalar option! ... "
https://www.congatec.com/en/products/com-express-type7/conga-b7e3.html
CPU Support:
AMD EPYC™ Embedded 3000 Model 3451 (16 x 2.1 GHz, 32MB L3 cache, 100W)
.........
https://www.channel-e.de/nachrichten/article/com-express-type-7-modul-mit-amd-epyc-embedded-3000-prozessor.html
"COM Express Type 7 Modul mit AMD EPYC Embedded 3000 Prozessor" (sind das überhaupt 7nm Prozessoren?)
Edit:
Embedded EPYC 3000 wurde Anfang letztes Jahr vorgestellt. Kein 7nm.
Danke amdfanuwe, wusste es eben echt ned ^^
m.f.g. JVC
SKYNET
2019-03-22, 18:34:35
Athlon 64? Das sind mittlerweile 1,5 Jahrzehnte...
gibt leute die trotzdem immernoch bei AMD arbeiten ;)
SKYNET
2019-03-22, 18:34:57
vor oder nach dem Release oO
Mich juckts auch. Warte nur noch auf den Release. Meine CPU ist dann 6 Jahre alt und die GPU 2 1/2..
nen knappes jahr vor dem release :)
Zossel
2019-03-22, 18:35:26
https://www.techpowerup.com/253954/amd-ryzen-3000-zen-2-bios-analysis-reveals-new-options-for-overclocking-tweaking (22.03.2019)
"AMD Ryzen 3000 "Zen 2" BIOS Analysis Reveals New Options for Overclocking & Tweaking"
Da lüftet sich auch das Geheimnis um den RAM:
Another is "DRAM Post Package Repair," with options including "Enabled", "Disabled", and "Auto." This new special mode (which is a JEDEC standard) lets the memory manufacturer increase DRAM yields by selectively disabling bad memory cells, to replace them automatically with working ones from a spare area, similar to how storage devices map out bad sectors. We're not sure why such a feature is being exposed to end-users, especially from the client-segment. Perhaps it will be removed on production motherboards.
Hier was von Cadence dazu: https://www.youtube.com/watch?v=kIpQXWTGnHA
Langlay
2019-03-22, 18:41:55
Apple hat doch 7nm Kapazitäten nicht abgerufen und somit mehr und schneller für AMD Platz gemacht, also warum sollte Ende Mai nicht möglich sein?
Und die Yields bei den Chiplets könnten auch schon recht vernünftig sind. Sind ja doch recht klein von der Fläche. Also weniger als halb so groß wie Zen(+).
@Bios.
Da isser ja, die Bestätigung zum eigenen Multiplier für den IF.
Genau hier kacken hohe Takte mit den SR B-DIEs ab, weils nicht stabil zu bekommen ist, DR B-DIEs hingegen werden stark werden.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11871229&postcount=2034 - muss ich nun nen Besen Fressen, scheiße...
Bezweifel, dass mit 1:1 Teiler effektiv mehr als 3200 Mhz beim IF stabil zu halten sind. Naja.. mal gespannt. Wenn doch, dann ist nen SR B-DIE doch noch gut.
amdfanuwe
2019-03-22, 19:29:24
https://www.channel-e.de/nachrichten/article/com-express-type-7-modul-mit-amd-epyc-embedded-3000-prozessor.html
"COM Express Type 7 Modul mit AMD EPYC Embedded 3000 Prozessor" (sind das überhaupt 7nm Prozessoren?)
Embedded EPYC 3000 wurde Anfang letztes Jahr vorgestellt. Kein 7nm.
https://www.computerbase.de/2018-02/amd-epyc-embedded-3000-ryzen-v1000/
Danke :up: , habs gestrichen.
m.f.g. JVC
OgrEGT
2019-03-23, 21:16:41
AMD Ryzen 3000: Liste nennt X570‑Mainboards von Asus
https://www.computerbase.de/2019-03/amd-ryzen-3000-x570-mainboards-asus/
Lehdro
2019-03-23, 21:53:19
Wird ja langsam, kann ja dann nicht mehr so lange hin sein. Ich freu mich auf jeden Fall das die Produktpalette deutlich größer wird, das ist eigentlich immer gut. Vor allem wenn man sieht wie viele verschiedene Intel Modelle existieren - AMD wird also von den Herstellern endlich ernster genommen in dem Bereich.
davidzo
2019-03-23, 23:09:10
AMD Ryzen 3000: Liste nennt X570‑Mainboards von Asus
https://www.computerbase.de/2019-03/amd-ryzen-3000-x570-mainboards-asus/
Alter, das sind mehr als doppelt soviele als noch bei Summit Ridge / x370 :eek:
Es gab insgesamt sechs x370 boards, davon wurden zu Anfang aber nur zwei vorgestellt, das Prime x370 pro und das Crosshair VI Hero.
Das Strix x370 wurde erst später nachgereicht, genauso wie die Ableger Crosshair Extreme, prime x370 A.
Wenn die nun von Beginn an schon mit 12 Boards am Start sind bedeutet das nichts gutes für Intel...
Wenn Asus so großes Vetrauen in die CPUs hat ist ein Flop so gut wie ausgeschlossen, die haben sicher schon ihre eigenen Benchmarks zu Zen2. Bei solchem Board-Lineup rechnet Asus mit einem ordentlichen Marktanteil, Performance und Preis wird also so attraktiv sein dass AMD diesen Marktanteil auch erkämpfen wird!
SKYNET
2019-03-23, 23:11:14
Alter, das sind mehr als doppelt soviele als noch bei Summit Ridge / x370 :eek:
Es gab insgesamt sechs x370 boards, davon wurden zu Anfang aber nur zwei vorgestellt, das Prime x370 pro und das Crosshair VI Hero.
Das Strix x370 wurde erst später nachgereicht, genauso wie die Ableger Crosshair Extreme, prime x370 A.
Wenn die nun von Beginn an schon mit 12 Boards am Start sind bedeutet das nichts gutes für Intel...
zumindest heisst es, das ryzen endlich bei den boardpartnern angekommen ist... mal sehen wieviele ITX abkömmlinge kommen... hoffe ja auf nen itx mit 8 oder 4x2 phasen... :biggrin:
Screemer
2019-03-23, 23:13:36
Wie ist eigentlich dein biostar ITX? Genau so kacke wie mein gt7? Ohne modbios gab's da nicht mal CBS.
SKYNET
2019-03-24, 00:02:47
Wie ist eigentlich dein biostar ITX? Genau so kacke wie mein gt7? Ohne modbios gab's da nicht mal CBS.
biostar? :confused:
Screemer
2019-03-24, 00:11:50
Dachte gelesen zu haben, dass du auf ein biostsr ITX Brett setzt. War wohl jemand anderes.
w0mbat
2019-03-24, 00:33:11
Die Fatal1ty Boards sind von ASRock.
Screemer
2019-03-24, 00:53:36
schon klar. Signaturen werden mobil nicht angezeigt :)
war übrigens megamember: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11955907&highlight=itx#post11955907
von dem hab ich das gt7 :eek:
robbitop
2019-03-24, 07:14:08
Nach Zen und Zen+ ist ein Flop doch von vornherein ausgeschlossen gewesen. 7nm bringt mehr Takt und das mArch Update mehr IPC. Bereits die Vorgängerprodukte waren gut und erfolgreich. Warum in aller Welt hätte Zen 2 ein Flop sein sollen? Er ist in allen Punkten eine Weiterentwicklung eines bereits guten Produktes. Keine Überraschung hier.
Ob AMD mit Zen2 die Führung in Spielen an sich reißen kann, steht aber auf einem anderen Blatt.
rentex
2019-03-24, 07:45:49
Genau, Frage ist nicht ob, sonder wieviel Mehrperformance geboten wird.
Was anderes: Bei Mindfactorys Mindstar, gibt es in letzter Zeit häufiger RYZEN, X470 usw und Threadripper CPUs im "Sale"...beginnender Abverkauf?
reaperrr
2019-03-24, 09:13:45
Genau, Frage ist nicht ob, sonder wieviel Mehrperformance geboten wird.
Was anderes: Bei Mindfactorys Mindstar, gibt es in letzter Zeit häufiger RYZEN, X470 usw und Threadripper CPUs im "Sale"...beginnender Abverkauf?
Schon möglich. Ich gehe zwar davon aus, dass die Ryzen 2000 noch lange parallel zu den 3000ern laufen werden, aber selbst die "Angebote" von Mindfactory & Co sind preislich sicher noch deutlich über dem, was man nach dem Launch der 3000er noch für 2700X & Co. verlangen können wird.
w0mbat
2019-03-24, 10:30:57
Nach Zen und Zen+ ist ein Flop doch von vornherein ausgeschlossen gewesen. 7nm bringt mehr Takt und das mArch Update mehr IPC. Bereits die Vorgängerprodukte waren gut und erfolgreich. Warum in aller Welt hätte Zen 2 ein Flop sein sollen? Er ist in allen Punkten eine Weiterentwicklung eines bereits guten Produktes. Keine Überraschung hier.
Ob AMD mit Zen2 die Führung in Spielen an sich reißen kann, steht aber auf einem anderen Blatt.
Naja, es könnte schon sein, dass die Latenzen durch das chiplet design schlechter werden und der etxtra Takt/IPC das nicht 100% auffangen kann, die Spiele-Performance also zB nur gleich bleibt.
x-force
2019-03-24, 12:02:38
Naja, es könnte schon sein, dass die Latenzen durch das chiplet design schnelchter werden und der etxtra Takt/IPC das nicht 100% auffangen kann, die Spiele-Performance also zB nir gleich bleibt.
das ist die spannendste frage in bezug auf zen2
Thunder99
2019-03-24, 13:04:25
Oder sie schaffen es etwas unempfindlicher zu gestalten. Bleibt also spannend :)
nairune
2019-03-24, 13:52:30
Kann mir kaum vorstellen, dass sich AMD für eine Consumervariante in dieser Form entscheiden würde, wenn man die Speicherperformance nicht wenigstens konstant halten kann.
Macht den Release aber auf jeden Fall spannend, was da am Ende bei rauskommt.
amdfanuwe
2019-03-24, 14:00:04
Verbesserte IPC, Doppelter L3 Cache, höherer Takt.
Wäre schon traurig, wenn sich das bei den Games nicht bemerkbar machen würde.
basix
2019-03-24, 14:23:24
Höherer Speichertakt nicht vergessen ;) und so wie man hört entkoppelter IF Takt
robbitop
2019-03-24, 14:24:24
Naja, es könnte schon sein, dass die Latenzen durch das chiplet design schnelchter werden und der etxtra Takt/IPC das nicht 100% auffangen kann, die Spiele-Performance also zB nir gleich bleibt.
Die ersten Messungen zeigten doch schon vor Monaten, dass die Latenz nicht so stark stieg (und das bei einem ES). Dazu doppelter L3 und deutlich höherer Takt und sicherlich etwas mehr IPC. Das kann in Summe niemals nur gleichschnell wie Zen+ sein.
Einzig offen ist nur, wie viel besser man wird und ob es reicht, um Intel zu schlagen.
https://linustechtips.com/main/topic/1047648-another-another-zen-2-leak/
"This guy is selling 3300X for around 200 USD, and 3858X (should be 3850X, it could be a typo on his side) for 1300USD. According to him, the 3300X he is selling has 6 cores/12 threads and 15MB cashe. He also claimed that the base clock speed is 5.0 Ghz, and can be overclocked to 5.8Ghz, but I doubt it. (Could be single-core rather than 6-core)."
Aus dem Tread dazu:
"1399 chinese yuan = 199$" (für den 3300X)
"3999 chinese yuan = 599$" (für den 3850X)
https://www.techspot.com/news/79335-ryzen-7-2700-drops-220-amazon-new-x570.html
"Ryzen 7 2700 drops to $220 on Amazon as new X570 motherboards leak"
m.f.g. JVC
amdfanuwe
2019-03-24, 16:46:22
Die Preise wären glaubhaft.
Aber 5GHz Base 6 Core bei 65W?
Zen 14nm braucht Single Core für 4GHz 20W. 6 Core 4Ghz = 120W + 20W I/O = 140W.
25% mehr Takt bei gleichem Verbrauch käme 6 Core, 5GHz in 7nm somit auch auf 140W.
Allein daher scheint mir 5GHz Base 6 Core extrem unglaubwürdig.
Dann ist da noch die Frage, wieviel Watt Single Core in 7nm überhaupt möglich sind ohne Kernschmelze.
Vielleicht meint er das die CPU (auf 2 Kernen) von Haus aus auf bis zu 5Ghz Boostet?
Und das man 2Kerne ~auf 5,8Ghz prügeln kann?
Hab mich noch nicht damit auseinandergesetzt, ob man nicht schon bei den jetzigen CPU´s
irgendwie jeden einzelnen Kern gezielt übertakten kann ...
(oder könnte so etwas kommen, als Feature bei den 5xx Boards?)
(ein entkoppelter FSB wäre auch nett zum spielen :))
(bei mir funktioniert schon bei 101Mhz nix mehr :()
m.f.g. JVC
Der_Korken
2019-03-24, 17:29:03
War vor Zen1-Release nicht irgendwas mit "5 Ghz on air"? ;)
War vor Zen1-Release nicht irgendwas mit "5 Ghz on air"? ;)
Hab Irgendwo mal gelesen ... (zu faul zum suchen)
Das der 14nm Prozess für ~3Ghz angedacht war ... wurden dann bis zu 4,4Ghz.
Und der 7nm Prozess ursprünglich für ~5Ghz gut sein sollte ...
m.f.g. JVC
Edit: "Gefunden" :)
https://www.3dcenter.org/news/amds-zen-2-wird-16-kern-prozessoren-ins-normale-consumer-segment-bringen (21.07.2018)
"Konkret müsste AMD also in der Lage sein, Taktraten von bis zu 5 GHz im Boost-Modus zu erreichen, ein Allcore-Turbo von wenigstens 4.5 GHz ist vielleicht sogar noch wichtiger. Prinzipiell erscheint dies als machbar, denn Chipfertiger GlobalFoundries hatte als Taktraten-Zielsetzung von 14LPP nur die Marke von >3 GHz angegeben – und gibt nun für den 7LPP-Prozeß dagegen die Marke von 5 GHz an."
GF ist zwar abgesprungen vom 7nm Zug, aber die hätten eh nur von Samsung in Lizenz gefertigt.
(die haben sicher nur nachgeplappert, entsprechend dem was Samsung zu ihnen gesagt hat)
AlterSack
2019-03-24, 20:14:06
https://linustechtips.com/main/topic/1047648-another-another-zen-2-leak/
the 3300X he is selling has 6 cores/12 threads and 15MB cashe.
m.f.g. JVC
schon die 15mb cache machen es unglaubwürdig.
Benutzername
2019-03-24, 20:30:26
schon die 15mb cache machen es unglaubwürdig.
Ja, komische Zahl.
Kann aber auch einfach Tippfehler sein. Wie auch "3858X" vermutljich auch ein TIppfehler ist, wie ja auch in dem Forumsfred bei ltt steht.
Eldoran
2019-03-24, 20:40:15
GF ist zwar abgesprungen vom 7nm Zug, aber die hätten eh nur von Samsung in Lizenz gefertigt.
(die haben sicher nur nachgeplappert, entsprechend dem was Samsung zu ihnen gesagt hat)
Der 14nm von GF ist von Samsung lizensiert, 7nm wäre eine eigene Entwicklung gewesen und hatte mit Samsung nichts zu tun - das war an die Eigenschaften von TSMC angelehnt. Allerdings hätte sowohl intel 10nm, und die 7nm von Samsung, GF und TSMC annähernd gleiche Maße gehabt.
amdfanuwe
2019-03-24, 20:44:57
12 MB L3 + 6 x 512k L2.
Der 6 Kerner dürfte der kleinste Matisse sein, da wird der ganze Ausschuß verbaut.
Die 16MB L3 Cache pro CCX ist relativ groß, mit 32mm² fast die Hälfte des Chiplet. da dürfte es auch entsprechend oft Fehler geben.
Wären die 15MB Cache also schon möglich.
Benutzername
2019-03-24, 21:05:35
12 MB L3 + 6 x 512k L2.
Der 6 Kerner dürfte der kleinste Matisse sein, da wird der ganze Ausschuß verbaut.
Die 16MB L3 Cache pro CCX ist relativ groß, mit 32mm² fast die Hälfte des Chiplet. da dürfte es auch entsprechend oft Fehler geben.
Wären die 15MB Cache also schon möglich.
Hmm, stimmt in Summe.
Ergibt aber überhaupt wenig Sinn allen Cache einfach zusammen zu addieren.
reaperrr
2019-03-24, 21:18:59
Hmm, stimmt in Summe.
Ergibt aber überhaupt wenig Sinn allen Cache einfach zusammen zu addieren.
Erzahl das mal den Erstellern der Präsentationsfolien von Google Stadia :wink:
Will nur sagen: Bloß weil wir wissen, dass das zusammenrechnen von L2 und L3 Quatsch ist, heißt das noch lange nicht, dass das Marketingmaterial oder Einträge in Großhändler-Datenbasen es nicht trotzdem machen.
BlackBirdSR
2019-03-25, 00:36:08
Wenn der l3 wieder ein reiner victim-Cache ist, passt das doch ;)
Erzahl das mal den Erstellern der Präsentationsfolien von Google Stadia :wink:
Will nur sagen: Bloß weil wir wissen, dass das zusammenrechnen von L2 und L3 Quatsch ist, heißt das noch lange nicht, dass das Marketingmaterial oder Einträge in Großhändler-Datenbasen es nicht trotzdem machen.
Leonidas
2019-03-25, 07:45:46
was mich wundert, ist das massive rollout von den biosen... normal passiert das immer erst wenige(6-8) wochen vor erscheinen der CPUs... kommen Zen2 also wohl schon im mai auf den markt.
Ich finde das aus Konsumenten-Sicht nicht schlecht. So kann man sicher, das kaum ein alter Lagerbestand da ist, mit dem Zen 2 dann nicht einmal startet. AMD hatte ja bei Zen+ extra Alt-CPUs durch die Welt (zu den Konsumenten!) gesandt, nur damit man ein BIOS-Update machen kann. Vielleicht will man schlicht diese Situation vermeiden. Die Zen-2-Kompatibilität soll auch sehr rumdimentär sein - es soll nur reichen, um das Teil zu starten (und sich nachfolgend das wirklich neue BIOS zu geben).
Wobei dies nicht zwingend gegen einen Release schon im Mai spricht. Immer her damit!
He also claimed that the base clock speed is 5.0 Ghz, and can be overclocked to 5.8Ghz, but I doubt it. (Could be single-core rather than 6-core)."
"1399 chinese yuan = 199$" (für den 3300X)
"3999 chinese yuan = 599$" (für den 3850X)
Ihr habt zu wenig mit Chinesen bzw. Asiaten allgemein zu tun. Bei denen gilt man es guter Geschäftsmann, wenn man die Langnasen derart fein übers Ohr hauen kann.
Ihr habt zu wenig mit Chinesen bzw. Asiaten allgemein zu tun. Bei denen gilt man es guter Geschäftsmann, wenn man die Langnasen derart fein übers Ohr hauen kann.
Das ist ein Punkt :biggrin:
Die "veräppeln" dich auch gern mal und grinsen noch fest dabei :freak:
m.f.g. JVC
Ähm ein Chiplet von Epyc (was sicherlich dasselbe Chiplet ist) bietet 2x16MB L3$ also 32MB. Zwei Chiplets bieten also 64MB L3$.
amdfanuwe
2019-03-25, 13:06:00
Ähm, und was macht man mit den Defekten?
Richtig, man schaltet die Hälfte des Caches ab, deaktiviert in jedem CCX einen Core und verramscht die als 6 Kerner.
Pi mal Daumen dürften 40% der Defekte den Cache betreffen, 40% einen Kern und 20% sind Totalausfall wegen defekt im Chiplet I/O oder anderen sensitiven Stellen.
Der_Korken
2019-03-25, 13:39:28
Welche Vorteile bietet eigentlich ein Victim-Cache außer der höheren nutzbaren Größe? Bei 16MB pro 4 Kerne würde man gerade mal 1/8 verlieren, wenn man den L2 inkludieren würde. Lohnt sich das nicht bzw. warum verwendet Intel nicht auch eine Victim-Strategie?
Setsul
2019-03-25, 13:51:29
12 MB L3 wären sehr ungewöhnlich.
Erstens müsste der L3 deutlich anders aufgebaut sein als bei Zen1, sonst könnten nicht 3/4 aktiv sein, zweitens gehen wir doch immernoch von 16 MB pro CCX aus bei Zen2, oder?
12 von 32 MB L3 wären bei der eingebauten Redundanz schon unglaublich schlechte Yields.
@Der_Korken:
Da hängt ja wieder die ganze Hierarchie mit drin. Direkt in den L2 ziehen und dann L3 als Victim-Cache sorgt für etwas niedrigere Latenzen. Inklusiver L3 vereinfacht Kohärenz weil der L3 alle Anfragen beantworten kann ohne den L2/L1 zu stören. Bei Zen2 ist die Entscheidung natürlich teilweise historisch bedingt. Bei Zen1 haben L1I+L1D+L2 fast 30% der Kapazität des L3. Das schließt einen inklusiven L3 aus. Bei Zen2 könnte man darüber nachdenken aber Zen hat sowieso eher ein Problem mit der Latenz als der Kohärenz (Gruppierung in CCX macht das einfacher) und AMD kann es sich auch nicht leisten alle 2 Jahre die Caches komplett zu überarbeiten.
Der_Korken
2019-03-25, 14:12:37
Wie ist bei Zen der Datenfluss, wenn ein Kern auf Daten zugreift, die in einem anderen L2 liegen? Geht das über den RAM oder fragt der L3 auch jeweils alle L2s bei einem Miss an?
Setsul
2019-03-25, 14:45:19
Das geht so wie L2 Hits im selben CCX. Der L3 hat auch die L2 Tags, also fragt man erst den L3 und dann bei Bedarf nur noch den richtigen L2.
davidzo
2019-03-27, 09:09:03
Ähm, und was macht man mit den Defekten?
Richtig, man schaltet die Hälfte des Caches ab, deaktiviert in jedem CCX einen Core und verramscht die als 6 Kerner.
Pi mal Daumen dürften 40% der Defekte den Cache betreffen, 40% einen Kern und 20% sind Totalausfall wegen defekt im Chiplet I/O oder anderen sensitiven Stellen.
Es macht eher Sinn wenn man den Cache dann auch im Verhältnis dazu abschaltet, bei 6 cores also auf 24mb.
AMD hat in der Vergangenheit, z.B. bei Ryzen 1+2 aber auch durchaus CPUs mit dem vollen Cache aber reduzierter Core-zahl verkauft. Umgekehrt ist es sehr unwahscheinlich. Den Cache stärker zu beschneiden als die Coreanzahl, noch dazu auf eine merkwürdige Größe von 15mb, nicht 12mb, stimmt nicht mit der aktuellen AMD Produktstrategie überein.
Ähm, und was macht man mit den Defekten?
Richtig, man schaltet die Hälfte des Caches ab, deaktiviert in jedem CCX einen Core und verramscht die als 6 Kerner.
Pi mal Daumen dürften 40% der Defekte den Cache betreffen, 40% einen Kern und 20% sind Totalausfall wegen defekt im Chiplet I/O oder anderen sensitiven Stellen.
Die verkauft man als 4-Kerner mit halbiertem Cache, wie bislang auch. Das wären dann 16GB L3 pro CCD. Jedenfalls disqualifiziert diese Cache-Größe das Gerüchte, ergo BS-Alarm, sonst nix.
SKYNET
2019-03-27, 10:32:06
Die verkauft man als 4-Kerner mit halbiertem Cache, wie bislang auch. Das wären dann 16GB L3 pro CCD. Jedenfalls disqualifiziert diese Cache-Größe das Gerüchte, ergo BS-Alarm, sonst nix.
4 kerner mir halbierten cache? also mein 1500X hat die vollen 16MB(2x 8MB) L3, die auch mein 2700X hat... :smile:
https://geizhals.de/amd-ryzen-3-2300x-yd230xbbm4kaf-yd230xbbafmpk-a1886226.html?hloc=at&hloc=de
Gibt noch andere Beispiele. Hab ja nicht behauptet, dass alle 4-Kerner am Cache beschnitten sind, aber das war jetzt bei 1000er und 2000er so und bei BD vorher ebenfalls.
Leonidas
2019-03-27, 11:24:06
Die-Fehler am Cache kaschiert man gern auch mit ein wenig Redundanz im Cache. Real sind es dann vielleicht 1032 kB anstatt 1024 kB. Damit kann man einen Diefehler im Speicherbereich des Caches problemlos auffangen, ohne Salvage-Versionen zu benötigen.
amdfanuwe
2019-03-27, 11:50:49
stimmt nicht mit der aktuellen AMD Produktstrategie überein.
Neue Kerne, neues Spiel.
Bei den alten 4 Kernern ( edit: ausnahme 1500X ) gibt es auch nur den halben Cache, obwohl es meines wissens ein 2+2 Design ist. Also muß der Cache zumindest in 4MB Blöcken abschaltbar sein.
Bei ZEN2 wird es wohl keine 4 Kerner geben, also wird der ganze halbwegs verwertbare "Müll" zu 6 Kernern verarbeitet. Eventuell gibt es technische, Ausbeutebedingte, ästhetische Hintergründe etc, dass beim 6 Core dann nur 2MB Cache pro Core funktionieren müssen und daher nur 12MB Cache beim 6 Kerner aktiv sind.
Wer weiß, was AMD da am Cache überarbeitet hat, feinere Granularität der Abschaltung...
Lassen wir uns überraschen, wie das Portfolio letztendlich aussehen wird.
edit:
Die 6 Kerner bei denen der volle Cache nutzbar ist, würde ich zu 12 Kernern verarbeiten.
Sammeln sich bei den billigen 6 Kernern also vornehmlich alle Chips mit Defekten im Cache. Denke nicht, dass es 8 Kerner mit halbem Cache geben wird.
Setsul
2019-03-27, 18:52:40
Nicht unbedingt in 4 MB Blöcken, aber halbierbar. Das wird effektiv natürlich auch für Raven Ridge verwendet.
Wenn wir mal asymmetrische Absurditäten wie 8+4 oder sogar 2x 7.5 (wenns 15 MB ohne L2 sind) ignorieren reicht das aber bei Weitem nicht.
6/16 MB heißen 2 MB Schritte, Achtel des Caches.
Bis jetzt hat AMD nur 4 Kerner mit halbem Cache gebracht, was absolut sinnvoll scheint. Halbe Kerne, halber Cache. Das wäre aber weniger Cache als Zen1 hat bei 6 Kernen.
Und wieso 6 MB? Wieso nicht 8? Oder 4?
Es ergibt einfach keinen Sinn. Wenn ein Die so kaputt ist dass man nichtmal 40% des L3s, der eingebaute Redundanz hat, zum laufen bringt, wieso sollten dann 75% der Kerne funktionieren?
Halber Cache wäre eine logische Salvage-Option, weil einfach zu implementieren. Intel nimmt meistens sogar 3/4 weil die Yields normalerweise nicht so schlecht sind.
Aber 3/8? Was soll das?
Zossel
2019-03-27, 20:15:12
"Man erkennt deutlich die acht 1-Megabyte-Blöcke des L3" (https://www.planet3dnow.de/cms/26077-details-und-analyse-der-zen-architektur-nach-der-hot-chips-konferenz/4/)
Setsul
2019-03-27, 20:47:20
Bloß weil AMD 8MB L3 als 8x1MB Arrays baut anstatt 23 KB, 753KB, 2 mal 1765KB und 3886KB weil sie die Zahlen mögen, heißt dass nicht dass sie die auch getrennt abschalten können.
Und selbst wenn sie es können heißt das nicht, dass es auch sinnvoll ist.
Wieso 3/8 und nicht 1/2?
Außerdem gehen bei Zen1 jeweils 1/4 der Adressen an je eine der 2MB Gruppen. Wenn Zen2 den gleichen Aufbau verwendet nur eben mit 2MB Blöcken (sonst wäre der Aufbau von Zen1 hier ja nicht relevant als Argument) dann hieße das wenn man 5 von 8 Blöcken abschaltet dass eine Gruppe komplett aus ist und 1/4 der Adressen einfach gar nicht mehr gecached wird.
Selbst wenn man von 16x1MB ausgeht, warum auch immer, hat die eine Hälfte der Adressen dann doppelt so viel Cache zur Verfügung wie die andere. Klingt nicht sinnvoll.
Um mich selbst zu zitieren:
Erstens müsste der L3 deutlich anders aufgebaut sein als bei Zen1, sonst könnten nicht 3/8 aktiv sein[...]
Warum diskutiert ihr da noch drüber? Das war offensichtlicher BS. Weit über 5GHz - so ein Schwachsinn.
Leonidas
2019-03-28, 05:32:53
Jo. Trennung von guten zu schlechten Gerüchte sollte die Aufgabe sein, nicht das Hinterherhecheln nach den knalligsten Specs.
Jo. Trennung von guten zu schlechten Gerüchte sollte die Aufgabe sein, nicht das Hinterherhecheln nach den knalligsten Specs.
Da fühle ich mich angesprochen und gelobe Besserung.
(gibt genug Pessimisten, dachte ich spiel Optimist...)
m.f.g. JVC
Leonidas
2019-03-28, 08:19:45
Da fühle ich mich angesprochen und gelobe Besserung.
(gibt genug Pessimisten, dachte ich spiel Optimist...)
Nee, nicht so gemeint. Wir wollen das hier auftrennen und bewerten. Das bedeutet, das es hier auch erst einmal auf den Tisch muß.
Nach Zen und Zen+ ist ein Flop doch von vornherein ausgeschlossen gewesen. 7nm bringt mehr Takt und das mArch Update mehr IPC.
Wir haben nicht die geringste Ahnung, was 7nm genau bringt bei diesen Chips. Ich würde mich deshalb nicht zu weit aus dem Fenster lehnen. Die Chance, dass das Ding ein Schuss in den Ofen wird, bzw. eine spezialisierte CineBench-CPU, ist IMO alles andere als gering. Ich habe bei dem Ding ein ungutes Bauchgefühl. Hoffentlich liege ich damit falsch.
y33H@
2019-03-28, 09:54:02
was bitte ist eine Cinebench CPU?
SKYNET
2019-03-28, 10:08:36
Wir haben nicht die geringste Ahnung, was 7nm genau bringt bei diesen Chips. Ich würde mich deshalb nicht zu weit aus dem Fenster lehnen. Die Chance, dass das Ding ein Schuss in den Ofen wird, bzw. eine spezialisierte CineBench-CPU, ist IMO alles andere als gering. Ich habe bei dem Ding ein ungutes Bauchgefühl. Hoffentlich liege ich damit falsch.
wie soll das teil nen schuss in ofen werden? er wird in jeder lebenslage schneller als Zen+ sein(auch bei gleichen takt), und wenn das teil nun 350MHz mehr AC bekommt, langt das schon...
robbitop
2019-03-28, 10:35:32
Er wird in jedem Fall schneller als Zen+. Warum auch nicht? Somit kann es kein Schuss in den Ofen sein. Wobei das natürlich immer eine Frage der Bemessungsgrundlage ist. Wenn alles <9900K Spieleleistung (selbst wenn nur geringfügig) als "Schuss in den Ofen" bezeichnet werden würde (was IMO vermessen wäre), dann besteht zumindest eine gewisse Chance.
was bitte ist eine Cinebench CPU?
Vielleicht möchte er damit zum Ausdruck bringen, dass SMT wesentlich mehr Leistung im Multithreading rausholt als HT. Mal rein theoretisch gesprochen könnte AMD noch mehr den Fokus auf die Optimierung von SMT legen(was sie glaube ich auch haben, da hatte hier glaub jemand mal ein Patent gespostet)und somit wäre der Cinebench Score bei der CES je nach Größe der Optimierung nicht mehr ganz so beeindruckend, wenn man sein Hauptaugenmerk auf die Single-Core Leistung legt.
Bambuslooter
2019-03-28, 14:03:53
https://www.pcbuildersclub.com/2019/03/ryzen-3000-prozessor-auf-der-ces-war-angeblich-30-40-prozent-gedrosselt/
Glaube den Link hier noch nicht gesehen zu haben.
Das Thema mit dem Verbrauch wurde von 3DC schon aufgegriffen.
Ich persönlich rechne eher mit 20-25% Mehrleistung.
robbitop
2019-03-28, 14:19:28
Wobei 30-40 % TDP Drosselung nicht zu 30-40% Leistungsreduktion führt, wie es im Link steht. Ist im oberen Taktbereich ja hoch nicht linear.
Besonders, wenn man sich einen besonders guten Betriebspunkt aussucht und entsprechend undervoltet (statt nur stumpf die TDP zu drosseln).
Grob abgeschätzt liegt Zen+ je nach Anwendung taktnormiert idR ~10% hinter Skylake mArch Kernen (mal ausgenommen besondere Usecases wie massiven AVX2 Einsatz). Zen2 wird diese 10% wahrscheinlich holen. Aber IMO nicht übermäßig mehr. Taktbarkeit sollte besser als bei Zen+ sein dank 7 nm. Aber IMO auch nicht großartig über bei modernen Intel Cores und dem ausgequetschtem 14nm ++ möglich ist. Ich erwarte in etwa Parität in Singlethread. (+/-10% Schwankungsbreite). Da wird der eine den anderem IMO nicht großartig dominieren.
Zen2 kann aber in Anwendungen dank deutlich mehr Kernen Intel überholen. In Spielen tippe ich hingegen eher auf groben Gleichstand. Je nach TDP, wird der 16C aber sicherlich etwas im maximalen Allcoretakt bei Full-Load sicherlich auch ein wenig eingezwängt werden.
Setsul
2019-03-28, 14:20:39
Was soll das denn für ein Leak sein?
Die gezeigte CPU hat wie AMD selbst gesagt hat 65W TDP.
Es wird wieder 95W TDP CPUs geben. Vielleicht auch 105W.
Ist das die Erkenntnis?
Und dann noch toll gerechnet dass 65W 32% bzw 38% weniger TDP sind und schön gerundet. Dafür brauch ich keine "internen Quellen".
Linmoum
2019-03-28, 14:22:37
Zen+ hat gegenüber Zen schon rund 10% zugelegt und das mit quasi identischen Fertigungsprozess. Alles unter 30% wäre schön alleine im Hinblick auf den Sprung hin zu 7nm irgendwie... meh.
Der_Korken
2019-03-28, 14:50:46
Zen+ hat gegenüber Zen schon rund 10% zugelegt und das mit quasi identischen Fertigungsprozess. Alles unter 30% wäre schön alleine im Hinblick auf den Sprung hin zu 7nm irgendwie... meh.
Welche CPU hat das letzte Mal >30% gegenüber einem direkten Vorgänger geholt ohne dass es eine komplett neue µArch war? Am ehesten vielleicht noch Nehalem und der hat SMT, on-die-IMC und eine neue Cache-Architektur mitgebracht, also auch schon fast eine neue µArch. In der Breite wird Zen2 sicher super zulegen, aber in die Höhe (ST-Power) eher "nur" OK bis gut.
Schnoesel
2019-03-28, 14:56:43
Zen+ hat ggü. Zen aber IPC nur 3% mehr gehabt. Der Rest kam durch Takt und niedrigere Latenzen:
https://www.computerbase.de/2018-04/amd-ryzen-2000-test/
Vorteil Zen+ zu Zen laut AMD
Latenz L1-Cache -13 Prozent
Latenz L2-Cache –34 Prozent
Latenz L3-Cache –16 Prozent
Latenz RAM -11 Prozent
IPC +3 Prozent
Insgesamt war man damit von 1800X zu 2700X bei ca 12% an Mehrleistung.
würde mich freuen wenn es von Zen (Summit Ridge) zu Zen 2 ein + von 30% gibt ingesamt. Von Zen + auf Zen 2 bezweifle ich das.
Also ich rechne bei Zen2 mit ca 25% mehr Takt ggü Summit Ridge würde bedeuten von 3,7Ghz allcore zu ca 4,6Ghz allcore (8Kerner) und der Rest über IPC und Latenzen. Das sehe ich schon als realistisch. Wenn dann noch was an Takt über brute force geht, nehm ich das auch mit :-)
Windi
2019-03-28, 15:18:27
Zen+ hat gegenüber Zen schon rund 10% zugelegt und das mit quasi identischen Fertigungsprozess. Alles unter 30% wäre schön alleine im Hinblick auf den Sprung hin zu 7nm irgendwie... meh.
Zen+ hat doch gegenüber einem getunten Zen1 kaum zugelegt.
Zen+ lebt doch von optimierten Timings, die auch viele Overclocker vorher schon herauskitzeln konnten. Es ist ja nicht nur der (fast) gleiche Fertigungsprozess benutzt worden, sondern anscheinend auch dieselben Masken. Das heißt alle Transistoren sind gleich. Maximal wurden bei den oberen Metalllayern einige Optimierungen durchgeführt.
Zen+ ähnelt eher einem Update für das Motorsteuergerät als einer großen Hardwareänderung.
ZEN2 wird natürlich interessant.
Aber ob die großen Erfolge wirklich im Singlethread-Bereich liegen werden?
Dank dem Chipletdesign und 7nm wird man mehr Kerne, größere Caches und höhere Taktraten sehen.
Leider erhöht dies aber auch die Latenzen, was schlecht für die Singlethread-Leistung ist.
Man sollte die Erwatungen in diesem Bereich lieber nicht zu hoch schrauben und sich dann in Zukunft positiv überraschen lassen.
Ich meine, 30% mehr ST-Leistung (am besten Takt normiert) und dazu noch doppelt so viele Kerne und höhere Taktraten, das ist doch fast zu Gut um Wahr zu sein. Und dann ist es meistens auch nicht Wahr.
Schnoesel
2019-03-28, 15:22:49
30% mehr Leistung im ST taktnormiert (im Endeffekt IPC) erwartet aber hoffentlich auch keiner. Da würde Intel 6 Generationen draus machen.
Windi
2019-03-28, 15:33:44
Hoffen wir es :biggrin:
Aber wenn die Latenzen die IPC senken, dann kann man nur hoffen, das man dort insgesamt im positiven Bereich bleibt. Ich gehe davon aus. Aber ich erwarte nichts über 10%, selbst 5% ist bei schlechteren Latenzen eine Herausforderung.
edit:
Ich meinte mit dem Satz: "dann kann man nur hoffen, das man dort insgesamt im positiven Bereich bleibt" die IPC.
Das die Latenzen schlechter werden ist ja schon fast garantiert.
w0mbat
2019-03-28, 16:02:16
Naja, die Cache-Latenzen kann man bei SR ja nicht verbessern und den RAM kann man bei PR auch optimieren. Zen+ ist, vor allem in Spielen, schon >5% schneller bei gleichem Takt.
Lehdro
2019-03-28, 16:12:55
Naja, die Cache-Latenzen kann man bei SR ja nicht verbessern
Kann man sehr wohl: Performance Bias. (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=588152)
Kriegst du aber nicht immer stabil hin.
w0mbat
2019-03-28, 16:16:05
Kriegst du aber nicht immer stabil hin.
:wink:
Lehdro
2019-03-28, 16:31:06
:wink:
Was aber eher am zusätzlichem OC und der selbstauferlegten Beschränkung der SoC Voltage liegt...
Der Punkt bleibt aber: Es geht, wenn gewünscht auch stabil.
Was man so hört war Zen schon mit den ungefähren Zen+ Cache Latenzen geplant -> man schaue sich nur RR und TR4 an, die haben beide deutlich bessere Cachelatenzen bei quasi selber Chipfertigung:
When AMD first launched the Ryzen 7 1800X, the L2 latency was tested and listed at 17 clocks. This was a little high – it turns out that the engineers had intended for the L2 latency to be 12 clocks initially, but run out of time to tune the firmware and layout before sending the design off to be manufactured, leaving 17 cycles as the best compromise based on what the design was capable of and did not cause issues. With Threadripper and the Ryzen APUs, AMD tweaked the design enough to hit an L2 latency of 12 cycles, which was not specifically promoted at the time despite the benefits it provides.
Quelle (https://www.anandtech.com/show/12625/amd-second-generation-ryzen-7-2700x-2700-ryzen-5-2600x-2600/3)
Complicated
2019-03-28, 17:21:19
Und wenn man nun noch schauen würde worauf die IPC basiert die hier immer wieder als 3% Zen zu Zen+ genannte wurden...die meisten Spiele die hier in diesen Zahlen verwurstet wurden performen auf beiden CPUs deutlich besser mtlerweile...man schaue sich nur mal das aktuelle DX12 Upgrade für Hitman an, wo AMD CPUs enorm zulegen.
aufkrawall
2019-03-28, 17:32:13
Und? Mein 6700k wird durch DX12 dort auch doppelt so schnell. Ändert an der IPC rein gar nichts...
Ex3cut3r
2019-03-28, 18:15:34
Ich wurde da auch erstmal nicht zu hoch stapeln, ich bin Gamer und brauche minimum ST Performance auf CL, sonst hole ich mir im Sommer einen Intel. Aber so ein 12/24T @ CL ST Performance wäre ein tolles Upgrade von meinen 4770k. Sonst wird es halt der 10/20T Intel 10900k?
drmaniac
2019-03-28, 18:30:48
Ein R3000 mit 16 Kernen der ca. das doppelte leisten kann wie ein 9900K...
wäre schon zu verlockend ;)
Vor allen weil er sicher kaum mehr kosten würde wie ein 9900er oder?
Ex3cut3r
2019-03-28, 18:40:29
Kein Plan, wird man ja dann sehen. Erstmal mal Benchmarks abwarten, den Hype Train gehe ich (noch) nicht mit. ;)
Ich wurde da auch erstmal nicht zu hoch stapeln, ich bin Gamer und brauche minimum ST Performance auf CL, sonst hole ich mir im Sommer einen Intel. Aber so ein 12/24T @ CL ST Performance wäre ein tolles Upgrade von meinen 4770k. Sonst wird es halt der 10/20T Intel 10900k?
Naja in Anbetracht deiner jetzigen CPU kann ja ST Performance nicht der wichtigste Grund sein sondern eher gute bis sehr gute Performance zum Start und gute bis befriedigende nach ein paar Jahren der Nutzung und genau da schlägt sowohl Zen und Zen+ die jeweiligen Konkurenzmodelle und bei Zen2 wird es mit mehr Kernen pro Preispunkt ähnlich sein. Hättest du jetzt einen aktuellen Prozessor mit möglichst hoher ST Leistung und wechselst den jedes Jahr könnte ich das nachvollziehen.
Stretcher
2019-03-28, 20:18:55
man schaue sich nur mal das aktuelle DX12 Upgrade für Hitman an, wo AMD CPUs enorm zulegen.
Intel wie auch AMD CPU´s legen "enorm" zu.
Ex3cut3r
2019-03-28, 20:27:00
Naja in Anbetracht deiner jetzigen CPU kann ja ST Performance nicht der wichtigste Grund sein sondern eher gute bis sehr gute Performance zum Start und gute bis befriedigende nach ein paar Jahren der Nutzung und genau da schlägt sowohl Zen und Zen+ die jeweiligen Konkurenzmodelle und bei Zen2 wird es mit mehr Kernen pro Preispunkt ähnlich sein. Hättest du jetzt einen aktuellen Prozessor mit möglichst hoher ST Leistung und wechselst den jedes Jahr könnte ich das nachvollziehen.
Bitte was? Ich erreiche 410 pkt. im ST @ CB20 mehr als jeder Ryzen 1 - Bzw. auf gleichen Niveau.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11947225&postcount=93
nur das meine CPU aus dem Jahre 2013 ist und Ryzen kam im Jahr 2017 raus? Naja...CL ST Performance wird ja mit 7nm immerhin drin sein. Hoffe ich mal. Sonst wird es halt ein Intel 10C/20Ter. Wäre mir auch Wumpe ob AMD oder Intel. Das Gesamtpaket muss stimmen bzw. die Kombination aus MT und ST Leistung und niedrige Latenzen wären auch nicht verkehrt.
Blediator16
2019-03-28, 21:13:09
Bitte was? Ich erreiche 410 pkt. im ST @ CB20 mehr als jeder Ryzen 1 - Bzw. auf gleichen Niveau.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11947225&postcount=93
nur das meine CPU aus dem Jahre 2013 ist und Ryzen kam im Jahr 2017 raus? Naja...CL ST Performance wird ja mit 7nm immerhin drin sein. Hoffe ich mal. Sonst wird es halt ein Intel 10C/20Ter. Wäre mir auch Wumpe ob AMD oder Intel. Das Gesamtpaket muss stimmen bzw. die Kombination aus MT und ST Leistung und niedrige Latenzen wären auch nicht verkehrt.
Wenn man überlegt wie viele Jahre Intel einen Fertigungsvorsprung hatte, dann sind deine ständigen Vergleiche von wegen meine uralt CPU hält mit der 17er Version von AMD mit ziemlich Banane.
AMD wird seit vielen vielen Jahren endlich mal wenigstens auf Augenhöhe produzieren können. Danach kann man Apfel mit Apfel vergleichen. Wenn du 200Watt auf der CPU für das gleiche abführen willst viel Spass.
Ex3cut3r
2019-03-28, 21:16:39
Was wieso 200W? Und wenn schon? Einen Nocutra oder Dark Rock rauf, und das sollte auch kein Problem darstellen. Hauptsache ich habe wieder für 7 Jahre ruhe, und rüste nur alle paar Jahre die Graka auf.
Langlay
2019-03-28, 21:20:57
Zen+ hat doch gegenüber einem getunten Zen1 kaum zugelegt.
Zen+ lebt doch von optimierten Timings, die auch viele Overclocker vorher schon herauskitzeln konnten. Es ist ja nicht nur der (fast) gleiche Fertigungsprozess benutzt worden, sondern anscheinend auch dieselben Masken. Das heißt alle Transistoren sind gleich. Maximal wurden bei den oberen Metalllayern einige Optimierungen durchgeführt.
Zen+ ähnelt eher einem Update für das Motorsteuergerät als einer großen Hardwareänderung.
Nich nur das Zen+ hat auch etwas mehr Taktspielraum nach oben. Mein 2700X macht 4.2 Ghz Allcore mit 1.35V. Der 1700X von meiner Frau macht 3.8 GHz Allcore mit 1.35V.
Und ausgehend von meinem 2700X bräuchte ich 4,4-4,45 GHz Allcore für den Score von dem 8 Kern Zen2 Sample was gezeigt wurde.
Blediator16
2019-03-28, 21:27:33
Was wieso 200W? Und wenn schon? Einen Nocutra oder Dark Rock rauf, und das sollte auch kein Problem darstellen. Hauptsache ich habe wieder für 7 Jahre ruhe, und rüste nur alle paar Jahre die Graka auf.
Also du bist der Meinung, dass wenn AMD und Intel ab Sommer gleich schnell sind, lieber Intel das Geld in den Hintern schiebst und dabei genüsslich 200Watt abführen willst, während die angenommen gleich schnelle AMD CPU die hälfte verbrät?
Mit welcher Logik gehst du an die Sache ran?
Ich kann mir kaum vorstellen, dass nur weil Intel einen 10. Kern dranpappt, die Leistung sich enorm verbessern wird.
Der_Korken
2019-03-28, 21:52:26
Intel hat durch 14nm den Nachteil, dass weitere Kerne auch proportional den Verbrauch erhöhen. Den 6-Kerner konnten sie durch Fertigungsoptimierungen noch etwas kompensieren, aber beim 8-Kerner ging es nicht mehr weil die 14nm auch irgendwann mal ausoptimiert sind. Der 10-Kerner wird bei gleichem Verbrauch nicht viel schneller als der 8-Kerner sein, jedenfalls keine 25%. Und auch der hohe Takt muss erstmal erreicht werden durch den 10er Ring. Beim 8-Kerner musste der Uncore-Takt schon etwas runter, was auch Performance kosten dürfte. AMD hat den Skalierungsschritt mit Zen 1 schon hinter sich und diesen mit getrennten L3-Caches und höheren Speicherlatenzen bezahlt. Jetzt können sie in Ruhe ihre Kerne hochskalieren.
Ex3cut3r
2019-03-28, 21:56:54
Also du bist der Meinung, dass wenn AMD und Intel ab Sommer gleich schnell sind, lieber Intel das Geld in den Hintern schiebst und dabei genüsslich 200Watt abführen willst, während die angenommen gleich schnelle AMD CPU die hälfte verbrät?
Mit welcher Logik gehst du an die Sache ran?
Ich kann mir kaum vorstellen, dass nur weil Intel einen 10. Kern dranpappt, die Leistung sich enorm verbessern wird.
Nein, ich schaue mir die Spiele Leistung an, nämlich nur die interessiert mich. Wenn der Intel immer noch schneller ist, ja dann hole ich mir einen Intel (10900k?) wenn AMD schneller ist, hole ich mir einen AMD. Gegebenfalls auch wenn der Intel nur durch das bessere OC verhalten wieder schneller ist, aber Stock war noch nie mein Ding....von daher investiere ich die 60€ in einen guten Kühler wenn nötig - ja. Ich hoffe das diesmal mehr geht bei AMD was OC angeht. Hauptsache ich habe wieder 7 Jahre oder mehr meine Ruhe, und muss mir nur Gedanken und die GPU alle paar Jahre machen. Ist halt meine Philosophie.
Menace
2019-03-28, 22:08:47
Was wieso 200W? Und wenn schon? Einen Nocutra oder Dark Rock rauf, und das sollte auch kein Problem darstellen. Hauptsache ich habe wieder für 7 Jahre ruhe, und rüste nur alle paar Jahre die Graka auf.
Was hat jetzt denn deine private Leidensgeschichte mit diesem Thread zu tun? :confused: Und wer redet heute eigentlich noch von ST-Leistung? :confused: Ihr intelianer verwirrt mich manchmal ganz schön.
Ex3cut3r
2019-03-28, 22:13:32
Ich gibs auf. Selbst wenn einen AMD in Betracht zieht, wird man nicht ernst genommen, tja ist mir Wumpe, was am ende des Tages schneller sein wird, werde ich mir holen. Macht mal schön weiter mit euren an den Haaren hergezogen Spekulationen. Lach ich mich halt weiter schlapp. :biggrin:
Ich erwarte nicht viel, um hoffentlich mal positiv überrascht zu sein, und nicht wieder ein Vega 64, Phenom 1, FX CPUs, Vega 7, Deja Vu zu erleben.
Brillus
2019-03-28, 23:13:09
Nein, ich schaue mir die Spiele Leistung an, nämlich nur die interessiert mich. Wenn der Intel immer noch schneller ist, ja dann hole ich mir einen Intel (10900k?) wenn AMD schneller ist, hole ich mir einen AMD. Gegebenfalls auch wenn der Intel nur durch das bessere OC verhalten wieder schneller ist, aber Stock war noch nie mein Ding....von daher investiere ich die 60€ in einen guten Kühler wenn nötig - ja. Ich hoffe das diesmal mehr geht bei AMD was OC angeht. Hauptsache ich habe wieder 7 Jahre oder mehr meine Ruhe, und muss mir nur Gedanken und die GPU alle paar Jahre machen. Ist halt meine Philosophie.
Mit einer Lebensplanung von 7 Jahre würde ich aber keinen 10 Kern holen wenn wie erwartet 12 oder 16 Kerner gibt, spätestens mit der nachsten Konsolen gen erwarte ich nichtmehr viel ST Bedarf bei Spielen.
Nightspider
2019-03-28, 23:21:04
LoL, gerade die neue Konsolen Gen wird den ST Bedarf enorm erhöhen.
Die PS5 wird mit Zen 2 und doppelten Takt ganz grob 4-5 fache ST Leistung haben.
Da wird es erstmal schwer am PC hohe fps zu erreichen, gerade für die Leute mit 120Hz Monitoren.
Daredevil
2019-03-29, 00:13:04
Ja klar, weil die Single Thread Leistung ja der Flaschenhals ist bei 4k60fps. :<
Da ist die TDP ganz bestimmt gut aufgehoben.
w0mbat
2019-03-29, 00:13:07
Die neuen Konsolen werden sehr viele Kerne haben, wieso reden hier alle von ST? Es gibt doch gar keine ST Anwendungen mehr.
Screemer
2019-03-29, 00:23:27
Es gibt Leute die kaufen heute noch CPUs für arma3 und crysis1.
Ex3cut3r
2019-03-29, 00:58:31
Ihr checkt es nicht, warum ist ein Intel 9900k schneller als ein 2700X auch bei 16T Anwendungen?
Langlay
2019-03-29, 01:03:44
Ihr checkt es nicht, warum ist ein Intel 9900k schneller als ein 2700X auch bei 16T Anwendungen?
Weil u.a. höher taktet? Das ist aber auch nicht die Frage. Die Frage ist ob man die Singlethread Leistung braucht oder nicht. Wenn du in 1440p+ unterwegs bist und keine 500+€ Graka hast wird es in 95% der Spiele keinen Unterschied machen ob du einen 2700X oder einen 9900k im Rechner hast. Wenn du halt eher die restlichen 5% der Spiele spielst oder das Budget dick genug ist geh zum Intel sonst spar dir das Geld und kauf lieber ne dickere Graka haste mehr davon.
w0mbat
2019-03-29, 01:04:08
Mehr IPC und - vor allem - mehr Takt. Was soll man daran nicht checken?
Zudem ringbus vs. CCX/IF (was aber natürlich Teil der IPC ist).
Blediator16
2019-03-29, 01:16:17
Ich wurde da auch erstmal nicht zu hoch stapeln, ich bin Gamer und brauche minimum ST Performance auf CL, sonst hole ich mir im Sommer einen Intel. Aber so ein 12/24T @ CL ST Performance wäre ein tolles Upgrade von meinen 4770k. Sonst wird es halt der 10/20T Intel 10900k?
Das war die Ausgangsaussage. Wenn man annimmt, dass ein 10 Kerner kaum schneller wird, aber mehr verbraucht und die neuen AMD mind. CL IPC erreichen, dann macht diese Aussage null Sinn. Die werden sicherlich nicht mehr verbrauchen als ein 10 Kerner auf 14+...
reaperrr
2019-03-29, 02:11:57
Ich wurde da auch erstmal nicht zu hoch stapeln, ich bin Gamer und brauche minimum ST Performance auf CL, sonst hole ich mir im Sommer einen Intel. Aber so ein 12/24T @ CL ST Performance wäre ein tolles Upgrade von meinen 4770k. Sonst wird es halt der 10/20T Intel 10900k?
Der 10/20T von Intel kommt nach aktuellem Stand erst ca. Anfang 2020.
Wenn es schon im Sommer ne neue CPU werden soll (und du nicht auf SkyLake-X/Cascade Lake gehen möchtest), wirst du also nur die Wahl zwischen 9900K und was von AMD haben.
Und wenn du 5-7 Jahre damit fahren willst, wären 12 Kerne dann doch schon ne ganze Ecke zukunftssicherer als 8, selbst wenn die ST-Leistung von Zen2 noch 5-10% niedriger ausfallen sollte.
w0mbat
2019-03-29, 02:17:38
Aktuell sind 8C/16T nur unwesentlich schneller als 6C/12T, siehe 2600X vs. 2700X und 8700K vs. 9900K. Oft liegt der Leistungsunterschied nur am höheren Maximaltakt der teureren CPU.
Das Problem ist, dass die SKL/KBL/CFL IPC-Leistung direkt mit dem ringbus zusammen hängt, wie man sehr schön an SKL-X und Intels mesh, bzw. die CCX/IF-Problematik von Zen(+) sieht. Keine Frage, ein ringbus bringt, vor allem bei Spielen, sehr viel.
Langsam kommen wir aber an einen Punkt, wo ein ringbus technisch nicht mehr wirklich möglich ist, bzw. wo der Aufwand in keiner Relation zu den Kosten steht. Ich kann mir keine 16C/32T ringbus CPU vorstellen.
D.h. ist die Frage, ab wann eine CPU aufgrund ihrer höheren Kernanzahl eine rinbus CPU mit weniger Kernen abzieht. Wahrscheinlich passiert das erst mit den next-gen Konsolen, wenn so langsam jede Engine mit nT umgehen kann.
BlacKi
2019-03-29, 04:47:57
LoL, gerade die neue Konsolen Gen wird den ST Bedarf enorm erhöhen.
Die PS5 wird mit Zen 2 und doppelten Takt ganz grob 4-5 fache ST Leistung haben.
Da wird es erstmal schwer am PC hohe fps zu erreichen, gerade für die Leute mit 120Hz Monitoren.
da ist was dran:frown:
Die neuen Konsolen werden sehr viele Kerne haben, wieso reden hier alle von ST? Es gibt doch gar keine ST Anwendungen mehr.
welche spiele skalieren über alle kerne gleich? praktisch alle spiele skalieren am meisten über den ersten kern. im besten fall verbessern die weiteren kerne über 4c nur die frametimes.
Der 10/20T von Intel kommt nach aktuellem Stand erst ca. Anfang 2020.
Wenn es schon im Sommer ne neue CPU werden soll (und du nicht auf SkyLake-X/Cascade Lake gehen möchtest), wirst du also nur die Wahl zwischen 9900K und was von AMD haben.
Und wenn du 5-7 Jahre damit fahren willst, wären 12 Kerne dann doch schon ne ganze Ecke zukunftssicherer als 8, selbst wenn die ST-Leistung von Zen2 noch 5-10% niedriger ausfallen sollte.
glaub kaum, das exe das so geplant hatte. der 4770k hatte eine hohe st leistung und nicht gerade besonders viel kerne. gerade bei amd macht es doch keinen sinn frühzeitig auf mehr kerne zu gehen, denn welchen vorteil hat denn zb. ein threadripper 1.gen ggü. dem 1600x? auf ein amd board kann man easy auf eine neue gen upgraden.
nordic_pegasus
2019-03-29, 06:58:34
D.h. ist die Frage, ab wann eine CPU aufgrund ihrer höheren Kernanzahl eine ringbus CPU mit weniger Kernen abzieht. Wahrscheinlich passiert das erst mit den next-gen Konsolen, wenn so langsam jede Engine mit nT umgehen kann.
Bevor wir alle in den Krieg der Kerne aufgebrochen sind, herrschte ja noch Vernunft. Da waren 4C/8T noch ausreichend, solange man halt viel Takt/IPC bekommt. Heutzutage ist ja alles unter 8 Kernen nur noch für Office-PCs geeignet ;-)
Woher kommt Dein Optimismus, dass man mit den neuen Konsolen auch große CPUs in Games voll nutzen können wird?
Menace
2019-03-29, 07:06:33
Bevor wir alle in den Krieg der Kerne aufgebrochen sind, herrschte ja noch Vernunft. Da waren 4C/8T noch ausreichend, solange man halt viel Takt/IPC bekommt.
Das ist jetzt aber eine recht einseitige Sicht. Auf mehr Kerne habe ich schon lange gehofft (wenn vielleicht auch nicht wegen der Spiele).
Complicated
2019-03-29, 07:24:12
Und? Mein 6700k wird durch DX12 dort auch doppelt so schnell. Ändert an der IPC rein gar nichts...
Also doppelte Geschwindigkeit bei selbem Takt ist keine IPC-Erhöhung? Wie ermittelst du denn die IPC in Spielen?
Und wie hier einige dem Drang Intel Performance in einen Vergleich von Zen+ vs Zen1 einzubringen nicht wiederstehen können spricht schon wieder Bände.
Zossel
2019-03-29, 07:47:22
Wenn es schon im Sommer ne neue CPU werden soll (und du nicht auf SkyLake-X/Cascade Lake gehen möchtest)
Sind das nicht die Dinger die keinen Ringbus mehr haben und wie bei Ryzen mehr Bandbreite anstatt Latenz haben?
Wie verhalten sich die Non-Ringbus Dinger von Intel eigentlich bei DX11 vs. DX12?
nordic_pegasus
2019-03-29, 10:47:45
Das ist jetzt aber eine recht einseitige Sicht. Auf mehr Kerne habe ich schon lange gehofft (wenn vielleicht auch nicht wegen der Spiele).
man kann Spiele-Engines aktuell(!!!) nicht beliebig parallelisieren. Und nicht jeder Gamer streamt parallel auf Twitch. Genauso rendern die meisten Gamer nicht nebenbei noch Videos. Darum halte ich den Sinn dieses Wettrennens um die meisten Kerne in Mainstream-CPUs für nicht zweckmäßig, wenn man die steigende TDP und Kompromisse beim maximalen Takt in Kauf nehmen muss. Aktuell wäre eine theoretische Coffee-Lake CPU mit 6 Kernen und 5,5-6 GHz das Optimum für Games. Stattdessen sind jetzt aber Dies mit 8 Kernen der neue Standard (teildeaktivierte 4/6-Kern CPUs zählen für mich physisch als 8 Kerner).
Gleichzeitig verhungern die aktuellen Mainstream CPUs am Dual-Channel DDR4 Interface und es mangelt an PCIe Lanes.
Das Marketing hat jetzt die Kernanzahl als neue Wunderwaffe entdeckt, darum wird die Anzahl von Generation zu Generation stetig steigen. Den Nutzen für den Mainstream-Gamer halte ich für gering. Wer mehr Kerne/Speicher/PCIe-Lanes benötigt, kann ja gerne HEDT kaufen. Mit Threadripper hat AMD ja auch hier eine sehr gute Alternative zu X299 im Programm.
Alternativ könnte ich mir analog zu CPUs aus Smartphones auch Designs vorstellen mit z.B. 4 "großen" Kernen mit hohem Takt/TDP und dazu vielen kleinen Kernen mit wenig Takt/TDP für parallelisierbare Aufgaben.
Menace
2019-03-29, 10:52:00
Du sprachst zunächst allgemein von der Sinnlosigkeit der "Krieg der Kerne". Jetzt kommt aber wieder der Spezialfall "Only SpieleTM". Ich persönlich kann gar nicht genug Kerne bei ordentlicher Leistung und geringer TDP (oder Verbrauch) bekommen. Ich hoffe noch immer, dass es 8+Kerne bei 65 Watt bei Ryzen geben wird.
Eine CPU zu kaufen allein für Spiele wäre mir viel zu einseitig und zu begrenzt.
aufkrawall
2019-03-29, 10:54:40
Und wie hier einige dem Drang Intel Performance in einen Vergleich von Zen+ vs Zen1 einzubringen nicht wiederstehen können spricht schon wieder Bände.
Ich habe deine Aussage nur korrigiert, denn für sich genommen war sie irreführend.
man kann Spiele-Engines aktuell(!!!) nicht beliebig parallelisieren.
Mit LL-APIs hat sich dahingehend aber schon sehr viel getan.
SKYNET
2019-03-29, 11:41:03
man kann Spiele-Engines aktuell(!!!) nicht beliebig parallelisieren. Und nicht jeder Gamer streamt parallel auf Twitch. Genauso rendern die meisten Gamer nicht nebenbei noch Videos. Darum halte ich den Sinn dieses Wettrennens um die meisten Kerne in Mainstream-CPUs für nicht zweckmäßig, wenn man die steigende TDP und Kompromisse beim maximalen Takt in Kauf nehmen muss. Aktuell wäre eine theoretische Coffee-Lake CPU mit 6 Kernen und 5,5-6 GHz das Optimum für Games. Stattdessen sind jetzt aber Dies mit 8 Kernen der neue Standard (teildeaktivierte 4/6-Kern CPUs zählen für mich physisch als 8 Kerner).
Gleichzeitig verhungern die aktuellen Mainstream CPUs am Dual-Channel DDR4 Interface und es mangelt an PCIe Lanes.
Das Marketing hat jetzt die Kernanzahl als neue Wunderwaffe entdeckt, darum wird die Anzahl von Generation zu Generation stetig steigen. Den Nutzen für den Mainstream-Gamer halte ich für gering. Wer mehr Kerne/Speicher/PCIe-Lanes benötigt, kann ja gerne HEDT kaufen. Mit Threadripper hat AMD ja auch hier eine sehr gute Alternative zu X299 im Programm.
Alternativ könnte ich mir analog zu CPUs aus Smartphones auch Designs vorstellen mit z.B. 4 "großen" Kernen mit hohem Takt/TDP und dazu vielen kleinen Kernen mit wenig Takt/TDP für parallelisierbare Aufgaben.
wie gut das eine CPU nur für games da sein muss... :rolleyes:
ne CPU muss alles können, entsporechend wird der kompromiss gewählt, das heisst viele kerne(4GHz langen für alle games, essei sie sind dermassen schlecht programmiert) und weniger maximaltakt bei vielen kernen, und falls es dir nicht aufgefallen ist, nen 9900k hat 5GHz boost 1-2C
Ex3cut3r
2019-03-29, 13:28:11
Eine CPU zu kaufen allein für Spiele wäre mir viel zu einseitig und zu begrenzt.
Tja, ich spiele aber nur am Privat PC, oder surfe, schau mal nen Porno oder sonst was. 10C/20T oder 12/24 mit hoher IPC, ST Leistung, sind daher für mich idealer, als 16/32 mit niedriger IPC, ST Leistung. Jeder andere kann sich ja 16/32 bzw gleich TR holen und nach Feierabend seine Wissenschaftlichen Hobby Berechnungen durchführen lassen.
Weil u.a. höher taktet? Das ist aber auch nicht die Frage. Die Frage ist ob man die Singlethread Leistung braucht oder nicht. Wenn du in 1440p+ unterwegs bist und keine 500+€ Graka hast wird es in 95% der Spiele keinen Unterschied machen ob du einen 2700X oder einen 9900k im Rechner hast. Wenn du halt eher die restlichen 5% der Spiele spielst oder das Budget dick genug ist geh zum Intel sonst spar dir das Geld und kauf lieber ne dickere Graka haste mehr davon.
Nein, auch wenn ein 9900k mit dem gleichen Takt wie ein 2700X läuft sagen wir mal 4,2 ist ein 9900k schneller. Und jetzt die 1.Million frage, warum ist das Wohl so? Ja, ich bin aber Gamer und habe eine relativ dicke Graka (2080 OC) und der einzige Grund warum meine CPU nicht völlig abstinkt ist meine relativ hohe Auflösung (3440x1440) trotzdem gibt es dann neue Spiele wie z.B Far Cry 5 ND wo ein Ryzen vermutlich wegen der hohen allgemein Latenz komplett abstinkt und auf Haswell Leistung zurückfällt, sollte Ryzen 2 endlich auch mal bessere „Spiele Leistung“ mitbringen, so wird er auch gekauft. Mein letzter AMD war ein Phenom 2.
w0mbat
2019-03-29, 13:30:38
Woher kommt Dein Optimismus, dass man mit den neuen Konsolen auch große CPUs in Games voll nutzen können wird?
Weil die neuen Konsolen wohl viele Kerne bekommen werden, die aber relativ niedrig takten.
Lehdro
2019-03-29, 13:46:10
gerade bei amd macht es doch keinen sinn frühzeitig auf mehr kerne zu gehen, denn welchen vorteil hat denn zb. ein threadripper 1.gen ggü. dem 1600x? auf ein amd board kann man easy auf eine neue gen upgraden.
1. TR4 kann man auch aufrüsten. Sinnloses Argument.
2. Wenn man TR4 nur zum Gamen kauft, selbst schuld.
3. Mit der TR4 Plattform hat man kernetechnisch definitiv sehr lange Ruhe.
Gleichzeitig verhungern die aktuellen Mainstream CPUs am Dual-Channel DDR4 Interface und es mangelt an PCIe Lanes.
Zeig mir ein Spiel welches primär und signifikant an der Speicherbandbreite nuckelt. Die FPS Steigerungen vom schnelleren RAM kommen hauptsächlich von den gesunkenen Zugriffszeiten, nicht vom Durchsatz. Wäre das nicht so, würden TR4 und X299 mit ihren Quadchanneln nicht so abstinken im Vergleich zu den "verhungernden" Desktopdualchannelgammlern.
Wer mehr Kerne/Speicher/PCIe-Lanes benötigt, kann ja gerne HEDT kaufen.
Ich denke wir brauchen alle mehr PCIe Lanes im Desktop? Entscheide dich mal ;)
Alternativ könnte ich mir analog zu CPUs aus Smartphones auch Designs vorstellen mit z.B. 4 "großen" Kernen mit hohem Takt/TDP und dazu vielen kleinen Kernen mit wenig Takt/TDP für parallelisierbare Aufgaben.
Sowas kommt, direkt von Intel: FOVEROS (https://www.3dcenter.org/news/intel-bringt-mittels-lakefield-den-biglittle-ansatz-den-pc-bereich)
dargo
2019-03-29, 13:49:53
Gleichzeitig verhungern die aktuellen Mainstream CPUs am Dual-Channel DDR4 Interface...
Kompletter Unsinn. Ryzen bsw. profitiert viel mehr von schärferen Subtimings als mehr Bandbreite.
man kann Spiele-Engines aktuell(!!!) nicht beliebig parallelisieren.
Was heißt bei dir beliebig? Endlos natürlich nicht. Aber an diesem Punkt sind wir noch lange nicht. Ein BF5 bsw. hat sehr gutes Multithreading. Deutlich besseres als der Durchschnitt am PC. Das ist eh ein Henne/Ei Problem. Die Masse muss erst breitere CPUs haben, dann kommt die entsprechende Software. Sollten die nächsten Konsolen 16 Threads haben kann ich dir garantieren, dass es auch vermehrt Spiele geben wird die mit >8 Threads gut skalieren werden. Natürlich nicht sofort alle von heute auf morgen. Das ist ein schleichender Prozess. Schließlich braucht eine Entwicklung von Engine X und Spiel Y auch wenige Jahre.
Menace
2019-03-29, 16:49:20
Tja, ich spiele aber nur am Privat PC, oder surfe, schau mal nen Porno oder sonst was. 10C/20T oder 12/24 mit hoher IPC, ST Leistung, sind daher für mich idealer, als 16/32 mit niedriger IPC, ST Leistung. Jeder andere kann sich ja 16/32 bzw gleich TR holen und nach Feierabend seine Wissenschaftlichen Hobby Berechnungen durchführen lassen.
Schlaumeier. Deshalb verallgemeinere ich ja nicht wie andere hier im Thread. Du siehst mich hier häufig deshalb erscheinen, weil wieder einige meinen, dass an ihrem Wesen die Welt zu genesen hat (z.B. dass der Krieg der Kerne unnötig sei). Nein, unnötig ist er eben nicht. Wer wie Du außer Porno incl. Surfen und Spielen mit einem PC eigentlich nichts am Hut hat; beim nächsten CPU-Wechsel gleich das Mainboard mittauscht, 200 W abführen möchte (warst doch auch Du?), dem werde ich doch nicht im intel-Thread einen Ryzen aufsabbeln. :rolleyes:
Ich hatte den ersten Phenom (zwei Rechner laufen noch immer täglich mit der 2. Generation, aber 1. Generation Mainboard), als alle behaupteten, dass 2 Kerne reichen würden. Jeder darf mit einem 9900K glücklich sein. Warum aber davon viele das Bedürfnis haben dieses hier auch verkaufen zu müssen, erschließt sich mir nicht wirklich. :biggrin:
Und Ryzen sind z.B. auch für solche Leute wie mein Vater (84 Jahre). Zockt eher nicht; digitalisiert aber seine Super 8 Film, Dias, Negative; konvertiert seine RAWs, schneidet seine aktuellen Videofilme, nutzt Emby, DAM-Software, etc.! Er freut sich über einen absolut lautlosen 1700er, der zwar etwas überdimensioniert ist, aber ansonsten eben nicht stört. Auch seine NAS ist ihm in der Zwischenzeit zu laut.
BlacKi
2019-03-29, 17:55:53
1. TR4 kann man auch aufrüsten. Sinnloses Argument.
2. Wenn man TR4 nur zum Gamen kauft, selbst schuld.
3. Mit der TR4 Plattform hat man kernetechnisch definitiv sehr lange Ruhe.
den tr hab ich nur angeführt des corecounts wegen. dasselbe gilt für einen 16 kerner aus 2019. es macht eher sinn jetzt einen 2019er 8kerner zu kaufen und nötigenfalls 2-3 jahre später einen aktuellen 16 kerner, als jetzt gleich einen 16 kerner zu kaufen, der st wegen.
Lehdro
2019-03-29, 18:21:30
den tr hab ich nur angeführt des corecounts wegen. dasselbe gilt für einen 16 kerner aus 2019. es macht eher sinn jetzt einen 2019er 8kerner zu kaufen und nötigenfalls 2-3 jahre später einen aktuellen 16 kerner, als jetzt gleich einen 16 kerner zu kaufen, der st wegen.
Du vergisst etwas enorm wichtiges: Das macht alles vielleicht Sinn für dich, aber du bist nicht jeder, also höre auf so krass zu verallgemeinern. Es gibt genug Anwendungsfälle für Corecounts >8, Tellerrand und so. Nur weil du es nicht brauchst, trifft das nicht auf jeden zu. TR4 und SKL-X haben definitiv ihre Daseinsberechtigung, auch wenn dass der Games-only Pöbel nicht wahrhaben will.
N0Thing
2019-03-29, 19:17:28
Das Marketing hat jetzt die Kernanzahl als neue Wunderwaffe entdeckt, darum wird die Anzahl von Generation zu Generation stetig steigen. Den Nutzen für den Mainstream-Gamer halte ich für gering. W
Ich habe eher den Eindruck, dass Produktion und Entwicklung die maßgeblichen Treiber von mehr Kernen sind. Sowohl Intel als auch AMD tun sich schwer, aus einem Kern größere Leistungssprünge je Generation heraus zu holen. Nach den ersten Fortschritten scheinen ca. 5GHz die nächste Grenze zu sein, ab der es wahnsinnig schwierig wird, höher zu takten.
Was bleibt also, wenn zu diesen Problemen auch noch die Produktionskosten steigen? Kleinere Kerne und dafür mehr als vorher. Ist halt blöde, dass sich Spiele nicht so gut parallelisieren lassen wie Cinebench, aber CPUs werden auch in anderen Sektoren verkauft, wo die zusätzliche Leistung durch mehr Kerne am Ende auch ankommt. Und wer weiß, vielleicht sind 8 Kerne in 5 Jahren auch am PC zum Standard geworden.
AlterSack
2019-03-29, 19:17:52
Zeig mir ein Spiel welches primär und signifikant an der Speicherbandbreite nuckelt. Die FPS Steigerungen vom schnelleren RAM kommen hauptsächlich von den gesunkenen Zugriffszeiten, nicht vom Durchsatz. Wäre das nicht so, würden TR4 und X299 mit ihren Quadchanneln nicht so abstinken im Vergleich zu den "verhungernden" Desktopdualchannelgammlern.
das ist jetzt aber auch nicht ganz fair, da bei threadripper ja wohl
nicht jedes DIE direkt an einem speichercontroller hängt.
nur mal so gesponnen ...TR wäre ein monolithisches Design
mit 4MCs, sähe die Sache wohl anders aus.
Lehdro
2019-03-29, 21:16:54
das ist jetzt aber auch nicht ganz fair, da bei threadripper ja wohl
nicht jedes DIE direkt an einem speichercontroller hängt.
nur mal so gesponnen ...TR wäre ein monolithisches Design
mit 4MCs, sähe die Sache wohl anders aus.
TR4 könnte ein Spezialfall sein, allerdings hat man hier die 2970WX und 2990WX zum Testen. Je nach Software/Game entweder krass oder völlig egal.
Bei Intel gibt es Benches gottseidank direkt ohne Spekulation, sondern mit Fakten:
https://abload.de/img/19k80.png
https://www.pcworld.com/article/2982965/quad-channel-ram-vs-dual-channel-ram-the-shocking-truth-about-their-performance.html
Ansonsten sei noch auf einen Tester (Golem) verwiesen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11284835&postcount=174
Fazit: QC vs DC ist aus Sicht der Speicherbandbreite völlig wumpe beim Gamen wenn die Anbindung an sich stimmt.
BlacKi
2019-03-30, 10:23:17
Fakt ist das Zen 2 AVX256, doppelten Cache und 12-16 Kerne bekommen wird. AMD hat gezeigt das Zen 2 bei deutlich niedrigeren Stromverbrauch schneller als ein I7 9900 ist. Alles deutet auf eine höhere Performance hin.
natürlich wird die 3000er serie schneller als die 2000er. in games schneller als ein 9900k? not so sure...
mit 16 kernen kann man derzeit nichts anfangen, wohl auch die nächsten 2 jahre in games. wozu als einen 16c kaufen, der bloß unnötig an wert verliert? siehe 1700/1700x/1800x(dargo hat da nichts falsch gemacht). wenn ich nen zen2 kaufen würde, dann auch nur nen 8 kerner, fast egal was der 12-16 kerner kostet.
ein 16 kerner mitte des jahres für games? das sind amd fetischisten.
Daredevil
2019-03-30, 12:04:29
mit 16 kernen kann man derzeit nichts anfangen, wohl auch die nächsten 2 jahre in games. wozu als einen 16c kaufen, der bloß unnötig an wert verliert?
ein 16 kerner mitte des jahres für games? das sind amd fetischisten.
Keine Ahnung.
Wozu kaufen denn die Leute Threadripper Prozessoren?
Frag die doch einmal und du hast eine zahlreiche Menge an Antworten.
Ich fange mal mit einer an > Streaming.
Mit einem 8 Kern Prozessor kannst du aktuelle Spiele nicht in sehr guter Qualität streamen beim spielen. Du brauchst also entweder mindestens einen 16 Kerner, ein zweites System oder eine hohe Bitrate ( Bei Twitch nicht möglich ).
BlacKi
2019-03-30, 13:00:19
das ganze 1pc streaming thema find ich total lächerlich. die cpu last ist von game zu game unterschiedlich, d.h. du musst theoretisch jedes game anpassen. welcher dauerstreamer macht das? wenn einer streamen will, dann bitte mit 2 pcs. da würde ich auch glatt zum ryzen greifen, wegen der anwendungsperformance, oder threadripper wenn das budget passt.
davon abgesehen streamed exe, genauso wie die meisten gamer nicht.
Daredevil
2019-03-30, 13:11:07
Mit genug Kernen muss ich nicht jedes Game anpassen...... darum geht es hier doch.
Mehr Kerne, mehr Flexibilität.
Nicht mal mit einem 8 Kerner bekommt man als Streaming PC die bestmögliche Qualität hin.
Zwei PC Setups sind halt super umständlich und nur ein Workaround, weil normale Prozessoren eben so wenig Kerne haben.
Du fragst, wozu man das braucht, ich antworte dir. :D
BlacKi
2019-03-30, 13:30:43
es ging ursprünglich auch nicht ums streamen.
das thema streaming ist jetzt ein neues. klar kann ich mit nem 12-16 kerner besser streamen+gamen als mit einem 8 kerner. du stellst dir aber das setup so ein um die beste streaming quali zu erhalten, dann kommt aber ein spiel raus das die auslastung der cpu sehr steigert, und dann musst du schon wieder das streaming setup konfigurieren.
dieser punkt fällt bei einem 2 pc setup komplett weg. das setup ist erheblich sorgenfreier auf einen längeren zeitraum gesehen.
Menace
2019-03-30, 13:35:34
davon abgesehen streamed exe, genauso wie die meisten gamer nicht.
Nochmals: Warum sollte Ex3 das Maß aller Dinge sein? Er braucht seinen PC für Pornos, während meiner mit 10 Threads Mittel zu Bekämpfung von Krebs und Krankheiten sucht. Gut, es können beide Anwendungsfälle ein Segen für die Menschheit sein...
Multithread hat Vorteile:
+ Hintergrundsprogramme laufen wie Indizierungssoftware, Updates, Streaming, Konvertierungen (ja, ich spiele nebenher während Handbrake läuft), Anti-Virus;
+ Man arbeitet wirklich mit dem PC;
+ Man nutzt Datenbanken;
+ Sein PC ist ein Server für Multimedia wie Emby, Kodi oder Plex für die Familie;
+ Man ist kreativ;
+ Man möchte auch in Zukunft die Möglichkeiten nicht verbauen;
+ CPUs brauchen NICHT mehr Strom (non X)
+ CPUs sind sogar günstiger
+ CPUs kann man auch in der 2,5 Generation noch tauschen
+ braucht man sie nicht, stören sie meist nicht
Nachteile:
- Aber Exe (gmb, Dural, Blacki, ...)!!11!
Nochmals: Ich habe kein Problem, dass Leute für Ihren Anwendungsfall eine intel-CPU bevorzugen. Aber ich hasse es, wenn man es hier als Staatstragende Religion im Zenthread alle paar Seiten sprichwörtlich glauben muss, dass das für alle Anwendungsfälle gelten soll. Exe kann ja noch nicht mal sagen, warum sein Dauergejammer nicht endlich in eine 9900K mündet.
dieser punkt fällt bei einem 2 pc setup komplett weg. das setup ist erheblich sorgenfreier auf einen längeren zeitraum gesehen.
Natürlich. Ein Zweit-PC ergibt dafür absolut Sinn. :freak:
Daredevil
2019-03-30, 13:36:16
Achso, sorry wenn ich ins Thema geschnitten habe. Ich hatte nur deine Aussage gesehen mit "16 Kerne, wer braucht das denn?" und fühlte mich da ein wenig getriggert. :D
Nur fürs Gaming sind 16 Kerne heute natürlich overkill. Aber wenn man mehr als Gaming macht, yo mei. Immer druff damit.
Wenn der Preis dann noch stimmt, gibts da ja nichts zu meckern.
Hier hätten mit Sicherheit auch viel mehr Leute nen Threadripper, wenn die Plattformkosten nicht so hoch wären. Den 16c 1950x gibts gerne mal für 400-500€ und der bietet somit fast die gleiche P/L wie ein ehemaliger 1800x. Da die Mainboards aber drei mal soviel kosten und vier Ram Riegel quasi Pflicht sind, ist das halt nicht lohnend.
Mit AM4 bekommt man das ganze halt deutlich erschwinglicher.
Beispiel
TR4:
1950X 500€
Mainboard 300€
32GB Q-Chan RAM 180€
---------------------
980€
AM4:
16c XXX 500€ ( Spekulatius )
Mainboard 100€
16GB D-Chan RAM 90€
---------------------
690€
Des ist scho geil. :<
Ich finde die Diskussion "wie viel Kerne machen sinn" sowieso total unnötig da Das ...
sowieso Jeder für sich Selbst entscheiden muss ;)
Ich hätte am liebsten 16 echte Kerne und gut.
Man sollte sowieso, wenn es der Geldbeutel denn erlaubt, das Notwendige + einer Reserve kaufen.
(8Kerne sind z.b. jetzt grad als Optimum angesagt, würde ich zu mindestens 2 Kernen mehr greifen)
Jeder weitere Kern erhöht die Lebensdauer des Systems ...
Also spricht, wenn man es sich leisten kann und will, absolut nichts gegen einen 16Kerner.
Und auch wenn man es sich nicht leisten kann oder will,
ist man bei AMD momentan besser dran.
Aber ich verstehe auch die Leute, die einfach aus persönlichen Gründen,
was Spezielles haben wollen.
Also wäre es denke ich besser, wenn wir uns einfach auf gute Angebote freuen :smile:
m.f.g. JVC
... als bei euch alten Säcken ...
Die "alten Säcke" quatschen dafür nicht lange und kaufen einfach :wink:
Du kannst es genau so wenig sein lassen wie Ex3cut3r...
Wobei eine Diskussion um die Heutzutage "nötige" Kern-Zahl durchaus hier rein passt ...
Wohingegen Intel "schwanzvergleiche", eher stören. (M.M.)
aufkrawall
2019-03-30, 15:03:29
Nochmals: Ich habe kein Problem, dass Leute für Ihren Anwendungsfall eine intel-CPU bevorzugen. Aber ich hasse es, wenn man es hier als Staatstragende Religion im Zenthread alle paar Seiten sprichwörtlich glauben muss, dass das für alle Anwendungsfälle gelten soll.
Eigentlich gehts fast immer implizit oder explizit um Gaming, und dann kommt jemand wie du um die Ecke gebogen, der seine Nische als ebenfalls ganz wichtig darstellen muss.
Du kannst es genau so wenig sein lassen wie Ex3cut3r...
BlacKi
2019-03-30, 15:07:45
Ich finde die Diskussion "wie viel Kerne machen sinn" sowieso total unnötig da Das ...
sowieso Jeder für sich Selbst entscheiden muss ;)
Ich hätte am liebsten 16 echte Kerne und gut.
Man sollte sowieso, wenn es der Geldbeutel denn erlaubt, das Notwendige + einer Reserve kaufen.
(8Kerne sind z.b. jetzt grad als Optimum angesagt, würde ich zu mindestens 2 Kernen mehr greifen)
Jeder weitere Kern erhöht die Lebensdauer des Systems ...
Also spricht, wenn man es sich leisten kann und will, absolut nichts gegen einen 16Kerner.
Und auch wenn man es sich nicht leisten kann oder will,
ist man bei AMD momentan besser dran.
Aber ich verstehe auch die Leute, die einfach aus persönlichen Gründen,
was Spezielles haben wollen.
Also wäre es denke ich besser, wenn wir uns einfach auf gute Angebote freuen :smile:
m.f.g. JVC
klar, jeder kann sich kaufen was er will, und seine meinung dazu haben. genauso wie ich, der eben das optimum für 8 kerne hält, und lieber in 2-3 jahren nochmal wechsle und die gesteigerte ST performance abgreife.
wenn du die 16 kerne nutzen kannst, dann müssen wir darüber garnicht diskutieren. derzeit sind für reines gaming 16 kerne einfach 8 zuviel, die man jetzt aber mitbezahlt, statt später auf einen günstigen 16 kerner zu wechseln der sogar noch mehr ST performance mitbringt, die dir mit einem dieses jahr gekauftem einfach fehlt.
und natürlich haben wirin 5 jahren immernoch spiele die nur mit 2-4 kernen skalieren und nach hoher ST performance gieren.
... und die gesteigerte ST performance abgreife.
Wozu :confused:
Kommen in den nächsten Jahren wirklich noch Spiele, die wirklich nur an einem Kern hängen ???
5Ghz... , egal ob Intel oder AMD, sollten genug ST Leistung,
für alles Vorhandene und Zukünftige, bringen.
(FPS-Junkies mal ausgenommen, mir reichen "nur" 60-100Fps )
m.f.g. JVC
p.s.: Eigentlich war Ich ein sehr großer ST-Leistung Fan (WoW, GW2 ...)
Aber selbst Ich habe eingesehen, das die Zukunft eindeutig in mehr CPU-Kernen liegt ;)
Menace
2019-03-30, 15:25:56
Für @aufkrawall: Ich glaube ich drücke mich zu ungenau aus (wobei ich es häufig genug wiederhole):
Eigentlich gehts fast immer implizit oder explizit um Gaming, und dann kommt jemand wie du um die Ecke gebogen, der seine Nische als ebenfalls ganz wichtig darstellen muss.
Du kannst es genau so wenig sein lassen wie Ex3cut3r...
Ich verallgemeinere eben nicht. Ich mache im intel-Thread nicht Werbung für AMD oder stelle nicht zu verallgemeinernde Behauptungen auf.
Ich gehe davon aus, dass auch Du trollen möchtest, sonst hättest Du das in meinen Beiträgen herausgelesen, dass ich nichts dagegen habe, wenn einer wegen reinem Spielen oder einfach weil er Lust darauf hat einen intel kauft (und das dann auch gerne im intel-Thread kundtut; von mir aus auch alle 5 Minuten). Ich habe aber etwas dagegen, dass man das verallgemeinert und hier offtopic intel-Werbung spammt. Und hier kommen von den letzten zwei Seiten die Zitate davon von mir, da Du nicht lesen magst oder der Kontext zu kompliziert war?:confused::
Wer wie Du außer Porno incl. Surfen und Spielen mit einem PC eigentlich nichts am Hut hat; beim nächsten CPU-Wechsel gleich das Mainboard mittauscht, 200 W abführen möchte (warst doch auch Du?), dem werde ich doch nicht im intel-Thread einen Ryzen aufsabbeln. :rolleyes:
Erstaunlich. Ich sage, dass ich Dir Deinen intel gönne (und den anderen auch) und Du sprichst von AMD Fetischen?
[...]
So wie Du glücklich mit 1ST-Leistung bist und Dich 200W nicht stören, so bin ich happy, dass ich hier mit 16 Threads bei 65 W (TDP) arbeiten kann. Dürfte sogar noch darunter liegen. Mich stört es nicht, dass Du glücklich bist. Mich irritiert aber, dass Du es immer und immer wieder hier im Ryzen Thread kund tun musst. Trotzdem scheint es ja Menschen zu geben, die andere Interessen haben als das, was Du äußerst.
[...]
Und ganz ehrlich, den brauchst Du nicht. Hast Du nicht jetzt einen 9900K? Und falls nein, warum nicht?
Nochmals: Ich habe kein Problem, dass Leute für Ihren Anwendungsfall eine intel-CPU bevorzugen. Aber ich hasse es, wenn man es hier als Staatstragende Religion im Zenthread alle paar Seiten sprichwörtlich glauben muss, dass das für alle Anwendungsfälle gelten soll. Exe kann ja noch nicht mal sagen, warum sein Dauergejammer nicht endlich in eine 9900K mündet.
BlacKi
2019-03-30, 15:49:10
Kommen in den nächsten Jahren wirklich noch Spiele, die wirklich nur an einem Kern hängen ???
5Ghz... , egal ob Intel oder AMD, sollten genug ST Leistung,
für alles Vorhandene und Zukünftige, bringen.
(FPS-Junkies mal ausgenommen, mir reichen ja auch nur 60-100Fps )
ja
und
nein, wenn man es so betrachtet und mit 60-100fps zufrieden ist, dann reichen auch noch 6 kerne ne ganze weile. mir ging es aber schon um 100fps +bei dem ST thema.
https://www.weltderphysik.de/gebiet/technik/news/2018/quantenprozessor-aus-silizium/
"Quantenprozessor aus Silizium"
Träumt lieber von der Zukunft als euch zu "battlen" :rolleyes:
m.f.g. JVC
p.s.: SRY aber 100+ FPS kann ich nicht mehr sehen/unterscheiden ...
(maximal spür ich das, bei ganz schnellen Egoshootern, an den Eingabegeräten)
(aber für solche Shooter, bin ich schon lange zu alt ^^)
Nightspider
2019-03-30, 16:04:56
Ja klar, weil die Single Thread Leistung ja der Flaschenhals ist bei 4k60fps. :<
Da ist die TDP ganz bestimmt gut aufgehoben.
Was erzählst du fürn Schrott?
Wenn die Konsolen eine ~4-5 fach höhere ST Leistung haben wird die früher oder später auch genutzt oder verballert werden.
Prozentual steigt der Leistungsbedarf am PC genauso stark an. Wenn dein Zen 1 Prozessor bisher 100fps bei PS4 Ports schafft sind es bei PS5 Portierungen dann vielleicht nur noch 25fps.
Mal Kopf einschalten. ;)
Die neuen Konsolen werden sehr viele Kerne haben, wieso reden hier alle von ST? Es gibt doch gar keine ST Anwendungen mehr.
Die neuen Konsolen werden wahrscheinlich (davon gehen zumindest die meisten aus) genauso viele Kerne haben wie die alten Konsolen du Held. ^^
Es gibt Leute die kaufen heute noch CPUs für arma3 und crysis1.
Völlig am Thema vorbei aber okay.
Die neuen Konsolen werden wahrscheinlich (davon gehen zumindest die meisten aus) genauso viele Kerne haben wie die alten Konsolen du Held. ^^
Konsole "Alt" 8Kerne (2x4)
Konsole "Neu" 8Kerne mit 16Treads
m.f.g. JVC
Nightspider
2019-03-30, 16:11:28
Konsole "Alt" 8Kerne
Konsole "Neu" 8Kerne
Mehr habe ich nicht gesagt. Kerne != Threads
Und SMT bringt nur 35-40% im Idealfall und das nur mit "massig" Aufwand.
https://en.wikipedia.org/wiki/Jaguar_(microarchitecture)
Wurde immer gestritten ob das jetzt 4 Ganze Kerne sind oder 8 halbe ^^
PS4-Pro ist sogar dort (mit unter Anführungszeichen) als "8 cores" eingetragen ...
m.f.g. JVC
dargo
2019-03-30, 16:15:07
Was erzählst du fürn Schrott?
Wenn die Konsolen eine ~4-5 fach höhere ST Leistung haben wird die früher oder später auch genutzt oder verballert werden.
Prozentual steigt der Leistungsbedarf am PC genauso stark an.
Höchstens bei dem DX11 Schrott. Ich gehe mal davon aus, dass in der Lebenszeit einer PS5 (ca. 2020-2025+) wir am PC immer weniger DX11 Müll vorgesetzt bekommen. Ich hoffe es zumindest.
Nightspider
2019-03-30, 16:16:58
In der Tat. Das könnte die Vulkan/DX12 Verbreitung und Umsetzungsqualität steigern.
aufkrawall
2019-03-30, 16:22:39
Außerdem muss auf den Konsolen die CPU nicht ständig am Anschlag laufen, erhöhter Detailgrad oder mehr NPCs belasten ja auch die GPU als potenziellen Flaschenhals wieder stärker.
Wird jedenfalls spannend, was mit dem Mehr an Leistung gemacht werden wird. Ich denke aber, mit einer 16T-CPU wird man am PC wegen zunehmend LL-only erstmal weiterhin ruhig schlafen können.
w0mbat
2019-03-30, 16:37:11
Ich kann mich noch ganz genau an den release von DOOM (2016) erinnern, da hatte ich noch meinen alten Phenom Ii X6. Das Spiel lief mit meiner HD7870 und 16GB RAM ziemlich gut @1080p, bis man in die komplexeren Levels kam. Drops <30 FPS, unspielbar. 100% CPU limitiert, fast kein Unterschied ob 1080p@high oder 720p@low.
Dann kam das Vulkan Update und plötzlich haute der alte Phenom II X6 wieder genügend draw-calls raus, die FPS machten einen Sprung ~2,5x! Ich hatte auch in den komplexen Leveln wieder deutlich über 60 FPS.
Klar, ein 6700K@4,8GHz hätte von Anfang an die benötigte Leistung geliefert, aber eine bessere API hat es auch gebracht. DX11 (und wie hier OGL) sind einfach altbacken, das ging schon deutlich besser. Leider sind die meisten Spiele aktuell immer noch DX11 bzw. die DX12 Umsetzung ist eher suboptimal.
Es wäre doch schön, wenn man gar keinen 250W i9-9900K@5GHz mit DDR4-4400 bräuchte um auch für eine RTX 2080 Ti genügend draw-calls raus zu Ballern. Selbst ein Ryzen 5 2600 sollte mit seinen 6C/12T und ~HSW IPC @3,8GHz genug Leistung für alle aktuellen Spiele haben.
Wieso hängen noch so viele Spiele an 1-2C und skalieren vor allem mit viel Takt? Was läuft da schief? Alle Konsolen haben schon seit über 5 Jahren CPUs mit mehreren schwachen Kernen.
Sind LL-APIs wirklich so viel aufwändiger, bzw. so komplizierter? BFV läuft mit DX12 seit dem Windows 10 1809 Update bei mir zwar endlich besser als DX11+FFR, aber viele Spiele schaffen das immer noch nicht, bzw. erst jetzt so langsam (siehe Hitman 2).
aufkrawall
2019-03-30, 16:49:19
Im Fall der UE4 DX11 liegt das imho daran, dass Epic da genau so drauf scheißt wie auf GCN-Optimierungen. Einfach die pure Ignoranz.
Daredevil
2019-03-30, 18:36:59
Was erzählst du fürn Schrott?
Wenn die Konsolen eine ~4-5 fach höhere ST Leistung haben wird die früher oder später auch genutzt oder verballert werden.
Ich erzähle damit, dass das größte Problem der aktuellen Generation nicht die CPU ist, sondern die GPU. Weil das Ziel nicht FullHD 120fps ist, sondern 4k 60fps.
Deswegen muss der Fokus nicht auf der CPU liegen ( und damit die begrenzte TDP ), sondern GPU. Sprich die GPU wird mehr gepusht als die CPU.
Natürlich wird die CPU schneller, aber 4-5 Fach? Uff.
Dann kann man ja bald Horizon Zero Dawn in 300fps zocken.
w0mbat
2019-03-30, 18:50:59
Kommen die next-gen Konsolen eigentlich mit Zen(+) oder Zen2? Wenn man davon ausgeht, dass Zen2 ~2X IPC liefert und als Bsp. die XBOX One mit 1,75GHz läuft, reichen ca. 3GHz und 8C/16T in 7nm für 4-5X, alleine core-per-core.
Daredevil
2019-03-30, 19:08:34
Ich hab noch nie nen Ryzen gehabt, um den Sweet Spot raus zu bekommen, aber um die 3Ghz sehe ich auch als realistisch ein, wenn nicht noch weniger.
Kleiner Realitätscheck > Stadia läuft mit nem Custom 2.7Ghz Prozessor.
w0mbat
2019-03-30, 19:13:06
So, Zen(+) scheint so um die 3GHz am effizientesten zu sein, gut möglich dass Zen2 in 7nm das noch etwas nach oben schiebt.
Nightspider
2019-03-30, 21:57:15
Ich erzähle damit, dass das größte Problem der aktuellen Generation nicht die CPU ist, sondern die GPU. Weil das Ziel nicht FullHD 120fps ist, sondern 4k 60fps.
Deswegen muss der Fokus nicht auf der CPU liegen ( und damit die begrenzte TDP ), sondern GPU. Sprich die GPU wird mehr gepusht als die CPU.
Natürlich wird die CPU schneller, aber 4-5 Fach? Uff.
Dann kann man ja bald Horizon Zero Dawn in 300fps zocken.
:facepalm:
Dir ist schon klar das die Spiele nur so wenig CPU Leistung brauchen, weil die 8 Jaguar-Kerne der aktuellen Konsolen so scheiß langsam sind?
Und das die Spiele nicht komplexer sind wegen diesem Mangel an CPU Leistung?
Sobald ein Horizon Zero Dawn 2 für die PS5 kommt kannst du dir deine 300fps in den popo stecken. :wink:
Dann kannst du froh sein wenn du ein 60fps game auf der Konsole bekommst weil der Detailgrad und die Komplexität eine fette Generation weiter ist als Teil 1.
Sobald mit der PS5 die CPU Leistung dank Zen 2 da sein wird, wird man sie auch nutzen. Scheiß egal ob die GPU FHD, 4K oder 40K rendern muss.
Man wird das Game so proggen das die vorhandene CPU Leistung auch genutzt wird.
Nightspider
2019-03-30, 22:15:37
So, Zen(+) scheint so um die 3GHz am effizientesten zu sein, gut möglich dass Zen2 in 7nm das noch etwas nach oben schiebt.
Das wäre nur logisch. Dennoch wird man den Takt sehr konservativ ansetzen. 3,2 Ghz in 7nm sind sehr realistisch für die Konsolen.
Aber das reicht jetzt, sonst wird das hier noch zum NextGen-Konsolen Thread.
Aber um mal zum Thema zurückzukommen:
Selbst wenn dann Vulkan am PC genutzt wird und ein Ryzen 3800X 30% höher Taktet als in der Konsole, dann wird man am PC auch net viel mehr als 40fps (bei 30fps PS5 Games) oder 80fps (60fps Konsolengames) am PC erreichen. Zumindest nicht ohne OC und schnellen Speicher.
Für schnelle Shooter und mind 100fps in Peak-Last Szenen am PC wird man die schnellsten CPUs benötigen, an die man rankommt.
Dann kann man alles vor Coffee Lake direkt entsorgen wenn man hohe fps will.^^
Da werden noch einige doof aus der Wäsche schauen, wie damals als die PS360 Generation. ^^
Wird auf jeden Fall die Verkaufszahlen pushen von PC CPUs und AMD zusätzlich gut Geld einbringen.
TheAntitheist
2019-03-30, 23:22:37
Kommen die next-gen Konsolen eigentlich mit Zen(+) oder Zen2? Wenn man davon ausgeht, dass Zen2 ~2X IPC liefert und als Bsp. die XBOX One mit 1,75GHz läuft, reichen ca. 3GHz und 8C/16T in 7nm für 4-5X, alleine core-per-core.
weiß immernoch niemand
reaperrr
2019-03-30, 23:39:40
Wurde immer gestritten ob das jetzt 4 Ganze Kerne sind oder 8 halbe ^^
Hätte ich bei BD-basierten Architekturen verstanden (selbst bei Excavator), aber Jaguar ist eindeutig ein einzelner, unabhängiger Kern. Das Einzige, was die Jaguar-Kerne sich teilen, ist der L2-Cache, und das haben die Core (2) Duos auch schon getan.
Wenn's allein auf die Performance bezogen war und nicht auf die Technik, forget what I said :wink:
Kommen die next-gen Konsolen eigentlich mit Zen(+) oder Zen2? Wenn man davon ausgeht, dass Zen2 ~2X IPC liefert und als Bsp. die XBOX One mit 1,75GHz läuft, reichen ca. 3GHz und 8C/16T in 7nm für 4-5X, alleine core-per-core.
2X reale IPC müsste schon Zen+ haben, bei Jaguar läuft z.B. aus Verbrauchsgründen der L2 nur mit halbem Kerntakt, was gerade in Spielen noch zusätzlich bremsen dürfte.
mczak
2019-03-31, 01:16:33
So, Zen(+) scheint so um die 3GHz am effizientesten zu sein, gut möglich dass Zen2 in 7nm das noch etwas nach oben schiebt.
Die maximale Effizienz wird bei deutlich unter 3 Ghz erreicht. Es ist kein Zufall dass die Epyc Chips mit 32 Kernen Basistakt von um die 2 Ghz und AllCore Turbo um die 2.5Ghz haben. Wäre die Effizienz bei 3Ghz am grössten würde AMD natürlich Chips mit weniger Kernen dafür höheren Frequenzen bauen...
Hingegen stellen Frequenzen um die 3Ghz einen guten Kompromiss dar bei dem die Pro-Kern Leistung deutlich höher ist (als bei 2Ghz) und der Stromverbrauch im Rahmen bleibt (wenn ich das richtig im Kopf habe hat man ungefähr den doppelten Stromverbrauch bei 3Ghz gegenüber 2Ghz). So ab 3.5Ghz hat man dann 50% höheren Stromverbrauch für 10% höhere Frequenz...
basix
2019-04-01, 06:35:51
Die 2x von 2GHz aif 3GHz stimmen ungefähr für Pinnacle Ridge. Bei Summit Ridge ist es mehr. Von TheStilt gibt es dazu zwei sehr schöne Artikel im Anandtech Forum ("Zen Strictly Technical").
Durch 7nm sollte sich das noch ein bisschen nach oben schieben.
BlacKi
2019-04-01, 09:59:41
Die maximale Effizienz wird bei deutlich unter 3 Ghz erreicht. Es ist kein Zufall dass die Epyc Chips mit 32 Kernen Basistakt von um die 2 Ghz und AllCore Turbo um die 2.5Ghz haben. Wäre die Effizienz bei 3Ghz am grössten würde AMD natürlich Chips mit weniger Kernen dafür höheren Frequenzen bauen...
Hingegen stellen Frequenzen um die 3Ghz einen guten Kompromiss dar bei dem die Pro-Kern Leistung deutlich höher ist (als bei 2Ghz) und der Stromverbrauch im Rahmen bleibt (wenn ich das richtig im Kopf habe hat man ungefähr den doppelten Stromverbrauch bei 3Ghz gegenüber 2Ghz). So ab 3.5Ghz hat man dann 50% höheren Stromverbrauch für 10% höhere Frequenz...
epyc ist dort getaktet, weil das powerlimit bei 32/64 kernen eine rolle spielt. nicht weil die effizienz dort liegt. sie könnte dort liegen aber muss es nicht. aber so in der nähe dürfte das schon liegen.
w0mbat
2019-04-01, 14:12:14
https://ranker.sisoftware.co.uk/show_device.php?q=c9a598d994d0f0b5dbbc9ccfaec3b3dfba80a092d685b484b0f2b0fdc98ec6 f4ab98a08fbc88d799bfd8e5c8f9dfad90a086efd2e3c5ad90a583fbc6f7d1b4d1ecdcfa89b48c&l=de
4C/8T Zen2 ES mit 3,8GHz und 65W auf einem MSI X570 Board.
2DS104BBM4GH2_38/34_N
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.