Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)
Also ich wette immer noch, dass AM5 mit Zen5 endet und Zen6 bekommt ne neue Plattform.
AM5 wird mMn nur
-Zen4
-Zen5
-evlt. Zen5 Refresh umfassen
Zen6 soll ja CXL3 bekommen auch im Desktop. Vielleicht gibts dann auch USB4 und mehr PCI5 oder gar PCIe6 in der CPU usw. Ich gehe auch davon aus, dass wir Zen6 erst Mitte 26 sehen werden, bis dahin soll auch CXL3.0-Speicher verfügbar sein und man möchte ja evtl. auch vom UEFI/AGESA weg, man wird auch auf OpenSIL umsteigen und evtl von UEFI auf Coreboot. Es gibt ne Menge Gründe für ne neue Plattform, der Grad an Innovationen sucht bei Zen6 seines Gleichen.
Ich finde, das 2025+ von AMD ist dafür ne Bestätigung, denn es werden ja immer wieder neue AM5-CPUs auf Zen5-Basis erscheinen über 25 hinweg bis in 26 hinein.
Linmoum
2023-12-23, 11:48:29
Dieses ganze "2025+" ist sowieso witzlos, wenn am Ende mit Zen5 Schluss ist. Damit wäre man nicht besser als Intel und kann sich den "longevity" Quatsch als vermeintliches Argument gleich schenken.
basix
2023-12-23, 12:03:17
Ich vermute Zen 6 kommt noch auf AM5. Ein Plattformwechsel macht ohne DDR6 und PCIe 6.0 keinen grossen Sinn und das ist 2025/2026 einfach noch nicht so weit. Und wie der Typ im Interview sagt: Ein guter Teil von Ryzens Erfolg liegt auch in der Langlebigkeit des Sockels. Und man spart sich R&D für die neue Plattform, wenn man weniger oft wechselt.
robbitop
2023-12-23, 12:07:04
Dieses ganze "2025+" ist sowieso witzlos, wenn am Ende mit Zen5 Schluss ist. Damit wäre man nicht besser als Intel und kann sich den "longevity" Quatsch als vermeintliches Argument gleich schenken.
Bei Intel gibts nur ein Tick und ein Tock. Bei AMD mindestens zwei vollwertige Gens (Tocks) und deren refreshes (X3D).
Die Frage ist ob das auch noch der Sinn ist eine besonders langlebige Plattform zu machen. AMD ist kein Underdog mehr und die Mainboardpartner waren frustrierend weil es keinen Grund gab neue Mainboards zu kaufen als Consumer.
Soweit ich weiss wollten die das nicht mehr und AMD ist auf die Zusammenarbeit angewiesen. Kann mir gut vorstellen dass es irgendwas dazwischen gibt.
Linmoum
2023-12-23, 13:09:04
Die vollwertigen Gens bei AMD können - zumindest in Spielen, ergo primäre Zielgruppe für den Desktop - aber nicht mit Intel mithalten. Insofern ist das Argument irgendwie keines, denn wahrscheinlich wird Vanilla-Zen5 in der Hinsicht auch (wieder) nur auf Niveau der Zen4-X3D landen.
Neurosphere
2023-12-23, 13:31:37
Ich denke auch nicht das AMD den Sockel wechseln wrd ohne PCIe 6 oder DDR6.
Es wird halt die 700er Serie und evtl. 800 Serie an Chipsätzen kommen die in irgendeiner Form überlegen sind, sei es durch höhere Taktraten des Speichers usw..
PCIe 6 wird wohl als erstes mit Diamond Rapids irgendwann Ende 2025 oder 26 kommen. Für Consumer vermutlich erst 26 oder 27.
Bei DDR6 sieht es ähnlich aus. Vermutlich erste Module für Server Ende 25 oder 26 und dann halt 1-2 Jahre später für Consumer.
Zen 6 steht meine ich derzeit für H2 25 an, ich denke nicht das man da schon einen neuen Sockel brauchen würde. Allerdings geht AMD evtl. den Weg und bringt einen neuen Sockel der PCIe 6 und DDR6 ready ist und kombiniert ihn erst mit einem alten Chipset und bietet dann später einen neuen Chipsatz der beides bietet wenn verfügbar.
Zossel
2023-12-23, 13:41:41
Die vollwertigen Gens bei AMD
Was ist eine vollwertige Generation und was nicht, und woran macht man das fest?
2H 25 halte ich für Wunschdenken, vor 26 wird das nix.
latiose88
2023-12-23, 13:54:40
Ich frage mich was euch so sicher macht das Zen 6 auf einer neuen Plattform kommen wird. Weil genau darum will ich ja am5 kaufen weil dann auch auf Zen 6 spekuliere. Wenn nun aber Zen 6 nicht mehr kommt dann macht das für mich keinen Sinn mehr auf am5 zu setzen. Weil ich ja die mehrleistung noch mit nehmen will. Mit reichen die nur 15-20 % mehrleistung zu Zen 4 nicht aus. Darum dachte euch wechsel und dann rüste ich wenn Zen 6 kommt auf. Ich bin mit dem zu großen gehause was ich habe unzufrieden.
Zudem kühlt es nicht gut im Sommer wegen dem. Daurm wollte ich wenn schon nen neuen PC dann das OS machen das ich möglichst wenig neuen unterstatz kaufe.
Wenn nun aber 2 gens Standard sind dann kann ich gleich auf threadripper gehen weil die Leistung entspricht so 2 ryzen gens. Weil neue CPU ist nicht mit der einen kompatibel.
robbitop
2023-12-23, 15:52:06
Die vollwertigen Gens bei AMD können - zumindest in Spielen, ergo primäre Zielgruppe für den Desktop - aber nicht mit Intel mithalten. Insofern ist das Argument irgendwie keines, denn wahrscheinlich wird Vanilla-Zen5 in der Hinsicht auch (wieder) nur auf Niveau der Zen4-X3D landen.
Naja beide sind nicht in der gleichen Kadenz. Zen 4 X3D ist der Wettbewerber von RTL. Zen 4 ADL. Zen 3 gegen RKL. IMO konnten die da schon mithalten.
Außerdem geht es bei einer Plattform wohl eher um das Spektrum von der Performance der ersten SKU bis zur letzten. Also wie viel Prozent bekommst du maximal als Upgrade.
Und da wäre Zen 5X3D vs Zen4 sehr wahrscheinlich größer als RTL refresh vs ADL.
Und auch absolut wird Zen 5x3D RTL refresh wohl deutlich hijter sich lassen. AM5 vs So1700.
Sehe nicht wo AMD in einer dieser Metriken nicht besser da steht.
reaperrr
2023-12-23, 18:14:29
Also ich wette immer noch, dass AM5 mit Zen5 endet und Zen6 bekommt ne neue Plattform.
AM5 wird mMn nur
-Zen4
-Zen5
-evlt. Zen5 Refresh umfassen
Zen6 soll ja CXL3 bekommen auch im Desktop. Vielleicht gibts dann auch USB4 und mehr PCI5 oder gar PCIe6 in der CPU usw. Ich gehe auch davon aus, dass wir Zen6 erst Mitte 26 sehen werden, bis dahin soll auch CXL3.0-Speicher verfügbar sein und man möchte ja evtl. auch vom UEFI/AGESA weg, man wird auch auf OpenSIL umsteigen und evtl von UEFI auf Coreboot. Es gibt ne Menge Gründe für ne neue Plattform, der Grad an Innovationen sucht bei Zen6 seines Gleichen.
Ich finde, das 2025+ von AMD ist dafür ne Bestätigung, denn es werden ja immer wieder neue AM5-CPUs auf Zen5-Basis erscheinen über 25 hinweg bis in 26 hinein.
Nahezu alles, was du nennst, ist aber hauptsächlich vom IOD und Mainboard-Chipsatz abhängig, sprich, es spricht technisch nix dagegen, Zen6 erst für AM5 mit altem oder nur leicht verbessertem IOD und/oder neuem AM5-Chipsatz zu bringen.
Zen4 hat sich anfangs u.a. wegen der neuen und noch relativ teuren Plattform eher mäßig verkauft. Kann mir nicht vorstellen, dass AMD dieses Risiko bereits 2 Gens später erneut eingeht, zumal wenn das zu früh durchsickert keiner mehr AM5+Zen5 kauft, mangels Aufrüstoptionen.
Neuer Chipsatz und verbesserter IOD für Zen6? Vielleicht. Schon wieder neue Plattform? Zu früh, mMn.
Eher erst für AM5 mit moderat verbessertem IOD und neuem Chipsatz und N3P-Chiplets, dann vielleicht später ein Zen6+ mit N2(P)-Chiplets als Launch-Begleiter für AM6 (es sei denn, der Zen6-Nachfolger wird früh genug fertig, dass sie direkt mit neuer uArch starten können).
Lurtz
2023-12-23, 19:17:04
Intel muss langsam aber schon aufpassen, dass der Ruf nicht zu sehr ramponiert wird. Bei vielen hat sich Intel = hoher Stromverbrauch und große Abwärme bereits verfestigt, außerdem kaufen gerade viele AM5, weil sie auf ähnlich langen Support wie für AM4 hoffen.
Nightspider
2023-12-23, 19:23:21
2H 25 halte ich für Wunschdenken, vor 26 wird das nix.
Eigentlich war Zen5 ja für Anfang 24 geplant, was man so gehört hat.
Wie weit das zweite Team von AMD mit Zen6 ist weiß sicherlich nur AMD selbst.
Ich würde 2H25 noch nicht abschreiben.
Ok machen wir es weniger restriktiv: 30% 25, 70% 26 würd ich sagen aus heutiger Sicht.
OgrEGT
2023-12-30, 11:16:17
Die vollwertigen Gens bei AMD können - zumindest in Spielen, ergo primäre Zielgruppe für den Desktop - aber nicht mit Intel mithalten. Insofern ist das Argument irgendwie keines, denn wahrscheinlich wird Vanilla-Zen5 in der Hinsicht auch (wieder) nur auf Niveau der Zen4-X3D landen.
Wo können die AMD CPUs bei Spielen auf dem Desktop nicht mithalten? Insb die X3D CPUs lassen Intel insb bei Perf/W sehr alt aussehen...
https://www.computerbase.de/thema/cpu/rangliste/#abschnitt_anhang_gamingbenchmarks_im_detail
dildo4u
2023-12-30, 11:24:02
Die vollwertigen Gens bei AMD können - zumindest in Spielen, ergo primäre Zielgruppe für den Desktop - aber nicht mit Intel mithalten. Insofern ist das Argument irgendwie keines, denn wahrscheinlich wird Vanilla-Zen5 in der Hinsicht auch (wieder) nur auf Niveau der Zen4-X3D landen.
Die i5 Modelle Takten nicht so hoch wie High-end und haben weniger Cache.
14600k und 7700X sind dicht beisammen.(Beide kosten um 300€)
https://www.techpowerup.com/review/intel-core-i5-14600k/17.html
Der 14700k ist potenter aber dann bist du über dem 7800x3D was Preise angeht.
OgrEGT
2023-12-30, 12:03:14
https://www.computerbase.de/2023-12/gpu-braucht-cpu-2023-amd-test/
Interessant wie AMD die Spieleleistung auch in relevanter Auflösung hat steigern können über die Generationen hinweg...
Linmoum
2023-12-30, 12:28:24
Oder einfach nur interessant, dass CB bei CPU-Tests in Teilen Spiele bzw. Grafikkarten bencht, wo in UHD dieselben fps ausgespuckt werden wie in 720p, weil die CPU limitiert...
Was in Zukunft noch viel stärker passieren wird, weil Grafikkarten bei der absoluten Performance deutlich mehr (und schneller) zulegen als CPUs.
BlacKi
2023-12-30, 13:26:46
https://www.computerbase.de/2023-12/gpu-braucht-cpu-2023-amd-test/
Interessant wie AMD die Spieleleistung auch in relevanter Auflösung hat steigern können über die Generationen hinweg... der test ist sehr einfach gehalten. er zeigt lediglich leuten, die keinen plan haben was gpu limits oder cpu limits sind, das ein upgrade selbst in 4k sinnvoll sein kann.
was der test aber weglässt, im gpu limit hilft dir eine cpu trotzdem nicht weiter.
leute kommen aber so auf die dumme idee, das die cpu die gpu leistung verbessern würde.
das ist nicht der fall.
das sagt der test auch nicht direkt, aber irgendwie hab ich das gefühlt, der leser könnte das so interpretieren. deshalb finde ich den test auch extrem schwierig.
basix
2023-12-30, 13:36:06
Oder einfach nur interessant, dass CB bei CPU-Tests in Teilen Spiele bzw. Grafikkarten bencht, wo in UHD dieselben fps ausgespuckt werden wie in 720p, weil die CPU limitiert...
Was in Zukunft noch viel stärker passieren wird, weil Grafikkarten bei der absoluten Performance deutlich mehr (und schneller) zulegen als CPUs.
Solange es wie bei Dota >300fps sind ist es doch egal. Anno ist ein "Spezialfall", dort sind 60fps aufgrund des Gameplays aber kein Dealbreaker.
Ansonsten: Give me 8K then ;)
Ausserdem: Ein 7800X3D wird einem 1600X in vielen Szenarien um ~3x davoneilen. Das innerhalb von nur 6 Jahren. Stell dir 2011 (Sandy Bridge, 2600K) vs. 2017 vor (Coffee Lake, 8700K). Da war es gerade mal ~1.7x in der selben Zeit: https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/
Ich hätte gesagt, dass sich bei den CPUs der Fortschritt etwas beschleunigt hat, verglichen mit den "mageren Jahren" mit Intel ohne Konkurrenz. Selbst auf Intel bezogen mit 8700K vs. 13900K sind es ~1.8x Gaming Performance in den letzten 6 Jahren, wenn viele Kerne benötigt werden noch mehr.
Nightspider
2023-12-30, 13:45:54
Ich finds aber dubios das in Hogwarts Legacy der schnellste Prozessor mit den langsamstem Prozessor langsamer ist, als der langsamste Prozessor mit der langsamsten Grafikkarte.
Als wenn das Spiel damit nicht klar kommt das der Prozessor der GPU wegrennt und der Code über sich selbst stolpert.
Das kann auch irgendein seltsamer Effekt mit dem 7950X3D sein. Vielleicht wäre ein 7800X3D für den Test besser gewesen ;).
BlacKi
2023-12-30, 14:33:56
Ausserdem: Ein 7800X3D wird einem 1600X in vielen Szenarien um ~3x davoneilen. Das innerhalb von nur 6 Jahren. Stell dir 2011 (Sandy Bridge, 2600K) vs. 2017 vor (Coffee Lake, 8700K). Da war es gerade mal ~1.7x in der selben Zeit: https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/
der vergleich passt nicht. just saying.
The_Invisible
2023-12-30, 14:50:20
Das kann auch irgendein seltsamer Effekt mit dem 7950X3D sein. Vielleicht wäre ein 7800X3D für den Test besser gewesen ;).
Frag mich sowieso ob die meisten Reviewer überhaupt dem "AMD Guide" folgen und bei CPU wechsel eine Windows Neuinstall vornehmen bzw halt eigene Windows Instanz verwenden wenn man für die großen x3d CPUs diesen komischen 3d-Optimizer Treiber installiert hat...
davidzo
2023-12-30, 16:24:10
Die vollwertigen Gens bei AMD können - zumindest in Spielen, ergo primäre Zielgruppe für den Desktop - aber nicht mit Intel mithalten.
Die i5 Modelle Takten nicht so hoch wie High-end und haben weniger Cache.
Dies.
Intel hat traditionell nach unten hin größere Abspeckungen beim Takt während die Bins bei AMD alle nah beieinander liegen.
Wenn man sich den 7950X und 7900X rauspickt und X3D ignoriert mag man Intel in Spielen vorne sehen, aber nach unten hin sind die SKUs von AMD in der Regel mehr als Konkurrenzfähig weil die Taktraten höher liegen.
Der 7600X wischt mit dem i5 13500 den Boden auf in Spielen, und der 13400f wird mühelos durch den vanilla 7600 geschlagen.
Und im Highend sind wie gesagt die x3d CPUs eh konkurrenzlos. Die Lücke im midrange für Gamer finde ich jetzt nicht so dramatisch da der 7900X immerhin eine sehr gute productivity CPU ist.
Frag mich sowieso ob die meisten Reviewer überhaupt dem "AMD Guide" folgen und bei CPU wechsel eine Windows Neuinstall vornehmen bzw halt eigene Windows Instanz verwenden wenn man für die großen x3d CPUs diesen komischen 3d-Optimizer Treiber installiert hat...
MMn ergibt der Test so sowieso wenig Sinn. Man hätte nen 1600X, 3600, 5600 und 5600X3D testen sollen, sobald der auf dem Markt ist. AMD will ja ne ganze Latte 5000er launchen, darunter ja offenbar der Microcenter exklusive 5600X3D (5500X3D, 5600X3D, 5700X3D, 5800NPU). Als Kontrolltest kann man ja den 7800X3D mitlaufen lassen. Allerdings kann man das ja noch ergänzen später.
OgrEGT
2023-12-30, 16:49:25
MMn ergibt der Test so sowieso wenig Sinn. Man hätte nen 1600X, 3600, 5600 und 5600X3D testen sollen, sobald der auf dem Markt ist. AMD will ja ne ganze Latte 5000er launchen, darunter ja offenbar der Microcenter exklusive 5600X3D (5500X3D, 5600X3D, 5700X3D, 5800NPU). Als Kontrolltest kann man ja den 7800X3D mitlaufen lassen. Allerdings kann man das ja noch ergänzen später.
Oder das Ganze gleich mit 8 Kernen... also 1800X 2700X 3800X 5800X 5800X3D 7700X 7800X3D...
Der Aufwand wird halt mit jeder zusätzlichen CPU größer...
Ich denke das Prinzip ist klar geworden zu zeigen dass eine starke GPU auch eine entsprechend leistungsfähige CPU benötigt...
BlacKi
2023-12-30, 17:11:12
Ich denke das Prinzip ist klar geworden zu zeigen dass eine starke GPU auch eine entsprechend leistungsfähige CPU benötigt...
genau das hab ich erwartet. genau das stimmt so nicht. man muss gpu und cpu gedanklich getrennt denken.
wenn ich eine cpu wähle, muss ich mich fragen welche fps will ich erreichen, und wenn ich eine gpu wähle, welche auflösung will ich fahren.
wenn mir 4k30fps +RT reichen würden, dann wäre ein zen2 cpu wohl noch ausreichend. egal bei welche auflösung 120fps als ziel hätte, dann muss es selbst in fhd eine top tier cpu sein, gerade in RT.
fps stehen für cpu, auflösung für gpu.
OgrEGT
2023-12-30, 17:39:48
genau das hab ich erwartet. genau das stimmt so nicht. man muss gpu und cpu gedanklich getrennt denken.
wenn ich eine cpu wähle, muss ich mich fragen welche fps will ich erreichen, und wenn ich eine gpu wähle, welche auflösung will ich fahren.
wenn mir 4k30fps +RT reichen würden, dann wäre ein zen2 cpu wohl noch ausreichend. egal bei welche auflösung 120fps als ziel hätte, dann muss es selbst in fhd eine top tier cpu sein, gerade in RT.
fps stehen für cpu, auflösung für gpu.
Das Prinzip stimmt doch... wenn Du die Leistung einer Highend GPU voll abrufen willst dann geht das nur mit einer entsprechend leistungsfähigen CPU...
Die Betrachtung die Du aufmachst ist eine andere wenn du 4k30RT als Ziel nimmst..
Anyway... ich gehe in der Regel vom Monitor und dessen Auflösung und Freesync Range aus... Dazu die passende GPU und dazu die passende CPU um keine GPU Leistung liegen zu lassen...
Welche CPU es dann braucht um keine GPU Leistung liegen zu lassen ist dann ggf die Frage...
Dafür hat der CB Test nicht genug CPUs getestet um den Scheitelpunkt genau zu ermitteln... Zwischen 3600X und 7950X3D ist ne Menge Platz...
Oder das Ganze gleich mit 8 Kernen... also 1800X 2700X 3800X 5800X 5800X3D 7700X 7800X3D...
Der Aufwand wird halt mit jeder zusätzlichen CPU größer...
Ich denke das Prinzip ist klar geworden zu zeigen dass eine starke GPU auch eine entsprechend leistungsfähige CPU benötigt...
x600 und x800/x700 Vergleich wird man sicherlich noch von HUB sehen. Der CB-Test ist in sofern gut, dass er zeigt, dass man in der Praxis schon ne gute CPU braucht. Natürlich nützt das gar nichts mit ner zu schwachen Grafikkarte.
BlacKi
2023-12-30, 17:57:56
Das Prinzip stimmt doch... wenn Du die Leistung einer Highend GPU voll abrufen willst dann geht das nur mit einer entsprechend leistungsfähigen CPU...
Die Betrachtung die Du aufmachst ist eine andere wenn du 4k30RT als Ziel nimmst..
aber für 4k RT reicht eine high end gpu nicht für 60fps. das geht nur mit upsampling, was kein 4k mehr ist, oder über frame gen, das die cpu anforderungen halbiert.
und für 4k 60fps reicht ein 3600 auch dicke aus um die gewünschten fps zu erreichen.
wie gesagt, es ist die frage welche fps man als ziel hat, die es zu erreichen gilt. das ist komlett unabhängig welche auflösung oder gpu leistungsklasse man verbaut.
die aussage, man braucht eine sehr gute cpu um eine gute gpu auszulasten ist irreführend, denn das sollte nicht das ziel sein. es sollte das ziel sein, seine gewünschten fps zu erreichen.
Scruffy
2023-12-30, 18:35:40
und für 4k 60fps reicht ein 3600 auch dicke aus um die gewünschten fps zu erreichen.
Mit RT nicht unbedingt, die CPU Anforderungen steigen auch. In Hitman 3 mit vollem RT limitiert bei mir in den schlimmsten Leveln der 5800X3D.
Edit: Und FG hilft nicht, das ist sehr laggy wenn ich nicht schon ohne >60fps habe
Nightspider
2023-12-30, 19:12:38
Und manche Shooter sind mit 60fps "kaum spielbar" im kompetitiven Bereich.
Da dürfen es dann gerne 120fps sein und dann wird es in anspruchsvollen Spielen schon eng mit den meisten CPUs.
Es kommen bestimmt noch mehr Spiele, welche die potenten CPU Kerne der Playstation 5 komplett ausreizen und dementsprechend viel Leistung am PC benötigen.
BlacKi
2023-12-30, 22:05:18
man bedenke, meine aussage bezieht sich auf die cpu auswahl der gewünschten fps die ereicht werden soll, unabhängig der auflösung:
Da dürfen es dann gerne 120fps sein und dann wird es in anspruchsvollen Spielen schon eng mit den meisten CPUs.
das widerspricht meiner aussage garnicht. ist sogar teil meiner aussage und hat garnichts mit der gpu leistung zu tun. und darum gehts mir.
Und manche Shooter sind mit 60fps "kaum spielbar" im kompetitiven Bereich.
auch das verstehe ich als bestätigung meiner these und widerspricht ihr nicht. denn gerade im competitive bereich brauchst du weniger die gpu leistung den cpu.
Und FG hilft nicht, das ist sehr laggy wenn ich nicht schon ohne >60fps habe
fg mag nicht als ganzes immer vorteilhaft sein, das war aber auch nicht meine aussage, sondern lediglich wenn man FG nutzen sollte, dann reicht eine langsame cpu.
amdfanuwe
2023-12-31, 00:07:44
Ich hab mal die CB Tabellen in eine andere Form gebracht.
FPS anstatt der Prozente und eingefärbt.
Vielleicht hilft das dem einem oder anderen.
86528
Nightspider
2023-12-31, 06:53:22
gerade im competitive bereich brauchst du weniger die gpu leistung
Würde ich vehement widersprechen.
Kommt total aufs Spiel an. Gibt auch kompetitive Shooter die arg viel Grafikleistung brauchen.
Die ganze Battlefield Reihe steht eigentlich für hohen Leistungsbedarf an alle Komponenten.
PUBG war damals auch nicht wirklich gut optimiert.
dildo4u
2023-12-31, 07:01:52
Als Positives Beispiel möchte ich mal the Finals nennen UE5 und rennt wie ein Beast sind Ex Dice Entwickler.
Die Zukunft ist also nicht komplett fürn Arsch.
Nightspider
2023-12-31, 07:10:16
Ach das die (Embark Studios) die UE5 nutzen war mir gar nicht bewusst.
dildo4u
2023-12-31, 07:25:08
EA lizenziert Frostbite nicht an externe Teams daher mussten sie umsteigen.
BlacKi
2023-12-31, 08:41:53
Würde ich vehement widersprechen.
Kommt total aufs Spiel an. Gibt auch kompetitive Shooter die arg viel Grafikleistung brauchen.
Die ganze Battlefield Reihe steht eigentlich für hohen Leistungsbedarf an alle Komponenten.
PUBG war damals auch nicht wirklich gut optimiert.
gerade am anfang war pubg eher ein cpu killer. das lief auch mit einer 1070 butterweich(so butterweich wie es heute läuft), wenn die cpu leistung ausreichend war.
und wenn jemand jetzt einzelne ausnahmen nennt, bestätigt das eher die regel. 99% aller compettive games sind keine gpu killer.
basix
2023-12-31, 10:15:35
Die UE4 und UE5 haben 2(!) Haupt-CPU-Threads und ein paar Worker-Threads. Das ist noch DX11-Style. Die Unreal Engine ist also eher schlecht auf Multithreading ausgelegt (Physik, Mass-Entities usw. skalieren schon gut mit vielen Cores, die 2 Hauptthreads aber nicht).
Das wird sich mit der UE 5.4 aber ändern, da die 2 oben genannten Threads via DX12 / Vulkan / Metal APIs deutlich besser parallelisiert werden. Erste Demos zeigten etwa +100% Framerate im CPU-Limit.
latiose88
2023-12-31, 13:02:47
Ich hab mal die CB Tabellen in eine andere Form gebracht.
FPS anstatt der Prozente und eingefärbt.
Vielleicht hilft das dem einem oder anderen.
86528
Oh hah sind da einige Spiele anspruchsvoll. Selbst bei full hd. Dann am besten wenn man keine highrnd gpu hat dann auf 720p runter stellen, dann läuft auch da es auf die kleifmedne gpus flüssig. Nur die meisten machen das wohl nicht. Bevor ich jedoch auf deislts Verzichten müsste oder auf so ruckeligen fps oder die hohen preise aktueller gpu dann lieber Details reduzieren.
Es gibt ja immer eine Option. Und das ist wohl notwendig bei ruckeligen 30 fps.
Linmoum
2023-12-31, 13:42:19
Was willst du in Anno die Auflösung runterdrehen? Das bringt überhaupt nichts, weil die GPU irrelevant ist. Da hilft es nur, eine bessere CPU zu verbauen.
latiose88
2023-12-31, 17:44:31
na laut der Tabelle bringt eine gewisse GPU schon was,sonst würde trotz bessere CPU eine rtx 3050 auch mehr FPS liefern.Es scheint doch ne kleine Rolle zu spielen.Mich wundert das Ergebnis da auch oder ist die mit besonderen Settings gemacht worden.Damit auch ja selbst mit einem modernen 16 Kerner noch immer nicht genügend FPS an kommen können?
Sonst würde ich bei solchen Spielen wenn es nach dir gehen würde einfach eine lowend GPU mit einer dicken Fetten CPU kombinieren und hätte meine Ruhe.
Das funktiniert auch nicht ganz.Mir kann es ja egal sein,aber weil ich zocke keine Aktuellen,aber wenn dann würde ich sowas echt geil finden.Ne Starke CPU habe ich immer wegen Videoumwandeln.Wenn dann die SPiele schön CPU Lästig wären,käme mir das verdammt recht.
Ich habe nämlich keine Problem mit 720p.Habe ja nicht umsonst ein 24" Full HD genommen.So das es auf 720p herunter skaliert auch noch in Ordnung ist.Wenn ich jedoch nativ 720p haben wollte,dann hätte ich mir ein Bildschirm mit maximal 720p geholt und sei es ein Fernsehr oder ein Misch Bildschirm.
Als Bildschirm habe ich nämlich ein Nativer Fernseher da.
OgrEGT
2024-01-03, 19:21:35
https://videocardz.com/newz/amd-ryzen-7-8700g-desktop-apu-leak-confirms-2-9-ghz-radeon-780m-rdna3-graphics
AMD Ryzen 7 8700G desktop APU leak confirms 2.9 GHz Radeon 780M RDNA3 graphics
aceCrasher
2024-01-04, 01:22:19
https://videocardz.com/newz/amd-ryzen-7-8700g-desktop-apu-leak-confirms-2-9-ghz-radeon-780m-rdna3-graphics
AMD Ryzen 7 8700G desktop APU leak confirms 2.9 GHz Radeon 780M RDNA3 graphics
Das sieht nach ner richtig geilen IGP aus, endlich wird GCN bei den Desktop APUs mal abgelöst.
Versus 5700G:
50% mehr Shader
45% mehr Takt
>50% mehr Speicherbandbreite dank DDR5
Leonidas
2024-01-04, 08:09:38
Erstaunlicherweise lt. WCCF nicht schneller als Mobile-iGPU gleicher Bauart. Entweder ist der Benchmark-Wert noch nix, oder selbst beim Geekbench limitiert nun die Speicherbandbreite:
https://wccftech.com/amd-ryzen-7-8700g-hawk-point-apu-leak-8-zen-4-cores-radeon-780m-igpu-2-9-ghz/
Zossel
2024-01-04, 08:19:13
Erstaunlicherweise lt. WCCF nicht schneller als Mobile-iGPU gleicher Bauart. Entweder ist der Benchmark-Wert noch nix, oder selbst beim Geekbench limitiert nun die Speicherbandbreite:
https://wccftech.com/amd-ryzen-7-8700g-hawk-point-apu-leak-8-zen-4-cores-radeon-780m-igpu-2-9-ghz/
Benchmarks von denen man nicht weiß was die testen, super Sache.
Linmoum
2024-01-04, 08:26:12
Klar weiß man das, ist halt Leakbench. Für die Realität und gerade Spiele halt nur völlig irrelevant.
dildo4u
2024-01-04, 08:30:12
Ich glaube nicht das 100mz groß was ausmachen wir wissen wie die APU Performt da man Mini PC mit Phönix kaufen kann die nicht Power limitiert sind.
8XAJwwsmoug
OgrEGT
2024-01-04, 08:51:18
Interessant wären Tests zu unterschiedlicher Verteilung des TDP Budgets zwischen CPU und iGPU und natürlich die Skalierung mit dem RAM Speed...
davidzo
2024-01-04, 14:57:17
Erwartbare Ergebnisse da schon die mobile 12CU IGP sogar durch LPDDR5X ausgebremst wurde. AMD hat den Fertigungsprozess für den SoC auch mal wieder für mobile optimiert, weshalb es kaum noch Leistungssteigerungen mit TDPs über 45Watt gibt.
Die Arc Xe-LPG mit ähnicher Bandbreite ist praktisch auch gleich schnell, in theoretischen Tests manchmal leicht vorne, in Spielen häufiger leicht hinten. Eine rein theoretische Frage wäre ob Intel einen größeren Vorsprung hätte wenn man mehr Bandbreite zur Verfügung hätte, also die eigentlich fettere GPU besitzt, diese aber nicht ausfahren kann und wieviel AMD wiederrum durch IFcache dazu gewinnen könnte. Immerhin hat Intel diesmal ein besseres Cache-Setup für die iGPU. Iris G7 96EU war stark bandbreitenlimitiert und hätte sonst vermutlich Vega8 deutlich geschlagen.
Auch die Aufteilung des TDP Budgets ist imo bei so langsamen IGPs keine interessante Frage, da das in 99% der Fälle mit absoluter GPU Priorität beantwortet werden kann. Die CPU liefert selbst mit Baseclock schon mehr CPU-FPS als die GPU jemals bringen wird, zumindest in praxisnahen mittleren bis niedrigen Grafiksettings.
ARC XE-LPG ist nicht ganz so effizient, da spielt die TDP-Frage also eine größere Rolle, aber bei AMD stellt sich die Frage der Aufteilung imo gar nicht erst.
Achill
2024-01-04, 15:36:45
Erwartbare Ergebnisse da schon die mobile 12CU IGP sogar durch LPDDR5X ausgebremst wurde. AMD hat den Fertigungsprozess für den SoC auch mal wieder für mobile optimiert, weshalb es kaum noch Leistungssteigerungen mit TDPs über 45Watt gibt.
Die Arc Xe-LPG mit ähnicher Bandbreite ist praktisch auch gleich schnell, in theoretischen Tests manchmal leicht vorne, in Spielen häufiger leicht hinten. Eine rein theoretische Frage wäre ob Intel einen größeren Vorsprung hätte wenn man mehr Bandbreite zur Verfügung hätte, also die eigentlich fettere GPU besitzt, diese aber nicht ausfahren kann und wieviel AMD wiederrum durch IFcache dazu gewinnen könnte. Immerhin hat Intel diesmal ein besseres Cache-Setup für die iGPU. Iris G7 96EU war stark bandbreitenlimitiert und hätte sonst vermutlich Vega8 deutlich geschlagen.
Auch die Aufteilung des TDP Budgets ist imo bei so langsamen IGPs keine interessante Frage, da das in 99% der Fälle mit absoluter GPU Priorität beantwortet werden kann. Die CPU liefert selbst mit Baseclock schon mehr CPU-FPS als die GPU jemals bringen wird, zumindest in praxisnahen mittleren bis niedrigen Grafiksettings.
ARC XE-LPG ist nicht ganz so effizient, da spielt die TDP-Frage also eine größere Rolle, aber bei AMD stellt sich die Frage der Aufteilung imo gar nicht erst.
Geekbench fällt m.E. unter syn. Benchmark und hat leider zusätzlich noch die Eigenschaft, teilweise sehr kurze Benchs auszuführen. D.h. oft können die (A/C)PUs in ihrer höchsten Power-Stufe agieren und ihren Boost ausfahren bevor überhaupt eine Drosselung der TPD oder Wärme-Limit greift.
In Spielen finde ich "leicht hinten" etwas zu schwach, die FPS sind i.d.R. nicht die Welt, aber in Prozenten sind es schnell 10er oder 20er Bereiche für die AMD APU. Im Beispiel ist es auch nur die 7840U - also kleines Power Budget:
Hier gibt es (zwar Nootbooks) immerhin Benchs in Spielen:
- https://www.notebookcheck.net/Acer-Swift-Go-14-review-The-Meteor-Lake-Core-Ultra-7-impresses-with-its-AI-core.783349.0.html#c10624109
- https://www.notebookcheck.net/Framework-Laptop-13-5-Ryzen-7-7840U-review-So-much-better-than-the-Intel-version.756613.0.html#c10303808
Nightspider
2024-01-05, 01:08:35
Das sieht nach ner richtig geilen IGP aus, endlich wird GCN bei den Desktop APUs mal abgelöst.
Versus 5700G:
50% mehr Shader
45% mehr Takt
>50% mehr Speicherbandbreite dank DDR5
Naja für 2024 nicht wirklich. Es ist eher gut das es überhaupt etwas gibt.
Da werden die Strix Point APUs im Laptop bald schon 50-100% schneller sein.
Erstaunlicherweise lt. WCCF nicht schneller als Mobile-iGPU gleicher Bauart. Entweder ist der Benchmark-Wert noch nix, oder selbst beim Geekbench limitiert nun die Speicherbandbreite:
https://wccftech.com/amd-ryzen-7-8700g-hawk-point-apu-leak-8-zen-4-cores-radeon-780m-igpu-2-9-ghz/
Interessant werden Test mit übertaktetem DDR5 Speicher.
Ob Phoenix auch DDR 6200 mit scharfen Timings bzw. DDR 8000 mit 2:1 Teiler mitmacht?
Erstaunlicherweise lt. WCCF nicht schneller als Mobile-iGPU gleicher Bauart. Entweder ist der Benchmark-Wert noch nix, oder selbst beim Geekbench limitiert nun die Speicherbandbreite:
https://wccftech.com/amd-ryzen-7-8700g-hawk-point-apu-leak-8-zen-4-cores-radeon-780m-igpu-2-9-ghz/
DDR5 4800 ... keine weitere Untersuchung nötig. Ist halt unbrauchbar der Wert.
OgrEGT
2024-01-08, 06:43:12
Heute 16:00 AMD Event auf der CES
https://www.amd.com/en/corporate/events/ces.html
Nightspider
2024-01-08, 07:34:34
Ich erwarte ehrlich gesagt nicht sehr viel vom CES Auftritt.
dildo4u
2024-01-08, 08:39:52
Das wird eine Laptop Show wenn sie von AI reden.
Wird Zeit das AMD Modelle mit Navi 32 zeigt vorallem da NV scheinbar kein Notebook Refrech hat.
robbitop
2024-01-08, 10:41:36
Ggf. aber auch Xilinx IP. XDNA ist doch einer von AMDs AI Zugpferden. Und CDNA. Wobei es zu letzterem ja gerade erst einen Launch gab.
Leonidas
2024-01-08, 15:46:52
Ryzen 8000G nun doch erst am 31. Januar, Preise fehlen noch:
https://videocardz.com/newz/amd-ryzen-8000g-zen4-apu-series-launch-january-31-ryzen-7-8700g-competes-with-desktop-geforce-gtx-1650-in-gaming
https://cdn.videocardz.com/1/2024/01/RYZEN-8700G.jpg
OgrEGT
2024-01-08, 17:57:05
Laut CB sehen die Preise wohl wie folgt aus:
8700G 329$
8600G 229$
8500G 179$
830G Nur OEM
https://www.computerbase.de/2024-01/amd-ryzen-8000g-apu-mit-rdna-3-startet-am-31-januar-ab-179-usd-im-desktop/
Leonidas
2024-01-08, 19:48:31
Gar nicht so ganz günstig. Hier muß jemand die iGPUs wirklich haben wollen, ansonsten lohnt das nicht. 8500G IMO übertrieben, weil die iGPU fast so schwach die die Standard-iGPU von Ryzen 7000 ist.
Nightspider
2024-01-08, 19:54:01
War bei den letzten Generationen doch genauso oder?
Daher nach wie vor ein total uninteressantes Thema für 95% der Leute.
dildo4u
2024-01-08, 20:16:10
Letzte Generation musste man mehr drauf zahlen.(5700g 360 msrp)
8700 g macht hat Sinn wenn man sein Budget nicht bis zur RX6600 strecken kann.
Der Vorteil der IGP ist man kann 8 GB zuweisen wo RX6400 nur 4GB hat.
mczak
2024-01-08, 20:16:49
Gar nicht so ganz günstig. Hier muß jemand die iGPUs wirklich haben wollen, ansonsten lohnt das nicht.
So wie's aussieht ist der MSRP von Ryzen 8700G und 7700 bzw, 8600G und 7600 genau gleich? Da ist es dann schon so, man bekommt (deutlich) bessere GPU aber (etwas) schwächere CPU (leicht tieferer Maximaltakt, halber Cache).
8500G IMO übertrieben, weil die iGPU fast so schwach die die Standard-iGPU von Ryzen 7000 ist.
Naja das ist immer noch ein Faktor 2 (plus Architekturverbesserungen). Da werden durchaus ein paar Spiele mehr vernünftig laufen, aber klar, wirklich tauglich für neueste AAA-Games ist das nicht.
So schlimm finde ich das Modell jetzt nicht, ist immerhin die deutlich günstigste retail-APU für AM5. In dem Preisbereich gibt es "normale" Ryzen 7000 Modelle bloss den 7500F - da hat man dann zwar durchaus grössere Nachteile bei der CPU-Performance, dafür braucht man aber eben beim 7500F zwingend eine Grafikkarte.
Allgemein sind halt die CPU-Preise bei AM5 immer noch relativ hoch, so dass man quasi immer noch nicht bloss eine neue (AM5) und eine alte (AM4) Plattform hat, sondern eine günstige und eine teure - aber immerhin fangen jetzt dann langsam die CPU-Preise von AM5 CPUs nicht mehr dort an wo sie bei AM4 (abgesehen von den "Spezialmodellen", also 2 Compute-Dies oder VCache) aufhören.
MSABK
2024-01-08, 22:09:08
Was meint ihr, wann kommen neue Notebookchips?
Leonidas
2024-01-09, 04:09:31
Strix Point Richtung Sommer/Herbst, mit Glück.
MSABK
2024-01-09, 08:17:13
Strix Point Richtung Sommer/Herbst, mit Glück.
Ah ok, dann sind die 8000er in den vorgestellten Laptops refresh Chips.
dildo4u
2024-01-09, 08:22:15
Die CPU ist doch unwichtig der große Sprung kommt erst mit 3nm Blackwell.
Die aktuellen 8 Cores CPU sind ausreichend.
mboeller
2024-01-09, 09:16:25
Ah ok, dann sind die 8000er in den vorgestellten Laptops refresh Chips.
ja Hawk Point mit 16TOPS NPU
video: https://www.youtube.com/watch?v=L1dEFfar3WY nach 6min
(6:18) Folie mit Hawk-Point, Phoenix + "future"
(6:25) Folie mit Strix Point NPU (>3x schneller als Phoenix), also min. 30TOPS
Wenn sie alle "TOPS" der APU zusammen"kratzen" sind es bei Hawk-Point 39TOPS
amdfanuwe
2024-01-09, 18:51:53
Daten zu 8000G von AMD online gestellt:
https://www.amd.com/en/product/14086
https://www.amd.com/en/product/14091
86645
Jetzt hat man mal die Taktraten für die C-Cores dazugeschrieben.
Ich frag mich, wie die 10 verfügbaren PCIe 4.0 Lanes beim 8500G auf AM5 Sockel verteilt werden.
4 PCIe Slot, 4 M.2, 2 für 2ten M2 ???
Reichte grad mal um eine 6500XT nachzurüsten, für Spielen ungeeignet.
BavarianRealist
2024-01-10, 16:58:51
Ich frag mich, wie die 10 verfügbaren PCIe 4.0 Lanes beim 8500G auf AM5 Sockel verteilt werden.
4 PCIe Slot, 4 M.2, 2 für 2ten M2 ???
Reichte grad mal um eine 6500XT nachzurüsten, für Spielen ungeeignet.
8500G und 8300G werden so billig verkauft, dass diese vermutlich absichltlich in den Features begrenzt sind. Dafür gibt es dann 8600G und 8700G, die entsprechend mehr kosten.
mczak
2024-01-10, 18:39:29
8500G und 8300G werden so billig verkauft, dass diese vermutlich absichltlich in den Features begrenzt sind. Dafür gibt es dann 8600G und 8700G, die entsprechend mehr kosten.
Das ist aber keine künstliche Beschränkung, sondern eben phoenix 2 (klar da ist auch Absicht dahinter dass der möglichst günstig ist in der Fertigung und somit nicht mehr pcie lanes hat).
Ich gehe aber auch wie der OP davon aus dass da die pcie Aufteilung 4+4+2 ist - so bleiben alle pcie (und m.2) slots prinizipiell funktionsfähig, was sonst nur Aerger geben würde. Wer in ein solches System eine Radeon 7900 XTX oder sowas steckt ist selbst schuld, da diese CPUs aber für solche Dinge eh nicht geeignet sind ist das nicht so tragisch.
Wenn man da mit einer Mittelklasse-Grafikkarte wie z.B. einer Radeon 7600 aufrüstet hält sich wohl der Geschwindigkeitsverlust noch in Grenzen, zumindest wenn die Grafikkarte pcie 4.0 beherrscht.
Auch der Große ist 8+4+4. Keine 16 PEG-Lanes mit Hawk Point/Phoenix. Phoenix2 ist eben wie gesagt 4+4+2, also 4 für PEG.
dildo4u
2024-01-22, 10:42:56
Taktraten von Zen4C im Desktop 3.7GHz Peak.
https://www.amd.com/en/product/14086
Dino-Fossil
2024-01-22, 11:52:57
Ich frag mich, wie die 10 verfügbaren PCIe 4.0 Lanes beim 8500G auf AM5 Sockel verteilt werden.
4 PCIe Slot, 4 M.2, 2 für 2ten M2 ???
Reichte grad mal um eine 6500XT nachzurüsten, für Spielen ungeeignet.
Wie schon geschrieben, dürfte das in der Praxis keine echten Auswirkungen haben. Wenn man einen Spielerechner mit dGPU möchte, holt man sich eigentlich keine -G APUs. Sinnvoll sind die mMn doch nur, wenn ich mich in der gewünschten Anwendung auf die iGPU beschränken möchte/kann.
Spätestens seitdem AMD auch eine kleine iGPU in den regulären Desktop-Zen verbaut, ist auch das Argument mit Grafikausgabe für den Notfall hinfällig.
basix
2024-01-22, 11:57:30
Eine dGPU nachrüsten zu können ist aber schon nicht schlecht. Das ist bei 8500G/8300G halt etwas limitert. Eine NVMe m.2 klappt ja auch über den Chipsatz. Dann bleiben 8x Lanes für den PCIe 4.0 Slot übrig. Passt schon für sowas wie eine RX 7600 oder RTX 4060 (Ti).
Zossel
2024-01-22, 12:49:43
Eine dGPU nachrüsten zu können ist aber schon nicht schlecht. Das ist bei 8500G/8300G halt etwas limitert. Eine NVMe m.2 klappt ja auch über den Chipsatz. Dann bleiben 8x Lanes für den PCIe 4.0 Slot übrig. Passt schon für sowas wie eine RX 7600 oder RTX 4060 (Ti).
Der Gewinn von PCIe4*8 auf PCIe4 *16 bei GPUs in Spielen ist doch nicht besonders hoch? Hat jemand aktuelle Zahlen?
basix
2024-01-22, 12:56:13
Für Midrange GPUs sowieso nicht. Bei Highend kommt es ein wenig aufs Spiel an. Selbst bei einer 4090 macht es nicht viel aus: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html
Aber:
GPUs wie eine RX7600 haben nur 8GByte, wo PCIe Bandbreite mehr Einfluss hat als bei 24GB der 4090. Ich würde mir bei einer Paarung mit einer 4090 eher Sorgen um CPU Limits machen, als dass PCIe ein riesen Problem wäre.
seaFs
2024-01-22, 12:56:27
Der Gewinn von PCIe4*8 auf PCIe4 *16 bei GPUs in Spielen ist doch nicht besonders hoch? Hat jemand aktuelle Zahlen?
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/6.html
RTX2080Ti
PCIe 3.0 x16. 100%
PCIe 3.0 x8. 97%
PCIe 3.0 x4. 91%
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pci-express-scaling/27.html
RTX3080
4.0 x16 100%
3.0 x16 99%
2.0 x16. 96%
1.1 x16 87%
1.1 x8 74%
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html
RTX4090
Es wiederholt sich alles...
Gipsel
2024-01-22, 15:53:18
Taktraten von Zen4C im Desktop 3.7GHz Peak.Ja, also je nach dem wie hart man die dort pushed, kann man wohl grob davon ausgehen, daß Zen4c so etwa 2/3 des Peak-Taktes der Zen4 erreichen (vielleicht 70%). Bei 3,7GHz werden die ineffizienter als Zen4 sein, in Situationen mit relativ niedrigem Powerlimit (also z.B. in 15-25W Notebook-CPUs oder eben den 128Kern-Bergamos) dann aber effizienter.
Eventuell könnte man die Zen4c auch noch ein wenig höher pushen, denn im 8540U (2x Zen4 + 4x Zen4c) gehen die auch bis 3,7GHz. Lediglich der Baseclock der Zen4c liegt im 8540U bei nur 3,0GHz statt 3,2GHz beim 8500G im Desktop (https://www.amd.com/en/product/13976). Aber das lohnt sich wohl nicht wirklich.
Ein anderer Datenpunkt wäre 7540u/7545U, gleiche TDP, einmal 6x Zen4 einmal 2x Zen4 + 4x Zen4c. Der 7540U hat eine Baseclock von 3,2GHz, beim 7545U liegen die Baseclock der Zen4c bei 3,0GHz, durch die gesparte Leistungsaufnahme können die beiden Zen4-Kerne allerdings eine Baseclock von 3,7GHz halten. Daraus ergibt sich, daß der Crossover in der Effizienz der Zen4 und Zen4c irgendwo zwischen 3,0 und 3,7GHz liegen sollte (wenn AMD die Auslegung sinnvoll gewählt hat, wovon man ausgehen sollte). Etwa 3,2GHz wäre vermutlich ein guter Tipp.
amdfanuwe
2024-01-22, 16:39:48
Daten zu 8000G von AMD online gestellt:
https://www.amd.com/en/product/14086
https://www.amd.com/en/product/14091
86645
Jetzt hat man mal die Taktraten für die C-Cores dazugeschrieben.
Taktraten von Zen4C im Desktop 3.7GHz Peak.
https://www.amd.com/en/product/14086
Gabs schon vor 2 Wochen. siehe oben.
Eine dGPU nachrüsten zu können ist aber schon nicht schlecht. Das ist bei 8500G/8300G halt etwas limitert. Eine NVMe m.2 klappt ja auch über den Chipsatz. Dann bleiben 8x Lanes für den PCIe 4.0 Slot übrig. Passt schon für sowas wie eine RX 7600 oder RTX 4060 (Ti).
Die werden nicht extra Boards für den 8500G auflegen.
Wird bei Standardboards also so aussehen:
4xPCIe 4.0 für Slot, 2x NVMe m.2, 4x General Purpose, 4x Chipsatz.
Somit kompatibel zu bestehenden Boards, nur geringere Bandbreite auf Slot und erstem m.2.
basix
2024-01-22, 17:13:08
Ja, also je nach dem wie hart man die dort pushed, kann man wohl grob davon ausgehen, daß Zen4c so etwa 2/3 des Peak-Taktes der Zen4 erreichen (vielleicht 70%). Bei 3,7GHz werden die ineffizienter als Zen4 sein, in Situationen mit relativ niedrigem Powerlimit (also z.B. in 15-25W Notebook-CPUs oder eben den 128Kern-Bergamos) dann aber effizienter.
Eventuell könnte man die Zen4c auch noch ein wenig höher pushen, denn im 8540U (2x Zen4 + 4x Zen4c) gehen die auch bis 3,7GHz. Lediglich der Baseclock der Zen4c liegt im 8540U bei nur 3,0GHz statt 3,2GHz beim 8500G im Desktop (https://www.amd.com/en/product/13976). Aber das lohnt sich wohl nicht wirklich.
Ein anderer Datenpunkt wäre 7540u/7545U, gleiche TDP, einmal 6x Zen4 einmal 2x Zen4 + 4x Zen4c. Der 7540U hat eine Baseclock von 3,2GHz, beim 7545U liegen die Baseclock der Zen4c bei 3,0GHz, durch die gesparte Leistungsaufnahme können die beiden Zen4-Kerne allerdings eine Baseclock von 3,7GHz halten. Daraus ergibt sich, daß der Crossover in der Effizienz der Zen4 und Zen4c irgendwo zwischen 3,0 und 3,7GHz liegen sollte (wenn AMD die Auslegung sinnvoll gewählt hat, wovon man ausgehen sollte). Etwa 3,2GHz wäre vermutlich ein guter Tipp.
Weiterer Datenpunkt: Bergamo. Taktet max. 3.1 GHz was deiner These entsprechen könnte.
mczak
2024-01-22, 21:09:29
Daraus ergibt sich, daß der Crossover in der Effizienz der Zen4 und Zen4c irgendwo zwischen 3,0 und 3,7GHz liegen sollte (wenn AMD die Auslegung sinnvoll gewählt hat, wovon man ausgehen sollte). Etwa 3,2GHz wäre vermutlich ein guter Tipp.
Ich hätte eher noch tiefer geschätzt - es gab ja da mal die Spannungs/Frequenzdiagramme: https://www.hardwaretimes.com/amds-phoenix-2-hybrid-big-little-cpu-tested/. Ein Zen4c säuft bei gleicher Frequenz und gleicher Spannung natürlich weniger als ein Zen4, aber bei 3 Ghz sind's auch schon etwa ~0.92V gegenüber ~0.77V. Da könnte ein Zen4c vielleicht noch etwa gleich effizient sein, aber der Spannungsunterschied nimmt danach doch deutlich zu, bei 3.5Ghz sind es dann schon etwa ~1.05V gegen ~0.82V, kann mir kaum vorstellen dass da Zen4c bei der Effizienz nicht schon deutlich zurückliegt.
Gipsel
2024-01-23, 14:21:07
Ich hätte eher noch tiefer geschätzt - es gab ja da mal die Spannungs/Frequenzdiagramme: https://www.hardwaretimes.com/amds-phoenix-2-hybrid-big-little-cpu-tested/. Ein Zen4c säuft bei gleicher Frequenz und gleicher Spannung natürlich weniger als ein Zen4, aber bei 3 Ghz sind's auch schon etwa ~0.92V gegenüber ~0.77V. Da könnte ein Zen4c vielleicht noch etwa gleich effizient sein, aber der Spannungsunterschied nimmt danach doch deutlich zu, bei 3.5Ghz sind es dann schon etwa ~1.05V gegen ~0.82V, kann mir kaum vorstellen dass da Zen4c bei der Effizienz nicht schon deutlich zurückliegt.Traditionell skaliert man ja die Geschwindigkeit über die Schwellspannungen der Transistoren. Je nach dem welche Zellen mit welchen Schwellspannungen genutzt werden, muß man tatsächlich zu deutlich höheren Versorgungsspannungen gehen, um (bei gleichem Takt) einen vergleichbaren Verbrauch zu erzielen (bzw. erreicht das Design mit LT-Zellen einen höheren Takt bei gleicher Spannung aber deutlich höherem Verbrauch). Die LT oder ULT-Zellen saufen im Vergleich wie die Hölle, um etwas schneller zu sein (dafür kommt man auch mit aller Spannung der Welt mit HT-Zellen nicht auf einen hohen Takt). Der Verbrauch geht zu niedrigen Schwellspannungen irgendwann quasi exponentiell hoch, weswegen man natürlich versucht, die Anzahl dieser Zellen zu minimieren.
Bei den FinFets kann man ja "recht einfach" die Anzahl der Fins in einer Zelle skalieren (bzw. sind entsprechende Zellen im Angebot). Nimmt man jetzt z.B. nur 2 Fins statt 3 pro Zelle (das ist der Unterschied zwischen den High Density und High Performance Standard-Zellen von TSMCs N5), verringert das die Kapazität (und damit den dynamischen Verbrauch bei gleicher Spannung und Takt [sollte der noch erreichbar sein]) über den Daumen auf ~2/3. Man kann also als Faustregel die Spannung um 22% erhöhen, damit man beim gleichen Verbrauch ankommt.
Bei 3GHz: 0,92V / 0,77V = 1,19 ; bei 3.5GHz 1,05V / 0,82V = 1,28 Also irgendwo dazwischen (3,1 - 3,2GHz?), wäre der Faktor 1,22 erreicht. ;)
Das andere Layout (mit kürzeren Distanzen) haben wir auch noch. Kurz, ich halte das nicht für unmöglich (auch wenn das natürlich super stark vereinfacht ist).
Und offenbar verbrauchen 4x 3.0GHz Zen4c + 2 x 3,7GHz Zen4 in etwa so viel wie 6x 3,2GHz Zen4 (zumindest nicht wesentlich mehr, das sind die Baseclocks bei gleicher TDP). Unter 25W 20W ist die Kombi mit 4x Zen4c bei Multicore-Last laut AMD ja schneller als 6 Zen4-Kerne. Der Crossover liegt also in etwa da. Und ich meine doch, daß bei 20W oder so bei reiner CPU-Last im Normalfall noch 3GHz anliegen. Hat das mal einer getestet? Aber ich glaube, die braucht man schon, um mit einem 6-Kerner auf die ~9000 Cinebench R23-Punkte bei 20W zu kommen.
dildo4u
2024-01-23, 17:23:38
Leider keine 8500 Werte die anderen sehen OK aus.
https://videocardz.com/newz/amd-ryzen-8700g-8600g-apus-tests-show-30-single-core-performance-increase-over-5000g-series
mczak
2024-01-23, 18:17:51
...
Bei 3GHz: 0,92V / 0,77V = 1,19 ; bei 3.5GHz 1,05V / 0,82V = 1,28 Also irgendwo dazwischen (3,1 - 3,2GHz?), wäre der Faktor 1,22 erreicht. ;)
Also so genau hatte ich das nicht im Kopf wieviel die High-Perf Transistoren da mehr saufen. In dem Fall werden die 3.2Ghz wohl schon etwa richtig sein :-).
Zossel
2024-01-24, 07:45:58
Weil SMT wegen Intel gerade wieder in der Diskussion ist habe ich gestern noch mal einen Test SMT on/off gemacht und um zu schauen wie sich der aktuelle Zen4 dabei so macht.
Linux Kernel (6.1.74) auf aktuellen Mint kompilieren (make defconfig; make -j 16 bzw. make -j 8),
Ryzen 7 7700 8-Core, keine Übertaktung, SMT im Bios hart abgeschaltet.
Jeweils 4 Durchläufe, einen Lauf vorher um den Platten-Cache zu füllen.
Die Varianz ist ~1/2 Sekunde, keine Ausreißer.
Mit SMT ist der Takt auf allen Kernen knapp über 4,8 GHz
Ohne SMT ist der Takt auf allen Kernen bei um die 5 GHz
Die gemittelten Laufzeiten im Verhältnis zueinander:
$ python3 -c "print (93.6/74.7)"
1.253012048192771
$ python3 -c "print (74.7/93.6)"
0.7980769230769231
$
Milchkanne
2024-01-24, 19:30:31
Linux Kernel (6.1.74) auf aktuellen Mint kompilieren (make defconfig; make -j 16 bzw. make -j 8),$
Früher (TM) wurde mal gesagt, immer 50% mehr Threads als Kerne beim Kompilieren nehmen. Es ist ja auch viel IO beim kompilieren dabei. Vielleicht kommt das aber auch noch aus HDD Zeiten, da war das sicherlich wichtiger. Dennoch: Falls dich das auch interessiert, mach nochmal nen Test mit -j12 ohne SMT. Mit SMT sollte das eher weniger ausmachen, aber natürlich wäre auch da -j24 interessant.
*edit* Ich hab jetzt mal nen test gemacht. "echo off > /sys/devices/system/cpu/smt/control" -j8 ist 1-2% schneller als -j12 beim kernel bauen...
][immy
2024-01-24, 20:49:56
Nun unrecht hat Intel ja nicht ganz, Kerne haben die ja inzwischen mehr als genug und wenn die Recheneinheiten ein wenig idlen können (weil nicht durchgehend alles ausgelastet ist), lassen sich diese besser kühlen und können dann etwas höher takten. Die single Thread performance steigt dadurch natürlich.
Zudem ist besonders bei Spielen häufig ein thread performance kritisch während alles andere eher nebenaufgaben sind die nicht so zeitkritisch sind. Das würde sich aber schon lösen lassen indem die beiden besten Kerne HT deaktivieren. Klingt allerdings nach einem Alptraum für den scheduler.
Milchkanne
2024-01-24, 21:37:56
Ich hab jetzt den ganzen Benchmark Parkour durch:
SMT Off:
8 Threads: 3:11
12 Threads: 3:15
SMT On:
8 Threads: 3:15
12 Threads: 2:49
16 Threads: 2:34
24 Threads: 2:36
Also off/8 vs on/16 sind auch bei mir ~25% mehr, alles andere macht keinen Sinn. (Hinweis: Ich hab SMT nicht wirklich aus gemacht, nur dem Kernel gesagt, dass er die anderen nicht mehr Schedulen soll.)
Zossel
2024-01-25, 08:05:24
[immy;13477709']Nun unrecht hat Intel ja nicht ganz, Kerne haben die ja inzwischen mehr als genug und wenn die Recheneinheiten ein wenig idlen können (weil nicht durchgehend alles ausgelastet ist), lassen sich diese besser kühlen und können dann etwas höher takten. Die single Thread performance steigt dadurch natürlich.
Zudem ist besonders bei Spielen häufig ein thread performance kritisch während alles andere eher nebenaufgaben sind die nicht so zeitkritisch sind. Das würde sich aber schon lösen lassen indem die beiden besten Kerne HT deaktivieren. Klingt allerdings nach einem Alptraum für den scheduler.
Offensichtlich kommt durch SMT aber mehr Bumms raus als durch den möglichen höheren Takt ohne SMT.
Zossel
2024-01-25, 14:33:28
*edit* Ich hab jetzt mal nen test gemacht. "echo off > /sys/devices/system/cpu/smt/control" -j8 ist 1-2% schneller als -j12 beim kernel bauen...
Ich würde fast meinen Arsch drauf verwetten das es so einen Switch unter Windows nicht gibt, allerdings kannte ich bisher nur den Weg über /sys/devices/system/cpu/cp*/online
][immy
2024-01-25, 14:56:28
Offensichtlich kommt durch SMT aber mehr Bumms raus als durch den möglichen höheren Takt ohne SMT.
Kommt halt immer drauf an. Beim code kompilieren gewinnt eigentlich immer die Kernanzahl. Halt alle Aufgaben die sich herrlich parallelisieren lassen. Aber bei allem was sich nicht ohne ordentlichen Zugewinn gut parallelisieren lässt (spiele zum Beispiel) trifft es halt nicht zu. Aber da würde der Kompromiss von ein paar Einzelkernen schon alles rausholen was geht.
Gipsel
2024-01-25, 15:35:01
[immy;13478167']Kommt halt immer drauf an. Beim code kompilieren gewinnt eigentlich immer die Kernanzahl. Halt alle Aufgaben die sich herrlich parallelisieren lassen. Aber bei allem was sich nicht ohne ordentlichen Zugewinn gut parallelisieren lässt (spiele zum Beispiel) trifft es halt nicht zu. Aber da würde der Kompromiss von ein paar Einzelkernen schon alles rausholen was geht.Wenn Du eine Aufgabe hast, die nicht mehr als einen Thread auf jeden Kern wirft, dann verlierst Du aber durch SMT auch kaum etwas. Auch ein Kern mit aktiviertem SMT aber nur 1 aktiven Thread (der zweite schläft, weil nichts zu tun ist) taktet höher und bietet somit eine etwas höhere single-Thread-Leistung. Die Einbußen liegen vielleicht bei 1-2%, wenn ein uncleverer Scheduler mal ab und zu doch mal kurz einen Hintergrundtask damit drauf packt (oft sind das eher nur 0,x%). Tut der zweite Thread aber was Sinnvolles, hat man bis auf (in normalem Code) extrem seltene Ausnahmen immer mehr Durchsatz (oder der Scheduler macht Blödsinn). Der Verzicht auf SMT vereinfacht das Design und verringert Validierungsaufwand. Ein Performanceplus ergibt sich daraus jedoch erstmal nicht (auch single threaded quasi nicht). Ich weiß nicht, wo dieser (Irr-)Glaube herkommt.
w0mbat
2024-01-25, 17:15:56
SMT ist vor allem in der Cloud ein Problem.
Zossel
2024-01-25, 18:19:26
SMT ist vor allem in der Cloud ein Problem.
Mit Big-Little gewinnst du dort noch weniger Blumentöpfe.
Gipsel
2024-01-26, 01:31:50
SMT ist vor allem in der Cloud ein Problem.Vielleicht ein Sicherheitsproblem. Von der Performance würde man das schon gerne mitnehmen.
dildo4u
2024-01-29, 12:41:13
Erste Zen4 Refresh Geräte.
Asus G14 2.5k
https://geizhals.de/asus-rog-zephyrus-g14-oled-ga403ui-qs024w-eclipse-gray-90nr0hx1-m002j0-a3112593.html
Razor Blade 14 3k
https://geizhals.de/razer-blade-14-2023-qhd-240hz-schwarz-rz09-05081gd3-r3g1-a3109584.html?v=l&hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Vorteil eines Refreshes kein ewiges warten das Blade ist lieferbar.
MSABK
2024-01-29, 13:30:48
Das sind mal gesalzene Preise. Fände aber 14,5 Zoll irgendwie besser.
basix
2024-02-26, 11:12:33
ISSCC Folien zu Zen 4c:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/63013-isscc-2024-warum-amds-zen-4c-kerne-sogar-schneller-als-der-gro%C3%9Fe-bruder-sein-kann.html
Interessante Punkte zu den Designanpassungen dabei.
- Angepasste SRAM und Standard-Zellen
- Synthese & Layout der Logikblöcke übernimmt einige Methoden aus dem GPU-Sektor
Gipsel
2024-02-26, 11:34:37
Ja, scheint doch kein einfacher Switch zu HD-Standardzellen gewesen zu sein. Über die anderen SRAM-Zellen im L1 (und nur da) hatten Chips 'n Cheese schon mal erwähnt.
Und meine grobe über den Daumen-Abschätzung von 33% niedrigeren Kapazitäten sind laut den Folien dann jetzt offiziell -25%. Aber Leakage wurde glatt halbiert.
basix
2024-02-26, 12:30:48
Interessant ist auch, dass AMD nur -20% Taktregression angibt. Somit könnten eigentlich 4...4.5 GHz für Zen 4c drin liegen. Leider ist ihre Grafik normiert und ohne Frequenzangaben. Könnte also sein, dass Zen 4c ab eine gewissen Punkt einfach nicht mehr skaliert und man bei den grossen Cores mit viel Spannung noch die letzten paar hundert MHz rauskitzeln kann.
Zossel
2024-02-26, 12:58:16
Interessant ist auch, dass AMD nur -20% Taktregression angibt. Somit könnten eigentlich 4...4.5 GHz für Zen 4c drin liegen. Leider ist ihre Grafik normiert und ohne Frequenzangaben. Könnte also sein, dass Zen 4c ab eine gewissen Punkt einfach nicht mehr skaliert und man bei den grossen Cores mit viel Spannung noch die letzten paar hundert MHz rauskitzeln kann.
Also wie immer.
basix
2024-02-26, 13:12:31
Logisch. Es würde mich aber dennoch interessieren, wo die Skalierung dort aufhört ;) Ist es 4.5 GHz oder 5.5 GHz. Daraus würde sich die Clock-Ceiling von Zen 4c besser abschätzen lassen. Gibt afaik noch keine Tests dazu.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.