Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)
G3cko
2023-03-17, 11:31:34
Elektrisch ist der Zweite x4, lediglich mechanisch ist der Zweite x16.
Genau genommen gibt es keine Boards mit 2x x16 elektrisch. Dabei wären die in Zeiten von m.2 only gut zu gebrauchen.
Ich habe hier eine m.2 Steckkarte für 4 SSDs aber es gibt praktisch keine Boards. Nicht Mal Asus hat eines für das eigene Produkt absurd. Auf x99 habe ich 40 lanes und nun... Gaming Bling bling für 1000€ und weniger lanes.
amdfanuwe
2023-03-17, 11:58:10
Cache im I/O Die hat allerdings den Nachteil, dass es Latenz kostet.
Was meinst du denn, wieviel Latenz man gewinnt bei einem Hit im IF$ gegenüber einem RAM Zugriff?
Gerade wenn durch einen Threadwechsel von einem auf das andere CCD der Cache neu geladen werden muss oder mehrere Threads aus verschiedenen CCX auf die gleichen Daten zugreifen.
V-Cache wird dadurch ja auch nicht ausgeschlossen.
Complicated
2023-03-17, 12:13:05
Der IO-Die hat zudem den Vorteil, in Verbindung mit IF$, das SI um 128 bit kleiner zu machen auf dem GCD. Das wird schnell wieder vergessen.
Zossel
2023-03-17, 14:23:52
Der IO-Die hat zudem den Vorteil, in Verbindung mit IF$, das SI um 128 bit kleiner zu machen auf dem GCD. Das wird schnell wieder vergessen.
Bei Desktop-CPUs wäre das den ein Interface mit 0 Bit Breite :-)
amdfanuwe
2023-03-17, 14:48:14
Der IO-Die hat zudem den Vorteil, in Verbindung mit IF$, das SI um 128 bit kleiner zu machen auf dem GCD. Das wird schnell wieder vergessen.
Warum so kompliziert? Musste ich dreimal lesen.
Beim N31 erreichte AMD durch den IF$ eine Verbesserung der Bandbreite, wodurch das SI kleiner ausfallen konnte.
Das Problem besteht ja darin, dass der DRAM nicht schneller wird.
Dem behalf man sich durch breiteren RAM Bus( 64 Bit bis DDR4, 2X32Bit bei DDR5), mehr Interfaces, Burst Zugriff (bei DDR3 und 4 8Bit Burst, bei DDR5 16Bit Burst, schnellerem Interface mit entsprechend wachsenden Latenzen.
Mit IF$ beschleunigt AMD das SI nun weiter. Im Falle eines Cache Hits wesentlich, ansonsten wie gehabt.
Davon werden nicht alle Applikationen gleichermaßen profitieren ( wie man beim 3D V-Cache schön sieht ), dürfte sich aber im Durchschnitt positiv bemerkbar machen ( sonst können sie es direkt sein lassen ).
IF$ ist nur ein weiterer Baustein um die verfügbare Bandbreite für die Logik zu erhöhen.
Indem durch den IF$ mehr Bandbreite für die Logik zur Verfügung steht, kann man bei den bisherigen Caches Optimierungen vornehmen.
Z.B. den L3 Cache verkleinern ohne Nachteile gegenüber bestehenden Lösungen ( für Games kann man ja wieder mit 3D-Cache aufstocken ).
Ich denke daher, ZEN4C wird in Multithreaded Anwendungen trotz kleinerem L3 Cache nicht langsamer sein als Genoa wenn IF$ im I/O verbaut ist.
In Bergamo dürfte das der Fall sein. Da dürfte Bergamo in Multithreaded Anwendungen gegenüber Genoa noch mal eine Schippe drauflegen, mit dem Nebeneffekt, dass weniger Chiplets verbaut werden müssen.
Bei RDNA2 und RDNA3 hat AMD schon mit IF$ experimentiert um die sinnvollste Größe für GPU zu ermitteln. Bei CPU Last sieht das wieder etwas anders aus.
Letztendlich ist alles nur ein Kompromiss um bei gegebener TDP mit minimalen Kosten ein maximum an Leistung auf den Tisch zu bringen.
Complicated
2023-03-17, 15:17:29
Bei Desktop-CPUs wäre das den ein Interface mit 0 Bit Breite :-)Wieviele GCDs hat eine Desktop-CPU? ;)
Warum so kompliziert? Musste ich dreimal lesen.
Beim N31 erreichte AMD durch den IF$ eine Verbesserung der Bandbreite, wodurch das SI kleiner ausfallen konnte.
Sorry, kam mir eindeutig vor :)
robbitop
2023-03-17, 16:14:03
Was meinst du denn, wieviel Latenz man gewinnt bei einem Hit im IF$ gegenüber einem RAM Zugriff?
Gerade wenn durch einen Threadwechsel von einem auf das andere CCD der Cache neu geladen werden muss oder mehrere Threads aus verschiedenen CCX auf die gleichen Daten zugreifen.
V-Cache wird dadurch ja auch nicht ausgeschlossen.
Naja wenn ich mir die jetzigen Latenzen über die IF anschaue, wird die Latenz eines Caches im IO Die bei zwischen 40-60 ns liegen. Also Faktor 4-6 des jetzigen L3 Caches.
RAM Access latency liegt je nach RAM nicht wesentlich höher. Insofern spart man damit höchstens Energie und man kann potenziell mehr Bandbreite liefern aber es bringt kaum Performance.
Damit das nicht so lahm wäre, müsste das IOD besser an das CCD angebunden sein (eine fabric die schneller ist als die bestehende IF, ggf. der IOD räumlich näher dran, ggf. modernerer elektrischer Interconnect siehe TSMC INFO).
amdfanuwe
2023-03-17, 16:44:21
Damit das nicht so lahm wäre, müsste das IOD besser an das CCD angebunden sein (eine fabric die schneller ist als die bestehende IF, ggf. der IOD räumlich näher dran, ggf. modernerer elektrischer Interconnect siehe TSMC INFO).
Da hat man doch schon was bei RDNA3 ausprobiert.
Warum sollte das nicht auch in den Desktop kommen?
Die 2 IF Links im CCD sind sicherlich auch nicht aus Spaß implementiert.
Da könnte sich durchaus etwas tun.
Mit den Latenzen bin ich nicht so sehr vertraut.
Bei einer Anfrage an den IF$ stände bei einem Hit die komplette Cacheline nach wenigen Takten zur Verfügung.
Bei einem RAM Zugriff hab ich doch erst mal RAS, etwas warten, CAS, etwas warten und dann 16 Takte bei DDR5 bis die Daten im I/O ankommen.
Wird zwar durch vorausschauenden Zugriff, Pipelines etc. kaschiert, das ist beim IF$ dann aber auch so.
Der große Vorteil beim IF$ dürfte auch in seiner Globalität liegen.
Fordert ein Thread Daten an, die in einem anderem CCX liegen, werden diese zunächst in das RAM geschrieben und dann wieder aus dem RAM gelesen.
IF$ dürfte das schneller handhaben.
In erster Linie dürfte das auch eine Technik für Server sein mit 12 (ZEN4) oder 16(ZEN4c) CCX.
Wie sich Desktop weiterentwickelt wird man sehen.
Wenn für Gaming eh 8 Cores mit fettem Cache ausreichen könnte man das auch über eine single Chip APU mit 32 GByte GDDR on Package eventuell effizienter schneller und billiger hinbekommen.
Zossel
2023-03-17, 16:46:01
Naja wenn ich mir die jetzigen Latenzen über die IF anschaue, wird die Latenz eines Caches im IO Die bei zwischen 40-60 ns liegen. Also Faktor 4-6 des jetzigen L3 Caches.
RAM Access latency liegt je nach RAM nicht wesentlich höher. Insofern spart man damit höchstens Energie und man kann potenziell mehr Bandbreite liefern aber es bringt kaum Performance.
Damit das nicht so lahm wäre, müsste das IOD besser an das CCD angebunden sein (eine fabric die schneller ist als die bestehende IF, ggf. der IOD räumlich näher dran, ggf. modernerer elektrischer Interconnect siehe TSMC INFO).
Denkbar wäre ein IO-Die wo die CPU-Dies oben drauf kommen wie jetzt die Cache-Dies auf das CPU-Die.
Bleibt allerdings die Frage ob man den Strom für die CPU-Dies vernünftig dort hinbekommt und ob die Verwaltung des gemeinsamen Caches das zu stark verlangsamt.
Complicated
2023-03-17, 16:52:11
Ich glaube der IF$ wird von AMD im ersten Step dafür genutzt werde bei APUs die Bandbreite zum DDR5 zu boosten. Da das Speicherinterface gegeben ist und eine Reduzierung wie bei dGPUs (N31) nicht notwendig ist, könnte das den iGPUs einen deutlichen Boost geben. Gemeinsamer Adressraum mit CPU wäre ein Zusatzeffekt. Das würde zunächst auch ganz ohne onPackage GDDR Vorteile bringen, wobei mobile vielleicht schon diesen Schritt gehen könnte.
amdfanuwe
2023-03-17, 17:22:23
Denkbar wäre ein IO-Die wo die CPU-Dies oben drauf kommen wie jetzt die Cache-Dies auf das CPU-Die.
Bleibt allerdings die Frage ob man den Strom für die CPU-Dies vernünftig dort hinbekommt und ob die Verwaltung des gemeinsamen Caches das zu stark verlangsamt.
Ich schätze, das wird zu teuer. TSVs im I/O, Chips abschleifen.
Mit Infinity FanOut Links hat AMD etwas günstigeres im Portfolio was günstiger sein dürfte und für die nötige Bandbreite sorgt.
Deshalb denke ich ja, dass bei MI300 ein INFO-POP Package verwendet wird und kein Copper on Copper.
Die Verwaltung des IF$ ist kein Problem, da jeder IF$ nur für sein eigenes SI verantwortlich ist.
Für die Logik sieht ein IF$ wie ein normales SI aus, nur dass die Daten bei einem Hit schneller geliefert werden.
basix
2023-03-17, 23:28:36
Zusätzlicher Cache im/auf/unter dem IOD sehe ich nicht wirklich als sinnvoll an, wenn die CCDs nicht gleich oben drauf gestacked werden (Latenz). Und letzteres sieht für mich aus Kostensicht wie auch Skalierbarkeit als nicht so vorteilhaft aus. Bei einer SKU wie MI300 ist das kein Problem, da es eh nur MI300 und dessen Salvage geben wird. Bei Zen muss das von <8C bis 96C+ EPYC skalieren. Passt nicht. Mehrere CCDs zu grösseren "unified" Clustern zu verbinden hätte die viel grössere Hebelwirkung und wäre zudem sehr wahrscheinlich ökonomischer. Alternative: Cache und CCD-IO unten, Cores obendrauf, IOD ähnlich wie heute. Mittels 2-3 Cache-Die Varianten könnte man so auch die CCDs skalieren. Technisch "optimal, mMn aber (zu) teuer.
CCDs direkt verbinden: Entlang der langen Seite verbinden. Dort liegen die L3-Caches nahe zusammen. Evtl. kann man einfach nur die IFOP-Links für das aufbohren, womit CCD-Die-Size nichtmal ansteigen würde. Ist dann mehr die Frage nach der Wahl des Substrats. Sowas wie bei RDNA3?
IF$ für die iGPU ist was anderes. Den könnte man ins IOD integrieren. Dort würden 16MByte aber wohl genügen.
latiose88
2023-03-18, 00:19:46
IF ist doch Infinty Cache oder nicht? Den hat AMD auf CPU seite doch noch garnicht wirklich angerüht gehabt oder?
Achja wenn es eine sehr niedige Missrate von L1 zu L2 Cache schon gibt wie 0,10 oder sowas müsste es doch bei gewissen höheren Einstellung die Missrate ja ansteigen oder nicht?
Das zieht sich doch auch von L2 zu L3 dann hoch.Wenn die Missrate so niedrig ist,dann müsste ja der Effekt des Rams auch geringer ausfallen.Und ich habe auch von meiner Anwendung den Vergleich das zwischen DDR5 5200 auf DDR5 6000 keine Wirkung gezeigt hatte.Also in dem Falle müsste ja auch die Optimierung zu Zen4c auch hier keine Probleme damit haben.Wird da etwa die Cache Menge veringert?
Und bei Zen 5 wird diese wieder vergrößert.Allerdings wenn die Missrate so niedrig ist,hilft auch eine Vergrößerung des Caches auch nix.Es gibt bestimmt viele Anwendung die dank Zen 4 ja bereits eine sehr niedrige Missrate haben.Wobei ich diese ja schon bereits bei Zen 3 so habe.
Scheinbar steigt die Leistung auch dann ,selbst wenn die Missrate im Cache schon niedrieg ist.
Es profitierte auf einmal mehr die Anwendung von höheren CPU takt obwohl es bei Zen 3 nicht so der fall ist.
Anscheinend kann man doch an den Eigenschaften der CPU etwas ändern,so das es sich die CPU dann auch anders Verhält.
Also wird sich auch Zen4c wohl auch anderst Verhalten als es Zen 4 der fall ja ist.
Und man munkelt ja das mit Zen 5 ja DDR6 schon kommen wird und diese wird also mit 16 Bit gerechnet.Dann wird das ganze ja immer schmaler.Wobei es scheint meiner Anwendung wohl egal zu sein ob es nur 64 Bit oder 2x32 Bit sind.Es bleibt also spannend wie sich das ganze so Entwickeln wird.Aber die Änderung zu 2x32 Bit scheint meiner Anwendung egal zu sein.Scheinbar kommt die Leistung nicht mehr durch den Ram.Ich kann machen was ich will,aber früher gab es wenigstens noch eine siknifikante Verbesserung.
Heute ist doch alles anders geworden.Wobei ich vertrau AMD das am Ende mehr Leistung dabei rüber kommen wird.Will nicht weniger Leistung haben.Ich selbst warte ja auf Zen 5.Wobei mich diese Veränderung von Zen 4c nicht verpassen werde,ich beobachte alles was so passiert genau.
Und ich finde es jedenfalls echt sehr spannend das ganze.
robbitop
2023-03-18, 09:33:21
IF ist die Infinity Fabric von AMD. Das ist der Name für ihren Interconnect, der verschiedene Einheiten ihrer CPUs (und mittlerweile auch GPUs) verbinden.
Infinity Cache (viele schreiben IF$ - das Dollar Zeichen wird im Sprachgebrauch auch mit „cash“ assoziiert was fast so klingt wie „cache“) ist einfach ein Cache, der seit RDNA2 an jeden Memorycontroller als Last Level Cache geschaltet ist.
CrazyIvan
2023-03-18, 10:42:42
Bei der Cache on IOD Diskussion sollte man die Brandbreite nicht außer Acht lassen. IFoP hat heute 64/32 GByte/s auf dem Desktop und max. 128/64 GByte/s bei kleineren EPYC SKUs.
Will man Caches nutzen, dann muss das eher Richtung 1 TByte/s gehen. Alles möglich mit Infinity Fan-out Links, aber kostet halt gut Geld.
Dass das alles ordentlich in die Hose gehen kann sieht man derzeit sehr schön bei SPR.
Ich persönlich hoffe allerdings auch auf sowas in der Art, bin mir aber nicht so sicher, ob das sehr bald (mglw. bereits mit Bergamo) oder erst in ferner Zukunft kommen wird.
Danke für den Hinweis. Ich war ja nie ein Freund dieser Idee. Wie wäre es denn, wenn man ein Zen5-CCD mit einem Connect ausstatten würde, der zwischen GCDs und MCDs bei RDNA3 zu Einsatz kommt, für die inter-CCD-Kommunikation? Damit könnte man die L3$s doch mit hoher Bandbreite miteinander verbinden. Damit könnte auch das 2. CCD vom L3-Stack des 1. CCDs profitieren. Das wichtigste ist ja einfach die Latenz runterzubekommen.
robbitop
2023-03-18, 11:17:01
Info-R sollte reichen. Ist günstiger als mit Silicon Bridges (emib und info lsi) und ist bei N31 immerhin 6x verbaut pro GPU.
Siena scheint Zen4c zu sein:
https://www.computerbase.de/2023-03/amds-kleiner-genoa-aus-siena-wird-amd-epyc-8004/
nur 16MB L3$ und Rev.A1
CrazyIvan
2023-03-18, 12:51:48
Ja, das galt aber bereits seit einiger Zeit als recht sicher.
/edit: Und vor allem: Max. 3,15Ghz.
robbitop
2023-03-18, 14:21:12
Die Frage ist, wie sehr das TDP limitiert ist.
genervt
2023-03-18, 16:59:35
Die Frage ist, wie sehr das TDP limitiert ist.
Kann auch sein, dass AMD sich einige Transistoren spart, die für GHz wichtig sind. Ein maximal flachenoptimiertes Design.
robbitop
2023-03-18, 18:59:46
Schon klar. Aber grundsätzlich takten auch die normalen Zen Kerne bei Epyc weit unter dem was im Desktop möglich ist. Wahrscheinlich weil es so viele Kerne sind und die müssen dann eher in einem möglichst guten Betriebspunkt laufen damit aus der TDP in MT alles herausgeholt werden kann.
Die Frage ist eben wie weit geht Zen 4c wenn ma ihn lässt. Mein Tip wäre zumindest noch über 4 GHz.
basix
2023-03-18, 19:13:09
Würde ich auch sagen. Evtl. etwa Zen 2 Niveau, also max. 4.5...4.7 GHz. Dort wäre der Core dann aber auch nicht mehr wirklich effizient
Epyc Rome taktete auch nur bis max. 3.4 GHz
=Floi=
2023-03-19, 03:34:20
Man sollte den unterschiedlichen workload nicht unterschätzen. Ein großteil der server wird zur lebenszeit auch öfter vollast sehen und auch der code dürfte eine stärkere auslastung ermöglichen.
CrazyIvan
2023-03-19, 04:00:29
Die Frage ist, wie sehr das TDP limitiert ist.
Exakt!
MSABK
2023-03-19, 12:05:25
https://www.notebookcheck.com/AMD-Hybrid-Phoenix-2-Neue-sehr-sparsame-CPU-aufgetaucht.701982.0.html
Hatten wir das schon?
reaperrr
2023-03-19, 13:09:37
https://www.notebookcheck.com/AMD-Hybrid-Phoenix-2-Neue-sehr-sparsame-CPU-aufgetaucht.701982.0.html
Hatten wir das schon?
Ich glaube so konkret noch nicht, aber das Gerücht, dass ein Phoenix-Derivat mit 2x Zen4- und 4x Zen4c-Kernen antreten soll, schwirrt im Internet schon ne Weile rum.
Complicated
2023-03-19, 14:24:10
https://www.tomshardware.com/news/amd-allegedly-testing-hybrid-phoenix-2-apu
AMD Eng Sample processor marked 100-000000931-21_N [Family 25 Model 120 Stepping 0] features 12 logical cores (i.e., six physical cores with simultaneous multithreading) and reports about 1MB of cache, which indicates that the MilkyWay@Home client cannot correctly determine the amount of cache featured by the chip. The listing itself does not prove that we are dealing with AMD's hybrid Phoenix 2 processor with Big.Little-like core configuration, but six physical/12 logical cores featured by an unknown CPU gives us a hint that this may match the rumors.
OgrEGT
2023-03-19, 18:35:29
https://videocardz.com/newz/amd-ryzen-7-7840u-low-power-phoenix-apu-spotted-could-be-faster-than-last-gen-6900hx
R7 7840U
CB-R23 MT 14825pts
Schneller als ein 6900HX...
Die Frage wird sein bei wievel TDP... 15-28W :cool:
Ach so ein HTPC damit passiv...des wärs...
Bin mal echt auch gespannt auf die Phoenix Desktop APUs...
MSABK
2023-03-19, 20:57:52
https://videocardz.com/newz/amd-ryzen-7-7840u-low-power-phoenix-apu-spotted-could-be-faster-than-last-gen-6900hx
R7 7840U
CB-R23 MT 14825pts
Schneller als ein 6900HX...
Die Frage wird sein bei wievel TDP... 15-28W :cool:
Ach so ein HTPC damit passiv...des wärs...
Bin mal echt auch gespannt auf die Phoenix Desktop APUs...
Das werden feine APUs im Desktop. Mit schnellem Ram wird das locker für FullHD langen.
dildo4u
2023-03-21, 09:40:53
Zumindest Dragon Range ist diesmal nicht deutlich später als Intel.
-n2RhTilQ6Q
CrazyIvan
2023-03-21, 12:57:48
Ja, ohne das Video gesehen zu haben: Da schlagen die Nachteile der jetzigen Chiplet Implementierung voll durch.
dildo4u
2023-03-21, 13:00:49
Nachteil ist vermutlich idle Verbrauch diese Monster Systeme werden dort aber selten gute Werte erreichen.
Die werden vermutlich fast immer als Desktop Ersatz gekauft.
CrazyIvan
2023-03-21, 15:27:59
Ja, auf jeden Fall. Und auf keinen Fall sollte auf Basis von Dragon Range auf Phoenix Point geschlossen werden, wie hier und da bereits durchschien.
Nightspider
2023-03-21, 16:49:53
Wenn ich mir das Video ansehe, sieht es so aus als würde Dragon Range näheram Sweet Spot laufen. Da wäre die Frage ob eine X3D Variante dann wirklich noch weniger Strom ziehen würde.
Auf jeden Fall wäre die Performance ein gutes Stück besser, was natürlich dann wieder die Effizienz verbessern würde. AMD könnte einen X3D im Laptop mit max 4800 laufen lassen und würde im Gaming trotzdem vor allen anderen CPUs landen.
basix
2023-03-22, 01:08:50
Ja, ohne das Video gesehen zu haben: Da schlagen die Nachteile der jetzigen Chiplet Implementierung voll durch.
Nach dem BIOS Update zieht der AMD Chip in Games jeweils weniger als Raptor Lake. 45-50W vs. 55-60W. Sehe da den "Chiplet Nachteil" jetzt nicht wirklich. Intel ist im Schnitt leicht schneller aber nicht wirklich der Rede wert. Benches im GPU-Limit wären allerdings noch interessant gewesen im Hinblick auf den Stromverbrauch und die Temperaturen. Ist neben der max. Performance bei Laptops noch deutlich relevanter als auf dem Desktop. Ebenso fehlen Messungen zum Idle Verbrauch.
BlacKi
2023-04-01, 02:17:21
asus a620 boards fangen bei 139€ (120$)an?
für das hier? yikes, dann doch lieber 158€ für das asrock board.
https://cdn.videocardz.com/1/2023/03/1-PRIME-A620M-A-2D_web_videocardz-1536x977.jpg
Denniss
2023-04-01, 02:33:09
hat immerhin einen Kühlkörper auf den Haupt-VRMs, die für den VSOC dürfen dann aber schwitzen. Die VRMs scheinen aber sehr billig/ineffizient aufgebaut mit den vier kleinen chips um den einen großen herum
asus a620 boards fangen bei 139€ (120$)an?
für das hier? yikes, dann doch lieber 158€ für das asrock board.
https://cdn.videocardz.com/1/2023/03/1-PRIME-A620M-A-2D_web_videocardz-1536x977.jpg
Liegt an DDR5. Aber ich würd sagen, dass die Preise noch sinken werden. Die Zeit der 50€ Boards ist aber vorbei.
dildo4u
2023-04-01, 08:18:19
Das ist Asus unter 100€ zum Launch sollte gehen, MSI/AsRock etc.
AM5 Systeme für 400$ sind jetzt möglich.
https://videocardz.com/newz/the-cheapest-amd-7000-system-is-now-close-to-400
Asus Handheld mit Zen4 APU.
https://www.computerbase.de/2023-04/asus-rog-ally-handheld-konkurriert-mit-valves-steam-deck-fuer-rund-700-usd/
rentex
2023-04-04, 14:42:14
https://videocardz.com/newz/msi-leak-shows-amd-ryzen-7-7800x3d-gaining-up-to-9-performance-with-optimizations
So so...
Fusion_Power
2023-04-04, 15:14:59
Asus Handheld mit Zen4 APU.
https://www.computerbase.de/2023-04/asus-rog-ally-handheld-konkurriert-mit-valves-steam-deck-fuer-rund-700-usd/
War tatsächlich kein Aprilscherz, das Ding. :D
drLZxyv79Oo
Speziell entwickelte ZEN 4 APU mit RNDA3 Grafik, huiii, da bin ich aber mal gespannt was das Dingelchen so drauf hat. Allein schon dass man den Handheld offenbar sehr leise kühlen kann, ist für mich schon ein Verkaufsargument. Dass der ROG Ally schneller sein soll als das Steam Deck ein Anderes. Preis wird aber vermutlich um einiges höher sein als beim Valve Handheld.
Nen Laptop mit so einer APU würde ich aber sicher kaufen.
davidzo
2023-04-04, 15:32:56
Bei Valve ist auch wirklich nur das 64GB Modell wirklich günstig.
Die 512Gb Version kostet fast 700€. Dafür gibt es auch Cezanne Notebooks mit ähnlicher gaming-Leistung aber 1TB SSD, größerem FHD Display und doppelt so großem Akku. Rembrandt Notebooks gibts ab 850€, die hardware kann man für den Preis also schonmal übertreffen. Und Asus hat guten Zugriff ins Notebookregal.
Mal sehen ob Asus auf Phoenix full oder little Phoenix setzt.
Das 2x Zen4 + 4x Zen4C Konzept von little phoenix finde ich zwar mega, aber was mir nicht in den Kopf will ist dass die Leaks nur von einer 2CU APU sprechen. Das passt nicht ins Bild für eine premium Ultramobile CPU bei der man eher eine full "GT3" a la 12CU sehen würde. Und für einen Menodcino-Ersatz ist mir das CPU-Konzept zu advanced, da hätten die 4x Zen4C kerne gereicht. Außerdem ist Mendocino gerade erst eingeführt worden und nutzt mit 6nm bereits eine moderne Fertigungslinie.
Ich bin auch gespannt was Asus auf Betriebssystemseite anbietet. Windows 11 ist keine wirkliche Alternative für eine Handheld Konsole. SteamOS hat nicht nur den Vorteil einer optimierten UI sondern auch von exzellentem Controller support über Steam workshop. Möglicherweise bringt Asus das Gerät direkt mit SteamOS vorinstalliert.
robbitop
2023-04-04, 16:06:27
Naja mal sehen wie custom der SoC wirklich ist. Ich tippe auf Phoenix. Zen 4 und RDNA3. Warum sollte es da extra silicon geben? Da hat ASUS für dieses Produkt bei diesem Preispunkt überhaupt nicht die Stückzahlen. MS hatte bei einem ihrer Surface Geräte auch mal von einem custom SoC gesprochen und am Ende war es nur eine Standard APU IIRC.
Ggf. mit custom frequency oder custom configuration (aktivierte/deaktivierte Cores).
Little Phoenix sah in den letzten Leaks aus wie ein Mendocino Nachfolger. Low cost. Das passt nicht zu den Performanceangaben.
MSABK
2023-04-04, 16:07:27
Speziell entwickelt für Asus? Glaube eher einfach besser selektiert, mehr nicht. Denke nicht dass es da eine extra Apu für Asus gibt.
Fusion_Power
2023-04-05, 03:13:53
Speziell entwickelt für Asus? Glaube eher einfach besser selektiert, mehr nicht. Denke nicht dass es da eine extra Apu für Asus gibt.
Valve haben doch auch ihren custom Chip fürs Steam Deck bekommen, warum also nicht Asus? Zumal Asus ja nun wirklich dicke im Hardwaregeschäft sind im Gegensatz zu Valve. Die haben da sicher connections und Expertise für. Und einen potentiell großen Absatzmarkt für so ne potente mobile GPU.
robbitop
2023-04-05, 06:36:42
Ganz einfach: Steam verdient Geld mit Spielen. Entsprechend wollten sie das Steamdeck so günstig wie möglich machen. Und bei dem Preispunkt verkauft man auch viel mehr Einheiten. Das haben sie einkalkuliert. Der SoC den sie wollten war billiger als Rembrandt weil kleiner und entsprechend für 15W TDP gemacht. Asus hingegen verkauft nur die HW. Entsprechend ist der Preis höher. Entsprechend ist auch kein spezieller SoC nötig. Dazu kommen die Aussagen von Asus zu der Performance bei unterschiedlichen TDP und da wurden auch 35W genannt. Entsprechend wird klar, dass der SoC bis zu der TDP auch noch Leistungssteigerungen zeigt (im Gegensatz zum Steamdeck SoC). Das trifft sehr wahrscheinlich auf Phoenix zu wie es auf Rembrandt zutrifft. Entsprechend noch weniger Sinn macht ein custom SoC.
amdfanuwe
2023-04-05, 08:25:12
Entsprechend noch weniger Sinn macht ein custom SoC.
"custom SoC" kann doch alles mögliche bedeuten.
Das kann ein speziell für den Kunden gefertigten Chip sein oder auch nur nach Kundenkriterien selektiert aus der Serie.
Würde ich jetzt nicht überbewerten.
Letztendlich gibt es einen Vertrag, der Liefermenge, Preis und Spezifikation des Chips festlegt.
MSABK
2023-04-05, 08:34:35
Wird wie bei Microsoft mit ihren Custom Chips von Amd sein; einfach besser selektiert.
robbitop
2023-04-05, 09:03:51
"custom SoC" kann doch alles mögliche bedeuten.
Das kann ein speziell für den Kunden gefertigten Chip sein oder auch nur nach Kundenkriterien selektiert aus der Serie.
Würde ich jetzt nicht überbewerten.
Letztendlich gibt es einen Vertrag, der Liefermenge, Preis und Spezifikation des Chips festlegt.
Das habe ich ja schon bereits gesagt in dem Thread. Dass "custom SoC" sehr wahrscheinlich kein eigener SoC ist sondern eher eine custom configuration / custom SoC basierend auf einem Standard SoC.
amdfanuwe
2023-04-05, 09:39:15
Was denn nun. Ist es ein custom SoC oder
Entsprechend noch weniger Sinn macht ein custom SoC.
dildo4u
2023-04-05, 13:50:24
Die Zen 4 APU haben variable RAM States für bessere Akkulaufzeit
https://abload.de/thumb/amd-ryzen-7045-dragontxcgz.png (https://abload.de/image.php?img=amd-ryzen-7045-dragontxcgz.png)
https://wccftech.com/amd-dragon-range-ryzen-7045-cpus-come-with-various-power-optimizations-delivering-up-to-54-higher-efficiency-versus-raptor-lake/
unl34shed
2023-04-05, 14:33:06
IO die? Werden die APUs auch Chiplets?
Lehdro
2023-04-05, 14:36:51
IO die? Werden die APUs auch Chiplets?
Die großen APUs ("Dragon Range") sind Chipletbasiert, ja. Phoenix Point ist weiterhin monolithisch.
basix
2023-04-05, 16:36:12
Die Zen 4 APU haben variable RAM States für bessere Akkulaufzeit
https://abload.de/thumb/amd-ryzen-7045-dragontxcgz.png (https://abload.de/image.php?img=amd-ryzen-7045-dragontxcgz.png)
https://wccftech.com/amd-dragon-range-ryzen-7045-cpus-come-with-various-power-optimizations-delivering-up-to-54-higher-efficiency-versus-raptor-lake/
Hmm, wieso das nicht auch auf dem Desktop einführen? Von mir aus via "Powersaving" und "Balanced" Power-Setup in Windows und deaktiviert im Falle von "Höchstleistung"
Der_Korken
2023-04-05, 16:55:28
Hmm, wieso das nicht auch auf dem Desktop einführen? Von mir aus via "Powersaving" und "Balanced" Power-Setup in Windows und deaktiviert im Falle von "Höchstleistung"
Gerne. Ich habe mich ja gefragt, wie AMD eigentlich ihr Chipset-Design in Notebooks bekommen will, so viel Energie wie die im Idle verschwenden. Anscheinend fixt AMD das endlich mal, aber nur für die mobilen Modelle und die Desktop-User kriegen weiterhin die Brotkrumen. Habe gerade erst auf CB zum 7800X3D etwas gerantet, dass sich der Idle- und der Spieleverbrauch bei Desktop-CPUs in zwei Gens wahrscheinlich angeglichen haben.
basix
2023-04-05, 17:19:47
Ich hoffe, dass dies bei Zen 5 standardmässig aktiv sein wird. Alles andere würde ich als unsinnig empfinden. Bin gespannt auf Idle-Verbrauch Messungen von Dragon Range. Oder gibt es die schon irgendwo?
Complicated
2023-04-05, 17:41:06
Hmm, wieso das nicht auch auf dem Desktop einführen? Von mir aus via "Powersaving" und "Balanced" Power-Setup in Windows und deaktiviert im Falle von "Höchstleistung"
Möglicherweise kommt dies nur bei LPDDR5 zum Einsatz mit dem DVS-Feature:
https://www.synopsys.com/designware-ip/technical-bulletin/key-features-about-lpddr5.html
LPDDR5 DRAMs offer additional power-savings using the dynamic voltage scaling (DVS) feature, in which the memory controller can reduce both the DRAM frequency and voltage during channel idle times.
Das liest sich zumindest so auf der Folie mit Voltage Range Tuning.
Nightspider
2023-04-05, 18:09:14
Warum Phoenix sich verspätet ist noch nicht durchgesickert oder?
Schade das wir so wenig mitbekommen.
Der_Korken
2023-04-05, 19:06:44
Möglicherweise kommt dies nur bei LPDDR5 zum Einsatz mit dem DVS-Feature:
https://www.synopsys.com/designware-ip/technical-bulletin/key-features-about-lpddr5.html
Das liest sich zumindest so auf der Folie mit Voltage Range Tuning.
Der Verbrauch des RAMs selbst ist nicht so das Problem. Ich kann jetzt nur für Zen 3 und nicht für Zen 4 sprechen, aber bei ersterem ist der Verbrauch der Kerne bereits <3W im Idle, während die Package Power immer noch in der Größenordnung von 15-20W ist. Für eine mobile CPU ist sowas natürlich völlig inakzeptabel.
Complicated
2023-04-05, 19:28:12
Es ging um die Frage warum das nicht im Desktop als Feature kommt. Es gibt nur wenige Desktop LPDDR5 Systeme.
Der_Korken
2023-04-05, 20:16:38
Es ging um die Frage warum das nicht im Desktop als Feature kommt. Es gibt nur wenige Desktop LPDDR5 Systeme.
Das ist mir klar. Aber imho ist das größere Power-Leck im Idle nicht der RAM, sondern der SoC. Ich bin nicht tief genug in der Materie drin, um die in dem Link beschriebenen Features zu verstehen, d.h. ich weiß nicht, ob diese Features auch auf SoC-Seite eine nennenswerte Einsparung ermöglichen.
Afaik sind die APUs auch mit non-LP-RAM wesentlich sparsamer als die CPUs, d.h. viel besser auf Idle-Power optimiert. Wenn AMD das nun auch mit dem Desktop-SoC erreicht, wäre es für naheliegend, dass dies eher einer besseren Firmware des SoC zuzurechnen ist als einem LP-DDR-Feature. Wie gesagt, der SoC verbraucht aktuell deutlich mehr als der RAM.
Complicated
2023-04-05, 20:21:22
Wenn ein Feature nur mit LPDDR nutzbar ist, dann ist das ein guter Grund es nicht in Deskop CPUs zu aktivieren. Ich glaube wir reden über verschiedene Dinge ;)
basix
2023-04-05, 20:46:38
Ja, wäre die Frage ob das auf LPDDR5 begrenzt ist oder ob das Verfahren mit normalem DDR5 auch klappen könnte. Zumindest hinsichtlich IOD Einsparungen.
BlacKi
2023-04-07, 01:56:16
was ich mich frage ist, ob der v cache durch seine packdichte nicht zu mehr voltage taugt. anders gefragt, wird v cache nie mehr als 1,35v sehen, auch in zukunft nicht? wird v cache immer in 7nm fabriziert werden, weil bessere fertigungsprozesse keinen nennenswerten vorteil bringen? könnte noch dichter gepackter v cache noch weiter voltage limitierter sein?
davidzo
2023-04-07, 02:13:05
Ist zwar zen3+, aber gilt auch für Phoenix:
Endlich gibt es Thunderbolt3 auch für AMD!
https://www.anandtech.com/show/18794/asrock-industrial-4x4-box7735ud5-review/9
Die effektive Bandbreite sieht sogar sehr gut aus. Freue mich auf künftige eGPU tests mit USB4 auf AMD Notebooks!
MSABK
2023-04-07, 09:37:27
Ist zwar zen3+, aber gilt auch für Phoenix:
Endlich gibt es Thunderbolt3 auch für AMD!
https://www.anandtech.com/show/18794/asrock-industrial-4x4-box7735ud5-review/9
Die effektive Bandbreite sieht sogar sehr gut aus. Freue mich auf künftige eGPU tests mit USB4 auf AMD Notebooks!
Freut mich auch sehr, es gibt immer mehr Amd Notebooks mit USB4. Aber es gibt halt allgemein sehr wenig Auswahl bei Zen3 und Zen4 Notebooks. Aber die die da sind, sind sehr interessant.
davidzo
2023-04-07, 13:54:36
Freut mich auch sehr, es gibt immer mehr Amd Notebooks mit USB4. Aber es gibt halt allgemein sehr wenig Auswahl bei Zen3 und Zen4 Notebooks. Aber die die da sind, sind sehr interessant.
Mit USB4 Bandbreite habe ich gerechnet, aber was mich positiv überrascht hat ist das selbst bei so exotischen Geräten wie dem Asrock NUC auch PCIe tunneling funktioniert. Dafür muss das UEFI eben auch vorbereitet sein. Hot swappable Grafikkarten sind gar nicht so ohne bei der Verifizierung imo, Apple+Intel haben dafür Jahre gebraucht um das zu aktivieren.
Das lässt hoffen dass PCIe tunneling bei normalen Notebooks auch auf anhieb funktioniert. Damit hatte ich irgendwie nicht gerechnet als AMD USB4 nannte für die neue Plattform. Denn das ist im Gegensatz zu Displayport tunneling, USB tunneling ein feature was man als Hersteller auch per BIOS ausschalten darf, also obwohl es in der USB4 featureliste als verpflichtend steht ist das beinahe optional.
MSABK
2023-04-07, 14:49:46
eGPUs wurden erfolgreich an Amd Notebook mit Zen3 angeschlossen schon. Da gibt es auch Videos dazu mit Geräten die USB4 haben. Schöne Entwicklung.
Der_Korken
2023-04-09, 19:39:39
Sorry, wenn es der falsche Thread ist: Ich habe mich gefragt, warum der IOD bei Zen 4 so groß ausfällt. Locuza hat auf Twitter mal 125mm² angegeben: https://twitter.com/Locuza_/status/1528459553431592970
Wenn ich mir Intels Alder Lake Die anschaue, dann sind das 201mm² von denen aber 120mm² auf die Kerne entfallen: https://pbs.twimg.com/media/FCvyypNXEAE4UKm?format=jpg&name=4096x4096
Somit wäre der SoC bei Intel nur gut 80mm² groß, wobei oben rechts am Rand sogar noch ein kleines Stück ungenutzt zu sein scheint. Ich hätte jetzt gesagt, dass Intels 10nm-Iteration vergleichbar mit TSMCs N6 ist. Die iGPU von AMD ist auch nicht schneller als die von Intel. Gerade die DDR5-PHYs sehen bei AMD massivst größer aus und das obwohl Intel zusätzlich noch DDR4 unterstützt: https://hothardware.com/image/resize/?width=1170&height=1170&imageFile=/contentimages/NewsItem/61066/content/big_locuza-analysis-zen4-die-shot.jpg
Übersehe ich hier was oder hätte AMD hier noch Luft nach unten?
basix
2023-04-09, 23:37:50
Ist mir auch schon aufgefallen. Der Uncore ist bei Intel schon immer recht klein gewesen. Auch die DRAM-Interfaces sind deutlich kompakter. Das ist halt ein Vorteil, wenn man alles in-house designed vs. IP von der Stange einkauft.
Und ja, prinzipiell könnte AMD dichter packen. Aber mir kommt gerade in den Sinn: Man kann einen Chip mit weniger Metalllagen bauen, dafür aber Density opfern. Unter dem Strich kann das sogar kosteneffizienter sein. Gab da mal so Aussagen rund um AMDs Chips. War glaube bei einer der 6/7nm APUs.
reaperrr
2023-04-10, 01:49:40
Übersehe ich hier was oder hätte AMD hier noch Luft nach unten?
Haben sie nicht bzw. kaum, weil sie da weitgehend von TSMC abhängig sind.
TSMC hat zwar beim Shrinken von Logik-Transistoren die letzten Jahre einen hervorragenden Job gemacht, aber bei SRAM und analogen Transistoren (Interfaces) - jedenfalls wenn es darum geht, alles zu kombinieren - liegt Intel 7 gegen N7/6 klar vorn.
Man merkt es nur nicht so leicht, weil eigentlich alles ab Ice Lake in Sachen Transistoren je Kern Brechstange im Vergleich zum jeweiligen Zen-Gegner war.
Intel erkauft sich den IPC-Vorteil (und ab TGL auch die Taktbarkeit, hinsichtlich Pipeline-Stages/Cache-System) seitdem mit massiv mehr Logik-Transistoren und Cache, deshalb merkt man weder an der Gesamtfläche noch am Verbrauch, wie gut Intel7 im Grunde (inzwischen) ist.
Ein hypothetischer, komplett in Intel 7 umgesetzter monolithischer 16c-Zen4 wäre definitiv deutlich kleiner als Raptor 8+16, und wahrscheinlich sogar kleiner als ADL 8+8.
amdfanuwe
2023-04-10, 02:47:15
Übersehe ich hier was oder hätte AMD hier noch Luft nach unten?
Wieviel Platz braucht denn die Infinity Fabrik und Cachetags im I/O?
Bei Intel dürfte das im Core Bereich mit mit drin sein.
Der_Korken
2023-04-10, 11:06:25
Werden denn alle L3-Tags nochmal zusätzlich im IOD gespeichert? Kann ich mir nicht vorstellen, denn das hätte im alten 12nm IOD nochmal deutlich mehr Platz gebraucht und vor allem hätten dort von Anfang an (also schon bei Zen 2!) Reserven für den 3D-Cache vorhanden sein müssen.
Infinity Fabric ist ja AMDs "Problem". Intel muss ja auch irgendein On-Chip-Network haben und wenn das deutlich weniger Platz als AMDs Lösung verbraucht, ist Intel in dem Punkt halt einfach besser. Es geht mir nicht darum AMDs Hardware schlechtzureden. Mich würde nur interessieren, woher die Die-Größe kommt, denn rein von den Fertigungskosten her liegen die 1-CCD-Modelle bei ca. 2/3 der 2-CCD-Modelle, weil der 125mm² IOD auch auf dem kleinsten 7600 voll vorhanden sein muss und nicht/kaum billiger als ein 70mm² CCD in N5 sein dürfte.
fondness
2023-04-10, 11:18:40
Wie siehts mit den Feature aus? Das AMD-IO-Die wird mobile völlig ohne Chipsatz betrieben. Da stecken 28 PCIe 5.0 Lanes drinnen, 4x PCIe4.0, einiges an USB, DP2.0, HDMI2.1, SPI, I3C, Audio, etc.
Dazu kommt: Ein externes Interface benötigt durch die Treiber natürlich erheblich mehr Platz als ein internes. Also die externen Infinity Fabric Links zu den Chiplets sind natürlich nicht mit einem Single-Die von Intel zu vergleichen.
Complicated
2023-04-10, 11:44:07
Infinity Fabric ist ja AMDs "Problem". Intel muss ja auch irgendein On-Chip-Network haben und wenn das deutlich weniger Platz als AMDs Lösung verbraucht, ist Intel in dem Punkt halt einfach besser. Ich denke das ist anders zu bewerten - Intels Rückstand beim Interconnect zeigt sich beim Limit der Core-Skalierung. Da ist AMD weit voraus und nur deshalb diskutiert man über Infinity Fabric. Intel hat das Problem einfach noch nicht. Das ganze wird in UCIe münden, darauf hat man sich ja geeinigt und es wird ein Industriestandard genutzt in Zukunft.
CrazyIvan
2023-04-10, 13:24:44
Mich würde nur interessieren, woher die Die-Größe kommt, denn rein von den Fertigungskosten her liegen die 1-CCD-Modelle bei ca. 2/3 der 2-CCD-Modelle, weil der 125mm² IOD auch auf dem kleinsten 7600 voll vorhanden sein muss und nicht/kaum billiger als ein 70mm² CCD in N5 sein dürfte.
Nein, völlig falsche Annahme.
Ein monolithischer Die in 5nm ist deutlich teurer als 6nm IOD + 5nm CCD. Das hat AMD auch bereits zu Zen2 Zeiten ganz offiziell zu Protokoll gegeben. Vielleicht suche ich später Mal noch die Folien dazu raus...
Deshalb verstehe ich im übrigen auch nicht warum viele immer behaupten, die Mobile-SOCs wären prädestiniert für das Low-Cost-Segment - das genaue Gegenteil ist der Fall.
BlacKi
2023-04-10, 13:37:36
Das hat AMD auch bereits zu Zen2 Zeiten ganz offiziell zu Protokoll gegeben. Vielleicht suche ich später Mal noch die Folien dazu raus...
ich hab so eine ahnung warum amd sowas behauptet hat. vl deshalb, weil man die eigene entwicklung marketingtechnisch positiv verkaufen will?
bis heute hat amd keine genauen zahlen vorgelegt was wieviel kostet und wenn sie schlau sind, dann wird das auch nicht passieren.
Der_Korken
2023-04-10, 14:09:21
Nein, völlig falsche Annahme.
Ein monolithischer Die in 5nm ist deutlich teurer als 6nm IOD + 5nm CCD.
Von monolithischen Dies war nicht die Rede, sondern von den Kosten eines einzelnen 125mm² IODs und den Kosten eines einzelnen 70mm² CCDs. Wenn die Kosten ungefähr gleich sind, dann ist die BOM eines 7700X ca. 2/3 von der eines 7950X. Beim 7600X dürfte es noch schlechter aussehen, da weiterhin ein voller IOD benötigt. Durch den großen IOD ist die Marge der kleinen Ryzens relativ schlecht.
Wie siehts mit den Feature aus? Das AMD-IO-Die wird mobile völlig ohne Chipsatz betrieben. Da stecken 28 PCIe 5.0 Lanes drinnen, 4x PCIe4.0, einiges an USB, DP2.0, HDMI2.1, SPI, I3C, Audio, etc.
Dazu kommt: Ein externes Interface benötigt durch die Treiber natürlich erheblich mehr Platz als ein internes. Also die externen Infinity Fabric Links zu den Chiplets sind natürlich nicht mit einem Single-Die von Intel zu vergleichen.
Ja, die GMI-Links sind ein Punkt. Beim I/O habe ich nochmal nachgeschaut, weil ich bisher davon ausging, dass sich Intel und AMD hier nicht viel nehmen:
https://pics.computerbase.de/1/0/5/2/3/9-e64d7d1f5d1d7873/2-1080.9f2c2987.jpg
https://pics.computerbase.de/1/0/6/3/1/8-abb40bbdf1786ebf/1-1080.8f0666e7.jpg
16x5.0 für die GPU haben beide. Ansonsten sind es
8x5.0 + 4x4.0 + 4x10Gbps USB3.2 (AMD)
vs
8x4.0 + 4x4.0 + 4x DisplayOutput (Intel)
Je nachdem, ob AMD ihren Display Output mitgezählt hat und wieviel sie davon haben, sieht das für mich nach einem leichten Vorteil für AMD aus. Somit stünde AMD auch etwas mehr Platz zu.
Ich denke das ist anders zu bewerten - Intels Rückstand beim Interconnect zeigt sich beim Limit der Core-Skalierung. Da ist AMD weit voraus und nur deshalb diskutiert man über Infinity Fabric. Intel hat das Problem einfach noch nicht. Das ganze wird in UCIe münden, darauf hat man sich ja geeinigt und es wird ein Industriestandard genutzt in Zukunft.
Beim Deskop-Chip ist es (noch) nicht nötig über zwei Chiplets hinaus zu skalieren, d.h. insofern "leistet" AMDs Interconnect an der Stelle noch nicht mehr. Ich sehe aber durchaus das Problem, dass AMD nicht für jede Plattformgröße eine eigens dafür optimierte Technologie entwickeln kann, sondern lieber eine verkleinerte Version ihrer Server-Technologie verwendet.
Damit hätten wir in Summe:
- Intel7 etwas besser als TSMC N6
- AMD hat etwas mehr I/O
- AMD muss zusätzlich zwei GMI-Links unterbringen
- IF (vermutlich) nicht für Plattformgröße optimiert
OK, das beantwortet meine Frage. Abgesehen davon, dass man z.B. die DDR5-PHYs sicherlich etwas kompakter hinbekommen würde, wenn man die Kapazität hat es selbst zu entwickeln, ist die Differenz gar nicht so groß, wie sie mir auf den ersten Blick schien.
Edit: Und ich habe mich anscheinend bei den 120mm² für die Kerne bei Intel noch etwas verguckt. Es sind eher so 110mm² und somit 90 statt 80mm² für den SoC.
CrazyIvan
2023-04-10, 14:15:36
Es ist kausal tatsächlich sehr gut herleitbar: 2 kleinere Dies haben einen deutlich besseren Yield als ein großes. Und wenn eins davon sogar noch auf einem Legacy Prozess läuft, dann umso mehr. Das bisschen Packaging mit organischem Substrat wiegt das bei weitem nicht auf.
Hier die Folie - ob Ihr ihr nun Glauben schenken wollt oder nicht:
https://www.techpowerup.com/img/5fYc80stMu6sGJjH.jpg
Complicated
2023-04-10, 15:43:42
Die Kosten für ein IOD, das alle SKUs nutzen können, sind deutlich kleiner als alle IODs die bei den Intel SKUs jeweils in ein monolitjisches Design integriert werden müssen. Die Trennung von IOD und CCD ist nicht vergleichbar mit einzelnen SKUs, sondern über das gesamte Portfolio hinweg, das CCDs nutzt. Die CCDs sorgen für die Serverumsätze und das IOD ist der günstigste Weg die selben CCDs auch im Desktop erfolgreich einzusetzen.
basix
2023-04-10, 15:53:15
Intel hat den Vorteil der deutlich höheren Volumen. Die verkaufen einfach deutlich mehr Chips. Unter dem Strich wird das Intel also nicht wirklich mehr kosten (Chips werden in der Summe ja etwas kleiner durch die in-house und monolithischen Designs) ausser mehr R&D Aufwand. Und dieser Aufwand wird ebenfalls über mehr verkaufte Chips abgegolten...
Ich sage nicht, dass AMDs Ansatz nicht kosteneffizienter ist. Doch Economy of Scale ist ein wesentlicher Punkt in der Halbleiterfertigung. Und er hilft Intel enorm. Und natürlich wäre AMDs Ansatz mit IOD zusammen mit Intels Stückzahlen ein Traum hinsichtlich Kosteneffizienz.
Für AMD der entscheidenste Punkt ist mMn der R&D Aufwand, welcher durch Chiplets massiv reduziert wird. AMD ist viel kleiner als Intel (und auch Nvidia) und trotzdem haben sie State-of-the-Art CPUs, GPUs und mit MI250X / MI300 wohl auch Datacenter-Beschleuniger. Ohne Chiplets & MCM wäre das mMn unmöglich.
Complicated
2023-04-10, 16:10:26
Ich würde sagen, dass AMD mehr IODs benötigt als Intel an Stückzahlen für eine einzelne SKU fertigt. Das wäre mal eine interessante Liste rein nach Stückzahlen einzelner monolithischer Chips und Chiplets, die mehrfach wiederverwendet werden.
amdfanuwe
2023-04-10, 18:38:02
Intel hat den Vorteil der deutlich höheren Volumen.
nicht mehr lange ;-)
Na, Spaß beiseite. Ich finde es einfach erstaunlich wie AMD mit ZEN angefangen hat. Was die mit nur einem Chip abgedeckt haben von 4C Ryzen über 16C Threadripper bis 32C EPYC. Dazu noch eine APU.
AMD wird weiter diversifizieren, mittlerweile haben sie die Mittel dazu.
basix
2023-04-10, 18:53:26
Ich würde sagen, dass AMD mehr IODs benötigt als Intel an Stückzahlen für eine einzelne SKU fertigt. Das wäre mal eine interessante Liste rein nach Stückzahlen einzelner monolithischer Chips und Chiplets, die mehrfach wiederverwendet werden.
Intel hat 2-3x Consumer Chips mit 4-5x Volumen und dann noch 2-3x Server Chips mit ebenfalls 4-5x Volumen. Ich sehe hier nicht, dass AMDs IOD wirklich mehr Stückzahlen hat als die einzelnen Intel-Chips ;) Dazu noch der Fakt, das bei Intel die Mobile Chips die selben wie beim Desktop sind, wo AMD separate Chips auflegt.
Wo das sicher stimmt ist das CCD. Dort hat AMD viel höhere Stückzahlen und insgesamt werden stückzahlmässig wohl mehr CCDs verbaut als Intel total CPUs verkauft.
Complicated
2023-04-10, 19:51:56
Intel hat 2-3x Consumer Chips mit 4-5x Volumen und dann noch 2-3x Server Chips mit ebenfalls 4-5x Volumen.
Da AMD für alle Desktop Varianten den selben IOD nutzt, denke ich, dass maximal einer der Raptor Lake Chips mehr Stückzahlen haben wird. Wenn dann wäre es die i5 Serie. Die Mobile-Verwertung ist natürlich ein gutes Argument.Nur ist wohl der Massenvorteil eines einzelnen Chips/Dies nicht so hoch, wie man im ersten Moment denken würde. Und keine 20% der Dies von Intel erfüllen das Kriterium.
Wenn man dann noch die Zahl der Steppings betrachtet, kommen weitere Kosten dazu.
Und worüber auch nicht gesprochen wird ist die Anzahl der monolithischen Designs, die in den letzten 5 Jahren einfach in die Tonne gingen oder zusätzlich eine Portierung der Fertigung erforderlich machten, weil die Yields einfach nicht gepassst haben. Ich glaube gerade für die eigenen Fabs wäre Intel besser beraten gewesen viel früher auf kleinere Chiplets zu setzen. Es reduziert das Yield-Risiko pro node einfach enorm und bringt 6 Monate früheres Time-to-market, wenn es keine Probleme auf dem node gibt.
basix
2023-04-10, 20:32:37
Wie gesagt, AMDs Ansatz ist eindeutig effizienter. Bezüglich Yields wie auch R&D. Da sind wir einer Meinung ;) Nur helfen in Falle von Intel die grossen Stückzahlen. Das ist bei allen Grossfirmen so: Ineffizienz kann durch schiere Grösse und Economy of Scale ausgeglichen werden.
Complicated
2023-04-10, 20:36:27
Was mir noch einfiel ist, dass der IOD auch nicht beschränkt ist auf die aktuelle Generation. Schaut man sich an wie lange nun DDR5 und PCIe 5 im Desktop wohl völlig ausreichen wird, ist der Moment für monolithische Designs nochmals ungünstiger. Ich glaub was ebenfalls vielfach nicht mit gerechnet wurde ist die zusätzliche iGPU im IOD und auch die FFUs für Video und anderes.
dildo4u
2023-04-25, 15:34:36
Z1 und Z1 Extreme sind offiziell.
https://videocardz.com/press-release/amd-announces-ryzen-z1-zen4-apus-for-handheld-gaming-consoles-with-up-to-12-rdna3-gpu-cores
00-Schneider
2023-04-25, 15:53:11
8,6TF in einem Handheld?
Wow!
Zum Vergleich: Bei Switch sind es 0,4 und im Steam Deck 1,6.
dildo4u
2023-04-25, 15:58:58
Ja skaliert aber nicht linear max 90% von 4CU zu 12CU, der dickere Chip bräuchte vermutlich mehr eigenen Cache.
https://abload.de/img/amd-ryzen-z1-series-24rfdf.jpg
Lehdro
2023-04-25, 16:14:26
Bin ich blind oder sehe ich nirgendwo eine TDP/PPT?
Linmoum
2023-04-25, 16:20:05
"Bis zu 30W" angeblich.
Lehdro
2023-04-25, 16:32:58
Alles großartig über 15W ist halt nicht wirklich praktikabel für ein Handheld imo. Kühlung und Stromverbrauch (akku!) schlagen dann doch stark auf die Usability. Ein schniekes OLED Display will man ja eigentlich auch noch...
davidzo
2023-04-25, 16:36:00
8,6TF in einem Handheld?
Wow!
Zum Vergleich: Bei Switch sind es 0,4 und im Steam Deck 1,6.
Das sind aber RDNA2 Tflops, also ohne die Dual issue Fähigkeit mit einzurechnen.
Mit Glück ist der Z1 auf Steamdeck Niveau.
Die Steamdeck erreicht 1,6TFlops mit 8CUs bei 1,6Ghz.
Für 2,8Tflops brauche ich bei 4CUs mit dual issue schon 2,8Ghz. Eine RDNA3 APU mit 8CUs und 1,6Ghz hätte auch 3,2Tflops. Von N33 wissen wir dass RDNA3 ohne die Registerverbreiterungen der Top of the line chips kaum 20% schneller ist als RDNA3 pro CU und Takt.
Wir können uns also glücklich schätzen wenn die GPU vom der Z1 gleich schnell mit der Steamdeck ist. CPUlimitierte Szenarios werden das sicher richtung Z1 verfärben, aber die GPU ist wohl kaum einen Generationensprung schneller, zumal man am selben LPDDR5 Speicherinterface hängt. Vorausgesetzt das wird mit 128bit bestückt und nicht nur 64bit wie bei Mendocino um Kosten beim PCB zu sparen.
Relic
2023-04-25, 16:36:30
8,6TF in einem Handheld?
Wow!
Zum Vergleich: Bei Switch sind es 0,4 und im Steam Deck 1,6.
Sind aber RDNA3 Tflops also kannst du sie halbieren.
robbitop
2023-04-25, 16:41:57
Ja das Ding braucht mit seinen 12 CUs einen IF$. Sonst verhungert der SoC an der Bandbreite. Ein Problem, was IGPs schon immer haben.
MSABK
2023-04-25, 17:19:26
Ich sehe da jetzt nichts großartiges und denke die Steam Apu ist das bessere Paket für Mobile, gerade was die Speicherbreite betrifft.
latiose88
2023-04-25, 17:29:09
ok krass unten rum geht es ja richtig Rund.Und Leistugnsfähiger werden diese auch immer mehr.Nicht mehr so lange und die gtx 1650 wird überholt werden.
Ist mit den TFlops die FP16 oder FP32 Leistung damit gemeint bei dem fall hier so?
Ja das Ding braucht mit seinen 12 CUs einen IF$. Sonst verhungert der SoC an der Bandbreite. Ein Problem, was IGPs schon immer haben.
Wenn man das mit LPDDR5X koppeln würde, würde das auch gehen mMn. Aber das wird sicherlich erst bei Strix Point Standard werden.
Nakai
2023-04-25, 18:25:44
Lol, ich verstehe es wirklich nicht, wieso man dem Ding nicht etwas mehr Cache gibt. Da sollte doch jeder MB ein gutes Quäntchen an Performance bringen. Selbst 16MB extra IF$ sollte die nutzbare Bandbreite dramatisch ansteigen lassen.
Ich würd sagen, dass das die Produktionskapazität fürs Stacking übersteigen würde. Ein paar MB mehr L2$ für die iGPU wäre noch ein gangbarer Weg.
Nakai
2023-04-25, 18:30:10
Ich würd sagen, dass das die Produktionskapazität fürs Stacking übersteigen würde. Ein paar MB mehr L2$ für die iGPU wäre noch ein gangbarer Weg.
Dann eben L2$. Hauptsache der Hauptspeicher wird etwas entlastet. AMDs Designs bei den APUs verstehe ich bis heute nicht.
Die sind halt doch etwas eingeschränkt bei der Bandbreite. Aber ich vermute, dass Strix Halo zeigt, dass man eh in Richtung LPDDR5X gehen möchte, was höhere Bandbreite ermöglicht. Ich könnt mir vorstellen, dass auch die High-End-Strix-Point LPDDR5X bekommen wird, die Standardware wird eh nur maximal 8CUs haben und da reicht der klassische S0-DIMM aus.
Also:
Fire Range (dicke CPU, heutiges IOD in neuer Rev., daher nur 2 RDNA2-CUs, eben umgelabelter Desktop-Zen5)
Strix Halo (I/O-Die mit 40CUs und 256Bit LPDDR5X + Standard Zen4c-CCD)
Strix Point 12-16CUs 128Bit LPDDR5X (Premium)
Strix Point 6 - 8CUs und Hawk Point (umbenannter Pheonix-Point) 128Bit DDR5 (Upper Mainstream)
Phoenix 2 + 128Bit DDR5 (Mainstream)
Mendocino (Einsteiger)
Gibt noch Strix 3, da ist aber unbekannt ob das der Nachfolger von Pheonix 2 ist oder ne 3nm-Zen5-APU, beides ist denkbar.
amdfanuwe
2023-04-26, 00:11:41
Gab es eigentlich mal Leaks zum Z1?
y33H@
2023-04-26, 00:12:56
Das ist doch "nur" Phoenix.
robbitop
2023-04-26, 13:16:15
Die Menge die man an Cache für die GPU bräuchte würde (mind 16 MiB LLC) kostet AMD halt offenbar zu viel Chipfläche. Sie sind auch so Nr 1 bei den IGPs und bisher hat der Markt IGP Performance nie mit besonders hohen Preisen belohnt (in sinnvoller Stückzahl). Ist halt ein Angebot/Nachfrageding.
Mit Strix soll ja dann IF$ in die APUs kommen. Laut MLID aber offenbar nur in die "HALO" SKU. Und die sieht widerum für handhelds zu groß aus in Bezug auf die TDP (und auch 16c braucht da kein Mensch).
Es bleibt spannend.
Für Halo ists ja auch einfach. Das Ding wird ja einfach nur ein Zen5c-CCD bekommen, das dann mit VCache zu erweitern, wird ja eh auch gemacht.
CrazyIvan
2023-04-26, 20:27:26
Wieso denn Zen5c? Der wird vermutlich 30-40% weniger Max. Frequenz haben als Zen5. Ist in Verbindung mit einer massiven iGPU vielleicht nicht ganz so optimal für die meisten Anwendungsfälle.
Und zu Zen4/5c und V-Cache. Ich vermute sehr stark, dass ein signifikanter Teil der Flächeneffizienz schlicht vom Weglassen der erforderlichen TSVs herrührt.
Alles in allem fällt mir so schnell kein guter Grund ein, weshalb ausgerechnet Halo Zen5c verwenden sollte. Welchen siehst Du denn?
basix
2023-04-26, 20:44:05
Zen 4c wahrscheinlich:
- Halbierter L3$/Core
- Kein V-Cache Support
- Dichter gepackter Core zu Lasten max. Frequenz
Bei Zen 5c wird sich das nicht ändern. Sehe das bei Strix Halo auch nicht als sinnvoll an.
amdfanuwe
2023-04-26, 22:36:20
Diesen Daten von MLiD
83714
würde ich folgendermaßen interpretieren:
16, 12, 8, 6 Core CPU deuten auf 2 oder 1 ZEN5 Chiplets hin.
20 WGP 40CU sowie 16, 12, 10 WGP entsprechend 32,24,20 CU liegen zwischen N32, 30 CU, und N33 32CU.
Entweder ist der 24 CU ein eigener kleiner Chip oder salvage.
20 WGP deuten auf 2SE * 10 WGP
16 WGP = 2SE * 8 WGP
12 WGP = 2SE * 6 WGP
10 WGP = 1SE * 10 WGP
Monolithischer N33 Nachfolger oder abgespeckter N32?
Monolithischer Chip hätte eigene SI und bräuchte eigenen Speicher.
Tippe daher eher auf ein abgespecktes N32 Design.
Anstatt MCDs geht es an den I/O Chip mit IF$
256 Bit LPDDR5 läßt auf 4 LPDDR Chips schließen.
Gibt es mittlerweile bis 64 GByte / Chip.
Das ganze on Package spart ordentlich Strom.
Spekulation meinerseits:
Strix Halo mit eigenem I/O Die, 1 oder 2 ZEN5 CPU Dies, 1 GPU Die mit 4 Varianten und 1 bis 4 LPDDR5 Chips on Package.
Gibt eine Menge Kombinationen.
ein 8C X3D CPU Chiplet + 20WGP/40CU + 32MBGB RAM könnte eine hübsche APU für Mobile Gaming werden.
Edit: Skizze dazu: 83715
Edit2: ist natürlich ein ziemlicher Klopper mit ~1300mm² Fläche ( aus dem Bauch heraus geschätzt )
Aber die 256 GB 16 Core Version hat da wohl eine ganz andere Zielgruppe als den Normaluser.
Eventuell übernehmen sie ja auch die Stack Technik vom MI300. Dann kämen CPU und GPU über den I/O.
Edit3: Noch eine Skizze verschiedener Varianten in Stack Technik.
83717
Das ganze zielt wohl mehr auf den Mobile Workstation Markt. Kann aber dank Chiplet und salvage Nutzung bis auf 6C, 10 WGP/20CU, 16 GB günstig runter skaliert werden. Dank LPDDR5 auf dem Package wird das ganze sehr effizient.
davidzo
2023-04-26, 23:43:33
Vielleicht sehen wie ja sogar einen N24 biszu N33 Nachfolger mit LPDDR5 statt GDDR?
Man könnte ggf. ein GPU Chiplet aus dem dann normalen Sortiment mit Zen5 CPU Chiplets und einem CPU-MCD kombinieren.
Ich kann mir vorstellen dass eine Chiplet-Stragegie für Lowend und Midrange GPUs die Möglichkeit von breiteren Speicherinterfaces wieder attraktiver macht. Wenn man eh einen günstigen Legacy Node für das MCD mit SI und Cache benutzt, wieso dann nicht gleich ein breites SI mit günstigem LPDDR statt teurem hochtakt-GDDR?
Bisher standen einem breiteren SI mehrere Dinge im Weg:
1. Chip Analogteil skaliert schlecht
2. Teureres PCB
3. Höherer Stromverbrauch als schmales SI
Das ist mittlerweile alles gelöst.
1. Chiplet mit SI in günstigem legacy Node
2. On package Ram statt komplexem PCB
3. Apple zeigt dass das ein breiteres SI nicht mehr verbrauchen muss.
LPDDR ist eher noch sparsamer als GDDR und wahrscheinlich ist der Speichercontroller auch nicht so komplex, es ist viel mehr günstige IP aus dem mobilebereich verfügbar und die ist vielleicht sogar kompakter als bei GDDR6.
Ein zusätzliches Problem was damit (endlich?) gelöst wäre, ist die Speicherausstattung der kleinen Modelle. Obwohl die RAMpreise am Boden sind, lassen sich keine entrylevel Karten mit 12 oder 16Gb bauen, da keine ausreichend großen GDDR6 Chips verfügbar sind bzw. diese genau wie clamshell mode unerschwinglich wären.
Dabei würden die entrykarten sich mit viel Vram besser verkaufen. Die Bestseller waren früher immer die entrylevel Karten mit der Speichermenge von midrange oder Highend karten (FX 5200 256mb, GT740 DDR3 4GB, etc.) Lustig dass man bei dem Gedanken an diese betrügerisch unausgewogenen Karten die RX6400 mit 4GB fast schon loben kann ;D
Intels DG1 mit LPDDR4X und ACM-G11 sind schon spannende Entwürfe für das Lowend gewesen. Schade dass der Rest nicht so überzeugend war, aber bei der Speichermenge und Technologie hat man jedenfalls schon die bessere Strategie als die Mitbewerber gehabt.
Sorry für den Ausflug, nun zurück zu Zen ;)
basix
2023-04-27, 00:25:17
Für Low-End / Mainstream GPUs könnte das schon sinnvoll sein. 256bit LPDDR5X PHY sind ~30mm2 gross und können max. 273 GB/s liefern (8533 MT/s). 128bit GDDR6 PHY sind ebenfalls ~30mm2 und können 384 GB/s liefern (24 Gbps).
Bandbreite pro Fläche ist geringer als bei GDDR6. Dafür ist der Speicher deutlich günstiger. Solange man also mit ~250 GB/s auskommt (alles bis und mit 32 CU) und 32 MByte IF$ draufpackt, müsste eine dGPU mit LPDDR5X eigentlich schon OK sein. Insbesondere auch, wenn man ein LPDDR5X-MCD umsetzen würde.
davidzo
2023-04-27, 01:09:22
Ja. LPDDR4 kostet aktuell 3.25$ für ein 16Gbit DIE und 6.6$ für 32Gbit. GDDR6 kostet gut das doppelte 3.4$ für nur 8Gbit.
LPDDR5(X) kann ich leider gerade nicht nachschlagen wegen paywall, aber ausgehend davon dass DDR5 ca. 20% höher gehandelt wird, kann man mit ca. 4-4.5$ rechnen. In 2024 werden DDR5 und LPDDR5 wohl ähnlich gehandelt wie jetzt LPDDR4 und DDR4.
Man könnte mainstream / entry GPUs mit 16 und 12Gb VRAM ausliefern für den Preis den man heute 4 und 8GB GDDR6 ausliefert. Und den echten 4K karten würden die auch nicht gefährlich werden weil die Speicherbandbreite begrenzt ist.
CrazyIvan
2023-04-27, 06:39:57
@davidzo
+1
Sehe das überwiegend wie Du.
@amdfanuwe
Interessante Thesen, die ich aber erst einmal vollständig durchdringen muss. Deine Flächenangabe erscheint mir recht hoch, obgleich ich bei GPU Flächenangaben nicht sattelfest bin. Aber ca. 160mm2 für 2x Zen5 sind ja die Absprungbasis. Braucht es da für 32 MByte IF-Cache, MC, IO und 40 WGPs wirklich über 1000mm2? N31 hat 48 und liegt gerade mal bei 350mm2.
dildo4u
2023-04-27, 09:46:38
Asus Ally soll für 700$ in der Top Version kommen.
https://twitter.com/wickedkhumz/status/1651463573296812033
amdfanuwe
2023-04-27, 10:30:23
Aber ca. 160mm2 für 2x Zen5 sind ja die Absprungbasis. Braucht es da für 32 MByte IF-Cache, MC, IO und 40 WGPs wirklich über 1000mm2? N31 hat 48 und liegt gerade mal bei 350mm2.
Hab 4 * 196mm² ~ 800mm² LPDDR5 mitgerechnet.
I/O 150mm²
GPU ~200mm²
2 * CPU ~150mm²
Erinnert schon fast an 1/4 von MI300 :-) mit eigenem I/O.
Ob Stacking oder wie in der ersten Skizze neben dem I/O hängt vom verfügbaren Platzbedarf und Kosten ab.
Wieso denn Zen5c? Der wird vermutlich 30-40% weniger Max. Frequenz haben als Zen5. Ist in Verbindung mit einer massiven iGPU vielleicht nicht ganz so optimal für die meisten Anwendungsfälle.
Und zu Zen4/5c und V-Cache. Ich vermute sehr stark, dass ein signifikanter Teil der Flächeneffizienz schlicht vom Weglassen der erforderlichen TSVs herrührt.
Alles in allem fällt mir so schnell kein guter Grund ein, weshalb ausgerechnet Halo Zen5c verwenden sollte. Welchen siehst Du denn?
Es gibt 3 Gründe, die gegen ein eigenes Die sprechen:
1.) für nur ein Produkt legt man kein neues Chiplet auf... das wäre ja nur und auschließlich Premium-Notebooks ohne diskrete Grafik, die nicht Strix Point sind.
2.) Warum überhaupt ein Chiplet, wenn man kein bisheriges verwenden will? Das Ding hätte man in dem Falle doch monolithisch machen können.
3.) Was spielt der hohe Takt für das Produkt für eine Rolle? Hier gehts um Effizienz, das wird eh nicht stark über 5GHz takten.
Nein, das wird ganz normal Zen5c. Wir haben ja jetzt geleakt bekommen, dass Zen5c auch ein 16C-CCX sein wird, man kann das also dann auch problemlos mit VCache aufrüsten. Das ist genau das richtige Ding für die Halo-APU.
robbitop
2023-04-27, 12:28:31
Wieso denn Zen5c? Der wird vermutlich 30-40% weniger Max. Frequenz haben als Zen5. Ist in Verbindung mit einer massiven iGPU vielleicht nicht ganz so optimal für die meisten Anwendungsfälle.
Und zu Zen4/5c und V-Cache. Ich vermute sehr stark, dass ein signifikanter Teil der Flächeneffizienz schlicht vom Weglassen der erforderlichen TSVs herrührt.
Alles in allem fällt mir so schnell kein guter Grund ein, weshalb ausgerechnet Halo Zen5c verwenden sollte. Welchen siehst Du denn?
Zumindest was mobile APUs angeht: die Peak Clocks siehst du dank TDP Limitierung praktisch eh kaum. Phoenix kann bis zu 5 GHz CPU und bis zu 2,8 GHz GPU. Bei voller Spielelast liegen (wenn man sich Videos von daphawkx und ETAPrime anschaut) die Taktraten dank TDP Limit z.B. bei einem simulierten Z1 Exteme (er hat einen 7940HS auf 28 W limitiert) liegt die CPU dann bei 3,5 GHz und die GPU bei ~1,9 GHz.
Um die Taktraten auszufahren brauchte er IIRC 60W. Das war mit Rembrandt und Vorgängern genauso.
Entsprechend kann man da locker auf die theoretischen Peak clocks verzichten und Designs nutzen, die dann eh bei 3,5-4 Ghz sich wohl fühlen.
---------
Ich bin mal gespannt was man mit Z1 und Z1 Extreme in besonders niedrigen TDPs herausholen kann. 5-10W. Da dürfte die Bandbreite nicht limitieren. Und je breiter (CUs und CPUs) desto geringer die notwendigen Taktraten für das jeweilige fps target. Müsste also effizient sein, breit zu sein. Dank dem Shrink und den moderneren uArchs würde ich gerade im niedrigen TDP Bereich sinnvolle Fortschritte sehen. Denn 5-10W sind notwendig, wenn man sinnvoll mit einem Handheld spielen will (3-4h sind IMO absolutes Minimum) und nicht nach 1,5 h leer ist.
davidzo
2023-04-27, 14:54:46
Hab 4 * 196mm² ~ 800mm² LPDDR5 mitgerechnet.
I/O 150mm²
GPU ~200mm²
2 * CPU ~150mm²
Erinnert schon fast an 1/4 von MI300 :-) mit eigenem I/O.
Ob Stacking oder wie in der ersten Skizze neben dem I/O hängt vom verfügbaren Platzbedarf und Kosten ab.
Ich würde den LPDDR5 nicht mitrechnen. Ersten sind das Packagemaße und keine DIE-Fläche, zweitens braucht es dafür keinen Interposer. Flipchip und µbumps sind völlig okay für LPDDR.
Zen5 wird ja mit niedrigerer Diesize als Zen4 gehandelt, obwohl ich da noch nicht so ganz dran glauben kann bei N4.
Nimmt man 2x 70mm2
+ io/die mit 150mm2 in N6 (statt 122mm2 bei Zen4)
+ 150mm2 GCD (ausgehend von 207mm von N33 minus Speicherinterface)
In N5 wäre ein 32CU GCD sogar eher nur 100mm2 ohne den Analogteil.
Das wäre also noch voll im Rahmen, in Summe zwischen 350 und 450mm2 je nachdem wieviel N4/N5 Anteil dabei ist.
Das Package müsste natürlich etwas breiter sein, aber wohl noch keine Fiji oder Vega Ausmaße. Apple zeigt das ja mit dem M1pro, der 2x 128bit LPDDR Packages verwendet und ca. 30x70mm groß ist.
mboeller
2023-04-27, 15:05:52
Nur so ein Gedanke, aber Strix Halo sollte sich doch auch sehr gut als Basis für eine PS5- od. XBX-Pro und mit anderen Chiplets auch als Basis für eine PS6 etc eignen.
Wenn AMD Strix Halo für Highend-Notebooks bringt sollten die Chiplet-Nachteile (mm², Verbrauch) gegenüber Monolitisch ja nur noch gering sein. Oder?
basix
2023-04-27, 15:46:53
Es gibt 3 Gründe, die gegen ein eigenes Die sprechen:
1.) für nur ein Produkt legt man kein neues Chiplet auf... das wäre ja nur und auschließlich Premium-Notebooks ohne diskrete Grafik, die nicht Strix Point sind.
2.) Warum überhaupt ein Chiplet, wenn man kein bisheriges verwenden will? Das Ding hätte man in dem Falle doch monolithisch machen können.
3.) Was spielt der hohe Takt für das Produkt für eine Rolle? Hier gehts um Effizienz, das wird eh nicht stark über 5GHz takten.
Nein, das wird ganz normal Zen5c. Wir haben ja jetzt geleakt bekommen, dass Zen5c auch ein 16C-CCX sein wird, man kann das also dann auch problemlos mit VCache aufrüsten. Das ist genau das richtige Ding für die Halo-APU.
Ich bin schwer überzeugt, dass Strix Halo mit normalen Zen 5 8C CCDs und somit 2x CCD-Chiplets kommt ;) Chiplets legt man also nicht neu auf. Und bei Strix Halo geht es ganz klar um maximale Performance bei kleinem Formfaktor. Da wäre Zen 5c hinsichtlich Stromverbrauch und MT schon gut, nur ist ST in vielen Anwendungen immer noch sehr wichtig.
Und bei Zen 4c wird es mMn keinen V-Cache geben. V-Cache ist für maximale ST-Performance und viel Throughput entscheidend und nicht für viele Threads und Microservices. Bei Zen 5c hängt es vom Chiplet-Design ab (16C CCX?) doch auch dort erwarte ich keinen V-Cache Support.
CrazyIvan
2023-04-27, 20:21:08
Hab 4 * 196mm² ~ 800mm² LPDDR5 mitgerechnet.
I/O 150mm²
GPU ~200mm²
2 * CPU ~150mm²
Erinnert schon fast an 1/4 von MI300 :-) mit eigenem I/O.
Ob Stacking oder wie in der ersten Skizze neben dem I/O hängt vom verfügbaren Platzbedarf und Kosten ab.
Achso, inkl. Speicher. Ja, obwohl der sehr wahrscheinlich auf dem Package sein wird und damit auch für dessen Größe von signifikanter Bedeutung ist, klammere ich den gedanklich gern aus :wink:
CrazyIvan
2023-04-27, 20:33:52
@HOT
Danke für Deine Ausführungen. Aber ich bin da ganz genau bei basix.
Und das gilt tatsächlich auch für Robbis Kommentar: Sustained können die Zen5 Kerne natürlich nicht mit Vmax betrieben werden. Aber wenn Strix Halo nicht (auch und vor allem) für Top Dog lightly threaded bursts designt sein sollte, dann weiß ich auch nicht.
latiose88
2023-04-27, 22:08:12
kommt immer drauf an.Man kann aus einem Single Thread Anwendung bzw Fall auch Multi threaded machen.Man muss dazu mehr als 1 Programm gleichzeitig Starten.Dann kommt man auch zu mehrt zu Multicore Leistung in Frage.Dann geht das dann auch wieder klar.
CrazyIvan
2023-04-28, 00:21:33
Und wie viele Spiele spielst Du üblicherweise so parallel - Frage für einen Freund.
latiose88
2023-04-28, 02:16:56
Na ich bin kein richtiger Zocker. Ist nur mehrere Anwendung gleichzeitig.
Oder spiele ein Spiel und lasse in Hintergrund eine Anwendung die gewisse anforforderungen die Kerne hat.
Wenn es nach den games geht was ich so zocke dann kann man da echt nur das ist doch garnix drauf antworten. Ist einer der nur alte games zockt ein richtiger Zocker?
Nun das ist halt einfach zu wenig.
ChaosTM
2023-04-28, 02:26:27
Das hab ich gerade erlebt..
Star Citizen - Und nebenbei was zu machen wollen - der 5900er macht das ganze viel einfacher als der deutlich schnellere (bei Spielen) 5800X3D..
Ich hab beide CPU`s und wechsle die regelmäßig*
*gelegentlich..
CrazyIvan
2023-04-28, 10:57:02
Anscheinend sollte hier nicht zwischen den Zeilen formuliert werden, deshalb mein Punkt noch einmal ganz explizit: Hier wird gerade argumentiert, dass AMD die mit Abstand mächtigste, je von ihnen gebaute, iGPU womöglich mit Zen5c kombinieren wird. Also einer CPU, die nur den halben L3 aufweist und noch dazu vermutlich nur mit um die 4Ghz Vmax laufen wird - wenn überhaupt. Das ist IMHO völlig unglaubwürdig.
amdfanuwe
2023-04-28, 13:06:31
Hier wird gerade argumentiert, dass AMD die mit Abstand mächtigste, je von ihnen gebaute, iGPU womöglich mit Zen5c kombinieren wird. Also einer CPU, die nur den halben L3 aufweist und noch dazu vermutlich nur mit um die 4Ghz Vmax laufen wird - wenn überhaupt. Das ist IMHO völlig unglaubwürdig.
Halte ich schon für denkbar, jedoch nicht mit Gamern als Zielgruppe.
Wenn AMD nach belieben ZEN5 oder 5c verbauen kann, gibt das verschiedene Produkte für unterschiedliche Zielgruppen.
Baukasten halt.
Zielgruppe lokalisieren, geeignetes Produkt zusammenstellen und der $ klingelt.
bbott
2023-04-28, 16:06:04
Das hab ich gerade erlebt..
Star Citizen - Und nebenbei was zu machen wollen - der 5900er macht das ganze viel einfacher als der deutlich schnellere (bei Spielen) 5800X3D..
Ich hab beide CPU`s und wechsle die regelmäßig*
*gelegentlich..
Klingt nach: Am besten beide verkaufen und auf 7950 Upgraden
Thunder99
2023-04-28, 16:40:59
Klingt nach: Am besten beide verkaufen und auf 7950 Upgraden ��
Wenn schon 7950X3D um die Vorteile beider Welten zu haben :)
latiose88
2023-04-28, 18:03:56
@amdfanuwe
Na blos nicht.Dann würde die Anwendungs CPU deutlich teurer sein als es jetzt mit den 16 Kernen so ist.Weil Gamer CPU wären dann deutlich preiswerter und Workstation bzw Woker CPU wie eine x950 halt dann deutlich mehr wert wäre.
Es sei denn die Software außerhalb der Games profitiert von der selektion so gut das man auch abstriche machen kann.
Mir wurde gesagt das ne Umwandlungs Programm von den Forderungen bzw Anforderungen wo es profitiert wie halt Cinchebench oder wie Richtung 3dMark entspricht.Wenn es da so viele % sind,kann man es auch bei Handbrake und anderen Konsorten auch so sehen.
Man kann es wohl nicht 1 zu 1 aber so als Richtwert sehen.
Bin gespannt ob das immer so zutreffen wird.Wer weis.Ich weis seid dem wenn erste Ergebnisse kommen werden wo ich zuerst schauen sollte für Ergebnisse.
Bleibt nur zu hoffen das AMD und Intel trotz der veralteten Software durch sowas was dabei raus kommen wird.Da bin ich ja mal gespannt drauf.
dildo4u
2023-05-01, 11:48:31
Paar Werte der Phönix IGP mit LPDDR5x 6400.
https://cdn.videocardz.com/1/2023/05/7840H-IGPU-GAMING.jpg
https://videocardz.com/newz/amd-phoenix-fp8-and-fp7-packages-pictured-ryzen-7040hs-and-7040h-series-share-the-same-specs
robbitop
2023-05-01, 12:28:33
Wäre interessant zu wissen bei welcher TDP. 7735 = Rembrandt / 6800U @28W. Je nach TDP ist der Vorsprung von Phoenix ziemlich meh.
ETAPrime hat bereits ein Phoenix Geräte und macht bescheuerte Videos ohne Vergleich zu Rembrandt (oder überhaupt irgendwelche Referenzpunkte). Toll wie viel besser ist Phoenix denn nun? :rolleyes:
Und besonders praxisrelevant: wie sieht es mit sub 15 W aus? Kann Phoenix da Rembrandt deutlich schlagen? Wer ernsthaft monil spielen will, will nicht nach 1,5h wieder laden sondern 3-4 mindestens zocken können. Entsprechend muss man unter 15 W und zwar deutlich in der Praxis.
Aber die modernen APU Videos holen sich alle einen auf die Performance bei völlig praxisuntauglichen TDPs runter. Schön, dass Phoenix schnell bei 30 W ist. Aber so hängst du ständig an der Steckdose. „mobile“ Gaming?
bbott
2023-05-01, 13:24:58
Wenn schon 7950X3D um die Vorteile beider Welten zu haben :)
Habe natürlich das 3D vergessen 😂
latiose88
2023-05-01, 18:10:33
genau sowas in 15 Watt mit Onbaord GPU hätte ich mir für den Nachfolge Laptop gewünscht gehabt.Aber da die Preise zu hoch und nicht kaufbar waren wurde es nix draus.Mein Laptop ein i7 4700HQ mit 20 Watt gedrosselt war dann kühl gewesen aber Leistung war so unterirdisch.Zum einfachen Surfen hat es aber gereicht.Sobald dann HD Videos zum schneiden waren ,dann brach der Laptop zusammen.Youtube Ruckelte teilweise auch aber nur in höheren Auflösung.An sowas wie Videoumwandeln war ja da eh nicht zu denken gewesen.Nur dann nervte mal das zu wenig Arbeitsspeicher weil mal wieder sich der Laptop aufgehangen hatte da voll war oder sich mal wieder neugestartet weil Windows auch zu wenig hatte.Schuld war dann der Browser weil irgend so ne blöde Webseite mal wieder so viel Ram verballert hatte.Ich musste da immer aufpassen wohin ich mit dem Laptop im Internet Surfe.Ich hielt das schon ne Zeitlang aus,aber irgendwann war mir das zu blöd gewesen.Und 180 Gb als C als war auch wenn man Videos schneidet viel zu wenig gewesen.Ich suchte dann letztes jahr bzw war ja Ende 2021 gewesen nach einem neuen Laptop.
Daraus wurde nix,darum auf einen meiner Pcs auf einen anderen Platz verschoben.Leicht war es nicht aber so ist es halt.Nun müsste ich aber wirklich um richtig nach Strom zu sparen mit so ne APU Laptop zulegen.Idle ist Nummer 1 bei meinem Fall.Nur zu 20% Vollast,der rest sind leichte Sachen.Die AMD sind mit mehr als einen Chiplet ja eh wo mehr Strom verballern.Nun ja,ich warte lieber noch,wird schon noch werden.
Leider werden solche APU nicht in einen 17 " Laptop verbaut und wenn doch mit einen erheblichen Aufpreis.Sowas wie mehr Speicher oder Arbeitsspeicher also mehr als 8 gb zahlt man schon erheblich mehr dafür.Wobei das bestimmt nun nach Corona sich gebessert haben dürfte.
Nun ich weis noch nicht so recht ,weil das ist keine billige Anschaffung von 800€.So viel wird das schon kosten.Immer ist ne Dedizierte GPU mit dabei.Diese zahlt man ja auch mit und macht es unnmöglich wirklich günstige Laptops zu bekommen.
Dabei war ich sogar bereit gewesen auf nur 6 Kerne runter zu gehen.4 Kerne wollte ich nicht mehr machen weil das wäre ja keine richtige mehrleistung gewesen.Klar 25 % mehrleistung aber das merkt man bei von Haus aus zu wenig Leistung ja auch nicht wirklich.
Bei mir ist halt der Punkt wo es sich schneidet.Das macht die Sache auch nicht so Leicht.Geld ist halt nur begrenzt vorhanden.Und richtig Sparen muss man auch.400€ im Jahr zu sparen dürfte ich schon schaffen.Wenn ich heute was Plane kann ich mir 2 Jahre später was kaufen.
So muss man das Planen.Aber dann ist das ja wieder veraltet und wartet auf den nächsten bis der wieder beim Preis passt.Vielleicht ja dann was großes 3-4 Jahre später.So lange muss man für was gutes sparen im leben.Ich gewöhne ich schon mal dran,weil ist ja normal das ganze.Gebraucht braucht man nicht schauen,weil billiger sind die auch nicht.Wenn man die Preise so anschaut wird einem da nur schlecht.
Das alles haben wir solchen Herstellern zu verdanken die den Gebrauchtmarkt ja trocken legen wollen.Naja wenn die nix verkaufen wollen,sollen sie es ruhig sagen,habe damit kein Problem.Muss ich halt mit dem unzufriedenen Laptop weiter leben.
KarlKastor
2023-05-01, 19:26:05
Wer ernsthaft monil spielen will, will nicht nach 1,5h wieder laden sondern 3-4 mindestens zocken können. Entsprechend muss man unter 15 W und zwar deutlich in der Praxis.
Pauschaler Quatsch. Jeder der nicht den halben Tag am Stück zockt, der spielt nicht ernsthaft?
Wenn die Zugstrecke nur maximal 1.5 h dauert, dann sind 1.5 h ausreichend. Das wird zB auf fast alle Pendler zutreffen.
Mal ein bisschen über den Tellerrand schauen. Bedürfnisse sind vielfältig und TDPs über 15 W ganz sicher interessant.
robbitop
2023-05-01, 20:24:16
Und dann willst du das Ding ständig laden - dann ist der Akku ratz fatz hin. Bereits die Launch Switch wurde initial für ihre Akkulaufzeit kritisiert (Laufzeit damals 3-4h). Die Laufzeit wurde dann mit den 16 nm SoCs erst besser.
Mag sein, dass es für Manche akzeptabel wäre. Aber man kann auch weniger niedrige Ansprüche haben. Jeder ist heute mit seinen Smart Devices gewohnt, dass hohe Akkualufzeit vorhanden ist. Selbst Notebooks mit <6 h werden kritisiert. IMO völlig zu Recht.
Kritik am Steamdeck Nr 1 ist die Akkulaufzeit (und das bei einem 15W TDP Limit). Laut Steams Umfragen der Steamdecknutzer und der Reviews. Das scheint also schon Gewicht zu haben.
Klar dank TDP Slider kann es sich am Ende jeder selbst einstellen - ich gehe aber jede Wette ein, dass lasche Akkulaufzeiten die Mehrheit nervt. Selbst wenn es gerade so für eine Session reicht - das Ding ständig nachladen zu müssen und kaum Reserve zu haben ist unschön.
latiose88
2023-05-01, 20:35:38
Ja das Problem habe ich ja schon bei Handy.Da wo mein 1 Jahr altes Handy abgesteckt um kurz vor 8 Uhr und dann wieder zurück um 17 Uhr schon nur noch 30 % habe.Dabei mache ich nicht viel mit dem Handy.Wenn es da schon so ist,dann wird es beim Laptop nicht besser.Mich nervt echt das Ständige laden und fürs herum tragen und nix tuen habe ich gewiss kein Handy gekauft.Da ist es dann für das nix tuen bei rund 75% der Akku noch beim Handy.
Beim Laptop wäre das ne Katastrope. Am Pc selbst will man ja Ordentliche leistung haben.Ich kenne keinen der wo Leistung braucht dann das ganze System freiwillig sehr stark runter drosselt.
So ein 7950x mit nur 15 Watt stelle ich mir als hart vor.Da bleibt am Ende keine Leistung mehr übrig.Wie es wo anderst aussieht,kann man sich so vorstellen.
robbitop
2023-05-01, 20:41:03
Bei Notebooks (ultra leichte) ist es ja auch ein Segen. Die guten liefern >10h. Zt auch 16h. Damit hat man so viel Reserve, dass man einen extralangen Arbeitstag ohne Strom schaffen kann. Die Zeiten, ständig nach einer Steckdose Ausschau zu halten sind vorbei. IMO ist ständiges Laden etwas von Gestern wenn es um mobile Devices geht.
dildo4u
2023-05-03, 15:38:11
AMD Werte zu 7840u vs Apple M2/Core i7-1360P
https://www.theverge.com/2023/5/3/23709251/amd-ryzen-7040-u-apple-m2-intel-laptop-cpu-apu
GPU wird mit max 2.7Ghz für 780m beworben.
MSABK
2023-05-03, 22:01:26
https://www.notebookcheck.com/AMD-Radeon-780M-iGPU-im-Test-AMDs-neue-RDNA-3-GPU-stellt-sich-der-Konkurrenz.713689.0.html
780M ist jetzt nicht soo viel schneller, wurde zwar nur mit 4800er Ram getestet aber mit 6400 erwarte ich da keine großen Steigerungen. Dennoch eine gute Apu.
BlacKi
2023-05-03, 22:09:46
https://www.notebookcheck.com/AMD-Radeon-780M-iGPU-im-Test-AMDs-neue-RDNA-3-GPU-stellt-sich-der-Konkurrenz.713689.0.html
780M ist jetzt nicht soo viel schneller, wurde zwar nur mit 4800er Ram getestet aber mit 6400 erwarte ich da keine großen Steigerungen. Dennoch eine gute Apu.etwa 30% darf man da schon erwarten. rein vom ram her.
ich frag mich halt, warum man so ein NB überhaupt anbietet mit 4800er ram. die rdna3 wird das eiskalt von rdna2 überholt. der test ist die reinste rufschädigung.
Zossel
2023-05-03, 22:30:09
genau sowas in 15 Watt mit Onbaord GPU hätte ich mir für den Nachfolge Laptop gewünscht gehabt.Aber da die Preise zu hoch und nicht kaufbar waren wurde es nix draus.Mein Laptop ein i7 4700HQ mit 20 Watt gedrosselt war dann kühl gewesen aber Leistung war so unterirdisch.Zum einfachen Surfen hat es aber gereicht.Sobald dann HD Videos zum schneiden waren ,dann brach der Laptop zusammen.Youtube Ruckelte teilweise auch aber nur in höheren Auflösung.An sowas wie Videoumwandeln war ja da eh nicht zu denken gewesen.Nur dann nervte mal das zu wenig Arbeitsspeicher weil mal wieder sich der Laptop aufgehangen hatte da voll war oder sich mal wieder neugestartet weil Windows auch zu wenig hatte.Schuld war dann der Browser weil irgend so ne blöde Webseite mal wieder so viel Ram verballert hatte.Ich musste da immer aufpassen wohin ich mit dem Laptop im Internet Surfe.Ich hielt das schon ne Zeitlang aus,aber irgendwann war mir das zu blöd gewesen.Und 180 Gb als C als war auch wenn man Videos schneidet viel zu wenig gewesen.Ich suchte dann letztes jahr bzw war ja Ende 2021 gewesen nach einem neuen Laptop.
Klingt eher nach typischen Windows-Nerv-Dreckskacke als nach HW-Problemen.
Knall mal ein vernünftiges OS auf die Kiste.
MSABK
2023-05-03, 22:31:40
etwa 30% darf man da schon erwarten. rein vom ram her.
ich frag mich halt, warum man so ein NB überhaupt anbietet mit 4800er ram. die rdna3 wird das eiskalt von rdna2 überholt. der test ist die reinste rufschädigung.
Ist halt eine der wenigen erhältlichen Geräte und hat auch eine dGPU. Da werden schon mehr tests kommen.
latiose88
2023-05-03, 23:48:18
Klingt eher nach typischen Windows-Nerv-Dreckskacke als nach HW-Problemen.
Knall mal ein vernünftiges OS auf die Kiste.
Also Windows 7 ist bestimmt keine Dreckskake oder meinst du damit das der Zustand des Betriebsystems Müll ist.Naja der Laptop ist im Grunde ne Fehlkonsturktion.Sobald volle Power,geht der Takt höher als dieser vom Hersteller vorgesehen.Temps sind sehr hoch und super laut.Klar könnte man die defekte HDD raus nehmen und die SSD gegen ne größere Tauschen und Kühlung erneuern.Aber langsam bleibt die kiste dennoch.
Und ich wollte den Laptop sparsamer machen.Habe die Regler bei CPU der Funktion herunter geregelt.Durch das ging der CPU Takt runter,temps waren auch gut und so.Nur eines ging stark runter,die Leistung.Die nur 2x4 gb sind zu wenig.Ich müsste also locker 200€ in diese Laptop rein Stecken.Lohnt sich aber nicht mehr,weil die CPU Leistung wird dennoch zu wenig sein.So oder so nen neuer Laptop muss irgendwann mal her.
robbitop
2023-05-07, 09:28:15
Van Gogh im Steam Deck ist bis ~12 W immernoch besser als selbst der 7840U:
https://youtu.be/WDqg6YEBgus
Bis 10 W sogar sehr deutlich.
Offenbar ist die Konfiguration einfach besser für low TDP als die großen 8C / 12 CU APUs und man hat die Voltagecurves ggf besser gemacht.
Er sagt, dass Z1 wohl auch bessere Voltagecurves hat. Muss man also den ROG Ally Launch am 5.11. abwarten.
Sehr schade, dass das Steamdeck mit 40Wh einen sehr kleinen Akku hat. Die anderen Handhelds haben grob 60 Wh.
etwa 30% darf man da schon erwarten. rein vom ram her.
ich frag mich halt, warum man so ein NB überhaupt anbietet mit 4800er ram. die rdna3 wird das eiskalt von rdna2 überholt. der test ist die reinste rufschädigung.
Im 3dmark sind es 4-9% Gewinn mit 6400er RAM, siehe Update. Vielleicht ist es je nach Spiel ein wenig mehr, aber wir wissen aus anderen Tests mit 6400er RAM bereits, dass die 780M nur so im Bereich 10-20% vor der 680M liegt. Das sind alles Tests mit größerem Power Budget von 50 Watt oder so, vielleicht sieht es im low power Bereich ein wenig anders aus.
Wie ist eigentlich das hier zu verstehen:
Zudem hat uns heute noch die Information von AMD erreicht, dass der maximale Takt der 780M doch nur bei 2.700 MHz und nicht 2.800 MHz wie bei unserem Testgerät liegen wird. Sobald wir weitere Testgeräte bekommen, werden wir diesen Artikel entsprechend ergänzen.
Da AMD aber mittlerweile kommuniziert hat, dass der maximale Takt der Radeon 780M nur bei 2,7 GHz anstatt 2,8 GHz (wie bei unserem Testgerät) liegen wird, könnte der Leistungsvorteil auch bei schnellerem RAM sehr überschaubar ausfallen.
Wird die Taktfrequenz jetzt nochmal nach unten korrigiert oder was soll das heißen? Ist das nur ein Prototyp was die getestet haben?
dildo4u
2023-05-07, 11:30:33
Die Dinger sind massiv Bandbreiten limitiert mehr als 2.7Ghz verpuffen vermutlich komplett, die 12CU Version ist laut AMD maximal 2X zum 4 CU Modell.
Nicht vergessen selbst Krüppel wie RX6400(12CU) haben extra Cache weil sie sonst verhungern würde.
robbitop
2023-05-07, 11:32:45
Also im obigen Video von The Phawx sind es eher 30% für die 780M. Mehr Details gibt es hoffentlich zum 11.5.
Wie stark der Vorsprung ggf von Taktraten kommt und wie viel von den stärkeren CUs.
Also im obigen Video von The Phawx sind es eher 30% für die 780M. Mehr Details gibt es hoffentlich zum 11.5.
Wie stark der Vorsprung ggf von Taktraten kommt und wie viel von den stärkeren CUs.
Das liegt an der CPU würde ich sagen, bei 150-200 FPS geht es stärker auseinander. Der Test ist kaum lesbar, da fehlen alle Details. Welcher RAM, welche settings, welches 6800U Gerät, welche Spiele, Treiberversionen. Typischer youtube Müll.
reaperrr
2023-05-07, 14:13:15
Vielleicht ist es je nach Spiel ein wenig mehr, aber wir wissen aus anderen Tests mit 6400er RAM bereits, dass die 780M nur so im Bereich 10-20% vor der 680M liegt.
Ist auch irgendwie logisch.
Die RDNA3-IGP hat dieselben Transistor-Sparmaßnamen wie N33 (nur 128KB Register usw.), da die IPC schon bei N31 nur ~11% über RDNA2 liegt, wäre ein zweistelliger IPC-Vorteil bei den IGPs schon eine positive Überraschung.
RDNA3 hat zwar auch eine verbesserte Pipeline hinsichtlich Delta Color Compression, aber der Vorteil wird in der "IPC"-Verbesserung wohl schon enthalten sein und wohl auch generell nicht groß sein.
Der Rest muss vom Takt kommen, und da scheint RDNA3 wohl generell nicht der große Sprung zu sein.
etwa 30% darf man da schon erwarten. rein vom ram her.
Nie im Leben.
Erstens sind selbst IGPs nie so hart und konstant im Bandbreitenlimit, dass sie konstant und linear mit der Bandbreite skalieren würden. Da bremst oft genug auch mal PowerTarget oder Rohleistung allgemein.
Zweitens spielt gerade für GPUs auch die RAM-Latenz eine Rolle, und die ist bei 6400er gerne mal massiv höher als bei 4800/5200er.
Die reale Speicherperformance skaliert schon für sich genommen also nicht 1-zu-1 mit dem Takt.
KarlKastor
2023-05-07, 15:28:39
Van Gogh im Steam Deck ist bis ~12 W immernoch besser als selbst der 7840U:
https://youtu.be/WDqg6YEBgus
Bis 10 W sogar sehr deutlich.
Offenbar ist die Konfiguration einfach besser für low TDP als die großen 8C / 12 CU APUs und man hat die Voltagecurves ggf besser gemacht.
Bei gleichem OS liegt der 7840 schon bei 15W knapp 40% vorne.
Man bräuchte eh ein paar mehr Benchmarks. Aber van Gogh skaliert schon eklatant schlecht über 9W.
Ich bin gespannt ob der Z1 mit Optimierungen untenrum zulegen kann. Im Bereich 15 W sind das gut aus.
robbitop
2023-05-07, 15:37:56
Das liegt an der CPU würde ich sagen, bei 150-200 FPS geht es stärker auseinander. Der Test ist kaum lesbar, da fehlen alle Details. Welcher RAM, welche settings, welches 6800U Gerät, welche Spiele, Treiberversionen. Typischer youtube Müll.
Ja das stimmt :)
robbitop
2023-05-07, 16:10:43
Bei gleichem OS liegt der 7840 schon bei 15W knapp 40% vorne.
Man bräuchte eh ein paar mehr Benchmarks. Aber van Gogh skaliert schon eklatant schlecht über 9W.
Ich bin gespannt ob der Z1 mit Optimierungen untenrum zulegen kann. Im Bereich 15 W sind das gut aus.
Ich finde sub 10 W super interessant, da dann die Akkulaufzeit erst richtig annehmbar wird. Nach zT unter 2h wieder laden? Meh :-/
Wirklich krass dass ein 7nm SoC in dem unteren Bereich noch so gut dasteht. Aber mal sehen was Z1 dort schafft.
Was ich schade an den neuen Handhelds finde: sie haben diese Mousepads vom Steamdeck nicht. Entsprechend kann man Strategie/Aufbau leider vergessen. Auf dem Steamdeck sieht das in Videos relativ annehmbar aus. :)
Lehdro
2023-05-08, 14:09:01
Ich finde sub 10 W super interessant, da dann die Akkulaufzeit erst richtig annehmbar wird. Nach zT unter 2h wieder laden? Meh :-/
Sehe ich genauso, man sollte unter 10W anpeilen damit es wirklich Mobile wird. Noch dazu bleibt es dann potenziell leiser und Kühler, bzw. mehr Spielraum für ein eventuelles OLED Display.
Wirklich krass dass ein 7nm SoC in dem unteren Bereich noch so gut dasteht. Aber mal sehen was Z1 dort schafft.
Das kommt halt dabei heraus wenn das Ding dafür konzipiert wurde, während der Z1 halt die höheren TDPs als Ziel hat. Ein zielstrebig für sub 10W konzipierter Chip würde sicherlich deutlich besser laufen. Oder man muss halt per Hand mit einer besseren V/f Curve ran. Wobei der Van Gogh Chip noch andere Eigenheiten mitbringt, gerade im Bezug auf Speicherzugriffe. (https://chipsandcheese.com/2023/03/05/van-gogh-amds-steam-deck-apu/)
Was ich schade an den neuen Handhelds finde: sie haben diese Mousepads vom Steamdeck nicht. Entsprechend kann man Strategie/Aufbau leider vergessen. Auf dem Steamdeck sieht das in Videos relativ annehmbar aus. :)
Ist es auch. Du kannst Sachen wie Civilization ezpz auf dem Steamdeck spielen ohne den Touchscreen zu beschmuddeln, ein riesiger Vorteil imo. Verstehe bis heute nicht wieso diese Dinger so gehatet werden.
davidzo
2023-05-09, 12:00:44
Das kommt halt dabei heraus wenn das Ding dafür konzipiert wurde, während der Z1 halt die höheren TDPs als Ziel hat. Ein zielstrebig für sub 10W konzipierter Chip würde sicherlich deutlich besser laufen. Oder man muss halt per Hand mit einer besseren V/f Curve ran. Wobei der Van Gogh Chip noch andere Eigenheiten mitbringt, gerade im Bezug auf Speicherzugriffe. (https://chipsandcheese.com/2023/03/05/van-gogh-amds-steam-deck-apu/)
Wobei ich vorsichtig wäre das nur auf die GPU+CPU selbst zurück zu führen solange wir nicht wissen was genau gemessen wurde. Zwei unterschiedliche Geräte haben völlig andere Voltage rails und Power management und systembedingt unterschiedliche Static power. Und da AMD normalerweise keine shunts verwendet sondern den powerdraw per firmware berechnet muss das auch nicht vergleichbar kalibriert sein. Misst man die device power an der Wand, dann kann alleine eine etwas hellere Displaybeleuchtung oder ein anderes peripheriegerät wie ne Tastatur den Unterschied machen.
Die Steamdeck bzw. Van Gogh profitiert sicherlich nicht wenig von seinem zusammengestrichenen i/o-Block. Man verwendet außerdem LPDDR5 der für 6400 gerated ist, betreibt den aber nur mit 5500mt/s Takt, auch sicherlich nicht ohne Grund. Connectivity, USB power rails und verfügbare i/o Bandbreite machen auch einiges an static power in so einem SOC aus. Ich denke der Sockelbetrag an Power einer vollwertigen Notebook-APU liegt auch ohne GPU und CPU schon wesentlich höher als bei der Steamdeck.
Trotzdem ist es sehr respektabel was Valve da rausgeholt hat. Das heißt man hat trotz ambitioniertem Zeitplan, geringer Erfahrung mit mobile devices und Firmware nicht bei der Entwicklung des Powermanagement gespart wie sonst bei so viele devices.
mboeller
2023-05-11, 20:54:32
Asus ROG Ally Z1 Extreme im Test - Gaming-Handheld mit 120-Hz-Display und AMD Zen4
https://www.notebookcheck.com/Asus-ROG-Ally-Z1-Extreme-im-Test-Gaming-Handheld-mit-120-Hz-Display-und-AMD-Zen4.714963.0.html
wie erwartet eher hitzig und eine geringe Spielzeit mit Akku
robbitop
2023-05-12, 06:39:27
Und auch der Z1 verliert in 10 W noch gegen Van Gogh. Trotz 1,5 Nodes Vorteil (4nm vs 7 nm), 2x Gemerationen neuere CPU und 1x Generation neuere GPU. Was hat AMD da gemacht?
MSABK
2023-05-12, 07:21:47
Könnte rdna3 einfach „Schrott“ sein?
dildo4u
2023-05-12, 07:43:04
Steam Deck wird bald für AAA unspielbar sein daher verstehe ich die Vergleiche nicht man sieht doch wie absurd CPU limitiert die neuen PC Ports sind.
Für Ultra Low Power APU kommen ja extra neue Kerne von Intel und AMD, die sind aber nicht fürs Gaming gedacht.
Relic
2023-05-12, 08:17:25
Und auch der Z1 verliert in 10 W noch gegen Van Gogh. Trotz 1,5 Nodes Vorteil (4nm vs 7 nm), 2x Gemerationen neuere CPU und 1x Generation neuere GPU. Was hat AMD da gemacht?
Naja du vergleichst aber auch einen SOC, der für den Handheld Einsatz designed wurde, gegen eine 0815 Notebook SoC ,der mit solchen TDPs normalerweise nie gefahren wird.
robbitop
2023-05-12, 08:26:55
Naja laut AMD ist der Z1 für Handhelds gemacht. ;) Soll besonders für low tdp optimierte voltage curves haben.
Aber mal ehrlich was ist an VanGogh so besonders an low tdps ausgelegt was Phoenix nicht ist? weniger CPU und GPU Kerne? Kann man in Phoenix sicherlich auch deaktivieren.
Ganz ehrlich für den Fortschritt der da an uArch und Fertigungssprüngen kam, kann man da schon mehr erwarten. Insbesondere wenn der Z1 besondere Optimierungen für den Handheldbetrieb in der v/f curve bekommen hat (und auch dort hätte man modes einfügegen können, die Einheiten bei bestimmten TDPs deaktiviert, sofern das Vorteile bringen sollte - ich glaube nicht dran, denn soweit ich mich erinnere, haben solche Tests mit Rembrandt jedenfalls keine Vorteile gebracht in low tdps).
Steam Deck wird bald für AAA unspielbar sein daher verstehe ich die Vergleiche nicht man sieht doch wie absurd CPU limitiert die neuen PC Ports sind.
Für Ultra Low Power APU kommen ja extra neue Kerne von Intel und AMD, die sind aber nicht fürs Gaming gedacht.
So extrem viel schneller ist der Z1 auch in 15 W nicht. Man muss schon richtig aufdrehen mit der TDP, damit es ein krasser Unterschied wird. Und wenn man das macht, ist der Handheld nach ner Stunde leer. :uclap:
Insofern sind lowTDPs leider eine Notwendigkeit wenn man auch wirklich mobil spielen will.
Und da ist Z1 echt enttäuschend - da hätte ich richtig Fortschritt erwartet.
Könnte rdna3 einfach „Schrott“ sein?
Ich glaube da muss man zwischen full blown RDNA3 in N31/32 mit der kleineren Variante in N33/Phoenix unterscheiden. Full blown RDNA3 hat etwas mächtigere CUs (mehr Register und mehr Cache) aber ist irre fett geworden (Transistoren). Die kleinere Variante ist zwar kein riesen Fortschritt aber man scheint ein wenig mehr pro mm² Silizium herauszuholen. Also kein Schrott aber auch kein Fortschritt, den man von einer neuen uArch erwartet IMO.
-----------------------
Was schade ist: kein Vergleich der input latency mit Framelimiter. Gerade ein 40 fps Framelimiter macht bei Handhelds Sinn, um Akkuleistung zu sparen. Kostet aber immer leider auch Latenz. Ich frage mich, ob der ROG Ally hier deutlich besser ist als das Steamdeck. Dort legt die Latenz ja leider ordentlich zu.
Auch sollte VRR in Kombination mit dem Framelimiter super interessant sein, da es beim Unterschreiten nicht die Frametimes so übel zerlegt.
Was man auch testen könnte ist kein Framelimiter, einfach VRR arbeiten lassen und einen TDP Betriebspunkt einstellen. Was ist die sinnvollste Methode Energie zu sparen und trotzdem eine möglichst gute Spielerfahrung zu haben? Framelimiter mit hoher TDP (so dass die TDP nur ausgereizt wird, wenn es schwierig wird die Framerate zu halten) vs TDP Limitierung aber mit enger TDP.
mironicus
2023-05-12, 08:40:55
Der CPU-Part ist enorm viel schneller als im Steamdeck, laut Geekbench mehr als doppelt so schnelle Single Core-Performance. Da sollte kein emuliertes Switch-Spiel mehr Probleme machen. Wenn man eine externe GPU anschließen will, sollte es praktisch keine Nachteile geben wenn man es mit einem Spielelaptop vergleicht.
Könnte rdna3 einfach „Schrott“ sein?
Und so wird wieder richitger Schwachsinn in die Welt gesetzt...
Warum hat das Ding ne niedrige Akkulaufzeit? Na weil es nicht, anders als das Steam-Teil, in irgendeinen Stromsparmodus geht, der läuft einfach mit voller Leistung weiter. Geht aus dem Test übrigens hervor, wenn man ihn gelesen hätte...
Bitte macht es nicht so wie beim angeblich hohen Zen Idle-Verbrauch, das Märchen hält sich ja auch nach wie vor hartnäckig, obwohl das längst debunked ist.
aufkrawall
2023-05-12, 08:48:45
Was schade ist: kein Vergleich der input latency mit Framelimiter. Gerade ein 40 fps Framelimiter macht bei Handhelds Sinn, um Akkuleistung zu sparen. Kostet aber immer leider auch Latenz.
Wenn der in-game Limiter gut ist, verringert der eher die Latenz gegenüber 60 ungelockten.
Relic
2023-05-12, 09:07:17
Naja laut AMD ist der Z1 für Handhelds gemacht. ;) Soll besonders für low tdp optimierte voltage curves haben.
Aber mal ehrlich was ist an VanGogh so besonders an low tdps ausgelegt was Phoenix nicht ist? weniger CPU und GPU Kerne? Kann man in Phoenix sicherlich auch deaktivieren.
Es sind viele kleine Sachen, die aber in der Summe scheinbar sehr viel ausmachen:
1. Man hat bewusst Zen2 statt Zen3 benutzt
2. Man hat das Memory System angepasst, dass die CPU überhaupt nur ein Teil der Bandbreite bekommt.
3. Taktverhalten des Chips ist ganz anders als bei einem Desktop/Laptop SOC
Alles Sachen um möglichst viel Leistung aus der GPU zu holen und nur das nötigste aus der CPU. Und je niedriger die TDP desto eher schlagen diese Optimierungen durch.
Artikel Hierzu: https://chipsandcheese.com/2023/03/05/van-gogh-amds-steam-deck-apu/
Und das mit Z1 ist für Handhelds gemacht ist weißt du selbst, dass das nur Marketing BS ist. Es ist nun mal das gleiche Silizium und dieses Silizium ist für Notebooks mit ganz anderen Anforderungen designed worden. Da helfen auch keine leicht angepassten Voltage Kurven.
robbitop
2023-05-12, 09:21:02
Wenn der in-game Limiter gut ist, verringert der eher die Latenz gegenüber 60 ungelockten.
Ja leider hat nicht jedes Spiel einen variablen Framelimiter. Gibt welche die haben gar keinen und welche die bieten dann bloß 60 und 30 fps an.
Also würde mich auch interessieren, wie die externen Framelimiter abschließen.
Der CPU-Part ist enorm viel schneller als im Steamdeck, laut Geekbench mehr als doppelt so schnelle Single Core-Performance. Da sollte kein emuliertes Switch-Spiel mehr Probleme machen. Wenn man eine externe GPU anschließen will, sollte es praktisch keine Nachteile geben wenn man es mit einem Spielelaptop vergleicht.
Ist aber erst schneller als das Steamdeck bei 15W. Auch Zen 4 braucht etwas TDP bevor er die Beine ausstrecken kann. Mit hohen TDPs ist das Gaming dann nach einer Stunde oder so zuende. :-/
robbitop
2023-05-12, 09:23:45
Es sind viele kleine Sachen, die aber in der Summe scheinbar sehr viel ausmachen:
1. Man hat bewusst Zen2 statt Zen3 benutzt
2. Man hat das Memory System angepasst, dass die CPU überhaupt nur ein Teil der Bandbreite bekommt.
3. Taktverhalten des Chips ist ganz anders als bei einem Desktop/Laptop SOC
Alles Sachen um möglichst viel Leistung aus der GPU zu holen und nur das nötigste aus der CPU. Und je niedriger die TDP desto eher schlagen diese Optimierungen durch.
Artikel Hierzu: https://chipsandcheese.com/2023/03/05/van-gogh-amds-steam-deck-apu/
Und das mit Z1 ist für Handhelds gemacht ist weißt du selbst, dass das nur Marketing BS ist. Es ist nun mal das gleiche Silizium und dieses Silizium ist für Notebooks mit ganz anderen Anforderungen designed worden. Da helfen auch keine leicht angepassten Voltage Kurven.
Ich hab den Artikel natürlich gelesen. Und ja diese Änderungen haben offenbar wesentliche Vorteile gebracht. Aber dennoch sprechen wir hier von +1,5x Fullnodesprüngen und deutlich neueren uArchs. Dafür ist das Ergebnis trotz dessen einfach enttäuschend IMO. Ich hätte jedenfalls mehr erwartet.
Und so viel schneller als Rembrandt ist man mit Phoenix (immerhin noch 1 Fullnode Sprung und +1 uArch Gen) auch in hohen TDPs nicht. Van Gogh wird ab 15W deutlich geschlagen ja.
-----------
Mein Fazit:
Wer möglichst lange mit Akku (SoC TDP </=10W) spielen will und wenig Geld ausgeben will und auch mal ein Spiel was Maus braucht spielen will. -> Steamdeck für 419 € + 512 GB microSD für 35 €. (das lässt sich um bis zu 0,1 V nochmal undervolten um nochmehr aus dem 10 W TDP Punkt herausholen zu können)
dildo4u
2023-05-12, 09:30:41
Nintendo wird vermutlich erst 2024 nachlegen weil selbst ARM noch nicht dort ist wo man massiv besser Performance plus 5 Stunden Akku haben kann.
Apples Lösung für M2 ist zur Zeit auch nur den Verbrauch zu steigern und das Budget für die Entwicklung ist dort relativ zu AMD gesehen unlimitiert.
robbitop
2023-05-12, 09:40:22
M2 hat ggü M1 halt keinen Fertigungssprung bekommen. M3 sollte dank 3 nm wieder nach vorn gehen.
Eine Art Steamdeck mit M2 wäre schon interessant. Würde mich nicht wundern, wenn man bei 10 W und nativem Support von Metal und ARM da nicht jegliche SoCs zerblasen würde.
Bei Nintendo würde ich nicht viel erwarten. Die nehmen eigentlich nie bleeding edge. Würde mich nicht wundern, wenn die wieder 1-2 Generation alten Gammel anschleppen weil's billiger ist (sowohl in Bezug auf Fertigung als auch auf uArch der GPU und CPU). Das wird pro W nicht der Renner sein gemessen am allerneusten was es sonst in der ARM Welt gibt.
dildo4u
2023-05-12, 09:56:13
Nintendo war imo sehr konservativ da sie vorher eine massiven Flop hatten (WiiU) wenn sie mit Switch 2 fast Garantiert sind wieder 100Mio Geräte abzusetzen kann man vermutlich ganz andere Verträge abschließen.
robbitop
2023-05-12, 09:59:22
Sie haben abseits vom Gamecube immer sehr konservativ die HW gewählt. Ob es vorher einen Flop oder einen Erfolg gab spielte da keine Rolle.
Würde mich nicht wundern, wenn sie 2024, wenn Blackwell rauskommt und man die Nuvia Cores und der Cortex X4 und 3 nm der Standard für mobile SoCs sein wird Nintendo dann mit Ampere, A78 und 7 oder 8 nm um die Ecke kommt. (7 nm kam 2018 in die ersten mobile SoCs...)
fondness
2023-05-12, 10:15:47
Und auch der Z1 verliert in 10 W noch gegen Van Gogh. Trotz 1,5 Nodes Vorteil (4nm vs 7 nm), 2x Gemerationen neuere CPU und 1x Generation neuere GPU. Was hat AMD da gemacht?
Phoenix ist für 15-45W designed, Van Gogh für sub 15W mit klarem Fokus auf Gaming. Das Chips ineffizient werden, wenn sie außerhalb des TDP-Bereichs betrieben werden ist nun wirklich keine bahnbrechend neue Erkenntnis.
fondness
2023-05-12, 10:34:54
Apples Lösung für M2 ist zur Zeit auch nur den Verbrauch zu steigern und das Budget für die Entwicklung ist dort relativ zu AMD gesehen unlimitiert.
Phoenix vs. M2 ist zumindest ein fairer Vergleich, da selber Fertigungsprozess. Und da sieht der M2 zumindest laut den AMD Benchs eher bescheiden aus. Mal sehen was unabhängige Benchs bringen, aber man muss hier nicht so tun als ob Apple irgendwo voraus wäre. Sie hatten lange Zeit einen erheblichen Fertigungsvorsprung.
robbitop
2023-05-12, 10:40:07
Die Frage ist bei welchen TDPs AMD da verglichen hat. Müsste man mal unabhängig nachstellen.
Leider gibt es nicht viele Anwendungen und Spiele die nativ auf x86 und auf ARM / Metal laufen. Aber ein paar schon. Und die sollte man bei gleicher TDP testen. Würde mich wundern, wenn Phoenix da mithalten kann insbesondere bei niedrigen TDPs.
dildo4u
2023-05-12, 10:44:20
Phoenix vs. M2 ist zumindest ein fairer Vergleich, da selber Fertigungsprozess. Und da sieht der M2 zumindest laut den AMD Benchs eher bescheiden aus. Mal sehen was unabhängige Benchs bringen, aber man muss hier nicht so tun als ob Apple irgendwo voraus wäre. Sie hatten lange Zeit einen erheblichen Fertigungsvorsprung.
M2 ist Interessant weil sie die Software beherrschen wer weiß wie lange es dauert bis die AI Blöcke von AMD genutzt werden wenn sie die dritte Kraft hinter Intel und Nvidia sind was Marktanteile angeht.
Davon ab das wieder nur die High-End Chips die nötige Hardware haben und vermutlich deutlich mehr Refresh Zen 3 Notebooks verkauft werden als Zen4.(Auf 2023 bezogen)
davidzo
2023-05-12, 13:16:18
Phoenix vs. M2 ist zumindest ein fairer Vergleich, da selber Fertigungsprozess. Und da sieht der M2 zumindest laut den AMD Benchs eher bescheiden aus. Mal sehen was unabhängige Benchs bringen, aber man muss hier nicht so tun als ob Apple irgendwo voraus wäre. Sie hatten lange Zeit einen erheblichen Fertigungsvorsprung.
Naja, so ganz Waffengleich sind sie auch nicht. Phoenix ist 20% größer und 8P Kerne mit 15-30W cTDP die in CPUlast auch voll ausgereizt werden.
Der M2 hat nur 4P + 4E Cores und weniger Transistoren, ist im "älteren" N5 Verfahren gefertigt und hat zwar eine 25W TDP die er aber in reiner CPUlast nicht ansatzweise erreicht. Und diese TDP inkludiert auch schon den DRAM on package.
Bei Singlecore last sind beide ähnlich schnell, der M2 braucht mit rund 5 Watt allerdings nur ein Drittel der Energie die Phoenix für seinen hohen Turbotakt braucht. Bei Multicore Last hat Phoenix die Nase vorn, bei auch höherem Verbrauch. Hier zieht eben das breitere Design mit mehr P-Cores, SMT etc. - Bei gleichem Power Draw wären breite CPUs wie der der M2pro noch besser.
Bei der GPU ist AMD vom Featurelevel natürlich vorne, aber krankt an der Bandbreite und Integration. Da sehe ich das Systemdesign mit SLC Cache vom M2 vorne.
Als entrylevel Mobilprozessor sehe ich beide gleich auf. M2 Geräte bieten weiterhin die besseren Akkulaufzeiten, während Phoenix beim Featurelevel und Multithread performance überzeugt.
Ich bin aber eher die Zielgruppe für einen M2pro und da sehe ich Dragon Range noch nicht konkurrenzfähig da er mit der nötigen dGPU deutlich den sinnvollen TDP Rahmen sprengt.
davidzo
2023-05-12, 13:28:28
Aber mal ehrlich was ist an VanGogh so besonders an low tdps ausgelegt was Phoenix nicht ist? weniger CPU und GPU Kerne? Kann man in Phoenix sicherlich auch deaktivieren.
Naja, die Crossbar innerhalb eines 4-Kern CCXs hat halbsoviele stops und hat im Valle der VG Implementierung auch eine viel kleine Anbindung an das InfinityFabric. Das spart sicher einiges an Energie ohne dass die Latenzen zu sehr leiden. Dafür ist eben die sustained Multicore performance in vielen anwendungen schlecht, weshalb man sowas nicht in einem normalen Notebook haben möchte.
Ganz ehrlich für den Fortschritt der da an uArch und Fertigungssprüngen kam, kann man da schon mehr erwarten. Insbesondere wenn der Z1 besondere Optimierungen für den Handheldbetrieb in der v/f curve bekommen hat (und auch dort hätte man modes einfügegen können, die Einheiten bei bestimmten TDPs deaktiviert, sofern das Vorteile bringen sollte - ich glaube nicht dran, denn soweit ich mich erinnere, haben solche Tests mit Rembrandt jedenfalls keine Vorteile gebracht in low tdps).
Selbst wenn du versuchst alles mögliche zu power gaten wird aus einem 25Mrd Transistoren Notebook Chip kein custom Low power SOC mit nur 10Mrd. Die 24 PCIe Lanes, 2x USB4 Controller, etc. brauchen eben ein Fabric wwelches gut 3x größer ist als das für eine custom built APU wie VG.
Interessant wäre es imo mal den Teillast und Idle Energieverbrauch der APUs zu vergleichen. Und mich würde nicht wundern wenn Phoenix hier einfach schon unabhängig von den CPU-cores und der IGP 2-3Watt höher liegt als VG, einfach wegen dem viel größeren Chip, mit viel größeren i/o Kapazitäten.
robbitop
2023-05-12, 14:08:46
Man kann nur hoffen, dass Valve nicht zum letzten Mal eine custom APU auflegen hat lassen. Man stelle sich den Performancesprung mit einer 3nm oder 4nm Variante, die auf <15W designt ist mal vor.
Was auch nett wäre: ein IF$ für den gesamten SoC. Selbst wenn der von der Bandbreite her nicht nötig wäre, würde er Energiesparen (lokale Datentransfers sind energetisch günstiger als zum externen RAM).
dildo4u
2023-05-12, 14:10:59
CPU Tests@ 65 und 130 Watt.
mdWAfPfYTnU
Interessant beim Intel passiert nicht viel über 130 Watt hätte ich anders erwartet.
Zen 4 ermöglicht besser Emulation
vTwyjArlsaI
Zossel
2023-05-13, 08:28:05
Van Gogh im Steam Deck ist bis ~12 W immernoch besser als selbst der 7840U:
https://youtu.be/WDqg6YEBgus
Bis 10 W sogar sehr deutlich.
Offenbar ist die Konfiguration einfach besser für low TDP als die großen 8C / 12 CU APUs und man hat die Voltagecurves ggf besser gemacht.
Das könnte auch das besser angepasste OS sein, Steam hat ja einigen Aufwand mit AMD zusammen ins Powermanagement gesteckt.
IMHO ist der Kram auch mittlerweile upstream.
mironicus
2023-05-13, 08:33:31
https://www.wired.com/review/asus-rog-ally/
Unterschiede in der Effizienz: Spielt man ein Titel wie Stardew Valley kann man es 7 Stunden (6 Watt Verbrauch) auf dem Steam Deck spielen, 6 Stunden auf der Switch und nur 2,5 Stunden auf dem Ally (16-20 Watt Verbrauch).
dildo4u
2023-05-13, 09:31:10
Hier klingt es extrem Positiv Apple M2 ist unter 9k und zieht dafür 22 Watt.
Der M2 erreicht im gleichen Test 8.723 Punkte und benötigt dafür 22 Watt.
https://www.golem.de/news/macbook-pro-14-mit-m2-max-im-test-ein-besseres-notebook-gibt-es-aktuell-nicht-2301-171371-2.html
Zusätzlich haben wir uns noch angesehen, wie die Leistung bei geringeren Power Limits ausfällt, sowohl im Multi-Core- als auch Single-Core-Betrieb. Vor allem im Single-Core-Betrieb ist uns hierbei aufgefallen, dass der Verbrauch bei maximal knapp 16 Watt liegt und der Z1 Extreme damit deutlich effizienter agiert, als der Ryzen 9 7940HS. Wir wissen, dass der Z1 Extreme speziell auf einen geringen Verbrauch optimiert sein soll, hier müssen wir also noch abwarten, ob die regulären U-Serie-Chips sich ebenso verhalten.
TDP Cinebench R23 Multi Cinebench R15 Single
40 Watt 14.643 Punkte 280 Punkte
35 Watt 14.172 Punkte 280 Punkte
30 Watt 13.463 Punkte 280 Punkte
25 Watt 12.450 Punkte 280 Punkte
20 Watt 11.043 Punkte 280 Punkte
15 Watt 9.020 Punkte 275 Punkte
9 Watt 5.191 Punkte 218 Punkte
Zum Vergleich: Ein aktueller Core i7-1360P erreicht bei 35 Watt gerade einmal 10.627 Punkte und liegt damit satte 25 % hinter dem Z1 Extreme mit 14.172 Punkten. Selbst mit 20 Watt ist der Z1 Extreme noch marginal schneller (11.043 Punkte). Der eigentlich Konkurrent, der Core i7-1355U, den wir beispielsweise im aktuellen Zenbook S 13 OLED mit 44/17 Watt getestet haben, erreicht gerade einmal magere 7.015 Punkte und im Yoga 7i 16 G8 mit 50/25 Watt auch nur 10.252 Punkte.
Bei 35 Watt ist der Z1 Extreme sogar etwas schneller als der Ryzen 9 7940HS, der 13.723 Punkte erreicht hat. Selbst bei 9 Watt ist die Leistung insgesamt noch mehr als beachtlich, was interessante Optionen für passiv gekühlte Geräte bietet.
https://www.notebookcheck.com/AMD-Ryzen-9-7940HS-in-der-Analyse-Zen4-Phoenix-ist-im-Idealfall-so-effizient-wie-Apple.709916.0.html
basix
2023-05-13, 13:03:52
Sieht gut aus :)
Gegenüber Apple ist eigentlich nur der Idle Stromverbrauch und bei Single Thread Effizienz schlechter. Bei Single Thread könnte man leicht mit reduziertem Takt entgegenwirken, auf Kosten von etwas Performance.
robbitop
2023-05-13, 18:15:52
Naja MT Synthie. Viel interessanter wäre wie sich Realworldanwenfungen oder Spiele in engen (sub 10W) TDP Envelopes geben. Resident Evil ist glaube ich mit nativem ARM und Metal Support. Das könnte man sich mal jeweils bei 9-10 W anschauen.
Der_Korken
2023-05-13, 19:03:45
Ich finde es gut, dass Notebookcheck auch die Leistung/Watt vergleicht und dabei Rembrandt besser abschneidet als Phoenix - nämlich dann, wenn Phoenix die Brechstange auspackt. Bei der ST-Effizienz hat Apple schon vorher Kreise um alle gedreht, d.h. gleiche Performance wie der 7735HS bei halbem Verbrauch (bei Notebookcheck scheint was kaputt zu sein, weil der M2Pro angeblich doppelt so effizient sein soll wie der M2Max, afaik lagen Apples APUs bei ST-Last sonst immer so bei 7-8W, d.h. halb so viel wie Rembrandt's 15-16W). Phoenix liefert 19% mehr ST-Leistung bei knapp 40% Mehrverbrauch. Und das trotz "nur" 5,2Ghz, also mehr Taktdefizit auf die Desktopspitze wie bei Zen 3.
Es ist schwierig zu sagen, ob das nur an den Kernen liegt oder ob auch der SoC hier so krass säuft. Im Desktop fand ich den 6nm-SoC schon relativ underwhelming, dafür dass man vom alten GloFo-Prozess gekommen ist und der Stardew-Valley-Vergleich von mironicus deutet es ebenfalls an. Bei Notebookcheck haben sie 3,1W im Leerlauf gemessen, verglichen mit 1,7W bei Intel und 2,8W bei Rembrandt. Ist natürlich die Frage was bei leichter Last passiert. Bei meinem 5900X lag der Leerlaufverbrauch so bei 32W wenn RAM > 3200Mhz und 19W wenn RAM <= 3200Mhz. Allerdings springt bei letzterer Einstellung der Verbrauch sofort auf durchgehend 32W hoch, wenn irgendwo ein Epsilon CPU-Last anliegt (z.B. das Radeon-Overlay fürs Monitoring oder eine Hardware-Steuerung wie OpenRGB oder Razor Software, etc.). Da können die Kerne so effizient sein wie sie wollen, wenn der SoC schon mehr verbraucht als ein ganzer Kern unter Last, ist bei Niedriglast-Effizienz kein Blumentopf zu gewinnen.
robbitop
2023-05-13, 20:17:54
Ob das immernoch die IF ist die so durstig ist?
davidzo
2023-05-14, 13:11:01
Hier klingt es extrem Positiv Apple M2 ist unter 9k und zieht dafür 22 Watt.
TDP Cinebench R23 Multi Cinebench R15 Single
40 Watt 14.643 Punkte 280 Punkte
35 Watt 14.172 Punkte 280 Punkte
30 Watt 13.463 Punkte 280 Punkte
25 Watt 12.450 Punkte 280 Punkte
20 Watt 11.043 Punkte 280 Punkte
15 Watt 9.020 Punkte 275 Punkte
9 Watt 5.191 Punkte 218 Punkte
Wie gesagt ist das nicht der richtige Vergleich. Der M2 ist als entrylevel ultramobile CPU auch nicht für MT Workloads gebaut. Es braucht nicht viel grips um zu realisieren dass eine 8T CPU mit nur 4P kernen es in parallelen workloads nicht mit einer 16T 8P CPU aufnehmen kann. Schon Zen3+ ist in MT schneller als der M2. SMT ist eine Architekturelle Entscheidung die Leistungsgewinne in MT Vollast bringt selbst wenn dadurch der Takt fällt, aber Latenz, ST-performance und Effizienz kostet. Kann man machen, muss man aber nicht.
Ein größerer Chip mit mehr Parallelität wird unter Vollast immer sparsamer sein als ein schmaler Chip, der wiederrum Vorteile bei Teillast zeigt. Und ja, Phoenix ist eben größer als ein vanilla M2.
Nicht vergessen sollte man auch, dass die 10-Core GPU des vanilla M2 wesentlich fetter ist als die kleine 780m, da Apple in allen Notebookvarianten ohne diskrete Chips auskommen muss.
Der CPU-Teil ist so gesehen in dem kleineren Chip einfach kleiner als bei AMD.
Wenig überraschend gibt es dann auch kaum Leistungsunterschiede mehr wenn man den 4nm 8C/16T 7940HS mit dem 5nm 8P/12T M2 pro vergleicht.
Interessanterweise scheinen beide Cores zwischen 3 und 4Ghz ähnlich viel Energie pro Core zu verbrauchen. Apple holt naturgemäß etwas mehr Leistung pro Thread heraus, während AMD von der höheren Threadanzahl profitiert.
Es ist schon sehr beeindruckend wieviel IPC AMD aus einem teilweise nur halb so breiten oOo-Core extrahieren kann.
Und wenn man schon den Z1 für Effizienzvergleiche bemüht, dann doch bitte ebenfalls mit der F/V optimierten Version des M2, nämlich der tablet-Version und nicht der full power notebookversion. Diese erreicht sicherlich nicht das Z1 Leistungsniveau bei 35Watt, aber ich bin mir sicher dass bei praxisnahen 9-15Watt der M2 sehr gut aussieht.
IAfaik lagen Apples APUs bei ST-Last sonst immer so bei 7-8W, d.h. halb so viel wie Rembrandt's 15-16W).
Ich dachte 7W wäre der Gesamtverbrauch des Geräts?
Notebookcheck gibt für den M1 3,7Watt und den M2 5,3Watt Package Power bei ST an. Anandtech gibt für den M1 Mac mini bei ST load 6.3Watt wall power an. Und das ist der gesamte SOC und on Package DRAM, weshalb ein blick auf die wall power des Gesamtgeräts nicht schlecht ist wenn man sowas 1:1 mit AMD vergleichen will.
Es ist schon etwas traurig dass ein drei Jahre alter SOC immer noch state-of-the-Art bei der idle und Teillast Effizienz ist.
Und das meine ich nicht nur in Hinblick auf AMD Phoenix, sondern auch auf Apples M2.
dildo4u
2023-05-14, 13:26:20
Ich dachte Z1 ist Vergleichbar mit dem was in M2 Konkurrenz verbaut werden soll, nur der AI Teil fehlt.
Also Ultrabooks die um 30 Watt kühlen können.
fondness
2023-05-14, 14:29:56
Sieht gut aus :)
Gegenüber Apple ist eigentlich nur der Idle Stromverbrauch und bei Single Thread Effizienz schlechter. Bei Single Thread könnte man leicht mit reduziertem Takt entgegenwirken, auf Kosten von etwas Performance.
Genau so ist es. AMD legt für die letzten paar MHz absurde Spannungen an. Es reicht minimal mit dem takt runter zu gehen und man braucht pro core auch nicht mehr als Apple bei konkurrenzfähiger Leistung. Apple nutzt halt hier den tdp Spielraum schlicht nicht aus während AMD innerhalb der tdp immer versucht das maximum raus zu holen.
fondness
2023-05-14, 14:36:48
Naja MT Synthie. Viel interessanter wäre wie sich Realworldanwenfungen oder Spiele in engen (sub 10W) TDP Envelopes geben. Resident Evil ist glaube ich mit nativem ARM und Metal Support. Das könnte man sich mal jeweils bei 9-10 W anschauen.
Warum sollte man so niedrige TDPs wählen? Damit Apple gut dasteht? :-)
robbitop
2023-05-15, 10:20:33
Weil nur bei solch niedrigen TDPs echtes mobiles Gaming sinnvoll ist, wenn man nicht alle 1-2h an der Steckdose hängen will. Man schaue sich die Switch oder die PSP oder die Vita an. Die schafften 3-6h Akkulaufzeit. Kriegt das Steamdeck bei sehr niedrigen TDPs auch hin - dann verliert man aber überproportional Performance leider. :( Damit man 3-4h in dem Formfaktor spielen kann, bräuchte man bestmögliche Perf/W bei ~5-7W (SoC TDP).
Je niedriger die TDP desto besser der mobile Aspekt. Ich finde diese Gaminghandhelds super - aber sie vernachlässigen allesamt den kabellosen wirklich mobilen Aspekt. Die SoCs sind meiner Meinung nach zu durstig und verlieren zu viel Leistung bei wirklich sinnvollen TDPs. Auch Van Gogh. Und mir erscheint M2 skaliert bei 5-10W sicherlich besser. Für hohe TDPs gibts ja den M2 pro und den M2 Max.
fondness
2023-05-18, 10:57:40
Ja okay wenn du ausschließlich auf Handheld Gaming abzielst, aber dafür wurde Pheonix nicht designed (und der M2 im übrigen auch nicht). Im üblichen TDP-Bereich von ~25W mit dem im übrigen auch der M2 betrieben wird dürfte AMD mehr als nur konkurrenzfähig sein.
dildo4u
2023-05-18, 11:29:04
DF war recht Positiv was ROG Ally angeht es gab nur ein Bug mit Power Profilen daher noch keine Review.
https://youtu.be/ud0bZfyjo3Q?t=2089
fondness
2023-05-18, 11:35:36
DF war recht Positiv was ROG Ally angeht es gab nur ein Bug mit Power Profilen daher noch keine Review.
https://youtu.be/ud0bZfyjo3Q?t=2089
Es ist einfach nur traurig, dass man das Ding mit einem 1080p Display ausstattet. 720p ist bei der Display-Größe mehr als ausreichend und würde deutlich mehr Leistung freisetzen / Strom sparen.
dildo4u
2023-05-18, 11:37:26
FSR ist ein Ding du rennst das Meiste eh mit 720p und nutzt Upscaling.
DrFreaK666
2023-05-18, 11:42:36
FSR ist ein Ding du rennst das Meiste eh mit 720p und nutzt Upscaling.
Ein 1080p Screen schluckt dann trotzdem mehr.
Positiv ist, dass es Freesync hat. Da könnte Valve ruhig nachziehen
robbitop
2023-05-18, 11:51:01
Ja VRR und gern auch einen größeren Akku im Steamdeck 2. Und wenn möglich ein modernerer custom SoC in 4nm oder besser.
fondness
2023-05-18, 12:37:33
DF war recht Positiv was ROG Ally angeht es gab nur ein Bug mit Power Profilen daher noch keine Review.
https://youtu.be/ud0bZfyjo3Q?t=2089
Btw wenn ich mir die Werte ansehe, dann ist phoenix bei 15 Watt deutlich vor van Gogh mit 15 Watt. Wie der Autor schon sagt gibt es noch einen Bug in den Power Profilen, Asus hat nur 30 Watt, 25 Watt und 15 Watt hinterlegt. Jede wette, dass der Grund für das schwache abschneiden bei 12 Watt und kleiner an den Power Profilen liegt, der Einbruch von 15 Watt auf 12 Watt ist absurd hoch.
dildo4u
2023-05-18, 12:56:50
Wobei auch + 30% nicht so der Hit sind von 7 auf 4nm, daher hoffe ich das wir vor RDNA4 keine neuen Konsolen sehen.
fondness
2023-05-18, 13:09:09
Wobei auch + 30% nicht so der Hit sind von 7 auf 4nm, daher hoffe ich das wir vor RDNA4 keine neuen Konsolen sehen.
Bei der selben Bandbreite muss man erstmal +30% schaffen. Zumal schon van Gogh nicht zu viel Bandbreite hat. Der leistungsgewinn von 15 auf 30 Watt, ist gleich doppelte tdp(!) ist nicht sehr hoch, es liegt also eher nicht an der gpu Leistung.
dildo4u
2023-05-18, 13:12:36
Deck hat 5500 und Ally 6400 LPDDR5x.
KarlKastor
2023-05-18, 13:19:38
Selbe Bandbreite?
Edit: zu spät
Aber Phoenix kann ja eigentlich bis 7500. Da wäre ja noch ungenutztes Potential.
davidzo
2023-05-18, 16:06:43
Kann sein dass absichtlich nicht bis an die Grenze getaktet wird um den Verbrauch des Speichercontrollers im Zaum zu halten (mehr für die Cores).
Bei der Steamdeck sind auch 3,2Ghz Module verbaut, die nur mit 2,75 betrieben werden.
robbitop
2023-05-18, 16:32:18
LPDDR5-5500 im Steamdeck.
davidzo
2023-05-18, 20:01:21
LPDDR5-5500 im Steamdeck.
ja, sagte ich schon. laufen mit 2,75Ghz (5500), gerated sind sie aber für 3200mhz (6400): https://www.digikey.com/en/products/detail/micron-technology-inc/MT62F1G32D4DR-031-WT-B-TR/17631373
robbitop
2023-05-19, 12:36:22
Achso - interessant. Offenbar hat man genug Bandbreite für die GPU.
dildo4u
2023-05-19, 12:49:33
Kann das nicht mit ein Punkt sein warum der Vebrauch so gut ist?
Spannung sollte für 5500 deutlich konversativer sein.
davidzo
2023-05-19, 13:01:58
Ja, das könnte ein Grund sein wieso der idle Power floor so hoch liegt bei der Ally und bisherigen 7840U Geräten.
Wie ist das denn mit dowclocking und power gating von DRAM, geht das überhaupt oder muss man den immer mit dem training Takt vom POST betreiben? CPU cores und GPU lassen sich ja sehr gut Power gaten, das ist bekannt, aber wie siehts aus mit dem Speichercontroller?
Außerdem könnte es sehr gut sein dass die Bandbreite von LPDDR-5500 für die anliegenden GPU-Taktraten bei 10W (ca. 1Ghz) mehr als ausreicht. Der höher taktende Speichercontroller der Ally vebraucht also bei 10W einen größeren Anteil des Energiebudgets welcher dann bei GPU und CPU fehlt. Ein Taktverlausdiagramm würde vielleicht Aufschluss geben was da passiert.
Die Steamdeck hat jedenfalls ein besseres Verhältnis aus Shaderpower zu Bandbreite als die meisten diskreten GPUs. Und das sogar wenn man GPUs ohne großen LLC nimmt, z.B. die 5500XT, welche nicht gerade für ein Bandbreitenlimit bekannt ist.
Steamdeck bei vollem GPU-Takt: 55gb/s pro Tflop
5500XT: 43gb/s pro Tflop
Mehr hat wahrscheinlich einfach nichts gebracht in Valves internen Tests. Bei 2,2Ghz Takt für die RDNA2 Cores sähe das vielleicht anders aus.
Ja okay wenn du ausschließlich auf Handheld Gaming abzielst, aber dafür wurde Pheonix nicht designed (und der M2 im übrigen auch nicht). Im üblichen TDP-Bereich von ~25W mit dem im übrigen auch der M2 betrieben wird dürfte AMD mehr als nur konkurrenzfähig sein.
Für sogenannte ultrathin Notebooks eben, nur leider ist von Phoenix weit und breit nichts zu sehen. Ich kann noch nichtmal Listungen finden. Ach so es gibt dieses Modular Framework Laptop 13....mal eben nachgeschaut. Die nächste Lieferung mit Ryzen 7040 wird erst in Q4 erwartet :eek:
Es gibt nur von Asus ein paar 7940HS Modelle - und das seit Wochen oder Monaten. Haben die einen Exklusivdeal abgeschlossen oder warum sind die so weit vor den anderen damit im Markt? Es ist wirklich ein Drama, was sich derzeit abspielt. AMD hätte ein großes Zeitfenster gehabt bis Meteor Lake, welches sich immer mehr schließt.
Das Segment scheint von AMD generell vernachlässigt zu werden. Selbst bei Rembrandt, der seit mehr als 1 Jahr im Markt ist, ist das meiste 35W oder 45W. Die Auswahl mit 6600U oder 6800U ist sehr klein. AMD bietet in dem Segment hauptsächlich Lucienne und Barcelo an. Das sind keine guten Vorzeichen für Phoenix.
reaperrr
2023-05-19, 13:44:41
Kann das nicht mit ein Punkt sein warum der Vebrauch so gut ist?
Spannung sollte für 5500 deutlich konversativer sein.
Kann gut sein.
Allgemein darf man nicht unterschätzen, wie viel mehr Strom MemoryController+SI verbrauchen können, wenn für mehr Takt auch mehr Spannung her muss.
Kann mich noch gut an meine 470 (Ref-Design) erinnern, die bei den Standard-1V für MC/SI in Unigine Valley nur ~850 MHz schaffte, mit auf 925 mV reduzierter MC-Spannung dann plötzlich über 1 GHz. Da hat das Speichersubsystem bei 1V und entsprechender Auslastung scheinbar nicht wenig von den 85W ASIC-Power gefressen.
Bei dem geringen TDP-Spielraum im Steamdeck zählt jedes Watt, wenn man dadurch nur 2-3W einsparen konnte, bedeutet das wahrscheinlich gleich ein gutes Stück höhere/konstantere CPU/GPU-Taktraten, was wohl mehr Perf bringt als die 16% mehr Speichertakt das tun würden.
Dass auch der Speicher selbst weniger Spannung für 5500 braucht (und die 6400er Chips einfach besser für Undervolting geeignet waren als langsamere Chips), kann natürlich auch noch sein.
dildo4u
2023-05-19, 13:53:06
Für sogenannte ultrathin Notebooks eben, nur leider ist von Phoenix weit und breit nichts zu sehen. Ich kann noch nichtmal Listungen finden. Ach so es gibt dieses Modular Framework Laptop 13....mal eben nachgeschaut. Die nächste Lieferung mit Ryzen 7040 wird erst in Q4 erwartet :eek:
Es gibt nur von Asus ein paar 7940HS Modelle - und das seit Wochen oder Monaten. Haben die einen Exklusivdeal abgeschlossen oder warum sind die so weit vor den anderen damit im Markt? Es ist wirklich ein Drama, was sich derzeit abspielt. AMD hätte ein großes Zeitfenster gehabt bis Meteor Lake, welches sich immer mehr schließt.
Das Segment scheint von AMD generell vernachlässigt zu werden. Selbst bei Rembrandt, der seit mehr als 1 Jahr im Markt ist, ist das meiste 35W oder 45W. Die Auswahl mit 6600U oder 6800U ist sehr klein. AMD bietet in dem Segment hauptsächlich Lucienne und Barcelo an. Das sind keine guten Vorzeichen für Phoenix.
Das ist normal die HS Modelle können teurer verkauft werden da sie in Laptops mit 4070 bis 4090 landen, ein Macbook Konkurrent muss hingegen unter 1300€ erreichen.
Es ist wahrscheinlicher das wir dort den Zen3 Refrech sehen was reichen sollte da 15 Watt Modelle wie I7 1355U nur 2 P-Core haben.
In den Multi-Core-Tests ist die Leistung daher nur kurzzeitig konkurrenzfähig, denn schon im zweiten Durchlauf ist beispielsweise auch das passiv gekühlte MacBook Air M2 schneller (obwohl Cinebench R15 hier emuliert werden muss). Auch im Vergleich zum letztjährigen Zenbook S 13 mit dem Ryzen 7 6800U ist die Multi-Core-Leistung deutlich schlechter. Lediglich in den Single-Core-Tests sehen wir einen Vorsprung von maximal 20 % gegenüber dem Ryzen 7 6800U. Über alle CPU-Benchmarks hinweg liegt das neue Modell aber trotzdem 10 % hinter dem letztjährigen Zenbook S 13.
Im Akkubetrieb wird die Leistungsaufnahme noch etwas weiter reduziert und die Multi-Core-Leistung fällt um ~17 %; die um 3 % reduzierte Single-Core-Leistung ist aber vernachlässigbar.
https://www.notebookcheck.com/Asus-Zenbook-S-13-OLED-2023-im-Test-Das-weltweilt-duennste-OLED-Ultrabook-kaempft-mit-nervigen-Lueftern.709464.0.html
robbitop
2023-05-19, 14:28:16
Ja okay wenn du ausschließlich auf Handheld Gaming abzielst, aber dafür wurde Pheonix nicht designed (und der M2 im übrigen auch nicht). Im üblichen TDP-Bereich von ~25W mit dem im übrigen auch der M2 betrieben wird dürfte AMD mehr als nur konkurrenzfähig sein.
25 W ist dann der M2 Pro wahrscheinlich besser als M2 und raucht Phoenix dann dort auch wahrscheinlich weg (außer in MT Synthies). Der M2 wurde gerade wegen des iPads schon dafür entwickelt deutlich besser in besonders niedrigen TDPs zu sein und besonders niedrige idle Verbräuche zu haben.
latiose88
2023-05-19, 19:03:32
Das ist normal die HS Modelle können teurer verkauft werden da sie in Laptops mit 4070 bis 4090 landen, ein Macbook Konkurrent muss hingegen unter 1300€ erreichen.
Es ist wahrscheinlicher das wir dort den Zen3 Refrech sehen was reichen sollte da 15 Watt Modelle wie I7 1355U nur 2 P-Core haben.
https://www.notebookcheck.com/Intel-Core-i7-1355U-Prozessor-Benchmarks-und-Specs.678463.0.html
Hm das ist ja super schlecht,das erklärt auch warum ich so schlecht nen sparsamen Laptop mit großen Bildschirm bekommt.Das wird wohl darum nie was bei AMD.Da kann ich wohl echt lange warte bzw werde ich nicht mehr in meinem Leben daleben,leider.
CrazyIvan
2023-05-20, 09:29:11
Hm das ist ja super schlecht,das erklärt auch warum ich so schlecht nen sparsamen Laptop mit großen Bildschirm bekommt.Das wird wohl darum nie was bei AMD.Da kann ich wohl echt lange warte bzw werde ich nicht mehr in meinem Leben daleben,leider.
Die HS Modelle gab es auch immer in kleinen und leichten Chassis, wie beispielsweise das IdeaPad Pro von Lenovo. Die kann man hinsichtlich TDP begrenzen, sodass sie sich nahezu wie U Modelle verhalten (ist ja das gleiche Die). Dafür bekommst Du sogar noch etwas mehr Spitzenleistung, falls nötig. Siehe bspw. dieses sehr attraktive Modell mit Klasse Display - da juckt es mir direkt in den Fingern:
https://geizhals.de/lenovo-ideapad-5-pro-14arh7-storm-grey-82sj0032ge-a2782841.html?hloc=at&hloc=de
dildo4u
2023-05-20, 09:36:49
Die HS Modelle gab es auch immer in kleinen und leichten Chassis, wie beispielsweise das IdeaPad Pro von Lenovo. Die kann man hinsichtlich TDP begrenzen, sodass sie sich nahezu wie U Modelle verhalten (ist ja das gleiche Die). Dafür bekommst Du sogar noch etwas mehr Spitzenleistung, falls nötig. Siehe bspw. dieses sehr attraktive Modell mit Klasse Display - da juckt es mir direkt in den Fingern:
https://geizhals.de/lenovo-ideapad-5-pro-14arh7-storm-grey-82sj0032ge-a2782841.html?hloc=at&hloc=de
Das werden Refrech Modelle für 1000€ sein nicht Zen 4 was er möchte.
2023 Modelle unter 1500€.
https://geizhals.de/?cat=nb&bpmax=1500&v=l&hloc=at&hloc=de&sort=eintr&bl1_id=30&xf=6763_Ryzen+7000
I5oHS7CA6Qo
CrazyIvan
2023-05-20, 16:31:45
Ja klar, das war ein Rembrandt. Es ging mir allgemein darum, dass mindestens seit Cézanne viele HS SKUs in kleinen, dünnen, leichten Modellen verbaut werden und nicht per se schlecht sind.
OgrEGT
2023-05-20, 19:12:02
Von den Desktop APUs hört man gar nix mehr?
Mir würd ja schon der Rembrandt langen für passiv HTPC...
latiose88
2023-05-21, 00:01:35
ja genau ich wollte halt die APU Laptop haben.Sparsam,leise und vorallem kühl also ohne hitze Probleme.
Der Plan von hier ist ne sehr starke Plattform zu kaufen und sie dann eindrosseln,damit sie eben in das raster passen.Aber das ist halt nur nen blödsinn weil verbranntes Geld.
Ich wollte halt nen 17" mit ner CPU wo die GPU integriert ist.Wollte mit dem Laptop halt Surfen und VIdeos Umwandeln.Aber der Plan ging halt nach hinten los.
Ne dedizierte GPU treibt halt den Preis nach oben für einen Laptop.Und 1000€ wollte ich nicht für einen Laptop ausgeben.Es wäre so schön gewesen aber nein das sollte nicht sein.Dabei liest sich das garnicht mal so anspruchsvoll was ich mir vorgestellt hatte.
Damals war es ein Ryzen 7 5800H mit 2x8 gb DDR4 3600 bzw 3200,mindestens 512 GB SSD oder halt besser eine 1 TB SSD.Laufwerk habe ich was externes und der Preis ging immer weiter nach oben.Später dann auf dem 5600H oder 5600G geschielt gehabt.Aber der war nie wirklich Verfügbar gewesen.Geld war nicht das Problem,sondern nix kaufbar.Alles besser als nur mit 4 kernen.Ich kam ja von einem 4 Kerner mit HT 8 Thread aber leider halt mit nur 2x4 gb Ram und einer 320 GB SSD weil HD war die defekte drinnen gewesen.
Doch mehr als nur zu warten war es nicht.Es verging also mehr als 1 Jahr und ich hatte keine Lust mehr.Ich nahm einen meiner PCs und tauschte den Laptop gegen den Pc.Darum musste dann auch mein bester Kumpel seinen eigenen hinstellen.
Wäre es also verfügbar gewesen sähe es anderst aus.Und naja 750 € richtung 800€ für einen 6 Kerner ist halt schon hart gewesen.Und das alles nur weil ich 17 " Laptop haben wollte.
Nun ich stellte halt fest das ich mit dem 15" Laptop immer schlecht lesen konnte.Ich stellte sogar den Full HD auf 1600x900 runter um was zu erkennen.Zuletzt war es sogar auf 1280x720p gewesen.Es war allerdings verschwommen beim Desktop,also naja so begeistert bin ich von so ner hohen Auflösung bei 15 " eben nicht
Aber genau das war das Problem,ich drehte mich im Kreis.Den Optimalsten Laptop kam einfach nie.Und wenn ich heute noch mal vor kurzen geschaut hatte,hat sich an diese Lage noch immer nicht getan.ALso 2 Jahre fast stillstand.Ich bin irgendwie so überhaupt nicht begeistert.
AMD kann man ja fast schon aufgeben des Marktes unterstellen.Bei Intel blickte ich bei dem ganzen erst mal so garnicht durch.Wie gut war welche CPU gewesen.Preise waren bei Intel ebenso wenig wirklich gut.
Laptop also der Mobile Markt macht sich selbst kaputt.Also sind selbst 6 Kerne im Laptop zu viel verlangt,die wollen in niedrigen Preisbereich einen zum 4 Kerner wieder hinsteuern.So ist das doch.Ich bin da ja nicht doof.
Und auch wenn zum 4700HQ nen aktueller 4 Kerner Richtung 50 % Mehrleistung geht,so ist das halt zu wenig für mich.Und vor allem habe ich meist sehr viele Sachen am laufen.Der Laptop wäre mit dem nur 4 Kerner ziemlich stark überlastet.Das ist also nicht gut.Mir reicht das schon das der Laptop bei hohen Youtube VIdeos und sogar in HD geruckelt hatte sehr.
Produktiv den Laptop Nutzen ist so leider nicht möglich.6 Kerne wäre da echt ne richtige Produktive Nutzung im Laptop gewesen.
Vielleicht tut sich ja in Zukunft noch was,aber im Moment ist das halt was mieses.
KarlKastor
2023-05-21, 07:06:04
Kann das irgendwo in die Kaufberatung?
robbitop
2023-05-21, 08:22:19
Ich könnte mir vorstellen dass die Stückzahl die AMD für die echten APUs aufbringen kann bei TSMC mit Haut und Haaren im mobile Bereich (wo auch die Margen besser sind) aufgefressen werden. Fette APUs im Desktop scheinen ja auch eher Nische weil dort dGPUs einfacher passen. Immerhin sind die AM5 CPUs jetzt alle APUs mit IGP die zumindest gut genug für Video sind. Für mehr muss man halt eine günstige GPU nachstecken. Wer einen HTPC möchte ist bei der Shield IMO besser bedient.
dildo4u
2023-05-21, 08:29:53
Wäre interessant zu wissen ob die APU für Handheld deutlich schlechter sind und es deshalb möglich ist sie unter 1000€ zu verkaufen.
Das Einzige was bestätigt ist das der AI Teil fehlt.
robbitop
2023-05-21, 09:07:48
Z1 = Phoenix. Und bis dato performt 7840 (im GPD Win) besser als der Z1 E im Asus Ally ROG. Aber wahrscheinlich wegen besserer f/v curves und schnellerem ram im GPD.
OgrEGT
2023-05-21, 09:19:12
Ich könnte mir vorstellen dass die Stückzahl die AMD für die echten APUs aufbringen kann bei TSMC mit Haut und Haaren im mobile Bereich (wo auch die Margen besser sind) aufgefressen werden. Fette APUs im Desktop scheinen ja auch eher Nische weil dort dGPUs einfacher passen. Immerhin sind die AM5 CPUs jetzt alle APUs mit IGP die zumindest gut genug für Video sind. Für mehr muss man halt eine günstige GPU nachstecken. Wer einen HTPC möchte ist bei der Shield IMO besser bedient.
Was kann man denn mit der Zen4 IGP zocken? Eher nix oder?
Was mit der Shield? Android Games oder Geforce Now Cloud?
Auch nix...
dGPU dazu stecken... dann geht der kleine Formfaktor flöten...
Mein Wunsch 12RDNA2 oder 3 CUs als APU passiv im HTPC :)... vielleicht wirds ja noch was...
dildo4u
2023-05-21, 09:24:18
Für zufrieden stellende Performance braucht man mehr als DDR5, daher kommt Strix mit extra Caches.
Diese Chips werden ein anderen Sockel haben und nicht in AM5 passen.
Laut Digital Foundry reicht Z1 Extreme Grad so für PS4 Performance also Mainstream vor 10 Jahren.
robbitop
2023-05-21, 09:28:24
Was kann man denn mit der Zen4 IGP zocken? Eher nix oder?
Was mit der Shield? Android Games oder Geforce Now Cloud?
Auch nix...
dGPU dazu stecken... dann geht der kleine Formfaktor flöten...
Mein Wunsch 12RDNA2 oder 3 CUs als APU passiv im HTPC :)... vielleicht wirds ja noch was...
Beim HTPC zocken meinst du? Ist halt zu nischig für AMD. Die meisten Leute haben dafür eine Konsole. Alternativ: Kann man doch wunderbar über Steam Inhome Streaming oder Nvidia Gamestream machen oder man legt sich wie ich ein optisches HDMI Kabel zum TV.
So muss man HW nicht doppelt zahlen.
Gamestream kann übrigens 120 Hz mit hevc. Dann ist die Inputlatency ziemlich vernachlässigbar insbesondere mit Gamepad.
Ich habe beides: in meiner Mancave ist ein optisches HDMI 2.1 Kabel zum OLED verlegt. 4K 120 hz mit hdr ohne chroma subsampling.
Im Wohnzimmer und Schlafzimmer ist jeweils eine Shield und da funktioniert das auch wunderbar mit Gamestream und Xbox Gamepad.
Wenns unbedingt htpc Gaming sein soll und unbedingt lokale HW sein muss: IIRC gibts aber auch mittlerweile krass optimierte Gehäuse die mit iirc 5-6 Liter Volumen auch dGPUs erlauben. LTT zeigte da vor ein Monaten mal wieder einen unglaublich kleinen Build.
Ich war an der Stelle auch mal vor 10 Jahren. Aber irgendwie war das alles nichts mit HTPC. Irgendwas hat immer rumgemuckt und man musste doch ab und an mit Keyboard/Maus ran. Rumgefrickle im Wohnzimmer: bäh. Die Shield hat das komplett gelöst IMO. Hoffentlich kommt da mal ein Nachfolger.
Nightspider
2023-05-21, 23:18:52
Paar schöne X-Ray Die Shots:
https://twitter.com/FritzchensFritz/status/1659686660429459456
https://pbs.twimg.com/media/FwhiysEXoAIqa2k?format=jpg&name=4096x4096
https://pbs.twimg.com/media/Fwhi0GIWIAczWCG?format=jpg&name=4096x4096
Als Referenz nochmal Zen3 die shot:
https://i.redd.it/pa9c5mu9y2y51.jpg
Hier sieht man klar, das der V-Cache sich sogar noch über den L2 erstreckt. Wenn ich es richtig sehe, liegt er teilweise sogar über den Kernen. Wobei AMD an den Rand noch L1 gepackt hat, damit noch Gebiete ohne große Hitzeentwicklung unter dem V-Cache liegen.
https://abload.de/img/zen4d_x_raylsco6.jpg
Auf der linken Seite hätte ich den gelben Rahmen sogar noch ein paar Millimeter weiter nach links verschieben müssen, hab es nicht exakt getroffen.
Nightspider
2023-05-24, 07:50:50
Noch ein paar neue Bilder:
https://twitter.com/FritzchensFritz/status/1660803176314855426
https://pbs.twimg.com/media/FwxbRwbWcAAQgjV?format=jpg&name=4096x4096
Wie kommts, das die TSVs streifenförmig aussehen, auf dem Bild?
basix
2023-05-24, 09:29:47
Evtl. noch als Gedanke:
Das Cache-Chiplet ist ~40mm2 gross bei 64 MByte. Wenn man auf die Bitgrösse runterrechnet, kommt man auf ~0.078um2, was noch deutlich über dem theoretischen Limit von 0.027um2 von TSMC N7 liegt. Weiss nicht, ob man mit zusätzlichen Tricks im Metal-Stack usw. evtl. nochmals ~2x and Density rausquetschen könnte. Allenfalls nicht mit N7 aber N4/N5, wo man feinere Metal-Stacks realisieren kann.
KarlKastor
2023-06-05, 18:32:36
Analyse von semianalysis.
https://www.semianalysis.com/p/zen-4c-amds-response-to-hyperscale
Schon krass, wie viel da möglich ist.
Komplett gleicher Kern. Abspeckung beim IFOP. Nur 1/2 bis 1/4 der Bandbreite pro CCX. Keine Ahnung ob das relevant ist.
basix
2023-06-05, 19:10:06
"Cloud Native Cores" = Perfekte Konsolen CPU für Next Gen ;)
Nightspider
2023-06-05, 19:21:28
"Cloud Native Cores" = Perfekte Konsolen CPU für Next Gen ;)
Warum?
Die perfekten CPU Kerne für Games haben viel Cache.
Bis zur PS6 gibt es aber eh schon Zen6 und neue Fertigungs-und Packagingverfahren.
KarlKastor
2023-06-05, 19:30:44
PS5 hat auch nur halben Cache. Kostet halt alles Geld.
basix
2023-06-05, 19:43:16
Warum?
Die perfekten CPU Kerne für Games haben viel Cache.
Bis zur PS6 gibt es aber eh schon Zen6 und neue Fertigungs-und Packagingverfahren.
Klein und sparsam ;)
Bei den Konsolen kann man viel spezifischer auf den Cache der CPU optimieren. Und zudem steigt die L3$ Menge vermutlich deutlich an:
- PS5 mit Zen 2 = 2x 4C/8MByte
- PS6 mit Zen 6c = 1x 16C / 32 MByte oder so
Doppelte Cores, doppelte L3$ Menge. Vierfache L3$ Menge, welcher ein einzelner Core sinnvoll bearbeiten kann. Mit N3/N2 wird das wohl winzig klein werden (~40...50mm2), wenn es bei Zen 4c in N4 bereits nur 72.7mm2 gross ist (inkl. IFOP usw.!)
Zossel
2023-06-05, 19:49:43
https://www.semianalysis.com/p/zen-4c-amds-response-to-hyperscale
Sehr bemerkenswert:
AMD created Zen 4c by taking the exact same Zen 4 Register-Transfer Level (RTL) description, which describes the logical design of the Zen 4 core IP, and implementing it with a far more compact physical design.
basix
2023-06-05, 19:50:22
Bin ich auch gerade am durchlesen. Man staunt.
Auch hier zeigt sich: Durch Prozess-Nodes Shrinks erreicht man zum Teil weniger als mit Design-Optimierungen. Werden wir immer öfters sehen, insbesondere auch wegen Chiplets.
Tesseract
2023-06-05, 20:42:07
manches davon wie der andere SRAM-zellentyp fällt aber wohl kaum unter "design", das sind mehr oder weniger auch node-optimierungen. niedrigeres clocktarget und damit einhergehend andere spannungsanforderungen gehen auch teilweise in richtung node-optimierung.
basix
2023-06-05, 21:33:36
Klar sind da auch Node-Optimierungen dabei. Aber man legt das Design darauf aus. Bei Zen 4c ist auch der L3$ viel dichter gepackt (SRAM Zellen). Was, wenn Zen 5 mit einer entkoppelten L3$ Clock- & Voltage-Domain kommt und man den L3$ so dicht wie bei Zen 4c packen kann? Das Design beeinflusst hier also direkt, welchen SRAM-Zellentyp man wählen kann. Ohne entkoppelte Clock-Domain klappt das nicht.
Nightspider
2023-06-07, 20:25:40
Ich bin auf die Taktraten von Bergamo gespannt.
Samsung sollte die winzigen c-Cores vielleicht für Smartphone SoCs lizensieren. :ulol:
basix
2023-06-08, 10:30:18
Ca. 20% niedriger, was bei Server allerdings auslastungsabhängig auch weniger sein könnte. 3 GHz schaffen die Cores sicher, das ist dann eher eine TDP Frage.
Windi
2023-06-08, 16:32:40
Die Epyc Prozessoren takten ja nur so niedrig, weil sonst mit so vielen Kernen der Stromverbrauch viel zu hoch wäre.
Die Zen 4 Chiplets werden aber auch in Prozessoren verwendet, die bis auf 5,7 Ghz takten.
Das höchste was ich bisher von Bergamo gehört habe sind 3,1 Ghz.
Es könnte durchaus sein, das AMD das Design so angepasst hat, das kaum höhere Taktraten möglich sind. Ein großer Teil der Flächenersparnis soll ja daher kommen, das man vieles neu anordnen und dichter packen konnte. Und dies soll nur möglich sein, da man durch die neidrigeren Taktraten geringere Anforderungen an die Signallaufzeiten im Chip hat.
3,1 Ghz vs. 5,7 Ghz sind ein Unterschied von über 80%.
Das wird man im Desktop deutlich spüren können.
AMD muss sich genau überlegen, wo sie die Zen Xc Kerne einsetzen wollen.
In Bereichen, wo man sowieso niedrigere Taktraten nutzen möchte, macht es natürlich sehr viel Sinn.
basix
2023-06-08, 17:04:45
Wenn die Kerne bei 3 GHz nahe am Limit wären, wäre das schlecht. Weil dann wären sie bereits ineffizient. Ich erwarte in etwa Zen 2 Taktverhalten. Etwa 4.5 GHz oder etwas mehr und dann ist fertig.
latiose88
2023-06-08, 17:58:43
also zumindest so 4-4,3/4,4 ghz kann man schon erwarten.Recht viel mehr geht halt echt nicht.Ja selbst die Threadripper CPUs schaffen bis zu 4,6 ghz.Aber gut sind halt nicht so nah aneinander gepackt.Also zumindest von 4 ghz kann man wohl erwarten.Alles drunter ist zwar auch nicht so schlecht aber halt weniger beeindruckend.
amdfanuwe
2023-06-16, 11:32:17
Nachdem jetzt Bergamo und Genoa-X raus sind und diese das gleiche I/O wie Genoa verwenden, frage ich mich, wie Siena wird?
Siena bietet auch Platz für 8 Chiplets. Günstiger wird die Plattform durch nur 6 SI und weniger PICe.
Könnte AMD da gar teildefekte Genoa I/O verwenden?
Mit Platz für 8 Chiplets, SP6 hat gleiche Größe wie Milan SP3, könnte Siena mit 64C ZEN4 und 128Core ZEN4c bestückt werden?
basix
2023-06-16, 13:54:40
Nene, Siena sollte max. 4x Chiplets und 6ch DDR5 bieten. Dazu 96x PCIe 5.0 Lanes. 64C = 4x 16C Zen 4c.
Mit normalen 8C CCD sind dann halt nur 32C möglich, falls das überhaupt eine Option sein sollte. Evtl. bleibt es nur bei Zen 4c.
KarlKastor
2023-06-16, 15:03:02
Die Frage die sich stellt ist aber:
Warum nehmen die so einen riesen Sockel? Und wozu die ganzen Kontakte?
Zossel
2023-06-16, 16:24:26
Die Frage die sich stellt ist aber:
Warum nehmen die so einen riesen Sockel? Und wozu die ganzen Kontakte?
Bei den geringen Spannungen (Volt) braucht man *viel* Strom (Ampere).
basix
2023-06-16, 16:25:39
- Einfache Kühlung bei max. 225W
- Günstige Substrate mit weniger Layern (Kosteneffizienz)
- Kompatibilität mit SP3 Infrastruktur & Kühlern (selbe Sockel-Dimensionen), geringerer Engineering Effort
- M300 Derivat mit 2x Base Tiles und 4x HBM
Gibt also doch einige sinnvolle Gründe für die grosse Fläche ;) Die LGA 4844 ist von der Anzahl Pins her wohl etwas Overkill aber es wird vermutlich noch eine 2. und 3. Generation an CPUs auf diesem Sockel geben (bis und mit Zen 6).
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.