Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 5 (3/4 nm, 2024)
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
[
20]
21
Undertaker
2024-12-18, 11:29:38
Das wäre doch gleich die nächste merkwürdige Kombination ohne echte Zielgruppe - X3D für eine Positionierung im High-End Gaming CPU-seitig in Kombination mit einer 2 Jahre alten Mittelklasse-GPU-Performance im Dunstkreis einer RTX 4060? Eine solche CPU wäre als Paarung für eine 5080/5090 spannend, wo die CPU-Mehrleistung nicht GPU-bedingt verpufft.
Ein bisschen fürchte ich, dass AMD die entscheidende Marktlücke einfach nicht erkannt hat oder besetzen will: Eine 8-Kern-CPU mit RTX 5060er GPU-Leistung zu Systempreisen <1.000 Euro. Hier könnte man den VRAM-Vorteil als kostenfreien Mehrwert ggü. Nvidia verkaufen (zumindest, so lange es dort nur 8 GB gibt) und mMn richtig Marktanteil bei den Einstiegs-Gaming-Notebooks gewinnen. In Relation dazu müsste ein Strix Point dann allerdings auch in Richtung <800 Euro rutschen.
fondness
2024-12-18, 11:36:16
Das wäre doch gleich die nächste merkwürdige Kombination ohne echte Zielgruppe - X3D für eine Positionierung im High-End Gaming CPU-seitig in Kombination mit einer 2 Jahre alten Mittelklasse-GPU-Performance im Dunstkreis einer RTX 4060? Eine solche CPU wäre als Paarung für eine 5080/5090 spannend, wo die CPU-Mehrleistung nicht GPU-bedingt verpufft.
Das macht gerade in einem Notebook immer Sinn. Alleine schon weil die Effizienz durch den 3D-Cache deutlich steigt. Die frei gewordenen TDP kann man dann entweder für die GPU verwenden oder eben für leisere/effizientere Geräte.
Ein bisschen fürchte ich, dass AMD die entscheidende Marktlücke einfach nicht erkannt hat oder besetzen will: Eine 8-Kern-CPU mit RTX 5060er GPU-Leistung zu Systempreisen <1.000 Euro. Hier könnte man den VRAM-Vorteil als kostenfreien Mehrwert ggü. Nvidia verkaufen (zumindest, so lange es dort nur 8 GB gibt) und mMn richtig Marktanteil bei den Einstiegs-Gaming-Notebooks gewinnen. In Relation dazu müsste ein Strix Point dann allerdings auch in Richtung <800 Euro rutschen.
Den Billigheimer darf gerne Intel oder Qualcomm oder wer auch immer spielen. Achso die haben ja nichts gegen Strix Halo? Na dann. AMD besetzt sowohl im Serversegment schon länger, als auch im Desktop und jetzt auch im Notebook-Bereich längst den margenträchtigen High-End-Bereich. Marktanteile die keinen Gewinn erwirtschaften sind wertlos, das zeigen gerade Intels Milliardenverluste.
mboeller
2024-12-18, 11:37:03
In Relation dazu müsste ein Strix Point dann allerdings auch in Richtung <800 Euro rutschen.
warum?
25-45w Laptops <-> 55 - 120w Laptops.
IMHO komplett unterschiedliche Märkte
Undertaker
2024-12-18, 12:02:51
Das macht gerade in einem Notebook immer Sinn. Alleine schon weil die Effizienz durch den 3D-Cache deutlich steigt. Die frei gewordenen TDP kann man dann entweder für die GPU verwenden oder eben für leisere/effizientere Geräte.
Den Billigheimer darf gerne Intel spielen. AMD besetzt sowohl im Serversegment schon länger, als auch im Desktop und jetzt auch im Notebook-Bereich längst den margenträchtigen High-End-Bereich. Marktanteile die keinen Gewinn erwirtschaften sind wertlos, das zeigen gerade Intels Milliardenverluste.
In dieser Leistungsklasse reden wir über CPU-Leistungsaufnahmen von vielleicht 15-30 Watt beim Gaming, die ein 2025er ARL oder Zen5 zur Auslastung von GPU-Ressourcen auf Strix Halo Niveau bräuchte. Ob man da mehr als 5-10W CPU-Verbrauch einsparen kann und die Transistoren und Kosten damit nicht besser in einer breiteren und somit effizienteren GPU investiert wären?
Gute Margen bringen leider wenig, wenn man keine Stückzahlen macht oder wie Nvidia beides nach oben treiben kann. ;) Hat mal jemand bei Mindfactory nach den Verkaufszahlen der Strix Point Systeme geschaut?
Und genau das ist ja das Problem von Strix Halo: Die GPU ist kein High-End, sondern nur 2023er Mittelklasse mit VRAM-Vorteil. Damit wird man im Gaming keinen High-End-Markt besetzen können.
Das muss man auch nicht und es ist auch nicht möglich mit einer APU.
fondness
2024-12-18, 12:15:38
In dieser Leistungsklasse reden wir über CPU-Leistungsaufnahmen von vielleicht 15-30 Watt beim Gaming, die ein 2025er ARL oder Zen5 zur Auslastung von GPU-Ressourcen auf Strix Halo Niveau bräuchte. Ob man da mehr als 5-10W CPU-Verbrauch einsparen kann und die Transistoren und Kosten damit nicht besser in einer breiteren und somit effizienteren GPU investiert wären?
Also ich habe jedenfalls nichts zu verschenken, weiß nicht wie das bei dir ist. :D
Klar könnte man immer so argumentieren wie du, aber das bräuchte eben wieder eine zusätzliche APU. Den 3D-Cache hat man schon.
Gute Margen bringen leider wenig, wenn man keine Stückzahlen macht oder wie Nvidia beides nach oben treiben kann. ;) Hat mal jemand bei Mindfactory nach den Verkaufszahlen der Strix Point Systeme geschaut?
Also die Geschäftszahlen von AMD sehen jedenfalls sehr gut aus, Margen und Marktanteile steigen. Und Mindfactory ist wohl kaum eine gute Quelle für Notebook-Verkäufe, die gehen über andere Kanäle weg.
Und genau das ist ja das Problem von Strix Halo: Die GPU ist kein High-End, sondern nur 2023er Mittelklasse mit VRAM-Vorteil. Damit wird man im Gaming keinen High-End-Markt besetzen können.
Was du scheinbar immer noch nicht verstanden hast: Wir reden wir von einem mobilen Gerät. Da ist Highend maximale Perf/Watt in einem möglichst kompakten Formfaktor, bei einem leisen Gerät. Wenn ich Highend-Gaming-Leistung will, kaufe ich mir einem Desktop. Die Verkaufszahlen zu Highend-Gaming-Notebooks sind dementsprechend auch lächerlich gering. Ich spiele schon länger nur noch auf einer 25W Rembrand APU. Ein 8C/32CU Strix Halo auf maximal 50W gedrosselt wäre ein tolles Upgrade, das auch noch meine anderen mobile Anforderungen erfüllen können sollte.
Undertaker
2024-12-18, 12:17:06
Das muss man auch nicht und es ist auch nicht möglich mit einer APU.
Richtig. Deshalb mein Ansinnen, dass AMD Strix Halo auf die 800-1000 Euro Klasse positionieren und dort den VRAM-Vorteil ausspielen sollte.
Also ich habe jedenfalls nichts zu verschenken, weiß nicht wie das bei dir ist. :D
Klar könnte man immer so argumentieren wie du, aber das bräuchte eben wieder eine zusätzliche APU. Den 3D-Cache hat man schon.
Was du scheinbar immer noch nicht verstanden hast: Wir reden wir von einem mobilen Gerät. Da ist Highend maximale Perf/Watt in einem möglichst kompakten Formfaktor, bei einem leisen Gerät. Wenn ich Highend-Gaming-Leistung will, kaufe ich mir einem Desktop. Die Verkaufszahlen zu Highend-Gaming-Notebooks sind dementsprechend auch lächerlich gering. Ich spiele schon länger nur noch auf einer 25W Rembrand APU. Ein 8C/32CU Strix Halo auf maximal 50W gedrosselt wäre ein tolles Upgrade, das auch noch meine anderen mobile Anforderungen erfüllen können sollte.
Fertigung und Integration von X3D würden den Preis noch weiter treiben und wie oben geschrieben nur wenig Mehrwert bieten, d.h. es wäre schwierig ein solchen Modell am Markt zu platzieren und die Mehrkosten vom Kunden bezahlt zu bekommen. Genauso dein Beispiel einer 8C/32CU Lösung bei 50 Watt: Was zahlt dir der Markt dafür, wenn eine RTX 5050 plus separate CPU vielleicht für 600 Euro verkauft werden? Auch falls der SoC-Vorteil von Strix Halo den IP-Effizienzvorteil von Nvidia egalisieren kann, bleibt trotzdem nur noch der VRAM als Verkaufsargument. Falls zahlt dir dann der Markt dafür, 700 Euro, vielleicht 750 Euro?
fondness
2024-12-18, 12:22:34
Richtig. Deshalb mein Ansinnen, dass AMD Strix Halo auf die 800-1000 Euro Klasse positionieren und dort den VRAM-Vorteil ausspielen sollte.
Ja ich wünsche mir auch immer viel vom Christkind. Eine GTX 5090 um 800 EUR wäre auch nett.
Ich hoffe mal, daß die China-Fraktion uns relativ preiswerte Mini-PCs mit Strix Halo beschert.
Undertaker
2024-12-18, 12:33:14
Ja ich wünsche mir auch immer viel vom Christkind. Eine GTX 5090 um 800 EUR wäre auch nett.
Nur mit dem Unterschied, dass es keine leistungsmäßige Konkurrenz für eine 5090 für 800 Euro gibt. Strix Halo steht in Konkurrenz zu DGPU-Systemen der Mittelklasse um 800-1000 Euro und hat dort einen VRAM-Vorteil, den der Markt mit einem gewissen Mehrwert vergelten wird, sowie einer je nach Variante recht guten CPU. Nicht mehr und nicht weniger, daran wird sich der Marktwert bemessen.
Man sollte schon die Summe der Eigenschaften sehen und sich nicht nur einzelne Aspekte rauspicken und die anderen ignorieren.
Undertaker
2024-12-18, 12:41:21
Man sollte schon die Summe der Eigenschaften sehen und sich nicht nur einzelne Aspekte rauspicken und die anderen ignorieren.
Welchen Aspekt haben wir vergessen? CPU-Leistung, GPU-Leistung, Effizienz, VRAM, Verkaufspreis. Themen wie Image der GPU-Marke und Upscaling sprechen eher wieder für die Nvidia-DGPUs.
fondness
2024-12-18, 12:50:33
Genauso dein Beispiel einer 8C/32CU Lösung bei 50 Watt: Was zahlt dir der Markt dafür, wenn eine RTX 5050 plus separate CPU vielleicht für 600 Euro verkauft werden? Auch falls der SoC-Vorteil von Strix Halo den IP-Effizienzvorteil von Nvidia egalisieren kann, bleibt trotzdem nur noch der VRAM als Verkaufsargument. Falls zahlt dir dann der Markt dafür, 700 Euro, vielleicht 750 Euro?
Das kann man IMO nur so sehen, wenn man sich noch nie mit der Materie beschäftigt hat. Ich habe schon seit weit über 10 Jahren nur noch Notebooks. Ich hatte stets High-End-Geräte um über 2K. Und diese APU+dGPU-Kombinationen sind ein einziges gemurkse. Da weiß ich gar nicht wo ich anfangen soll:
- Mal funktioniert das umschalten dGPU-iGPU nicht richtig. Bildschirmflackern, etc. ist auch nach wie vor nicht ausgeschlossen.
- Die dGPU zieht auch gerne mal wenn sie nicht verwendet wird unnötig Saft.
- Die dGPUs in mobilen Geräten haben meist so wenig VRAM, dass ohne µRuckler gar nichts geht.
- Das Powermanagement regelt die GPU runter, obwohl ich eigentlich mehr GPU-Leistung bräuchte, oder umgekehrt regelt die CPU runter obwohl ich eigentlich CPU-Leistung bräuchte. Weiß kein Mensch was der Hersteller da genau konfiguriert hat, ändern kann man das nicht.
- Oft funktionieren nur spezielle Treiber die an das Gerät angepasst sind und die dann häufig sehr alt sind.
- Formfaktor ist natürlich auch meist bescheiden oder das Gerät ist laut sobald man eine dGPU hat/verwendet.
Seit ich meine Rembrand-APU habe sind all diese Probleme passe. Ich stelle nur die TDP ein und das wars. Habe dynamisches Load-Balancing über die gesamte APU das je nach Last das richtige priorisiert. Alle Probleme mit den 2 GPUs im System sind weg. Es braucht kein Umschalten mehr, kein unnötigen Kopieren der Daten über den PCIe-Bus. Verbrenne nicht unnötig Strom weil mal wieder irgendwo die Software nicht richtig funktioniert, etc. Habe eine viel besseren Formfaktor und trotzdem ein leises Gerät. Die Perf/Watt gerade auch im idle und im Teillastbereich ist um Welten besser.
Für mich war das ein richtiges Aha-Erlebnis. Ich kaufe sicher kein System mehr wo 2GPUs Verwendung finden. Also nein, Strix Halo steht eben nicht in direkter Konkurrenz zu dGPU-Systemen der Mittelklasse, weil er zahlreichen Vorteile ggü. diesen hat, die es sonst nirgends gibt.
amdfanuwe
2024-12-18, 12:54:14
Schon mal daran gedacht, dass AMD lediglich APUs verkauft?. Die sind schon froh, wenn überhaupt ein OEM für ein paar Geräte bestellt. Welche Geräte dann noch bei einem Händler auftauchen, darauf hat AMD erst recht keinen Einfluss.
Schon mal geschaut, wie viele Modelle mit alten APUs noch auf Lager liegen?
Core Ultra 200(61)|Core Ultra 100(783)|Core i-14000(192)|Core i-13000(1143)|Core i-12000(853)|Core i-11000(583)|Core i-10000(271)|Core i-9000(37)|Core i-8000(115)
Ryzen AI 300(48)|Ryzen 8000(250)|Ryzen 7000(560)|Ryzen 6000(60)|Ryzen 5000(334)
https://geizhals.de/?cat=nb&v=e&hloc=de&fcols=1482&fcols=6748&fcols=6752&fcols=6763&fcols=9594&fcols=19538&fcols=9690&sort=p&bl1_id=30
Bevor da nicht der alte Sch... mal verramscht oder abgeschrieben wird, gibt es neue Geräte nur zu Mondpreisen.
Meiner Meinung nach ist der Markt kaputt.
MSABK
2024-12-18, 13:58:09
Meiner Meinung nach ist der Markt kaputt.
Kommt darauf an. Der Preisbereich <500€ ist schon Verkaufsstark und hier dominiert AMD leicht. Um 1000€ herum dominiert Apple. Alles soweit ich das aus geizhals und Amazon aus den Charts lesen kann. Strix Point ist da schon eher ein Exot.
Undertaker
2024-12-18, 14:38:25
Das kann man IMO nur so sehen, wenn man sich noch nie mit der Materie beschäftigt hat. Ich habe schon seit weit über 10 Jahren nur noch Notebooks. Ich hatte stets High-End-Geräte um über 2K. Und diese APU+dGPU-Kombinationen sind ein einziges gemurkse. Da weiß ich gar nicht wo ich anfangen soll:
- Mal funktioniert das umschalten dGPU-iGPU nicht richtig. Bildschirmflackern, etc. ist auch nach wie vor nicht ausgeschlossen.
- Die dGPU zieht auch gerne mal wenn sie nicht verwendet wird unnötig Saft.
- Die dGPUs in mobilen Geräten haben meist so wenig VRAM, dass ohne µRuckler gar nichts geht.
- Das Powermanagement regelt die GPU runter, obwohl ich eigentlich mehr GPU-Leistung bräuchte, oder umgekehrt regelt die CPU runter obwohl ich eigentlich CPU-Leistung bräuchte. Weiß kein Mensch was der Hersteller da genau konfiguriert hat, ändern kann man das nicht.
- Oft funktionieren nur spezielle Treiber die an das Gerät angepasst sind und die dann häufig sehr alt sind.
- Formfaktor ist natürlich auch meist bescheiden oder das Gerät ist laut sobald man eine dGPU hat/verwendet.
Seit ich meine Rembrand-APU habe sind all diese Probleme passe. Ich stelle nur die TDP ein und das wars. Habe dynamisches Load-Balancing über die gesamte APU das je nach Last das richtige priorisiert. Alle Probleme mit den 2 GPUs im System sind weg. Es braucht kein Umschalten mehr, kein unnötigen Kopieren der Daten über den PCIe-Bus. Verbrenne nicht unnötig Strom weil mal wieder irgendwo die Software nicht richtig funktioniert, etc. Habe eine viel besseren Formfaktor und trotzdem ein leises Gerät. Die Perf/Watt gerade auch im idle und im Teillastbereich ist um Welten besser.
Klingt nach AMD-DGPUs? Da funktioniert das tatsächlich oftmals nicht reibungslos, aber die sind auf dem Markt ohnehin nur eine Randnotiz. Von den genannten Themen ist einzig das VRAM-Limit von aktuell 8 GB in der Mittelklasse ein valides Argument, mit dem AMD einen Mehrpreis argumentieren kann. Ansonsten listest du vor allem Annahmen wie zur Effizienz auf, über die wir oben schon gesprochen hatten: Nvidias derzeit deutlich überlegene GPU-Energieeffizienz steht gegen SoC-bedingte Einsparungen bei Strix Point - ob Strix Point hier überhaupt auf RTX 4000 Level im Gesamtsystem kommt geschweige denn 2025 mit RTX 5000 Gesamtsystemen konkurrieren kann, bleibt abzuwarten. Und der Rest (dynamische Power-Verteilung, Bildumschaltung ohne Flackern, generische Nvidia-Treiber, komplette DGPU-Abschaltung ohne Restverbrauch) ist bei modernen Optimus-Geräten ja ohnehin gegeben.
fondness
2024-12-18, 14:43:19
Klingt nach AMD-DGPUs? Da funktioniert das tatsächlich oftmals nicht reibungslos, aber die sind auf dem Markt ohnehin nur eine Randnotiz. Von den genannten Themen ist einzig das VRAM-Limit von aktuell 8 GB in der Mittelklasse ein valides Argument, mit dem AMD einen Mehrpreis argumentieren kann. Ansonsten listest du vor allem Annahmen wie zur Effizienz auf, über die wir oben schon gesprochen hatten: Nvidias derzeit deutlich überlegene GPU-Energieeffizienz steht gegen SoC-bedingte Einsparungen bei Strix Point - ob Strix Point hier überhaupt auf RTX 4000 Level im Gesamtsystem kommt geschweige denn 2025 mit RTX 5000 Gesamtsystemen konkurrieren kann, bleibt abzuwarten. Und der Rest (dynamische Power-Verteilung, Bildumschaltung ohne Flackern, generische Nvidia-Treiber, komplette DGPU-Abschaltung ohne Restverbrauch) ist bei modernen Optimus-Geräten ja ohnehin gegeben.
LOL, nein das waren in der Mehrzahl Intel+Nvidia-Kombis. Später AMD+Nvidia. Nur ein Gerät war AMD-only. Aber träum nur weiter deinen Traum von der perfekt funktionierenden Software die immer alles richtig zuweist und regelt und auch im Teillastbereich überhaupt nicht ineffizient wird. Ich habe keine Lust mehr auf solche Spielchen.
Wenn ich Optimus-Problem bei Google eingebe hab ich 13.5 Millionen Treffer: :ugly:
https://www.google.com/search?q=Optimus+problem&client=firefox-b-d&sca_esv=57969280a75144fe&biw=2232&bih=1307&sxsrf=ADLYWIJJtxj-bwsYAKy0tPkvrig_YICBgQ%3A1734529910395&ei=dtNiZ7DcF_SOxc8PqZ-6kAQ&ved=0ahUKEwiw76S5u7GKAxV0R_EDHamPDkIQ4dUDCBA&uact=5&oq=Optimus+problem&gs_lp=Egxnd3Mtd2l6LXNlcnAiD09wdGltdXMgcHJvYmxlbTIHECMYsAMYJzIJEAAYsAMYBxgeMgcQAB iwAxgeMgkQABiwAxgFGB4yCRAAGLADGAgYHjIJEAAYsAMYCBgeMggQABiwAxjvBTIIEAAYsAMY7wUyCB AAGLADGO8FMgsQABiABBiwAxiiBEi0BFAAWABwAXgAkAEAmAFRoAFRqgEBMbgBA8gBAJgCAaACCJgDAI gGAZAGCpIHATGgB-sH&sclient=gws-wiz-serp
Undertaker
2024-12-18, 14:54:19
Tja, wer hier träumt ist die Frage. :D Wobei es eher an Strix Point als Herausforderer liegt, seinen Wert ggü. den aktuellen Lösungen dieser Leistungsklasse zu beweisen. ;)
Edit: "Radeon Driver Problem": 19,5 Mio :ugly:
fondness
2024-12-18, 14:58:03
Tja, wer hier träumt ist die Frage. :D
Offensichtlich du, ich habe die praktische Erfahrung und viele viele Stunden und Wochenenden in Foren verbracht um das irgendwie zu fixen. Meist erfolglos.
Edit: "Radeon Driver Problem": 19,5 Mio :ugly:
Sind wir jetzt hier im Kindergarten? Nvidia driver Problem 32.3 Millionen.
Zumal das ein völlig anders Thema ist.
Undertaker
2024-12-18, 15:16:18
Den Kindergarten mit Google-Treffern hast du doch angefangen. :freak: Warten wir ab, wo Strix Point am Ende landet und was AMD dafür aufruft. Ich bleibe dabei: Der Sweet Spot für ein erfolgreiches Produkt und Konkurrenz zumindest zu den älteren RTX 4060 Geräten wären 800-1000 Euro Systempreis plus der VRAM-Mehrwert. Hier gibt es gerade eine echte Marktlücke, zumindest bis die 3GB-Speicherchips im Markt ankommen.
mksn7
2024-12-18, 15:17:42
LOL, nein das waren in der Mehrzahl Intel+Nvidia-Kombis.
Kann ich anekdotisch bestätigen. Die MX150 in meiner T480 hängt an der gleichen heat pipe wie die CPU. Damit die GPU nicht überhitzt, wird die CPU extrem gedrosselt (so 800 MHz), sobald die GPU eine gewisse Temperatur erreicht. Quasi alle Spiele sind damit total CPU limitiert, und ich hätte vermutlich ein besseres Spielerlebnis wenn ich die integrierte Graphik verwenden würde. Ich befürchte nur die GPU wird auch heiß genug wenn ich sie gar nicht verwende. Klar, da hat Lenovo einfach gemurkst.
Die Leistungklasse der MX150 ist aber zum Glück durch die besseren IGPs mittlerweile wirklich obsolet.
Zossel
2024-12-18, 16:12:12
Wenn ich Optimus-Problem bei Google eingebe hab ich 13.5 Millionen Treffer: :ugly:
Optimus war doch der Grund hierfür:
https://cdn.arstechnica.net/wp-content/uploads/2012/06/torvaldsnvidia.jpg
https://arstechnica.com/information-technology/2012/06/linus-torvalds-says-f-k-you-to-nvidia/
Oranje7
2024-12-18, 16:51:02
Also AMD scheint schon massiv mehr Notebooks zu verkaufen wie vor 5 Jahren.
Was früher ein wirklicher exot war sehe ich in meinem nun Geschäftsumfeld regelmäßig. Auch bei uns in der Firma werden die ganzen alten i5 Krücken langsam aussortiert und bislang wurden es dann immer AMD Laptops ohne dgpu. Also sehe ich für strix Halo schon einen großen Markt abseits von gaming Kisten
Gipsel
2024-12-18, 17:05:07
angeblich Krackan Point in geekbench:
https://www.notebookcheck.com/Ryzen-AI-7-350-Krackan-Point-APU-schlaegt-Ryzen-7-8845HS-und-Core-Ultra-7-258V-in-Geekbench-6-Apple-M4-bleibt-weiterhin-vorne.932044.0.html
https://www.notebookcheck.net/Ryzen-AI-7-350-Krackan-Point-APU-soundly-defeats-Ryzen-7-8845HS-and-Core-Ultra-7-258V-in-Geekbench-6-although-Apple-M4-remains-far-ahead.931587.0.html
https://www.notebookcheck.net/AMD-Ryzen-AI-7-350-shows-up-on-PassMark-with-decent-single-threaded-performance.934026.0.html
ST deutlich schneller als Zen4-Modelle, aber in Geekbench angeblich deutlich vor einem 8845HS (Standard-TDP 45W), dafür in Passmark in MT deutlich dahinter?
Ich würde mir wünschen, daß die Leute immer explizit angeben, mit welcher TDP-Konfiguration die Tests jeweils liefen. Insbesondere in Anbetracht der Zen5c-Kerne in Kraken Point steht zu vermuten, daß die Standard-TDP der AI 7 350 28W oder gar weniger beträgt (Strixpoint mit 4+8 Kernen hat auch standardmäßige 28W). Auf >45W, wie das in einigen Notebooks gefahren wird, würde es mich tatsächlich nicht wundern, falls 8 Zen4 Kerne etwas schneller sind als die 4 Zen5 + 4 Zen5c-Kerne. Kraken Point gehört meiner Meinung nach in erschwingliche, dünne Notebooks mit 10/15-28W TDP. In dem Bereich dürfte man dann vermutlich den 8840U/HS auch in MT-Anwendungen schlagen (die haben 28W Standard-TDP und bei 15W oder so kommen die in MT auch nicht mehr über 3GHz, so daß dort die Zen5c-Kerne definitiv nicht bremsen wie bei hohen TDPs).
Undertaker
2024-12-18, 17:06:08
Also AMD scheint schon massiv mehr Notebooks zu verkaufen wie vor 5 Jahren.
Was früher ein wirklicher exot war sehe ich in meinem nun Geschäftsumfeld regelmäßig. Auch bei uns in der Firma werden die ganzen alten i5 Krücken langsam aussortiert und bislang wurden es dann immer AMD Laptops ohne dgpu. Also sehe ich für strix Halo schon einen großen Markt abseits von gaming Kisten
Ersatz für ein i5 Gerät wäre eher ein Ryzen 5, nicht Strix Halo in einer völlig anderen Preisklasse. Für Excel, Outlook und PowerPoint braucht es weder CPU- noch GPU-seitig mehr als die Mittelklasse, geschweige denn dass die Firmen solche Summen für ein Officegerät ausgeben wollen.
Lawmachine79
2024-12-18, 17:14:01
Der einzige Grund, gegenwärtig ein Intelnotebook zu kaufen, ist das massive Angebot/die Produktauswahl. Wenn es rein um die wertdefinierenden Eigenschaften des Notebooks geht, gibt es gegenwärtig keinen Grund, ein Intelnotebook zu kaufen. Man bekommt dort nur Zeug, das AMD gnadenlos unterlegen ist. Die Core Ultra Dinger haben es besser gemacht, keine Frage, aber ich würde jederzeit einen 8945HS und auch einen 7840HS - die nehmen sich kaum was - jedem Core Ultra vorziehen. Bei den Vorgänger-CPUs von Intel musste man zwingend einen HX nehmen, um am 7840HS vorbeizukommen. Aber die HX-CPUs sind de facto Desktop CPUs und so saufen sie auch. Und gegen die HX-CPUs von AMD haben sie kein Land gesehen. Wenn man Fanboy ist, sind die Core Ultras immerhin vertretbar, aber immer noch deutlich schlechter als AMD. Die Leistungstabelle auf Notebookcheck zeigt alles, was man wissen muss.
Gipsel
2024-12-18, 17:15:07
Ersatz für ein i5 Gerät wäre eher ein Ryzen 5, nicht Strix Halo in einer völlig anderen Preisklasse. Für Excel, Outlook und PowerPoint braucht es weder CPU- noch GPU-seitig mehr als die Mittelklasse, geschweige denn dass die Firmen solche Summen für ein Officegerät ausgeben wollen.Ja, da reicht im Notfall ein 8540U (2x Zen4 + 4x Zen4c), wenn es etwas mehr Leistung sein soll ein 8640U/HS (6x Zen4). Dann noch ein vernünftiges Display und einen passabel großen Akku und fertig ist das Notebook, daß im Officebetrieb im Zweifelsfall einen Arbeitstag im Akkubetrieb durchhält.
Zossel
2024-12-18, 17:20:03
Gibt es eigentlich Geräte mit der guten alten Klitoris von IBM/Lenovo, matten Bildschirm und ohne diese schrecklichen flachen/ebenen Tasten für die Tastatur?
Gipsel
2024-12-18, 17:26:02
Gibt es eigentlich Geräte mit der guten alten Klitoris von IBM/Lenovo, matten Bildschirm und ohne diese schrecklichen flachen/ebenen Tasten für die Tastatur?Ich glaube die Thinkpads gibt es aus unerfindlichen Gründen nur mit Zen3. Und keine Ahnung, wie da bei neueren Modellen die Tastatur ist.
nairune
2024-12-18, 18:03:03
Habe meiner Freundin ein ThinkPad X13 Gen 4 besorgt, da ist ein 7840u drin. Klitoris ist da, Display matt, Tastatur keine Ahnung was du meinst. Die Tasten an sich sind schon flach. Notebook ist gut, Preis war gut, würde ich wieder kaufen.
Also AMD scheint schon massiv mehr Notebooks zu verkaufen wie vor 5 Jahren.
Was früher ein wirklicher exot war sehe ich in meinem nun Geschäftsumfeld regelmäßig. Auch bei uns in der Firma werden die ganzen alten i5 Krücken langsam aussortiert und bislang wurden es dann immer AMD Laptops ohne dgpu. Also sehe ich für strix Halo schon einen großen Markt abseits von gaming Kisten
Beruflich sind wir an Dell gebunden und bis die AMD Prozessoren im Premier Portal anbieten, muss Intel wahrscheinlich alle Viere von sich strecken. :frown:
mczak
2024-12-18, 18:30:50
https://www.notebookcheck.net/Ryzen-AI-7-350-Krackan-Point-APU-soundly-defeats-Ryzen-7-8845HS-and-Core-Ultra-7-258V-in-Geekbench-6-although-Apple-M4-remains-far-ahead.931587.0.html
https://www.notebookcheck.net/AMD-Ryzen-AI-7-350-shows-up-on-PassMark-with-decent-single-threaded-performance.934026.0.html
ST deutlich schneller als Zen4-Modelle, aber in Geekbench angeblich deutlich vor einem 8845HS (Standard-TDP 45W), dafür in Passmark in MT deutlich dahinter?
Keine Ahnung wie notebookcheck zu dem Fazit kommt dass der in Geekbench vor einem 8845HS ist, ihre eigenen Resultate widersprechen dem (in MT), mit Ausnahme eines einzigen getesteten Notebooks. Tatsächlich ist der MT-Score von Kraken da sogar nur relativ knapp vor Lunar Lake.
Wobei im Vergleich mit Lunar Lake macht mir eher die GPU Sorgen, ansonsten stimme ich zu dass sich Kraken in der Thin/Light Kategorie ganz gut machen sollte (wie eben auch Lunar Lake).
Oranje7
2024-12-18, 21:55:03
Beruflich sind wir an Dell gebunden und bis die AMD Prozessoren im Premier Portal anbieten, muss Intel wahrscheinlich alle Viere von sich strecken. :frown:
Joar genau wir waren auch Dell "Partner" ( also kleinkleinklein) trotz allen Rabatten wollte ich fürs Volk kleiner 2Kg und da biste laut Untertaker troll gleich bei i3
Oranje7
2024-12-18, 22:01:21
Ersatz für ein i5 Gerät wäre eher ein Ryzen 5, nicht Strix Halo in einer völlig anderen Preisklasse. Für Excel, Outlook und PowerPoint braucht es weder CPU- noch GPU-seitig mehr als die Mittelklasse, geschweige denn dass die Firmen solche Summen für ein Officegerät ausgeben wollen.
Da war aber ne Nvidea Quadro drin!!!!
wurde halt nie genutzt der Laptop hat trotzdem >3000€ gekostet. Wenn AMD die gleiche erfahrung für 2000€ bietet alles gut.
Das gleiche gilt für Intel, einfach Lowend abschaffen an eGPU
fondness
2024-12-19, 11:42:25
Den Kindergarten mit Google-Treffern hast du doch angefangen. :freak:
Ja, wir haben auch über die Optimus-Probleme diskutiert, die du mir nicht glauben wolltest. Da war das onTopic. Mit deinem "Radeon Driver Problem" hast du dann einfach nur deine Fanboy-Allüren offenbart.
Gipsel
2024-12-19, 11:46:03
Keine Ahnung wie notebookcheck zu dem Fazit kommt dass der in Geekbench vor einem 8845HS ist, ihre eigenen Resultate widersprechen dem (in MT), mit Ausnahme eines einzigen getesteten Notebooks. Tatsächlich ist der MT-Score von Kraken da sogar nur relativ knapp vor Lunar Lake.Da wird das reinspielen, was ich bezüglich der konfigurierten TDP gesagt habe: Quasi alle Tests des 8845HS bei Notebookcheck laufen offenbar mit >=45W (teilweise mit 65W oder gar 90W) und sind damit schwer vergleichbar, falls Kraken nur mit dem vermuteten Standard-TDP von 28W laufen sollte. Und die 288V Lunar Lake-Zahlen bei NBC sind angeblich auch mit 37/30W Powerlimit entstanden (die der kleineren Modelle mit 37/17W; aber der Test ist offenbar kurz genug, daß das Meiste mit 37W durchläuft, da die kaum niedriger liegen).
Tests von Notebook-CPUs sind meiner Meinung nach chronisch unzuverlässig, was Verbrauchsnormierung angeht.
fondness
2024-12-19, 11:46:12
Kann ich anekdotisch bestätigen. Die MX150 in meiner T480 hängt an der gleichen heat pipe wie die CPU. Damit die GPU nicht überhitzt, wird die CPU extrem gedrosselt (so 800 MHz), sobald die GPU eine gewisse Temperatur erreicht. Quasi alle Spiele sind damit total CPU limitiert, und ich hätte vermutlich ein besseres Spielerlebnis wenn ich die integrierte Graphik verwenden würde. Ich befürchte nur die GPU wird auch heiß genug wenn ich sie gar nicht verwende. Klar, da hat Lenovo einfach gemurkst.
Die Leistungklasse der MX150 ist aber zum Glück durch die besseren IGPs mittlerweile wirklich obsolet.
Ja, solche Probleme gibt es öfter als man glaubt. Irgendwo schlägt ein Temperatursensor an, und dann wird nach eine statischen Vorgabe des Herstellers entweder CPU oder GPU gedrosselt, oder beides gleichzeitig. Das ist unfassbar nervig wenn man gerade die Leistung wo anders brauchen würde. Einer der Gründe weshalb eine APU mit dynamischen load balancing das überlegene Produkt ist. Dann wird bei Überschreitung einer gewissen Temperatur natürlich auch die TDP der APU reduziert, aber wie die TDP dann zwischen CPU und GPU verteilt wird ist weiter Lastabhängig.
Complicated
2024-12-20, 01:45:58
Ich kann das ebenfalls bestätigen. Wollte man auf dem T480 etwas mit virtueller Umgebung nutzen, musste man die MX150 abschalten um genug CPU-Leistung zu haben. Für Büro-Rechner heutzutage das Haupt-Szenario.
Nightspider
2024-12-20, 01:54:41
Ich wusste auch nicht das APU +dGPU so viele Probleme macht.
Wird ja nie in den Medien angesprochen.
dildo4u
2024-12-20, 10:27:56
Asus macht wieder kosten Kontrolle bei AMD Strix Halo Flow hat kein OLED nur Arrow Lake plus Nvidia.
https://x.com/94G8LA/status/1869816503958417558/photo/1
Absoluter Wahnsinn bei den Preisen.
Platos
2024-12-20, 10:53:50
Das Problem ist, dass nach dem Filtern einfach nix an AMD übrig bleibt. (Displaygrösse, Seitenverhältnis, Tastatur, Bildschirm(auflösung), normaler Laptop oder Touch oder mit Pen oder...).
Kommt natürlich darauf an, ob man standartprodukte filtert oder nicht. Aber bei mir ist das immer so.
CPU ist natürlich sehr wichtig, aber wenn grundlegende Featurekombinationen, die ich will, keine AMD CPUs hat, dann kauft man eben auch keine...
basix
2024-12-20, 10:59:37
Asus macht wieder kosten Kontrolle bei AMD Strix Halo Flow hat kein OLED nur Arrow Lake plus Nvidia.
https://x.com/94G8LA/status/1869816503958417558/photo/1
Absoluter Wahnsinn bei den Preisen.
Was ich fast noch übler finde: Keine RDNA4 GPU?
amdfanuwe
2024-12-20, 11:09:48
Ich denke, dass hat AMD aufgegeben.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90619&stc=1&d=1734689307
The_Invisible
2024-12-20, 11:15:33
Asus macht wieder kosten Kontrolle bei AMD Strix Halo Flow hat kein OLED nur Arrow Lake plus Nvidia.
https://x.com/94G8LA/status/1869816503958417558/photo/1
Absoluter Wahnsinn bei den Preisen.
Wobei 32G bei sharedMemory mit leistungsstarker APU jetzt auch nicht der Burner sind, bei meinem Arbeitsnotebook mit 780m lutscht die GPU ja schon im office Betrief so so 2,5-3,5G weg, Da sollte zumindest eine 48/64G Option wie bei den anderen Modellen.
MSABK
2024-12-20, 12:11:40
Asus macht wieder kosten Kontrolle bei AMD Strix Halo Flow hat kein OLED nur Arrow Lake plus Nvidia.
https://x.com/94G8LA/status/1869816503958417558/photo/1
Absoluter Wahnsinn bei den Preisen.
Amd hat es schwer und wird es weiterhin schwer haben in gute Designs reinzukommen. Es hat ja beim Asus G16 sehr lange gedauert bis da AMD eingebaut wurde.
Ich weiß nicht woran das liegt, wahrscheinlich kann Intel deutlich mehr liefern.
Spielt Asus überhaupt eine Rolle in Europe oder Deutschland? Die sind hier sowas von überteuert. In den Usa haben die ganz andere Preise.
Am meisten bin ich auch Lenovo gespannt, wo und zu welchem Preis sie Steix Halo verbauen.
davidzo
2024-12-20, 12:35:17
Amd hat es schwer und wird es weiterhin schwer haben in gute Designs reinzukommen. Es hat ja beim Asus G16 sehr lange gedauert bis da AMD eingebaut wurde.
Ich weiß nicht woran das liegt, wahrscheinlich kann Intel deutlich mehr liefern.
Der Grund ist eher der Field Engineer support bei dem Intel weiterhin Spitze ist. Wenn du ein Intel design planst kannst du Intel Ingenieure in Anspruch nehmen die dann bei dir vorbei kommen und dir bei essentiellen Dingen wie vrm design, power management, firmware etc. helfen, bzw. sich ein paar Wochen nehmen um deine Schematics zu überarbeiten. Bei AMD gibt es das nicht, bzw. sind die Ressourcen so begrenzt dass man das nur mit seltected launch Partnern macht, z.B. Asus oder in der Vergangenheit auch mal Lenovo. Noch dazu sind die Tecdocs bei AMD wesentlich weniger ausführlich und häufig sogar unter NDA. Das heißt man muss einiges Nachfragen oder ausprobieren während bei Intel auch viele Edgecases getestet und dokumentiert sind und die Docs generell frei zugänglich sind.
Für Desktop ist der Entwicklungsaufwand wesentlich geringer, die Firmware bereits als AGESA blob erhältlich und die Plattform langlebiger. Daher ist das weniger ein Problem als im mobile, wo man den Großteil eben nicht einfach mit einem Agesa erschlagen kann.
Man sieht ja dass AMD im mobile eigentlich immer erst mit der Refreshgeneration ein ausgereiftes Power Management und Firmware liefern kann. Wieso sonst unlocken die jedes mal soviel verstecktes performance- und Effizienzpotential?
Vielleicht verbessert sich das ja mit Strix Halo, weil da die Plattform im Wesentlichen aus einer Hand kommt und man viel weniger testen muss (dGPUs z.B.).
dildo4u
2024-12-20, 12:43:50
Wobei 32G bei sharedMemory mit leistungsstarker APU jetzt auch nicht der Burner sind, bei meinem Arbeitsnotebook mit 780m lutscht die GPU ja schon im office Betrief so so 2,5-3,5G weg, Da sollte zumindest eine 48/64G Option wie bei den anderen Modellen.
Vermutlich ist 32GB das maximale was geht wenn man unter 2.5K bleiben will.
Mit 64GB wird man im Bereich der 5080 Laptops sein die locker 2X GPU Performance haben.
Undertaker
2024-12-20, 12:43:53
Ich denke, dass hat AMD aufgegeben.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90619&stc=1&d=1734689307
Hey, die sind doch alle unbrauchbar laut der bekannten AMD-Jünger fondness & Co. :ugly: Aber verlassen wir sein Argumentationsniveau mal wieder: Ausgereifte Optimus-Produkte und die aktuell technisch recht deutlich überlegenen Nvidia-GPUs (Upscaling, Energieeffizienz, Treiberqualität) schlägt man mit nicht mit Mondpreisen, speziell die GPU-Rohleistung nur an die GPU-Mittelklasse von vor zwei Jahren heranreicht. Da hilft dann auch der VRAM-Vorteil als einziger Kaufanreiz nicht. Die Produkte müssen preisgleich zur ~RTX5050/60 werden und den Mehrspeicher als Verkaufsargument bringen, um an diesen Verhältnissen etwas zu ändern. Ich fürchte, hier hat AMD den Markt einfach nicht verstanden. Schade, weil das auch den Druck für RTX-Modelle mit mehr VRAM senkt, wenn Strix Halo die 8GB-Mittelklasse überhaupt nicht unter Druck setzen kann. :(
Undertaker
2024-12-20, 12:47:17
Vermutlich ist 32GB das maximale was geht wenn man unter 2.5K bleiben will.
Mit 64GB wird man im Bereich der 5080 Laptops sein die locker 2X GPU Performance haben.
Faktor zwei auf die RTX 4060 und Strix Halo schafft schon die RTX 4080, die mobile 5080 dürfte das dann eher auf 2,5 - 3x steigern. Das ist schlicht eine ganz andere Klasse.
dildo4u
2024-12-20, 12:52:01
4090 Mobile ist nur 21k Timespy eine 7600 ist 11k das würde ich ca erwarten.
Hoffentlich schafft Strix Halo diese Performance.
https://benchmarks.ul.com/hardware/gpu/NVIDIA+RTX+4090+(notebook)/review
https://benchmarks.ul.com/hardware/gpu/AMD+Radeon+RX+7600/review
Undertaker
2024-12-20, 13:01:02
4090 Mobile ist nur 21k Timespy eine 7600 ist 11k das würde ich ca erwarten.
Hoffentlich schafft Strix Halo diese Performance.
https://benchmarks.ul.com/hardware/gpu/NVIDIA+RTX+4090+(notebook)/review
https://benchmarks.ul.com/hardware/gpu/AMD+Radeon+RX+7600/review
TDP-Limit, schon die 4080 kommt bei 175W auf knapp 20k GPU-Score. Eine 7600S liegt bei 9,2k GPU-Score, die 7700S bei 10,2k. Für Strix Halo sollten bei voller TDP roundabout edit: 11k+ realistisch erreichbar sein, eine RTX 4060 liegt bei max. 11,4k.
fondness
2024-12-20, 13:40:10
Hey, die sind doch alle unbrauchbar laut der bekannten AMD-Jünger fondness & Co. :ugly:
Das ist eigentlich ein Kompliment von deiner tiefgrünen Brille aus betrachtet.
Aber nett, dass du einfach mal pauschal noch andere mit abwascht. Wenn lauter Geisterfahrer herum fahren sollte man vielleicht selbst mal schauen ob man in die richtige Richtung fährt ;)
Ausgereifte Optimus-Produkte und die aktuell technisch recht deutlich überlegenen Nvidia-GPUs (Upscaling, Energieeffizienz, Treiberqualität) schlägt man mit nicht mit Mondpreisen, speziell die GPU-Rohleistung nur an die GPU-Mittelklasse von vor zwei Jahren heranreicht. Da hilft dann auch der VRAM-Vorteil als einziger Kaufanreiz nicht. Die Produkte müssen preisgleich zur ~RTX5050/60 werden und den Mehrspeicher als Verkaufsargument bringen, um an diesen Verhältnissen etwas zu ändern. Ich fürchte, hier hat AMD den Markt einfach nicht verstanden. Schade, weil das auch den Druck für RTX-Modelle mit mehr VRAM senkt, wenn Strix Halo die 8GB-Mittelklasse überhaupt nicht unter Druck setzen kann. :(
Klar kann man sämtliche Nachteile negieren die einem nicht in den Kram passen und immer wieder das gleiche Gebetsmühlenartig wiederholen. Das hat was von Marketingbot. Aber klar, AMD hat den Markt nicht verstanden, nur Undertaker hat den Durchblick. :ugly:
fondness
2024-12-20, 13:45:10
Wobei 32G bei sharedMemory mit leistungsstarker APU jetzt auch nicht der Burner sind, bei meinem Arbeitsnotebook mit 780m lutscht die GPU ja schon im office Betrief so so 2,5-3,5G weg, Da sollte zumindest eine 48/64G Option wie bei den anderen Modellen.
Ja das stimmt, ich würde auch Mindestens 48GB LPDDDR5X nehmen, um 12-16GB der GPU geben zu können.
Undertaker
2024-12-20, 13:58:03
Das ist eigentlich ein Kompliment von deiner tiefgrünen Brille aus betrachtet.
Aber nett, dass du einfach mal pauschal noch alle anderen mit abwascht. Wenn lauter Geisterfahrer herum fahren sollte man vielleicht selbst mal schauen ob man in die richtige Richtung fährt ;)
Hey, die Oberhäuptling-Rolle in dieser Disziplin ist dir nicht mehr zu nehmen. Wenn die eigene Brille so tiefrot ist, dass man neutrale Farben gar nicht mehr sehen kann, sollte man den eigenen Standpunkt an deiner Stelle vielleicht doch mal kritisch hinterfragen - falls das denn noch geht. :)
Klar kann man sämtliche Nachteile negieren die einem nicht in den Kram passen und immer wieder das gleiche Gebetsmühlenartig wiederholen. Das hat was von Marketingbot. Aber klar, AMD hat den Markt nicht verstanden, nur Undertaker hat den Durchblick. :ugly:
Anstatt das du selbst verursachte oder erfundene Treiberprobleme vorschiebst, um der absoluten Marktdominanz der x060er-GPUs irgendein Pseudoargument entgegenzusetzen, solltest du vielleicht mal die Realitäten betrachten: Für >2k€ und RTX 4060er GPU-Leistung kannst du 2025 keinen Blumentopf mehr gewinnen, das ist so attraktiv wie aktuelle deutsche E-Fahrzeuge auf einem chinesischen Markt. Der Preis muss dorthin, wo die Leistung liegt, zumal AMD Image-seitig Nvidia derzeit nicht das Wasser reichen kann - ohne massiven Preis- oder Leistungsvorteil bekommst du eine AMD-GPU ggü. dem Nvidia-Pendant momentan nicht verkauft, schau auf die Marktanteile und Preisgefüge. Deshalb bleibt die einzige Strategie, über das VRAM-Argument bei ansonsten vergleichbarem P/L anzugreifen.
fondness
2024-12-20, 14:03:23
Hey, die Oberhäuptling-Rolle in dieser Disziplin ist dir nicht mehr zu nehmen. Wenn die eigene Brille so tiefrot ist, dass man neutrale Farben gar nicht mehr sehen kann, sollte man den eigenen Standpunkt an deiner Stelle vielleicht doch mal kritisch hinterfragen - falls das denn noch geht. :)
Mehr hast du nicht zu bieten als einfach meine Aussage umzudrehen? Billig :D
Anstatt das du selbst verursachte oder erfundene Treiberprobleme vorschiebst,
Oh jetzt lügen wir einfach mal herum, das wird ja immer besser. :D
Haben zwar sogar Leute hier bestätigt aber was nicht sein kann darf nicht sein. Diverse Foren sind zudem voll mit Optimus-Problemen.
um der absoluten Marktdominanz der x060er-GPUs irgendein Pseudoargument entgegenzusetzen, solltest du vielleicht mal die Realitäten betrachten: Für >2k€ und RTX 4060er GPU-Leistung kannst du 2025 keinen Blumentopf mehr gewinnen, das ist so attraktiv wie aktuelle deutsche E-Fahrzeuge auf einem chinesischen Markt. Der Preis muss dorthin, wo die Leistung liegt, zumal AMD Image-seitig Nvidia derzeit nicht das Wasser reichen kann - ohne massiven Preis- oder Leistungsvorteil bekommst du eine AMD-GPU ggü. dem Nvidia-Pendant momentan nicht verkauft, schau auf die Marktanteile und Preisgefüge. Deshalb bleibt die einzige Strategie, über das VRAM-Argument bei ansonsten vergleichbarem P/L anzugreifen.
Und wieder exakt dieselbe Nvidia-Marketingplatte, du amüsierst mich. Bist du ein Mensch oder ist das KI? :D
Undertaker
2024-12-20, 14:15:18
Mehr hast du nicht zu bieten als einfach meine Aussage umzudrehen? Billig :D
Substanzlose OT-Ideen überlasse ich gern dir, also tob dich aus. :)
Oh jetzt lügen wir einfach mal herum, das wird ja immer besser. :D
Haben zwar sogar Leute hier bestätigt aber was nicht sein kann darf nicht sein. Diverse Foren sind zudem voll mit Optimus-Problemen.
Klaro, die Foren sind voll damit. Die >95% Marktanteil, die Optimus-Geräte bei jeglichem Gaming-Notebook haben, sind natürlich nur der völligen Ignoranz der Käufer gegenüber diesen absolut unbrauchbaren Produkten geschuldet. Völlig unbenutzbar, was da nahezu jeder Kunde aktuell kauft! :freak:;D
Fakt ist, die Dinger verkaufen sich wie geschnitten Brot, die Kunden sind offensichtlich also höchst zufrieden. Wenn AMD hier Marktanteile bekommen möchte – von "steigern" zu sprechen wäre angesichts der faktischen Abwesenheit schon fast vermessen – muss man mehr zum gleichen Preis bieten. Und das ist mit einer solchen Preispolitik nicht in Sicht.
Und wieder dieselbe Nvidia-Marketingplatte, du amüsierst mich. :D
Hmm, lass mich überlegen, wer genau muss Marketing betreiben, wenn er die Performance einer 2 Jahren alten Mittelklasse-GPU zum Preis eines 2025er High-End-Produktes verkaufen will? Ich fürchte, die Herausforderung besteht eher andersherum. ;) Mit dieser Ignoranz scheint man auch noch das knappe Zeitfenster zu verpassen, welches bis zur Verfügbarkeit von 3GB-Speicherchips eine echte Marktchance bieten würde. Das ist schade.
fondness
2024-12-20, 14:21:37
Dein Glück ist, dass ich jetzt weg muss und keine Zeit mehr habe diese Sinnlosdiskussion weiterzuführen. Außerdem haben wir den Thread hier glaube ich eh genug geschreddert. X-D Also einigen wir uns darauf du hast Recht und ich meine Ruhe. :D
Undertaker
2024-12-20, 15:07:02
Freuen wir uns alle, jetzt hoffentlich zur Sachlichkeit zurückzukehren. :)
Sind 48GB-Modelle aktuell geplant? Wäre imo für die meisten Anwender (ohne AI-Ambitionen o.ä.) zur Lebenszeit des Produktes eine sinnvolle Speichermenge. Vermutlich sind selbst die 32GB-Varianten ganz gut gerüstet, um eine für die Rohleistung adäquate VRAM-Menge abzuzweigen, etwas Puffer (je nach Aufpreis) schadet aber natürlich nicht. Dann muss es die gewünschte Speichermenge nur noch in der passenden Kombination mit CPU/GPU-Ausbaustufe geben, d.h. für Spiele-Ambitionen vorzugsweise 8C + 40CU. Wobei letzteres wohl schon ausgeschlossen ist, 32CUs sind wohl das Maximum bei 8 Kernen? Imo wäre es schön, wenn hier nochmal der maximale GPU-Ausbau nachgeschoben wird, rein für Spiele könnte man mMn durchaus auf mehr als 8 CPU-Kerne verzichten (im Sinne etwas höherer Teillast-Effizienz und vor allem Kosteneinsparung).
Brillus
2024-12-20, 19:10:17
Bzgl. kombinierte integrierter und dedicated
GPU. Zumindest AMD+AMD läuft unter Linux richtig gut. Hab das seit 5-6 Jahren bei 3 verschiedenen Laptops. Nie Probleme.
Hatte früher unter Windows mal NV + X und da wirklich keine gute Erfahrung mit.
Zossel
2024-12-20, 19:33:20
Bzgl. kombinierte integrierter und dedicated
GPU. Zumindest AMD+AMD läuft unter Linux richtig gut. Hab das seit 5-6 Jahren bei 3 verschiedenen Laptops. Nie Probleme.
Diese Blobs von NV sind einfach der letzte Dreck.
Ist das Kernelmodul was dafür sorgt das man zumindestens ein Bild und eine Konsole hat mittlerweile upstream und ab welcher GPU-Generation funzt das?
Exxtreme
2024-12-20, 21:04:25
Und zurück zum Thema bitte. Für persönlichen Austausch hat das Forum eine PM-Funktionalität.
dildo4u
2024-12-23, 08:54:47
4090 Mobile ist nur 21k Timespy eine 7600 ist 11k das würde ich ca erwarten.
Hoffentlich schafft Strix Halo diese Performance.
https://benchmarks.ul.com/hardware/gpu/NVIDIA+RTX+4090+(notebook)/review
https://benchmarks.ul.com/hardware/gpu/AMD+Radeon+RX+7600/review
Im Bereich der 7600 mit voller Power?
https://videocardz.com/newz/amd-strix-halo-ryzen-ai-max-spotted-in-passmark-radeon-8050s-igpu-outperforms-rx-7600
dildo4u
2025-01-06, 10:49:46
Fire Range mit X3D Top Modell.
https://videocardz.com/newz/amd-launches-ryzen-9000hx-fire-range-mobile-cpu-series-up-to-16-zen5-cores-and-140mb-cache
MSABK
2025-01-06, 11:05:10
Fire Range mit X3D Top Modell.
https://videocardz.com/newz/amd-launches-ryzen-9000hx-fire-range-mobile-cpu-series-up-to-16-zen5-cores-and-140mb-cache
Wird aber leider nur in wenigen Notebooks verbaut werden.
dildo4u
2025-01-06, 11:09:34
Was imo OK ist eine 5090 Mobile hat ein Drittel? der Desktop Performance.
Würde mich wundern wenn Zen 5 Probleme hat eine 200 Watt Mobile GPU auszulasten.
MSABK
2025-01-06, 11:41:47
Laut videocardz wurde Steix Halo vorgestellt, auf Computerbase ist aber nichts.
dildo4u
2025-01-06, 11:44:28
Die Pressekonferenz ist erst um 20 Uhr dann ist es wirklich offiziell.
basix
2025-01-06, 11:54:44
korrekt
y33H@
2025-01-06, 11:55:44
Laut videocardz wurde Steix Halo vorgestellt, auf Computerbase ist aber nichts.Weil Videocardz die Presse-Infos vorab leakt, seit Jahren schon ...
Badesalz
2025-01-06, 11:56:44
...auf Computerbase... :usweet:
dildo4u
2025-01-06, 13:52:00
9950x3D vs 285k
https://videocardz.com/newz/amd-ryzen-9-9950x3d-officially-outpaces-7950x3d-by-8-and-intel-285k-by-20-in-gaming
Der_Korken
2025-01-06, 13:54:47
9950x3D vs 285k
https://videocardz.com/newz/amd-ryzen-9-9950x3d-officially-outpaces-7950x3d-by-8-and-intel-285k-by-20-in-gaming
Hmm, kein Vergleich zum 9800X3D und keine Taktraten für das Cache-CCD. Es wird wohl wie bei 7800X3D vs 7950X3D laufen. Der 9900X3D wäre damit wieder ein Quatsch-Produkt.
Badesalz
2025-01-06, 19:14:31
Der 9900X3D wäre damit wieder ein Quatsch-Produkt.Hä? Stand da was zum 9900x3d?
robbitop
2025-01-06, 19:25:09
Naja nur 1x cache ccd. Also nur 6 Cores mit Cache vs der 8 vom 9800x3d. Das war schon beim 7900x3d die Kritik.
Der_Korken
2025-01-06, 19:30:37
Hä? Stand da was zum 9900x3d?
Man kann sich an einer Hand abzählen, was der wohl für Specs haben wird und dass er die gleichen Nachteile wie der 7900X3D haben wird.
mboeller
2025-01-06, 19:39:43
nett:
https://www.msn.com/zh-cn/news/other/amd-ces-2025-%E5%85%A8%E7%BA%BF%E6%96%B0%E5%93%81%E5%8F%91%E5%B8%83-%E5%BC%95%E9%A2%86%E9%AB%98%E6%80%A7%E8%83%BD%E4%B8%8Eai-pc%E6%96%B0%E6%97%B6%E4%BB%A3/ar-AA1x2SB8
00-Schneider
2025-01-06, 19:57:09
5,7GHz max boost beim 9950X3D. 9850X3D hat nur 5,2 GHz.
Ist halt die Frage, ob 5,7GHz auch beim Cache-CCD erreicht werden...
Und falls ja, ob 500Mhz mehr wirklich viel bringen ggü. 9850X3D.
robbitop
2025-01-06, 20:03:43
9800X3D meinst du?
Badesalz
2025-01-06, 20:27:41
Man kann sich an einer Hand abzählen, was der wohl für Specs haben wird und dass er die gleichen Nachteile wie der 7900X3D haben wird.Ich werde das zwar keinem empfehlen, aber sonst ist der mir eigentlich auch egal.
Ob das in deren Büchern mehr schadet als es hilft wird nur AMD wissen. Mir war (ist) nur nicht ganz klar warum man sich darüber Kopf machen sollte. Es gbt wahrscheinlich Leute welche diese Dinger triggern. Gründe, damit AMD so einen Fehler immer und immer und immer wieder machen sollte gibt es eigentlich keine oder?
Nightspider
2025-01-06, 20:52:03
https://www.computerbase.de/news/prozessoren/amd-strix-halo-ryzen-ai-max-mit-bis-zu-16-kernen-40-cus-und-256-gb-s.90611/
https://pics.computerbase.de/1/1/5/5/0/4-ce7a4cc6834636f5/31-1280.4689edb5.png
https://www.techpowerup.com/img/gUVqNeysHiq2U48E.jpg
bbott
2025-01-06, 20:56:21
Hmm, kein Vergleich zum 9800X3D und keine Taktraten für das Cache-CCD. Es wird wohl wie bei 7800X3D vs 7950X3D laufen. Der 9900X3D wäre damit wieder ein Quatsch-Produkt.
Eher ein Quatsch-Kommentar. Statt das man sich als Gamer freut, nicht das teuerste Produkt kaufen zu müssen, sondern bereits mit einem 9800X3D die "perfekte" Gaming-CPU zu erhalten. Und wenn man zusätzlich mehr Performance für Anwendungen braucht, man noch den 9950X3D holen KANN?!
Wenn man einen 9950X3D mit zwei Chiplets für den Cache hinzugefügt hätte, wäre der Preis deutlich höher und wie viele Games würden davon profitieren? Ein, zwei Games? Der Mehrwert dürft gegen Null gehen.
bbott
2025-01-06, 20:57:35
Naja nur 1x cache ccd. Also nur 6 Cores mit Cache vs der 8 vom 9800x3d. Das war schon beim 7900x3d die Kritik.
Eine 8 + 4 Konfiguration wäre wahrscheinlich besser.
Der_Korken
2025-01-06, 21:11:06
Eher ein Quatsch-Kommentar. Statt das man sich als Gamer freut, nicht das teuerste Produkt kaufen zu müssen, sondern bereits mit einem 9800X3D die "perfekte" Gaming-CPU zu erhalten. Und wenn man zusätzlich mehr Performance für Anwendungen braucht, man noch den 9950X3D holen KANN?!
Ich rede aber vom 9900X3D, nicht vom 9950X3D.
00-Schneider
2025-01-06, 21:50:35
9800X3D meinst du?
Ja, Pardon.
edit: Wann kommen den jetzt eigentlich die 12- und 16-Kerner?
00-Schneider
2025-01-07, 17:02:55
Laut Golem kommen die 12- und 16-Kerner erst im März
Die Prozessoren sollen im März 2025 auf den Markt kommen, Preise nannte AMD noch nicht.
https://www.golem.de/news/amd-kuendigt-ryzen-9950x3d-an-ryzen-x3d-mit-16-kernen-kommt-im-maerz-2501-192189.html
Nightspider
2025-01-07, 20:07:08
Das wäre seltsam.
Warum sollte man die zurückhalten?
dildo4u
2025-01-07, 20:10:03
Bis dahin sind die normalen Modelle billiger vermutlich besser als die bei 900€ drüber zu setzen.
Nachfrage fällt massiv wenn das 3D Modell raus ist.
https://i.ibb.co/ZGYDwZn/Screenshot-2025-01-07-20-14-43-332-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/k59CrdR)
davidzo
2025-01-07, 21:53:47
Bis dahin sind die normalen Modelle billiger vermutlich besser als die bei 900€ drüber zu setzen.
Nachfrage fällt massiv wenn das 3D Modell raus ist.
https://i.ibb.co/ZGYDwZn/Screenshot-2025-01-07-20-14-43-332-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/k59CrdR)
Der Osborne-Effekt gilt schon ab der Ankündigung.
AMD hat wohl wirklich noch Kapazitätsengpässe, wollte das aber gerne trotzdem auf auf der CES ankündigen, zumal die Entwicklung abgeschlossen zu sein scheint.
[MK2]Mythos
2025-01-07, 22:09:09
Das wäre seltsam.
Warum sollte man die zurückhalten?
Das wurde auf der CES Show so offiziell von AMD kommuniziert. Ist also ein Fakt und kein Gerücht.
Badesalz
2025-01-07, 22:13:45
AMD hat wohl wirklich noch Kapazitätsengpässe, wollte das aber gerne trotzdem auf auf der CES ankündigen, zumal die Entwicklung abgeschlossen zu sein scheint.Die Bücher sehen aus als wenn alle auf Halde kaufen wollen. So wirklich nachvollziehbar ist das nichtmal für die hauseigenen Analysten.
Der_Korken
2025-01-07, 22:26:32
Im Blackwell-Thread wurde afaik letzte Woche das Gerücht diskutiert, dass AMD und Nvidia aktuell versuchen so viele Chips wie möglich vor Trumps Amtsantritt in die US and A zu schaffen, um möglichen China-Strafzöllen vorerst aus dem Weg zu gehen. Wenn man das weiterspinnt, würde z.B. AMD alle für die anderen Märkte geplanten Kapazitäten abziehen und den 9950X3D erst dann einführen, wenn man nach Einführung der Zölle auch außerhalb der USA genug auf Lager hat. In den USA wird dann die nächsten Monate nur aus dem Vorrat verkauft und die frische Ware landet überall, nur nicht in den USA.
Nightspider
2025-01-07, 23:25:10
Allerdings könnte AMD aus den X3D Chiplets einfach 12 und 16 Kern CPUs schustern um den Umsatz zu steigern. Eine 9950X3D CPU benötigt ja auch nur einen X3D Chiplet, genau wie der 9800X3D.
Ich kann mir nicht vorstellen, das es an normalen Zen5 Chiplets mangelt.
Klar macht AMD super Gewinne mit dem 9800X3D aber mit nem 9950X3D wären die Gewinne halt noch höher.
Oder meinst du das AMD jetzt schon Containerweise 9950X3D CPUs Richtung USA schifft und dort bunkert und erst den Verkauf beginnen will, wenn dort die Lager bis März recht voll sind und dann der globale Rollout gestartet wird?
Linmoum
2025-01-07, 23:31:59
Klar macht AMD super Gewinne mit dem 9800X3D aber mit nem 9950X3D wären die Gewinne halt noch höher.Das ergibt keinen Sinn, denn statt zwei Chiplets für einen 9950X3D zu nutzen, kann man auch einfach zwei Chiplets für zwei 9800X3D nutzen. Und da ein 9950X3D keine >$1000 kosten wird, beantwortet sich die Frage schon von selbst, womit AMD wirtschaftlich deutlich besser fährt.
Der_Korken
2025-01-07, 23:56:38
Oder meinst du das AMD jetzt schon Containerweise 9950X3D CPUs Richtung USA schifft und dort bunkert und erst den Verkauf beginnen will, wenn dort die Lager bis März recht voll sind und dann der globale Rollout gestartet wird?
Nicht wenn in den USA die Lager voll sind. Dort wird gebunkert was geht bis Trump eventuell im Februar seine Strafzölle loslässt. Danach wird erst für alle anderen produziert und erst wenn dort genug auf Lager für einen Launch ist, dann werden die zum Verkauf freigegeben. Ist wie gesagt ne wilde Theorie.
Nightspider
2025-01-08, 00:01:15
Das ergibt keinen Sinn, denn statt zwei Chiplets für einen 9950X3D zu nutzen, kann man auch einfach zwei Chiplets für zwei 9800X3D nutzen. Und da ein 9950X3D keine >$1000 kosten wird, beantwortet sich die Frage schon von selbst, womit AMD wirtschaftlich deutlich besser fährt.
Wenn die Packaging Kapazitäten limitiert sind, dann ergibt das keinen Sinn.
Ein 9950X3D benötigt nur ein X3D Stack. Zwei 9800X3D hingegen benötigen 2 X3D Stacks.
Und normale Zen5 Chiplets gibts im Überfluss.
Ein Zen5 Chiplet kostet in der Herstellung was? 50 Euro? Wenn AMD für die zusätzlichen 50 Euro 400 Euro 350 bis 400 Euro draufschlagen kann, lohnt sich das extrem.
Das ist Upselling und erhöht den Gewinn pro Kunde.
w0mbat
2025-01-08, 00:21:37
Ein Zen 5 CCD kostet eher die Hälfte, ca. $25 würde ich schätzen.
dildo4u
2025-01-08, 03:27:18
Immer noch keine 5080/5090 bei Asus mit 9950X3D
q1fxgoCvckk
davidzo
2025-01-08, 11:56:44
Es ist erstaunlich wie senil und festgefahren Produktmanager sein können. Die interessieren sich einfach nicht mehr für was bei der Hardware dahinter steckt. Wenn die die letzten 30 Jahre Produktmanagement gemacht haben, dann war Intel immer die top SKU. Wenn man sich dann nicht mehr informiert und neue Reviews liest, dann führt das zu solchen Entscheidungen wo die langsamere, ineffiziente SKU wie der 285hx mit der schnellsten GPU kombiniert wird und beide sich gegenseitig TDP wegnehmen.
Dass es wieder ein Schmiergeldproblem ist wie damals bei der Intel inside Kampagne, das glaube ich nicht. Dazu sitzt Asus auch zu tief mit ihm Boot von AMD.
Lawmachine79
2025-01-08, 12:32:29
Es ist erstaunlich wie senil und festgefahren Produktmanager sein können. Die interessieren sich einfach nicht mehr für was bei der Hardware dahinter steckt. Wenn die die letzten 30 Jahre Produktmanagement gemacht haben, dann war Intel immer die top SKU. Wenn man sich dann nicht mehr informiert und neue Reviews liest, dann führt das zu solchen Entscheidungen wo die langsamere, ineffiziente SKU wie der 285hx mit der schnellsten GPU kombiniert wird und beide sich gegenseitig TDP wegnehmen.
Dass es wieder ein Schmiergeldproblem ist wie damals bei der Intel inside Kampagne, das glaube ich nicht. Dazu sitzt Asus auch zu tief mit ihm Boot von AMD.
Das kotzt mich auch an. High-End GPUs kriegt man wieder fast nur mit Intelschrott drin. Die Dinger sind langsamer und knabbern das Powerbudget der Laptops weg, gerade die High-End GPUs profitieren vom Powerbudget. Aber der Kunde ist schuld, nicht der Produktmanager. Der Kunde kauft den Elektroschrott von Intel.
Badesalz
2025-01-08, 13:21:42
Dass es wieder ein Schmiergeldproblem ist wie damals bei der Intel inside Kampagne, das glaube ich nicht. Dazu sitzt Asus auch zu tief mit ihm Boot von AMD.Das schon, aber ich vermute sehr gutes Netzwerk nach der Sache mit den NUCs. Gute Verbindungen und gute Preise.
Man muss das nicht kaufen. Andere Anstöße für Denk- und Lernprozesse haben sie nicht.
MSABK
2025-01-08, 13:59:36
Das erste Strix Halo Gerät ist nun bepreist. Asus Rog Gaming Tablet. 16 Kerne und 40CU. 32GB Ram für 2499€.
basix
2025-01-08, 15:39:14
Uiii, Strix Halo hat einen Gegner:
Im GB10 nutzt Nvidia keine Custom-Arm-Kerne, wenngleich die Grace-Lösung das erst einmal impliziert. Doch zur Vorstellung wollte auch Arm ein paar der Lorbeeren ernten und verriet die technischen Daten des Grace-Chips im GB10: Arms Cortex-X- und Cortex-A-Technologie werden genutzt, genauer gesagt 10 Arm Cortex-X925 und 10 Cortex-A725 CPU-Kerne.
https://www.computerbase.de/news/prozessoren/offizielle-bestaetigung-nvidia-baut-mit-mediatek-einen-desktop-und-notebook-pc-chip.90945/
GPU sollte ~GB205 Niveau oder 50 SM sein = RTX 5070:
https://www.computerbase.de/news/pc-systeme/project-digits-mit-gb10-nvidias-erster-schritt-auf-dem-weg-zu-eigenen-desktop-pcs.90904/
Alternativ könnte GB205 auch nur die Hälfte der SM und dafür verdoppelte Tensor-Leistung mitbringen. Ist aber mMn nicht so wahrscheinlich.
dildo4u
2025-01-08, 15:59:05
Sind die Standard Kerne nicht rückstandig und Qualcomm hat deswegen Nuvia gekauft?
basix
2025-01-08, 16:01:29
X925 ist ziemlich potent: Liegt in etwa auf Apple A17 / M3 Niveau.
https://www.notebookcheck.com/Mediatek-Dimensity-9400-Prozessor-Benchmarks-und-Specs.920985.0.html
Wird floppen, wie alle bisherigen ARM-Versuche in dem Markt.
Zossel
2025-01-08, 18:03:53
Wird floppen, wie alle bisherigen ARM-Versuche in dem Markt.
Das wird wahrscheinlich als Möhre für Entwickler gedacht sein um das Ökosystem von NV weiter zu pushen. Windows spielt da keine Rolle.
Evtl. kommt da ein Wine oder kvm/quemu noch on top um irgentwelchen Office-Käse laufen lassen zu können.
basix
2025-01-08, 18:14:41
Dürften 2 oder 4 GPCs sowie 24 oder 48 SM bei GB10 sein, ich tippe auf die grössere Ausbaustufe:
https://pics.computerbase.de/1/1/5/5/7/9-1d2ecfea629fa0ff/2-1080.5bd03378.jpg
https://www.computerbase.de/news/prozessoren/offizielle-bestaetigung-nvidia-baut-mit-mediatek-einen-desktop-und-notebook-pc-chip.90945/#update-2025-01-08T17:08
Für Strix Halo mMn also ein ernstzunehmender Konkurrent. Wenn die SW mitmacht.
- 10+10c (X925, A730) vs. 16C (Zen 5)
- 24 oder 48 SM (Blackwell) vs. 40 CU (RDNA 3.5)
- 256bit vs. 256bit LPDDR5X
- ??? vs. ??? Fertigung
robbitop
2025-01-08, 18:53:43
Kommt das dann auch in Massengeräte? Ich habe bis dato nur dieses NUC artige Gerät für 3000 usd gesehen was Jensen gezeigt hat.
basix
2025-01-08, 18:57:54
Weiss man noch nicht genau. Aber auf der Tonspur hat Nvidia schon gesagt, dass das mal kommen wird. Wann und wie ist offen.
Dieser "NUC AI-Computer" ist ja nur Nische und hat keine Stückzahlen. Unwahrscheinlich dass Nvidia den Chip nur dafür designed hat.
madzapp
2025-01-08, 20:46:07
Uiii, Strix Halo hat einen Gegner:
https://www.computerbase.de/news/prozessoren/offizielle-bestaetigung-nvidia-baut-mit-mediatek-einen-desktop-und-notebook-pc-chip.90945/
GPU sollte ~GB205 Niveau oder 50 SM sein = RTX 5070:
https://www.computerbase.de/news/pc-systeme/project-digits-mit-gb10-nvidias-erster-schritt-auf-dem-weg-zu-eigenen-desktop-pcs.90904/
Alternativ könnte GB205 auch nur die Hälfte der SM und dafür verdoppelte Tensor-Leistung mitbringen. Ist aber mMn nicht so wahrscheinlich.
Hast das auch im nVidia arbeitet an eigener CPU Tread gepostet oder ist das ein anderes Thema?
Zossel
2025-01-08, 20:50:53
Hast das auch im nVidia arbeitet an eigener CPU Tread gepostet oder ist das ein anderes Thema?
Hallo wach, hier der Kram der in den KI-Schleudern steckt: https://chipsandcheese.com/p/grace-hopper-nvidias-halfway-apu
madzapp
2025-01-08, 21:57:02
Verstehe gerade nicht was das verlinkte damit zu tun hat. Wohl echt zu müde.
Es war mir noch gar nicht bewusst, daß die Strix Point-CCDs CCX mit vollen 32B/cycle für lesen und schreiben angebunden sind. https://chipsandcheese.com/p/amds-strix-point-zen-5-hits-mobile
MSABK
2025-01-10, 09:29:04
Das XMG Neo 16 soll auch mit einer HX3D und Rtx 5090 mobile kommen.
Der Hersteller hat in den Kommentaren verraten, dass der Version mit Intel Core Ultra 200HX eine Variante mit AMD Ryzen 9 9955HX3D „Fire Range“ folgen wird, die sich technisch nur in einem Punkt unterscheidet: Sie wird kein Thunderbolt 4/USB 4 bieten, weil diese Schnittstelle nicht von AMDs CPUs und Chipsätzen geboten werden. Bei den GPU- und Display-Optionen wird es hingegen keinen Unterschied geben. Intel habe vor AMD den Vortritt erhalten, weil die Core-Ultra-CPUs zum Start des XMG Neo 16 (E25) im März besser verfügbar sind.
https://www.computerbase.de/news/notebooks/xmg-neo-16-e25-dual-mainboard-notebook-mit-rtx-5000-und-core-ultra.90907/
fondness
2025-01-10, 09:34:17
"Sie wird kein Thunderbolt 4/USB 4 bieten, weil diese Schnittstelle nicht von AMDs CPUs und Chipsätzen geboten werden."
Blödsinn. USB4 hat jeder AMD-Chip.
fondness
2025-01-10, 09:36:53
Das MSI Raider A18HX kommt auch mit HX3D und 5090, scheinen sich doch ein paar Geräte zu verstecken:
https://www.notebookcheck.com/MSI-Raider-18-HX-AI-und-Raider-A18-HX-Gaming-Laptops-starten-mit-4K-Mini-LED-1-000-Nits-und-RTX-5090.942352.0.html
Aber trotzdem traurig, dass man sowas fast schon peinlich berührt in einem Nebensatz ankündigt und es selbstverständlich immer ein Intel-Pendant geben muss. Die Hersteller haben den Kontakt zur Realität offenbar schon völlig verloren. Gerade in einem Spielenotebook mit geringer TDP wird der HX3D Kreise um die Intel-Konkurrenz drehen.
MSABK
2025-01-10, 09:40:02
"Sie wird kein Thunderbolt 4/USB 4 bieten, weil diese Schnittstelle nicht von AMDs CPUs und Chipsätzen geboten werden."
Blödsinn. USB4 hat jeder AMD-Chip.
Ja das muss ein Fehler sein, weil MSI USB4 schreibt.
Aber trotzdem traurig, dass man sowas fast schon peinlich berührt in einem Nebensatz ankündigt und es selbstverständlich immer ein Intel-Pendant geben muss. Die Hersteller haben den Kontakt zur Realität offenbar schon völlig verloren. Gerade in einem Spielenotebook mit geringer TDP wird der HX3D Kreise um die Intel-Konkurrenz drehen.
Ich hatte mal irgendwo aufgeschnappt, dass Intel ein ganz enges Verhältnis zu den Herstellern hat und auch beim Design der Boards unter die Arme greift.
Lawmachine79
2025-01-11, 11:22:35
"Sie wird kein Thunderbolt 4/USB 4 bieten, weil diese Schnittstelle nicht von AMDs CPUs und Chipsätzen geboten werden."
Blödsinn. USB4 hat jeder AMD-Chip.
Nein, ausgerechnet den großen HX3D fehlt es soweit ich weiss. Gibt da im CB Forum einen Thread zum neuen Neo16 von XMG wo der XMG-Mann erklärt, warum welche Notebooks mit AMD oder Intel zusammengestellt werden.
dildo4u
2025-01-11, 13:49:36
Jup maximal 3.2
https://www.amd.com/en/products/processors/laptop/ryzen/9000-series/amd-ryzen-9-9955hx3d.html
Die APU können 4.0
https://www.amd.com/en/products/processors/laptop/ryzen/ai-300-series/amd-ryzen-ai-max-plus-395.html
fondness
2025-01-11, 13:55:47
Dann soll man eben ein paar PCIe-Lanes dafür verwenden. Davon haben die großen Dinger genug.
dildo4u
2025-01-13, 12:12:47
Timespy Werte scheint auf 4070 Level leider erlaubt das Flow nur 70Watt?
P9AaHp7hgyM
mironicus
2025-01-13, 12:20:15
Der Chip ist für bis zu 120 Watt ausgelegt. Das wird er mit 16 CPU-Kernen und einer 40 CU GPU auch gebrauchen können.
dildo4u
2025-01-13, 12:22:51
Ja 70 Watt für GPU und der Rest für die CPU?
Gipsel
2025-01-13, 13:11:09
Ja 70 Watt für GPU und der Rest für die CPU?Dynamisch zwischen beiden Teilen verschiebbar. Bei reiner CPU-Last gehen auch >100W nur auf der CPU. Können ja 16 Kerne sein. In einem grafiklimitierten Spiel dagegen so wenig wie möglich auf der CPU und Priorität auf die GPU.
fondness
2025-01-13, 13:23:31
Der Chip ist für bis zu 120 Watt ausgelegt. Das wird er mit 16 CPU-Kernen und einer 40 CU GPU auch gebrauchen können.
ASUS wird aber in einem Tablet eher nicht auf 120W gehen. Es gehen auch nur 45W TDP für den gesamten SoC.
fondness
2025-01-13, 13:27:48
Timespy Werte scheint auf 4070 Level leider erlaubt das Flow nur 70Watt?
https://youtu.be/P9AaHp7hgyM
Cool, da gibts ja bereits Benchs. Die Performance sieht gut aus für die angegebene TDP.
Undertaker
2025-01-13, 13:45:41
Zum Vergleich, der Vorgänger lag wohl bei gut 9500 im Time Spy Graphic Score: https://www.notebookcheck.com/NVIDIA-GeForce-RTX-4070-Laptop-GPU-Benchmarks-und-Spezifikationen.675686.0.html
Jetzt müsste man mal noch die genauen Systemverbräuche je nach TDP-Setting sehen.
Lawmachine79
2025-01-13, 15:48:44
Aus meiner Sicht ist nicht Blackwell das Highlight des Jahres 2025, sondern Strix Halo. Bin richtig gespannt auf Benchmarks.
dildo4u
2025-01-13, 15:51:30
Du zahlst aber für den Formfaktor und Vram, ein 5070 Laptop könnte 500€ billiger sein und besser performen.
Lawmachine79
2025-01-13, 15:52:34
Du zahlst aber für den Formfaktor und Vram, ein 5070 Laptop könnte 500€ billiger sein und besser performen.
Habe eh immer zwei Laptops ;).
Undertaker
2025-01-13, 16:01:39
mMn hätte man die Konfiguration noch deutlich ausgewogener gestalten können: Mit 16 CPU-Kernen ist man im High-End-Bereich, wo sich entsprechende Konkurrenzgeräte dann aber mit 5070 Ti oder darüber und vielfach höherer GPU-Leistung tummeln. Im 5060er-Umfeld mit ähnlicher Rohleistung wird die gepaarte CPU deutlich kleiner sein und auch das Preissegment ist ein gänzlich anderes.
Ergo: Warum nicht "nur" 8-12 Kerne, ggf. auch mit einigen Zen5c darunter, und dafür dann entsprechend mehr CUs? Die hätte man mit größeren Caches bzw. noch etwas schnellerem LPDDR5X auch versorgen können und hätte ein insgesamt runderes Produkt gehabt.
Lawmachine79
2025-01-13, 16:03:29
mMn hätte man die Konfiguration noch deutlich ausgewogener gestalten können: Mit 16 CPU-Kernen ist man im High-End-Bereich, wo sich entsprechende Konkurrenzgeräte dann aber mit 5070 Ti oder darüber und vielfach höherer GPU-Leistung tummeln. Im 5060er-Umfeld mit ähnlicher Rohleistung wird die gepaarte CPU deutlich kleiner sein und auch das Preissegment ist ein gänzlich anderes.
Ergo: Warum nicht "nur" 8-12 Kerne, ggf. auch mit einigen Zen5c darunter, und dafür dann entsprechend mehr CUs? Die hätte man mit größeren Caches bzw. noch etwas schnellerem LPDDR5X auch versorgen können und hätte ein insgesamt runderes Produkt gehabt.
Ich finde auch die Variante mit 8 Kernen und 32 CUs am Interessantesten. 8/40 wäre natürlich toll.
fondness
2025-01-13, 16:15:21
Ziel sind eben nicht nur Gamer. Das Ding ist ähnlich konfiguriert wie ein M4pro. Zumal man für deutlich mehr CUs eh die Bandbreite nicht hätte, da hilft auch mehr Cache wenig. Aber ja, da es auch mir primär um Spiele geht ziele ich auch auf die 8C/32CU-Varinate ab, wie eh schon hinten erwähnt. Das ganze dann noch mit entsprechend geringer TDP und ich habe meinen super-effizienten mobilen Allzweck-Laptop.
dildo4u
2025-01-13, 16:21:23
Ja AMD musste Kerne spammen da die Dinger als Creator Modelle verkauft werden.
Arrow Lake HX würde sonst davon ziehen, Strix 370 muss hier z.b gegen 24 Kerne antreten.
qdD2O4teDEw
fondness
2025-01-13, 16:25:29
xxxx
dildo4u
2025-01-13, 16:34:57
Und Asus bietet ein 5090 Addon an man ist nicht zwangsweise auf die IGP angewiesen.
16 Zen 5 Kerne Plus die beste Mobile GPU.
https://www.ultrabookreview.com/70266-2025-asus-rog-flow-z13-xg-mobile
MSABK
2025-01-13, 16:35:41
Hat Strix Halo einen IF$?
fondness
2025-01-13, 16:40:56
Hat Strix Halo einen IF$?
Ja, 32MB. Ansonsten hätte man viel zu wenig Bandbreite selbst für 40CUs.
mironicus
2025-01-13, 16:47:48
Auf der CES hat Asus Strix Halo mit 128 GB RAM gezeigt, von dem lässt sich 96 GB für VRAM zuteilen. Für Spezialanwendungen wie KI und das Arbeiten mit großen LLM ist das Gold wert.
MSABK
2025-01-13, 16:55:39
Auf der CES hat Asus Strix Halo mit 128 GB RAM gezeigt, von dem lässt sich 96 GB für VRAM zuteilen. Für Spezialanwendungen wie KI und das Arbeiten mit großen LLM ist das Gold wert.
Da wird interessant sein wie viel das im Vergleich dann kostet.
Undertaker
2025-01-13, 17:12:39
Und Asus bietet ein 5090 Addon an man ist nicht zwangsweise auf die IGP angewiesen.
16 Zen 5 Kerne Plus die beste Mobile GPU.
https://www.ultrabookreview.com/70266-2025-asus-rog-flow-z13-xg-mobile
Strix Halo plus DGPU ist imo eine ziemliche unsinnige Kombination, dann hat man die dicke IGP völlig unnötig mitbezahlt. Schon bei Strix Point kann ich solchen Lösungen wenig abgewinnen, dann doch lieber die 8- oder 16-Kerner mit kleinerem GPU-Ausbau.
mMn macht ein Konfigurationsvergleich mit Apple wenig Sinn, unter MacOS hat Gaming halt faktisch keinen Stellenwert. Unter Windows sieht das ganz anders aus.
mironicus
2025-01-13, 17:13:52
Ich schätze bei HP wird der Aufpreis für den Speicher nicht so hoch ausfallen wie bei Asus.
Eine Oled-Option gibt es beim Zbook Ultra: 35.6 cm (14") diagonal, 2.8K (2880 x 1800), OLED, UWVA, touch, 48-120 Hz, BrightView, Low Blue Light, 400 nits, 100% DCI-P3
https://www.hp.com/us-en/workstations/zbook-ultra.html
PDF Specs: https://h20195.www2.hp.com/v2/GetPDF.aspx/c09086128
dildo4u
2025-01-13, 17:17:22
Strix Halo plus DGPU ist imo eine ziemliche unsinnige Kombination, dann hat man die dicke IGP völlig unnötig mitbezahlt. Schon bei Strix Point kann ich solchen Lösungen wenig abgewinnen, dann doch lieber die 8- oder 16-Kerner mit kleinerem GPU-Ausbau.
mMn macht ein Konfigurationsvergleich mit Apple wenig Sinn, unter MacOS hat Gaming halt faktisch keinen Stellenwert. Unter Windows sieht das ganz anders aus.
Ich habe gelesen das die neuen Nvidia GPU mehr Encoder bekommen denke das ist eine direkte Reaktion auf M4 Max leider hast du mit eine AMD CPU nicht so viel Optionen mit einer 5090 wegen Produkt Politik.
fondness
2025-01-13, 17:27:43
Ich schätze bei HP wird der Aufpreis für den Speicher nicht so hoch ausfallen wie bei Asus.
Eine Oled-Option gibt es beim Zbook Ultra: 35.6 cm (14") diagonal, 2.8K (2880 x 1800), OLED, UWVA, touch, 48-120 Hz, BrightView, Low Blue Light, 400 nits, 100% DCI-P3
https://www.hp.com/us-en/workstations/zbook-ultra.html
PDF Specs: https://h20195.www2.hp.com/v2/GetPDF.aspx/c09086128
Bisher durchgehend professionelle Workstation Notebooks. Ich sehe keine einzigen Gaming-Laptop. Ganz klar als M4pro Konkurrent platziert, mit dem man als Bonus auch spielen kann.
PatkIllA
2025-01-13, 17:37:48
Strix Halo plus DGPU ist imo eine ziemliche unsinnige Kombination, dann hat man die dicke IGP völlig unnötig mitbezahlt. AFAIK hat Strix Halo hat da gar keine Lanes für vorgesehen.
Dafür ist doch der AMD Ryzen™ 9 9955HX3D da.
dildo4u
2025-01-13, 17:39:41
AFAIK hat Strix Halo hat da gar keine Lanes für vorgesehen.
Dafür ist doch der AMD Ryzen™ 9 9955HX3D da.
Strix Halo hat 16 4.0 Lanes, 8 reichen vermutlich für Mobile GPUs.
mironicus
2025-01-13, 17:40:44
Das würde mich auch interessieren. Strix Halo Gaming Laptop, 128 GB RAM, RTX 5090 mit 24 GB VRAM. Irgendjemand wird sich doch vielleicht erbarmen? Vielleicht Razor mit einem 18 Zoll-Laptop?
PatkIllA
2025-01-13, 17:44:06
Strix Halo hat 16 4.0 Lanes, 8 reichen vermutlich für Mobile GPUs.
Ah stimmt. Dachte es wären nur 4 übrig.
Da gehen auch keine Lanes für USB4 drauf oder?
Der AMD Ryzen™ 9 9955HX3D hat die 28 Lanes aus dem Desktopo behalten dafür kein natives USB-Thunderbolt.
Ich will so ein AMD Ryzen™ AI Max+ PRO 395 für die Arbeit. dGPU brauche ich nicht und 64 GB reichen auch erstmal. Hoffentlich ist da bald mal was lieferbar.
mironicus
2025-01-13, 17:51:30
Strix Point (HX370) hat auch 16 PCIe 4.0-Lanes. Also dürften Strix Halo-Laptops mit RTX 5090 ohne weiteres möglich sein. Und da beide nativ USB 4.0 unterstützen werden keine PCIe-Lanes dadurch belegt.
Lawmachine79
2025-01-13, 18:06:01
Bisher durchgehend professionelle Workstation Notebooks. Ich sehe keine einzigen Gaming-Laptop. Ganz klar als M4pro Konkurrent platziert, mit dem man als Bonus auch spielen kann.
ROG Flow Z13?
fondness
2025-01-13, 18:10:30
ROG Flow Z13?
Stimmt die erwähnen Gaming zumindest. Wobei ein Tablet jetzt auch nicht unbedingt ein primäres Gaming-Device ist IMO.
https://rog.asus.com/laptops/rog-flow/rog-flow-z13-2025/
Lawmachine79
2025-01-13, 18:12:13
Stimmt die erwähnen Gaming zumindest. Wobei ein Tablet jetzt auch nicht unbedingt ein primäres Gaming-Device ist IMO.
https://rog.asus.com/laptops/rog-flow/rog-flow-z13-2025/
Ja, und die ROG-Marke ist auch nicht "Republic of Gontent Greators".
Undertaker
2025-01-13, 18:18:29
ROG Flow Z13?
Denke, das wird eher eine der wenigen Ausnahmen bei Geräten mit Gaming-Fokus bleiben, wenn die Rohleistung nicht mehr als RTX 4060/4070/5060 erreicht. Je nach restlicher Ausstattung sind (4060 aktuell im Abverkauf ab <600 Euro) bzw. werden diese Geräte erfahrungsgemäß bei <1k€ Basispreis angesiedelt, in diese Region wird SH nicht kommen können. Wie gesagt: Für einen breitflächigen Angriff auf den Gaming Markt ist die CPU/GPU/Preis-Gewichtung nicht stimmig.
dildo4u
2025-01-13, 18:23:25
AMD hat schon Probleme genug Standard APU zu liefern wäre fraglich ob Strix Halo Nvidia angreifen könnte was Menge angeht.
Das ist vom September.
https://www.tomshardware.com/tech-industry/amds-laptop-oems-decry-poor-support-chip-supply-and-communication-the-company-has-left-billions-of-us-dollars-lying-around-due-to-poor-execution-claims-multiple-reports
fondness
2025-01-13, 18:27:04
in diese Region wird SH nicht kommen können.
Nicht kommen können ist natürlich Bullshit, nicht kommen wollen vermutlich. Man bekommt ja nicht mal Notebooks mit dem kleinen Strix ohne dGPU um <1K€. Aber nicht jeder will billigen Schrott kaufen.
mironicus
2025-01-13, 18:28:01
Das Rog Flow Z13 hat einen Startpreis von 2500 Euro, angeboten mit erstmal nur 32 Gigabyte.
https://estore.asus.com/de/90nr0jy1-m004t0-rog-flow-z13-2025.html
Undertaker
2025-01-13, 19:48:56
Nicht kommen können ist natürlich Bullshit, nicht kommen wollen vermutlich. Man bekommt ja nicht mal Notebooks mit dem kleinen Strix ohne dGPU um <1K€. Aber nicht jeder will billigen Schrott kaufen.
Mal etwas weniger infantil formuliert: Die Kalkulation hinter den Produkten (Herstellung, Entwicklung, Marketing, ...) kennen wir hier alle nicht. Am Ende sehen wir nur die Verkaufspreise, da ist die Ausrichtung auf >2k€ aber sehr deutlich erkennbar (vgl. Strix Point). Es geht ja nicht per se um "billig", sondern die Konkurrenzfähigkeit in der jeweiligen Preisklasse. Bei Gaming-Geräten um $2200 wäre Strix Halo im Feld der RTX 5080, und gegen die braucht man in dieser Zielgruppe nicht antreten. Insofern die Argumentation, dass Strix Halo im Gaming-Segment ein Exot bleiben wird.
dildo4u
2025-01-13, 20:24:55
Die Preise klingen absurd Leute zahlen aber scheinbar für Formfaktor 2500€ für das 2024 G14 mit 4070.
Nach einem Jahr :eek:
https://geizhals.de/asus-rog-zephyrus-g14-oled-ga403ui-qs024w-eclipse-gray-90nr0hx1-m002j0-a3112593.html?v=l&hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Was ich nicht verstehe ist: Warum kaufen alle einen 9800X3D, obwohl es einen 9950x für den gleichen Preis zu kaufen gibt. In 4k reißt der 9950x die gleiche Performance runter, wenn nicht gar besser (Stichwort FS2024) und niemand spielt mit solch Prozessoren in 1440p-also kaum einer. Der 9950x ist sauschnell, läßt sich im Rahmen sehr gut übertakten und UVen. Ich verstehe den Hype nicht. Habe aus dem Grund auch meinen 7950x3d gegen einen 9950x getauscht und komme immer besser raus, egal welche Anwendung und auch Spiel, da hier je nach Game bis zu 5.95g auf wenigstens 4 Kernen Anliegen (+200, UV-15).
dildo4u
2025-01-13, 20:44:23
9700x bringt die selbe Gameing Performance für die Hälfte und der 9800x3D ist das einzige Modell was sich davon deutlich absetzen kann nicht wirklich verwunderlich.
https://i.ibb.co/7KMycNS/Screenshot-2025-01-13-20-45-00-494-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/0r4JNVn)
https://www.computerbase.de/artikel/prozessoren/rangliste.89909/
Der_Korken
2025-01-13, 20:58:42
Was ich nicht verstehe ist: Warum kaufen alle einen 9800X3D, obwohl es einen 9950x für den gleichen Preis zu kaufen gibt. In 4k reißt der 9950x die gleiche Performance runter, wenn nicht gar besser (Stichwort FS2024) und niemand spielt mit solch Prozessoren in 1440p-also kaum einer. Der 9950x ist sauschnell, läßt sich im Rahmen sehr gut übertakten und UVen. Ich verstehe den Hype nicht. Habe aus dem Grund auch meinen 7950x3d gegen einen 9950x getauscht und komme immer besser raus, egal welche Anwendung und auch Spiel, da hier je nach Game bis zu 5.95g auf wenigstens 4 Kernen Anliegen (+200, UV-15).
Ich hatte seinerzeit einen 5900X gekauft, weil der 5800X kaum billiger war und ich dachte mit den Extrakernen einen guten Kauf zu machen. Tatsächlich habe ich von den Kernen bis heute in keiner Anwendung nennenswert profitiert und hätte lieber den knappen Hunni mehr auf dem Konto. Ich glaube die vier Extrakerne werde ich zu Lebzeiten dieser CPU auch nicht mehr nutzen. Stand heute würde ich einen 9800X3D jederzeit einem 9950X vorziehen. UV fand ich mit zwei CCDs auch eher meh, weil der zweite CCD (zumindest bei mir) deutlich mehr VCore brauchen als der erste und somit auf die Effizienz drückt, wenn beide CCDs belastet werden (und im Idle auch).
[MK2]Mythos
2025-01-13, 21:52:16
Was ich nicht verstehe ist: Warum kaufen alle einen 9800X3D, obwohl es einen 9950x für den gleichen Preis zu kaufen gibt. In 4k reißt der 9950x die gleiche Performance runter, wenn nicht gar besser (Stichwort FS2024) und niemand spielt mit solch Prozessoren in 1440p-also kaum einer. Der 9950x ist sauschnell, läßt sich im Rahmen sehr gut übertakten und UVen. Ich verstehe den Hype nicht. Habe aus dem Grund auch meinen 7950x3d gegen einen 9950x getauscht und komme immer besser raus, egal welche Anwendung und auch Spiel, da hier je nach Game bis zu 5.95g auf wenigstens 4 Kernen Anliegen (+200, UV-15).
Da haste aber einen schlechten Deal gemacht, selbst der 7950x3d ist in Games schneller als der 9950x. Außerdem gibt es einen Test, ich glaube von Raff (finde ihn aktuell aber nicht) der zeigt dass der 9800X3D selbst unter 4k deutlich schneller rennt als alle anderen CPUs.
Zossel
2025-01-13, 22:08:24
Denke, das wird eher eine der wenigen Ausnahmen bei Geräten mit Gaming-Fokus bleiben, wenn die Rohleistung nicht mehr als RTX 4060/4070/5060 erreicht. Je nach restlicher Ausstattung sind (4060 aktuell im Abverkauf ab <600 Euro) bzw. werden diese Geräte erfahrungsgemäß bei <1k€ Basispreis angesiedelt, in diese Region wird SH nicht kommen können. Wie gesagt: Für einen breitflächigen Angriff auf den Gaming Markt ist die CPU/GPU/Preis-Gewichtung nicht stimmig.
Wenn man einen Zettel mit "KI" auf die Kiste klebt kann man höhere Preise aufrufen.
Und den Shareholdern kann man mehr Umsatz im KI-Segment unterjubeln.
Tesseract
2025-01-13, 22:40:24
In 4k reißt der 9950x die gleiche Performance runter
tut er nicht. nicht in jedem spiel, schon garnicht mit upscaling und nicht bei der frametimekonsistenz. selbst in manchen produktivanwendungen ist der X3D lustigerweise schneller, aber die sind in der regel sowieso nicht performancekritisch, ergo irrelevant.
wenn man nicht beruflich oder als hobby ständig irgendwas macht das über längere zeit MT voll auslastet machten und machen die 2x CCD noch nie wirklich sinn, und wenn dann eigentlich auch nur die X3D-versionen wenn man auch gamer ist.
Lawmachine79
2025-01-13, 23:57:11
Was ich nicht verstehe ist: Warum kaufen alle einen 9800X3D, obwohl es einen 9950x für den gleichen Preis zu kaufen gibt. In 4k reißt der 9950x die gleiche Performance runter, wenn nicht gar besser (Stichwort FS2024) und niemand spielt mit solch Prozessoren in 1440p-also kaum einer. Der 9950x ist sauschnell, läßt sich im Rahmen sehr gut übertakten und UVen. Ich verstehe den Hype nicht. Habe aus dem Grund auch meinen 7950x3d gegen einen 9950x getauscht und komme immer besser raus, egal welche Anwendung und auch Spiel, da hier je nach Game bis zu 5.95g auf wenigstens 4 Kernen Anliegen (+200, UV-15).
Gratulier' dem Erwerber des 7950X3D von mir zu diesem hervorragenden Tausch. Wenn Du jetzt besser rauskommst, war vorher wahrscheinlich der falsche CCD bzw. beide CCDs beim Zocken aktiv.
Zossel
2025-01-14, 06:29:51
Unterschiedliche Charakteristiken bzgl. Performance sind schon schrecklich.
Lawmachine79
2025-01-14, 09:55:18
Die Preise klingen absurd Leute zahlen aber scheinbar für Formfaktor 2500€ für das 2024 G14 mit 4070.
Nach einem Jahr :eek:
https://geizhals.de/asus-rog-zephyrus-g14-oled-ga403ui-qs024w-eclipse-gray-90nr0hx1-m002j0-a3112593.html?v=l&hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Ja, das verlinkte Ding und das ROG Flow Z13 sind schon teuer. Ich hoffe, dass es was im 15 Zoll-Bereich gibt mit einer 8/16 bzw. 32 CU Strix Halo-Einheit. Wenn das so im Bereich 1.500 möglich ist, wäre das gut.
Badesalz
2025-01-14, 10:02:24
tut er nicht. nicht in jedem spiel, schon garnicht mit upscaling und nicht bei der frametimekonsistenz. Und auch nicht bei 1%lowFPS :rolleyes: Was die einzige signifikante Metrik ist.
PS:
Nur Gameing postet ständig Tabellen mit dem Mittel aus AVG. Mit 5800er RAMs...
MSABK
2025-01-14, 10:41:14
Wurden in Strix Halo die CCDs vom Desktop übernommen oder angepasst?
w0mbat
2025-01-14, 11:08:55
Das kommt ganz darauf an, was für ein interconnect genutzt wird. Vom Aufwand her ergibt es natürlich Sinn, einfach die desktop CCDs zu nutzen. Die gibt es ja schon fertig.
AMD scheint bei Strix Halo aber einen interposer zu nutzen, was gegen IFOP als interconnect spricht. Kann sein, dass das Zen 5 CCD schon beides kann. Kann aber auch sein, dass AMD hier ein leicht anderes CCD für einen neuen die-to-die interconnect aufgelegt hat.
Bin auf jeden Fall gespannt!
Der_Korken
2025-01-14, 11:20:54
AMD scheint bei Strix Halo aber einen interposer zu nutzen, was gegen IFOP als interconnect spricht. Kann sein, dass das Zen 5 CCD schon beides kann. Kann aber auch sein, dass AMD hier ein leicht anderes CCD für einen neuen die-to-die interconnect aufgelegt hat.
Wenn die Desktop-Modelle und Fire Range sich mit den Server-Dies begnügen müssen, wird AMD nur für Strix Halo sicherlich keinen eigenen Die auflegen. Der Raphael-Die wurde ja schon als Beispiel genannt, wo AMD einfach zwei Interfaces implementiert hat. Das Interface fürs Stacking war zudem winzig klein, da die CCDs kaum Bandbreite haben.
w0mbat
2025-01-14, 11:26:20
Ich gehe auch davon aus, dass wenn AMD wirklich zwei unterschiedliche interconnects nutzt, das CCD schon beide kann. Aber es ist nicht unmöglich, dass es zwei Varianten gibt. AMD hat deutlich mehr Ressourcen als noch vor ein paar Jahren.
Edit: https://chipsandcheese.com/p/amds-strix-halo-under-the-hood
Hört sich doch ein bisschen so an, als ob das ein neues CCD wäre. Mit fan-out hat ein einzelnen CCD 256GB/s zum RAM vs. nur 64GB/s mit IFOP. Und die Latenzen sind niedriger. Und es ist effizienter. Zen 6 wird geil :D
fondness
2025-01-14, 12:00:41
Die Preise klingen absurd Leute zahlen aber scheinbar für Formfaktor 2500€ für das 2024 G14 mit 4070.
Nach einem Jahr :eek:
https://geizhals.de/asus-rog-zephyrus-g14-oled-ga403ui-qs024w-eclipse-gray-90nr0hx1-m002j0-a3112593.html?v=l&hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Ja das wird gerne ignoriert und das meine ich mit billigen Schrott. Die aktuellen Strix und speziell die angekündigten Strix Halo Produkte sind praktisch durchgehend absolute High-End-Geräte. Das mit irgendwelchen billigen Plastikbombern um 600 EUR zu vergleichen ist natürlich absurd. Zumal ein Strix Halo eben klare Vorteile hat was zB Formfaktor aber sicherlich auch Perf/Watt betrifft wie man schon an den ASUS Werten bei 40W sehen kann. Vom VRAM-Vorteil rede ich da noch gar nicht. Oder dem dynamischen Load-Balancing zwischen CPU und GPU, etc. pp.
Die Produktstrategie von AMD ist offensichtlich. Man versucht das High-Margin Premium Segment zu besetzen. Das hat man im Server-Bereich längst geschafft, im Desktop spätestens mit Zen5 auch und das will man nun auch im Notebooksegment. Intel darf gerne den Massenmarkt bedienen, man sieht ja an den Milliardenverlusten wie wenig das Wert ist.
Zossel
2025-01-14, 12:04:55
Ich gehe auch davon aus, dass wenn AMD wirklich zwei unterschiedliche interconnects nutzt, das CCD schon beide kann. Aber es ist nicht unmöglich, dass es zwei Varianten gibt. AMD hat deutlich mehr Ressourcen als noch vor ein paar Jahren.
Edit: https://chipsandcheese.com/p/amds-strix-halo-under-the-hood
Hört sich doch ein bisschen so an, als ob das ein neues CCD wäre. Mit fan-out hat ein einzelnen CCD 256GB/s zum RAM vs. nur 64GB/s mit IFOP. Und die Latenzen sind niedriger. Und es ist effizienter. Zen 6 wird geil :D
Die Zen4 Dies werden ja auch schon anders in den HPC-Teilen geklebt als in den Server und Desktop Modellen.
w0mbat
2025-01-14, 12:07:15
Was meinst du damit? Auch EPYC nutzt IFOP für die CCD-IOD-Verbindung.
fondness
2025-01-14, 12:09:31
MI300A?
mironicus
2025-01-14, 13:11:33
Kurzinterview mit einem AMD-Mann über Strix Halo.
yR4BwzgwQns
fondness
2025-01-14, 13:18:50
- better chip interconnect
- full 512 bit fpu avx
- 32 MB infinity cache just for the gpu ( gpu writes put data here, configurable ??? )
davidzo
2025-01-14, 13:42:41
- better chip interconnect
- full 512 bit fpu avx
- 32 MB infinity cache just for the gpu ( gpu writes put data here, configurable ??? )
ty fürs zusammen fassen. George ist großartig.
sfw Version (text): https://chipsandcheese.com/p/amds-strix-halo-under-the-hood
fondness
2025-01-14, 13:48:55
Auch interessant, ein CCD hat bei Strix Halo 256 GB/s Bandbreite statt 64 GB/s bei einem normalen Zen5, und hat auch eine niedrigere Latenz als ein Zen5 Desktop. Natzürlich auch bei weniger Verbrauch.
robbitop
2025-01-14, 14:03:08
Ist das eigentlich ein eigener CCD für Halo oder nutzt man den gleichen wie beim Desktop (ich finde das wurde nicht so eindeutig gesagt) und hat an dem CCD einfach beide Interconnects vorgesehen?
w0mbat
2025-01-14, 14:03:49
Edit: https://chipsandcheese.com/p/amds-strix-halo-under-the-hood
Hört sich doch ein bisschen so an, als ob das ein neues CCD wäre. Mit fan-out hat ein einzelnen CCD 256GB/s zum RAM vs. nur 64GB/s mit IFOP. Und die Latenzen sind niedriger. Und es ist effizienter. Zen 6 wird geil :D
Nicht 100% sicher, aber hört sich so an. Ich habe George gefragt, mal schauen was er sagt.
fondness
2025-01-14, 14:09:18
Ist das eigentlich ein eigener CCD für Halo oder nutzt man den gleichen wie beim Desktop (ich finde das wurde nicht so eindeutig gesagt) und hat an dem CCD einfach beide Interconnects vorgesehen?
Ein eigenes CCD für ein absolutes low-volume Produkt wie Strix Halo wäre schon ein ziemlicher Luxus und würde absolut nicht dem entsprechen, wie AMD bisher vorgegangen ist. Ich gehe davon aus, dass es bereits im Zen5 CCD vorhanden ist. Wäre es ein eigenes Die, wäre man wohl auch auf eine 256bit FPU gegangen.
w0mbat
2025-01-14, 14:16:07
https://www.flickr.com/photos/130561288@N04/albums/72177720320942793
Sollte InFo-R mit einem organic interposer sein (nur geraten).
robbitop
2025-01-14, 14:17:01
Ein eigenes CCD für ein absolutes low-volume Produkt wie Strix Halo wäre schon ein ziemlicher Luxus und würde absolut nicht dem entsprechen, wie AMD bisher vorgegangen ist. Ich gehe davon aus, dass es bereits im Zen5 CCD vorhanden ist. Wäre es ein eigenes Die, wäre man wohl auch auf eine 256bit FPU gegangen.
Würde ich auch schätzen. (wobei CCDs auch mit modernem Packaging bei Mi300A eingesetzt werden oder?)
fondness
2025-01-14, 14:19:07
(wobei CCDs auch mit modernem Packaging bei Mi300A eingesetzt werden oder?)
Richtig, dort hat man auch bereits 2 Interfaces vorgesehen. Das ist aber ein Zen4-CCD. Gibt aber keinen Grund das nicht auch bei Zen5 gemacht zu haben.
w0mbat
2025-01-14, 14:22:39
Ist MI300A nicht auch hybrid bonding auf einem aktiven interposer?
davidzo
2025-01-14, 14:25:27
So the demand of the form factor says that you need cores that are cooler, if you will, lower in that FP curve where you can extract efficiency. So these are binned, the same architecture, the same set of pipes, the data parts are the same. The differences are in how we bin the part and how we connect the two parts.
Subramony sagt dass es ein eigens dafür gebinntes CPU Chiplet ist. Das würde man nur so ausdrücken wenn es eben vom gleichen Wafer stammt wie Desktop/Server Zen5. Binning macht in diesem Kontext nur Sinn wenn es auch Bins für verschiedene Zwecke gibt, also zum Beispiel auch welche für den Desktop. Binning ohne Salvage Möglichkeit wäre unheimlich unökonomisch. Allein der Interposer, Packaging und der riesige i/o DIE machen Strix Halo schon sehr teuer. Ich denke nicht dass AMD dann auch noch die Hälfte der CPU DIEs verklappt um ein gewisses binning level zu erreichen. Von daher wandern die anderen Bins wohl eher in Fire Range und Granite Ridge.
fondness
2025-01-14, 14:25:51
Ist MI300A nicht auch hybrid bonding auf einem aktiven interposer?
Klar: https://hothardware.com/reviews/amd-instinct-mi300-family-architecture-advancing-ai-and-hpc
https://i.postimg.cc/x1j2wb1X/big-amd-instinct-mi300-overview-11.jpg (https://postimages.org/)
https://i.postimg.cc/vHQkTwFj/big-amd-instinct-mi300-overview-13.jpg (https://postimages.org/)
w0mbat
2025-01-14, 14:41:17
Geil, die Folien hab ich so komischer Weise noch nicht gesehen bzw. nicht "abgespeichert". Jetzt müssen wir nur das fan-out interface auf dem Zen 5 CCD finden :D
mironicus
2025-01-14, 16:00:36
Strix Halo mit Spieleszenen-Aufnahmen. FPS gibt es nicht zu sehen, aber das 60 FPS-Video spricht für sich, das Strix Halo mit hohen Settings und Auflösungen bis 2560x1600 gut umgehen kann. Allerdings würde ich es dafür eher nicht einsetzen wollen. VRAM-Mangel gibt es hier nicht. ;D
hj4qL6coID4
Zossel
2025-01-14, 16:53:38
Strix Halo mit Spieleszenen-Aufnahmen. FPS gibt es nicht zu sehen, aber das 60 FPS-Video spricht für sich, das Strix Halo mit hohen Settings und Auflösungen bis 2560x1600 gut umgehen kann. Allerdings würde ich es dafür eher nicht einsetzen wollen. VRAM-Mangel gibt es hier nicht. ;D
https://youtu.be/hj4qL6coID4
Ach, das geht ja runter wie Butter wenn so was gleich mit Linux getestet wird :-)
AMD sollte seine Position bzgl. GPU Virtualisierung noch mal überdenken um SteamOS bzw. dessen Derivaten eine Möglichkeit zu bieten Windows dort als VM mit einer "nativen" GPU laufen lassen zu können. Das wäre für einige Kunden sicherlich ein Aha-Moment.
CrazyIvan
2025-01-14, 17:14:52
Im AT Forum gibt es einen vermeintlichen Auskenner, der seit Monaten behauptet, dass Halo ein eigenes CCD hat. Ich kann das auch kaum glauben und gehe weiterhin von zwei Interconnects auf dem OG Zen5 CCD aus.
Fairerweise muss man aber sagen, dass die SoIC Interconnects auf Zen4 einfacher zu verstauen waren. Für Fanout braucht man AFAIK Randbereiche, während die Platzierung bei SoIC völlig wurscht ist.
Aber genau aus diesem Grund finde ich Halo extrem spannend.
Undertaker
2025-01-14, 17:50:10
Strix Halo mit Spieleszenen-Aufnahmen. FPS gibt es nicht zu sehen, aber das 60 FPS-Video spricht für sich, das Strix Halo mit hohen Settings und Auflösungen bis 2560x1600 gut umgehen kann. Allerdings würde ich es dafür eher nicht einsetzen wollen. VRAM-Mangel gibt es hier nicht. ;D
https://youtu.be/hj4qL6coID4
Prinzipiell dürfte die Performance-Charakteristik der 7600XT recht gut auf Strix Halo übertragbar sein, da erstere auch mehr als genug VRAM für ihre Leistungsklasse hat und hier in keine Limits laufen sollte. Ich meine, auf einer der letzten Seiten hatten wir einen Time Spy GPU-Score von 9.100 Punkten für Strix Halo im Flow 13 gesehen, die 7600XT liegt wohl bei ca. 11.600 Punkten (+27%). Wenn man diese Performance-Relation nun auf Spiele mit bekannten Frameraten der 7600XT überträgt, ist die Spielbarkeit mit Strix Halo bei dieser TDP sehr gut abschätzbar.
fondness
2025-01-14, 17:58:27
Eine 7600XT hat vor allem eine TDP von 190W. Der Strix Halo Wert entstand mit 70W (vermutlich für den gesamten SoC).
Undertaker
2025-01-14, 18:08:49
Genau, wir vergleichen hier natürlich einen ziemlich überfahrenen 32 CU-Chip - wohl eine der ineffizientesten GPUs überhaupt der aktuellen Current-Gen - gegen 40 CUs im Effizienz Sweet-Spot, da sieht die ohnehin verschwenderische 7600XT gleich noch viel schlechter aus. Eigentlich ging es auch eher um die Performance-Indikation, wo die 7600XT eine recht spannende Referenz für die Relationen darstellen sollte.
fondness
2025-01-14, 21:03:17
LTT hat im Video die TDP Werte der Strix halo APU im Asus ROG Flow Z13 geleaked: Silent Mode ist 28W TDP and maximum ist 80W TDP. Man geht also deutlich unter die 45W von AMD.
Altehardware
2025-01-14, 21:53:02
Wer denkt das amd eine eigenes ccd für strix halo baut irrt das Si sitzt im I/O Die nicht in chiplet
Strix halo ist kein monolith sondern wie alle ryzen desktop ein mcm dieses Konzept mit einen 256bit Si kommt am desktop aber als am6 2026 das ist sicher.
Die frage die sich stellt mti welcher zen arch
Es ist gut möglichd as zten6 für am6 nur kommt aber auch das es beide sockel kann aber in zwei produkte geht
Also apu only am6 mit 256bit Si und am5 mit dem bisherigen I/O die und 128bit auf am5
Diee strategie erlaubt es amd die amximnale bandbreite mit den alu zu testen auf eine camm 2 angebundene apu ich gehe von dann 3se aus mit dann 60cu (72 physisch) bei 3,0ghz mit grob 448gb/s bandbreite grob 30tf etwa so schnell wie die rx9070xt in ner apu.
das geht weil für die igp ein chiplet in n2 ist -60% energie vs n4
tdp liegt bei grob 220w
Während zen6 schön brav mit x3d cpu auf am5 weiterläuft
Der nchflhgr zehn7 wird dann die doppelte alu per igp bringen was dann 60tf auf ner apu mit dann 220w tdp wird. in a18 node das dürfte dann 2028 kommen
>E sgibt nenn grudn waurum ich seit nenn jkahr sage das die Zukunft apu wrden bei amd strix halo isbn test ob man mit ram angebunden gpu auf dem mcm mit mehr bit Anbindung mehr alu auslasten kann bisher spricht alles dafür.
Die strix halo haben grob 15tf das ist ne rtx3070 bzw rx6750xt mit knapp 240gb/s
das ist zwar knapp aber mit ddr5 nicht anders zu schaffen wird hier aber zukünftig ddr6 (bis 16gt/s)verwendet dürfte die bandbreite nicht mehr limitieren
rdna4 sind die letzten mid class dgpu von amd danach folgt nur noch apu und high end ab 2027
nvidia folgt dem auch die erste nvidia apu ist auf dem Weg unklar mit was.
Dies könnte ne art Konsole sein oder man verbindet nviida intel apu in foveros design zusammen was sehr wahrscheinlich ist
Folglich gibt es dann nur noch Resteverwertung mit blackwell bis 2030 wo man wieder konkurrenzfähige dgpu bauen kann bis 600€
Denkbar wären
am6 apui
12c 6,6ghz 60cu 2,9ghz 220w am6
12c 6,6ghz 2cu 2,9ghz 65w am5
dgpu ab 100cu 3,0ghz ab 800€ neues Namensschema udna
nvidia ab 2027
Sockel unbekannt
denkbar sind 6+12 6,0ghz/5,6ghz 48sm 2,6ghz sockel mit 384bit 256+128bit +-51tf 150w tdp mix aus n2 a18 (cpu) und n4 node (Si connect)
dgpu ab 60sm doppelte alu per sm grob 64tf akä rtx4090 200w in n2 node
Das wird die 80 class ab 1000€ darüber den vollen gr203 mit 90tf 70sm doppelte alu 300w tbp für bewährte 2300€ (1999$)
ich hoffe das bis ende 2026 der euro wieder deutlich stärker ist was ziemlich sicher sein dürfte
Parallel wird nvidia die gb205 und gb203 auf kleinere sku als rtx60 bringen wo alle sku eine stufe geringer positioniert werden mit leicht reduzierten alu
etwa rtx6060 gb205 42sm vs 36sm 160w 22tf
rtx6070 60sm vs 48sm 210w 32tf
rtx6070ti 80sm vs 70smn 280w 40tf
Das läuft dann bis a18 node perfekt läuft und nvidia die mcm mit gestapelten chips beherrscht
das dürfte dann bis 2029 so sein
danach ist Schluss mit entry und mid class bei nvidia
Die chance besteht ist aber unklar ob das nvidia so macht kann auch als rtx50 super Serie kommen.
bei apu bin ich mir sicher das es bis 60tf gehen wird ab 2028 nvidia unklar denkbar wäre es das man gleich vorgeht und ans limit oc bei apu mit dann 3,0ghz und 350w tdp mit 48sm
das hängt aber von der Bandbreite ab.
ddr6 soll bis 14gt/s gehen was grob bei 256 bit 448gb/s bringt dazu die 512bit angebunden hbm4 +410gb =858gb/s
Das könnte reichen dieses hybrid Ansatz macht Sinn hbm4 bis 4gb an 512bit für kurze Latenzen (0,5ns) und den Rest in den ram 20ns dank camm2
aktuelle Latenz bei dgpu grob zwischen 1-1,5ns
CrazyIvan
2025-01-15, 06:45:21
Wer denkt das amd eine eigenes ccd für strix halo baut irrt das Si sitzt im I/O Die nicht in chiplet
Strix halo ist kein monolith sondern wie alle ryzen desktop ein mcm dieses Konzept mit einen 256bit Si kommt am desktop aber als am6 2026 das ist sicher.
Es geht um die Verbindung von IOD und CCD. Und für einen neuen Interconnect brauchen sie auch im CCD neue Konnektoren. Die Frage ist nur, ob die bereits im aktuellen CCD enthalten sind oder nicht. Bin da aber ganz bei davidzo und seiner Interpretation bezüglich Binning.
@alle
Ich habe das Interview übrigens so verstanden, dass die Bandbreite zum CCD weiterhin 64 GByte/s r/w ist - an welcher Stelle habe ich da etwas überlesen?
Badesalz
2025-01-15, 06:52:55
nvidia folgt dem auch die erste nvidia apu ist auf dem Weg unklar mit was.Mit ARM :rolleyes:
Dies könnte ne art Konsole sein oder man verbindet nviida intel apu in foveros design zusammen was sehr wahrscheinlich istaua aua aua :ulol:
CrazyIvan
2025-01-15, 08:40:46
@Altehardware
Mal ganz generell: Hast Du Deinen Post eingesprochen und transkribieren lassen? Das liest sich ja fürchterlich. Ich kann es grundsätzlich verstehen, falls Du in der Hinsicht etwas gehandicapt bist, aber vielleicht könntest Du wenigstens noch einmal eine Autokorrektur drüber laufen lassen - ich und sicher auch andere Forenmitglieder würden es Dir danken.
Badesalz
2025-01-15, 08:47:05
@CrazyIvan
Das wäre nur das halbe Problem. Das geht ja fast noch, wenn man an etwaige Handycaps denkt. ALLERDINGS, was von keinen solchen betroffen sein dürfte, ist die Sache mit abgerissenen Zeilen und fehlenden Absätzen.
Sich wenigstens da Mühen und Gedanken zu machen wäre schon ein großes Entgegenkommen in Anbetracht des eigentlichen Handycaps. Im Zusammenspiel ist das nahezu unlesbar und irgendwie auch ärgerlich, da es beim ersten Blick eine Einstellung "mir doch komplett alles egal" vermittelt. Das sieht aus wie das Handycap + stehend im vollen Bus auf dem Blackberry verfasst. Mit nur einer freien Hand...
Ich werde mich da jedenfalls nicht mehr durchkämpfen. Sorry.
mironicus
2025-01-15, 08:59:52
Mit Unterstützung der KI Phi-4 habe ich den Beitrag von @AlteHardware vereinfacht zusammengefasst. :smile:
AMD entwickelt die Ryzen AI-Prozessoren „Strix Halo“ für Laptops und setzt dabei auf ein innovatives Chipdesign. Im Gegensatz zu den Desktop-Versionen sind diese Prozessoren kein monolithischer Block, sondern bestehen aus mehreren Chiplets. Dies ermöglicht eine höhere Datenübertragungsrate (256 Bit) im Vergleich zu früheren Modellen (128 Bit).
Für Laptops (APUs) ist geplant, die neue Architektur Zen6 ab 2026 einzusetzen. Diese könnte sowohl in einer leistungsstarken Variante für Laptops als auch in einer weniger energieintensiven Version erscheinen. Die neuen APUs könnten durch ihre GPU-Komponente eine Leistung erreichen, die der einer RTX 3070 nahekommt.
AMD setzt zukünftig auf integrierte Grafikprozessoren (IGPs), während dedizierte GPUs vor allem für High-End-Modelle bis 2027 vorgesehen sind. DDR5-Speicher wird zunächst eingesetzt, gefolgt von DDR6 ab 2028, um die Bandbreitenbegrenzung zu überwinden.
NVIDIA könnte ähnlich vorgehen und ihre APUs auf den Markt bringen, eventuell in Zusammenarbeit mit Intel im Foveros-Design. NVIDIA plant, kleinere Versionen der RTX-Serie auf den Markt zu bringen, während dedizierte GPUs zunehmend durch APUs ersetzt werden könnten.
Im Gesamtüberblick wird erwartet, dass die Integration von Grafikleistung in CPUs (APUs) bis 2028 eine bedeutende Rolle spielen wird. AMD ist dabei sicherer, wie weit sie dieses Konzept treiben können, während bei NVIDIA noch Unklarheiten bestehen.
:eek:
Zossel
2025-01-15, 10:25:42
Mit Unterstützung der KI Phi-4 habe ich den Beitrag von @AlteHardware vereinfacht zusammengefasst. :smile:
Sozusagen Halluzination auf der Basis von Halluzination.
Schöne neue Welt.
davidzo
2025-01-15, 11:25:04
@alle
Ich habe das Interview übrigens so verstanden, dass die Bandbreite zum CCD weiterhin 64 GByte/s r/w ist - an welcher Stelle habe ich da etwas überlesen?
Granite Ridge hat zwar 32byte per cycle lesend, aber nur 16byte per cycle Schreibend. Nur die mobile CPUs haben symmetrische 32byte per cycle und das auch wenn es 2x CCXs gibt wie bei Strix.
As with Zen 2, each CCD connects to the IO die through an Infinity Fabric link. On desktop, this link is 32 bytes per cycle in the read direction and 16 bytes per cycle in the write direction. That differs from AMD’s mobile parts, where the Infinity Fabric link from a core cluster can do 32 bytes per cycle in both directions. Infinity Fabric runs at 2 GHz on both setups, just as it did on desktop Zen 4. That’s not a surprise, since AMD has re-used Zen 4’s IO die for Zen 5. At that clock speed, each cluster has 64 GB/s of read bandwidth and 32 GB/s of write bandwidth to the rest of the system.
32byte per cycle write ist also ein upgrade gegenüber Granite ridge. Die Latenz soll auch besser sein, wobei der LPDDR das beim Speicher dann wieder herunterziehen dürfte.
Low power, same high bandwidth, 32 bytes per cycle in both directions, lower latency.
Was ein bisschen merkürdig ist dass er später davon spricht dass ein single CCD die Bandbreite voll ausnutzen kann. Das wäre ja bei 64gb/s nicht der Fall, das ist ca. Faktor4 unter dem was ein 256bit SI leisten kann. Und falls die Aussage so gemeint ist dass ein single CCD eben den vorhandenen Datapath ausnutzen kann macht es auch keinen Sinn. die 2x 32b Datapaths sind ja auch nicht geshared. Natürlich kann ein Single CCD seinen Single Datapath voll ausnutzen. Es ist ja sonst nichts anderes drin im CCD welches die Bandbreite nutzen könnte außer das CCD?!
Also entweder wir haben doch Taktraten die mehr als 64gb/s ermöglichen, oder
er hat sich da ein bisschen verrannt. Anders macht das Statement imo keinen Sinn.
fondness
2025-01-15, 11:30:43
Strix Halo mit Spieleszenen-Aufnahmen. FPS gibt es nicht zu sehen, aber das 60 FPS-Video spricht für sich, das Strix Halo mit hohen Settings und Auflösungen bis 2560x1600 gut umgehen kann. Allerdings würde ich es dafür eher nicht einsetzen wollen. VRAM-Mangel gibt es hier nicht. ;D
https://youtu.be/hj4qL6coID4
Ja, das sieht schon sehr gut aus. Dennoch sollte man die Kirche im Dorf lassen, das Ding hat 256GB/s Bandbreite, die man mit der CPU shared. Selbst mit einem 128bit GDDR6 Interface erreicht man wesentlich mehr. Ich erwarte ein ähnliches Verhalten wie bei Strix, bei niedrigen TDP absolut Bombe in punkto Perf/Watt, bei hoher TDP und damit Takt wird irgendwann die Bandbreite ausgehen. Diesmal hat man zumindest IF, der das ganze etwas abmildert. So Aussagen wie man bräuchte eine noch größere GPU sind jedenfalls nonsense, man hat gar nicht die Bandbreite dafür.
Ich denke bei ~50W sollte ungefähr der sweetsport liegen. Darüber hinaus würde ich gar nicht gehen bei meinem Strix Halo. Damit sollte man noch immer gut spielen können und das bei ungeschlagener Perf/Watt in einer hochmobilen Workstation mit ausreichend VRAM. Ich hoffe das dauert jetzt nicht wieder ewig, bis es auf den Markt kommt, ich werde fix einen kaufen.
fondness
2025-01-15, 11:32:41
Noch ein "Test":
sTXuP20ffeg
Durchgehend sehr gute Bewertungen, die Reviewer können zwar noch nicht viel sagen, man hört aber überall klar die Begeisterung raus.
Er sagt alle Spiele die er gezeigt hat liefen im Silent Mode. Das sind ja bekanntlich nur 28W TDP, was schon sehr beeindruckend wäre wenn damit das alles so flüssig läuft.
Er sagt auch, dass der idle-Verbrauch sehr gut ist.
Abschlusssatz: "This thing is a giant monster".
dildo4u
2025-01-15, 12:10:37
Das ist im dem Kontext interessant AMD selber sieht es nicht im Low Power Geräten.
https://youtu.be/2p7UxldYYZM?si=OU2b994nkguDdS_L&t=1693
Nightspider
2025-01-15, 12:14:23
Es geht um die Verbindung von IOD und CCD. Und für einen neuen Interconnect brauchen sie auch im CCD neue Konnektoren. Die Frage ist nur, ob die bereits im aktuellen CCD enthalten sind oder nicht.
Bestimmt nur andere Metal Layer auf dem Silizium.
Vielleicht sind auch nur die untersten 1-3 Metal Layer anders. Wäre dann minimaler Aufwand.
Ein 9950X3D mit der neuen Verbindung wäre auch schon hoch interessant gewesen.
Mit Unterstützung der KI Phi-4 habe ich den Beitrag von @AlteHardware vereinfacht zusammengefasst. :smile:
:eek:
;D
Ist doch eh unwichtig.
davidzo
2025-01-15, 12:48:04
Bestimmt nur andere Metal Layer auf dem Silizium.
Du meinst vermutlich die Back end of line Interconnect oder fanout Layer. Metal Layer sind ja alles von M0 an. Der SERDES PHY hat viel Logik und liegt wohl eher nicht im interconnect oder fanout Layer, daher reicht es nicht die groben Masken ganz am Ende auszutauschen. Wenn dann müsste schon beides vorhanden sein und abgefused werden können:
1. der PHY für den IF on Package Link und
2. die Vias zum fanout Layer für die "sea of wires" Direktverbindung.
Die Binning Aussage passt auch nicht wenn es wirklich andere Masken wären.
Ein 9950X3D mit der neuen Verbindung wäre auch schon hoch interessant gewesen.
Das klingt nach dem Plan für Zen6. Wobei ich mir vorstellen könnte das AMD für manche SKUs davon abrückt und weiterhin zweigleisig fährt um damit mehr Kapazitäten beim advanced Packaging für AI frei zu machen.
Nightspider
2025-01-15, 12:54:11
Du meinst vermutlich die Back end of line Interconnect oder fanout Layer. Metal Layer sind ja alles von M0 an. Der SERDES PHY hat viel Logik und liegt wohl eher nicht im interconnect oder fanout Layer, daher reicht es nicht diese Masken auszutauschen. Wenn dann müsste schon beides vorhanden sein und abgefused werden können:
1. der PHY für den IF on Package Link und
2. die Vias zum fanout Layer für die "sea of wires" Direktverbindung.
Bin mir nicht ganz sicher ob ich dich richtig verstanden habe. ^^
Aber ich meinte das schon so das beide Varianten auf dem Silizium vorhanden sind und nur die untersten Lagen ausgetauscht und dann an das jeweilige Interface angepasst wurden.
Das jeweils nicht benötigte Interface würde dann eben schon paar Layer zeitiger enden ohne weitere Verbindung "nach Außen".
CrazyIvan
2025-01-15, 16:56:31
@davidzo
Ja, gleich wie bei Strix Point, nicht gleich wie bei Granite Ridge ;)
Ansonsten gebe ich Dir recht, dass er da wohl vieles vermischt hat. Ich habe es folgendermaßen gedeutet:
Bandbreite bleibt bei 64 GB/s hoch/runter
Diese Bandbreite kann bereits von 1-2 Kernen im CCD nahezu vollständig ausgelastet werden.
Latenz sinkt aufgrund entfallender SERDES und bleibt auch bei viel Contention niedrig.
Granite Ridge hat zwar 32byte per cycle lesend, aber nur 16byte per cycle Schreibend. Nur die mobile CPUs haben symmetrische 32byte per cycle und das auch wenn es 2x CCXs gibt wie bei Strix.
32byte per cycle write ist also ein upgrade gegenüber Granite ridge. Die Latenz soll auch besser sein, wobei der LPDDR das beim Speicher dann wieder herunterziehen dürfte.
Was ein bisschen merkürdig ist dass er später davon spricht dass ein single CCD die Bandbreite voll ausnutzen kann. Das wäre ja bei 64gb/s nicht der Fall, das ist ca. Faktor4 unter dem was ein 256bit SI leisten kann. Und falls die Aussage so gemeint ist dass ein single CCD eben den vorhandenen Datapath ausnutzen kann macht es auch keinen Sinn. die 2x 32b Datapaths sind ja auch nicht geshared. Natürlich kann ein Single CCD seinen Single Datapath voll ausnutzen. Es ist ja sonst nichts anderes drin im CCD welches die Bandbreite nutzen könnte außer das CCD?!
Also entweder wir haben doch Taktraten die mehr als 64gb/s ermöglichen, oder
er hat sich da ein bisschen verrannt. Anders macht das Statement imo keinen Sinn.
MSABK
2025-01-15, 17:00:15
Strix Halo scheint wie bei Strix Point erstmal wieder Asus exklusiv zu sein bei den Consumern.
Mal sehen ob Lenovo nur Gaming-Serien mit dem Chip bestückt oder auch die normalen Linien.
Zossel
2025-01-15, 17:30:02
@davidzo
Ja, gleich wie bei Strix Point, nicht gleich wie bei Granite Ridge ;)
Ansonsten gebe ich Dir recht, dass er da wohl vieles vermischt hat. Ich habe es folgendermaßen gedeutet:
Bandbreite bleibt bei 64 GB/s hoch/runter
Diese Bandbreite kann bereits von 1-2 Kernen im CCD nahezu vollständig ausgelastet werden.
Latenz sinkt aufgrund entfallender SERDES und bleibt auch bei viel Contention niedrig.
AMD robbt sich beständig nach vorne, so wie es auch TSMC tut.
Da kann sich Intel was von abschauen.
Undertaker
2025-01-15, 18:01:22
Strix Halo scheint wie bei Strix Point erstmal wieder Asus exklusiv zu sein bei den Consumern.
Mal sehen ob Lenovo nur Gaming-Serien mit dem Chip bestückt oder auch die normalen Linien.
Ich glaube nicht, dass es da irgendwelche "Auflagen" gibt, wo der Chip eingesetzt werden darf – vielmehr ist die Frage, wo er am sinnvollsten eingesetzt werden kann und man sich bei der gebotenen Leistung zu den aufgerufenen Preisen einen entsprechenden Markterfolg verspricht.
Beim Flow 13 passte die mit 2 - 3,5 k€ bereits bislang extrem hohe Preisklasse in Verbindung mit einer auf nur 65 - 80 Watt limitierten GPU insofern, als das sich (aktuell haben wir leider nur den TimeSpy Graphics Score als direkten Vergleichswert) wohl nur eine leichte Performance-Regression zeigt (~9,5k zu ~9,1k im Graphics Score), wobei ich hier noch ein breiteres Benchmark-Feld und verschiedene TDPs abwarten würde. Bei einem Upgrade von günstigeren Geräten der 1 - 2 k€ Klasse auf Strix Halo müsste man die Modellreihe auf ein deutlich höheres Preisniveau heben, bei den High-End-Notebooks mit >=RTX 4080 wäre die Performance-Regression zu dramatisch.
Mal schauen, was da vielleicht noch kommt, so etwas wie ein Razer Blade 14 könnte ggf. noch in die beschriebene Kategorie passen. Allerdings wäre auch denkbar, dass hier stattdessen ein Upgrade auf die 5000er Serie folgt, noch wurde afaik keine Ankündigung für den Nachfolger gegeben.
fondness
2025-01-15, 22:01:04
Du vergleichst jetzt ernsthaft eine 80W standalone gtx4060 gegenüber einem Strix halo SoC mit gesamt 70W?
mironicus
2025-01-16, 00:37:42
In diesem Interview mit PC World wird unter anderem das Strix Halo-Laptop von HP gezeigt.
qVFOlPoaJ7M
dildo4u
2025-01-16, 07:06:46
Scheinbar gibt es erstmal nur Kompakte Notebooks damit also 120 TDP nur im Mini Desktop?
Er redet dort von 65 Watt Ladegeräten.
Schätze das macht Sinn wenn die Konkurrenz ARM Chips nutzt will man Effizient aussehen.
MSABK
2025-01-16, 07:51:42
Naja, welche Konkurrenz in dem Bereich nutzt Arm? Meinst du Nvidia digits?
dildo4u
2025-01-16, 09:01:50
Naja, welche Konkurrenz in dem Bereich nutzt Arm? Meinst du Nvidia digits?
AMD selber hat gegen M4 Pro verglichen zumindest die Creator Programme gibt es ja für Mac OS.
UYjg2_opnqU
fondness
2025-01-16, 09:16:17
Scheinbar gibt es erstmal nur Kompakte Notebooks damit also 120 TDP nur im Mini Desktop?
Er redet dort von 65 Watt Ladegeräten.
Schätze das macht Sinn wenn die Konkurrenz ARM Chips nutzt will man Effizient aussehen.
Wie schon hinten gesagt, es macht höchstwahrscheinlich auch keinen Sinn die TDP aufzublasen, dafür fehlt die Bandbreite. Strix halo hat seine Stärken definitiv im niedrigen tdp Bereich.
Zossel
2025-01-16, 09:20:13
AMD selber hat gegen M4 Pro verglichen zumindest die Creator Programme gibt es ja für Mac OS.
Der M4 wird sicherlich in 3nm@TSMC gefertigt?
Das werden interessante Vergleiche.
Undertaker
2025-01-16, 09:22:45
Du vergleichst jetzt ernsthaft eine 80W standalone gtx4060 gegenüber einem Strix halo SoC mit gesamt 70W?
Der 2023er Vorgänger ist zweifellos einer der wichtigsten Vergleichsmaßstäbe für das 2025er Modell. Auf die Systemverbräuche und die resultierende Gaming-Leistung darf man tatsächlich gespannt sein, die aktuellen Angaben (TDP bis 70 oder 80 Watt bei SH, welcher Boost kommt da kurzzeitig noch in top, was hat die frühere RTX mit 65 Watt TDP zzgl. Boost im gleichen Szenario verbraucht usw.) bilden ja ein noch etwas lückenhaftes Bild.
Edit: Ganz spannend beim Vorgänger, O-Ton NBC: "Beim Blick auf die Log-Daten werden im Modus Leistung die maximal 65 W nicht ausgereizt, hier zieht die GPU höchstens 55 W aus dem Netzteil, durchschnittlich eher knapp unter 50 W."
fondness
2025-01-16, 09:42:50
Der 2023er Vorgänger ist zweifellos einer der wichtigsten Vergleichsmaßstäbe für das 2025er Modell. Auf die Systemverbräuche und die resultierende Gaming-Leistung darf man tatsächlich gespannt sein, die aktuellen Angaben (TDP bis 70 oder 80 Watt bei SH, welcher Boost kommt da kurzzeitig noch in top, was hat die frühere RTX mit 65 Watt TDP zzgl. Boost im gleichen Szenario verbraucht usw.) bilden ja ein noch etwas lückenhaftes Bild.
Edit: Ganz spannend beim Vorgänger, O-Ton NBC: "Beim Blick auf die Log-Daten werden im Modus Leistung die maximal 65 W nicht ausgereizt, hier zieht die GPU höchstens 55 W aus dem Netzteil, durchschnittlich eher knapp unter 50 W."
Es gibt die Vergleiche von Strix halo mit anderen Geräten mit einer gtx4060 mit 70W und weniger direkt von Asus. Das ist zwar noch immer unfair gegenüber einen SoC bei 70W aber dann muss man zumindest nicht mit solchen Phantasien kommen wie du gerade.
fondness
2025-01-16, 09:44:22
Der M4 wird sicherlich in 3nm@TSMC gefertigt?
Das werden interessante Vergleiche.
N3E sogar. Wenn man den m4pro bzgl perf/Watt durchgehend schlägt wäre das schon sehr überraschend. Bei Cinebench gelingt das zwar laut den Asus Werten, aber da profitiert man auch von mehr threads. Single thread sieht das vermutlich anders aus.
https://i.ibb.co/Nyc64P6/Screenshot-2025-01-16-112924.png (https://ibb.co/VqfWKZW)
Undertaker
2025-01-16, 10:01:14
Es gibt die Vergleiche von Strix halo mit anderen Geräten mit einer gtx4060 mit 70W und weniger direkt von Asus. Das ist zwar noch immer unfair gegenüber einen SoC bei 70W aber dann muss man zumindest nicht mit solchen Phantasien kommen wie du gerade.
Phantasien? Das sind reale Tests von realen Geräten mit gleichem Chassis :D Gerade das Flow Z13 ist durch seine Vergleichbarkeit im Formfaktor mit dem Vorgänger prädestiniert für die direkte Gegenüberstellung. Gern aber weitere Messungen hier verlinken, die wir uns anschauen können, wir wollen ja absolut datenbasiert urteilen. :)
fondness
2025-01-16, 10:43:41
Phantasien? Das sind reale Tests von realen Geräten mit gleichem Chassis :D Gerade das Flow Z13 ist durch seine Vergleichbarkeit im Formfaktor mit dem Vorgänger prädestiniert für die direkte Gegenüberstellung. Gern aber weitere Messungen hier verlinken, die wir uns anschauen können, wir wollen ja absolut datenbasiert urteilen. :)
Es sind trotzdem unterschiedliche TDPs, so schwer sollte das nicht zu verstehen sein Mr Datenbasiert X-D
Undertaker
2025-01-16, 18:11:42
Wahnsinn, wie du dich an einem simplen Vergleich mit dem Vorgänger aufreiben kannst... ;D Lass doch die Werte erst einmal so stehen und warte, bis sich das Bild mit weiteren Benchmarks, Verbrauchsmessungen etc. weiter komplettiert. Bis dahin ist jeder neue Leak – wie dieser eine Datenpunkt bei 70 Watt in einem spezifischen Benchmark – eine spannende Info zur weiteren Einordnung.
Da der Vorgänger übrigens sein Leistungsbudget zwischen CPU und GPU dynamisch aufteilt (meintest du nicht neulich, dass geht gar nicht? :freak:), erkennt man hier in Benches eine ähnliche Limitierung auf insgesamt 70 bis 80 Watt. Es scheint, als ob das 2023er und 2025er Flow Z13 (letzteres ist maximal offenbar auch bis 80 Watt einstellbar) also sehr ähnlichen Power-Limits unterliegen (Witcher 3 aus dem NBC-Test):
https://i.ibb.co/vYQg9gt/1.png (https://ibb.co/PQ93k3S)
bilder online stellen (https://de.imgbb.com/)
fondness
2025-01-16, 21:35:41
Ich reibe mich auf, weil ich einen Satz schreibe, während du mit Tonnen an Zeug daher kommst X-D.
dildo4u
2025-01-26, 15:27:31
Strix Halo GPU Benches von AMD
https://i.ibb.co/18GN89v/AMD-Ryzen-AI-Max-395-Strix-Halo-APU-With-Radeon-8060-S-i-GPU-Gaming-Benchmarks.png (https://ibb.co/wMhqMK0)
https://cdn.wccftech.com/wp-content/uploads/2025/01/AMD-Ryzen-AI-Max-395-Strix-Halo-APU-With-Radeon-8060S-iGPU-_-Gaming-Benchmarks.png
fondness
2025-01-26, 15:32:51
Sofern mit "simular TDP" CPU&GPU gemeint ist, dürfte das ineffiziente Intel-Ding da wohl gut rein schlagen. Aber klar gegen die häufigen Intel&Nvidia-Kombos in Notebooks ist das auf jeden Fall ein deutlicher Sprung in der Perf/Watt. Wäre das "simular TDP" nur auf die GPU bezogen, wäre es natürlich konkurrenzlos gut, aber mal abwarten.
Hier im übrigen die Original-Quelle, direkt von AMD:
https://www.amd.com/content/dam/amd/en/documents/partner-hub/ryzen/ryzen-ai-max-series-how-to-sell-guide-competitive.pdf
dildo4u
2025-01-26, 15:51:42
Das wird der Sweet Spot für den Chip sein daher wird es kaum Gameing Notebooks damit geben, da eine alte Zen 4 APU plus 5060 die selbe Performance bringt und billiger ist.
1300€ 8840H + 4070
https://geizhals.de/hp-victus-16-s1077ng-mica-silver-9z333ea-abd-a3157921.html?v=l&hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
fondness
2025-01-26, 15:53:09
Das ist ein Notebook-Chip. Ich hoffe, dass der sweet-spot etwas unter 80W liegt. Mehr kann man in einem NB eh nicht mehr leise und mit brauchbarer Laufzeit kühlen.
MSABK
2025-01-26, 16:15:45
Ich denke da wird es wenig gaming Notebooks damit geben. Ein paar Lenovo Designs und vlt Acer, das wars.
dildo4u
2025-01-27, 11:05:37
Übrigenz Apples Kerne sind Monster AMD Traut sich nicht gegen den 14 Core zu Benchen.
https://i.ibb.co/WD3kJG4/1-1080-67f9beae.png (https://ibb.co/KNG2vbp)
basix
2025-01-27, 11:12:26
Könnte man schon, nur wäre man nicht mehr vorne sondern gleichauf ;)
Aber kann auch dem Preis geschuldet sein. Der 14C M4 kostet einiges mehr. Vergleichen bei ähnlichen Geräte-Preisen würde ja Sinn machen.
fondness
2025-01-27, 11:45:21
Die 2 mehr Kerne würde wohl kaum einen Rückstand von 12-86% weg machen, schon gar nicht bei derselben TDP. Zumal Strix Halo auch bzgl. Perf/Watt sehr gut dasteht:
https://i.ibb.co/Nyc64P6/Screenshot-2025-01-16-112924.png (https://ibb.co/VqfWKZW)
][immy
2025-01-27, 11:45:30
Übrigenz Apples Kerne sind Monster AMD Traut sich nicht gegen den 14 Core zu Benchen.
https://i.ibb.co/WD3kJG4/1-1080-67f9beae.png (https://ibb.co/KNG2vbp)
2 Kerne mehr machen den Braten such nicht fett. Maximal reduziert sich der Abstand ein wenig. Der preisliche Abstand dürfte da weitaus bedeutender sein.
Aber abseits davon, die M4 Kerne haben auch ihre schwächen, hängen aber an einem gigantischen Speicherinterface, was einiges wieder gut macht. Das ist aber wohl eine andere Geschichte.
dildo4u
2025-01-27, 11:49:39
Ich finde es Technisch erstaunlich es sei denn ich bin Falsch informiert Halo MAX hat doch keine Sparkerne oder?
Achill
2025-01-27, 12:39:49
Könnte man schon, nur wäre man nicht mehr vorne sondern gleichauf ;)
Aber kann auch dem Preis geschuldet sein. Der 14C M4 kostet einiges mehr. Vergleichen bei ähnlichen Geräte-Preisen würde ja Sinn machen.
Was will man den mit dem Vergleich? Der M4 Max hat:
- einen höheren Preis (MacBook Pro M4 Max startet mit 3,8k und geht bis 4,7k €)
- mehr RAM-Bandbreite (~2x)
- mehr Power-Budget (+7-15W mehr)
MSABK
2025-01-27, 12:49:16
Wir kennen die Preise nicht. Es gibt nur mit dem Asus Z13 einen ersten Ansatz für den Preis und dieser beträgt 2499€ mit 32GB Ram. Bei Apple sind es glaube 36GB Ram. Bleibt abzuwarten wie viel bei Hp die Workstation mit mehr Ram kosten wird.
mboeller
2025-01-28, 14:30:00
ASUS Strix Halo MiniPC leak:
https://www.notebookcheck.com/Mini-PC-mit-16-CPU-Kernen-und-Radeon-8060S-Leak-enthuellt-Asus-NUC-mit-AMD-Ryzen-AI-Max-395.953594.0.html
Ich finde es Technisch erstaunlich es sei denn ich bin Falsch informiert Halo MAX hat doch keine Sparkerne oder?
Vor allem ist Halo nur N4 und der M4 N3E.
Zossel
2025-01-28, 18:04:51
Ich finde es Technisch erstaunlich es sei denn ich bin Falsch informiert Halo MAX hat doch keine Sparkerne oder?
Welches Produktmerkmal verleitet dich zu der Annahme das dort Sparkerne verbaut sein sollen?
Viel spannender finde ich ob AMD das I/O-Die von dem Ding auch als diskrete GPU verhökern wird.
das_Apo
2025-01-28, 19:47:53
ASUS Strix Halo MiniPC leak:
https://www.notebookcheck.com/Mini-PC-mit-16-CPU-Kernen-und-Radeon-8060S-Leak-enthuellt-Asus-NUC-mit-AMD-Ryzen-AI-Max-395.953594.0.html
Find ich sehr interessant. Die Frage ist, was das Teil letztendlich kosten wird. Wenn ich sehe, dass ein Mini-PC mit Strix Point ca. 900 EUR kosten soll, (https://www.computerbase.de/artikel/pc-systeme/beelink-ser9-amd-ryzen-ai-9-hx-370-test.89812/) dann möchte ich nicht wissen, was ein Mini-PC mit Strix Halo kostet. Meinetwegen muss so ein Ding auch nicht so mini sein, sondern bspw. so, wie die Asrock Desktop Mini Barebones. Da passt dann auch noch ein halbwegs vernünftiger kühler rein.
Oranje7
2025-01-28, 21:53:30
Ich finde es Technisch erstaunlich es sei denn ich bin Falsch informiert Halo MAX hat doch keine Sparkerne oder?
Du meinst dense Kerne. Also sie sparen schon.... vor allem an Fläche auf Kosten der Taktbarkeit.
Und nein Halo hat nach den mir bekannten Angaben keine c Kerne
Welches Produktmerkmal verleitet dich zu der Annahme das dort Sparkerne verbaut sein sollen?
Viel spannender finde ich ob AMD das I/O-Die von dem Ding auch als diskrete GPU verhökern wird.
Das wird man definitiv nicht tun. IOD bleibt IOD, das wird keine GPU.
Die neue Anbindung hilft den CCDs aber enorm finde ich.
Zossel
2025-01-28, 22:30:33
Das wird man definitiv nicht tun. IOD bleibt IOD, das wird keine GPU.
Nach dem Kaffesatz von heute morgen würde ich den Flächenanteil der nur für die Anbindung der CPU-Dies benötigt wird auf 5-15% schätzen. Damit sollte eine Wirtschaftlichkeit gegeben sein.
Und LPDDR statt GDDR sollte im Low-Cost Segment zusätzliche Kostenvorteile bringen.
reaperrr
2025-01-28, 23:00:45
Nach dem Kaffesatz von heute morgen würde ich den Flächenanteil der nur für die Anbindung der CPU-Dies benötigt wird auf 5-15% schätzen. Damit sollte eine Wirtschaftlichkeit gegeben sein.
Und LPDDR statt GDDR sollte im Low-Cost Segment zusätzliche Kostenvorteile bringen.
Und was ist mit der Fläche für den SoC Kram? USB, PCIe-Lanes usw.? Außerdem kostet das 256bit-SI selbst erstmal mehr Fläche, in einem eher teuren Prozess.
Was man mit LPDDR ggü. GDDR6 einspart, zahlt man wahrscheinlich doppelt und dreifach durch das breitere SI drauf.
Außerdem, der IOD ist in N4 größer als N33 in N6, und N4 kostet pro Wafer ca. 50% mehr.
Da wird wahrscheinlich sogar N44 billiger zu produzieren sein, der durch höhere IPC je CU und höhere Taktraten schneller wird.
AMD wird diesen IOD definitiv nicht als dedizierte GPU auf den Markt bringen. Im Vergleich zu N33 viel zu teuer, im Vergleich zu N44 zu langsam/veraltet (und wahrscheinlich trotzdem teurer zu fertigen).
Nightspider
2025-01-28, 23:06:49
Die neue Anbindung hilft den CCDs aber enorm finde ich.
Bei was?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.