Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 3+ (Desktop: Warhol, gestrichen; APU: Rembrandt, 6nm, Q1/2022)
Savay
2022-01-30, 18:52:27
trotzdem fahren die Lüfter am Mugen x mit dem 5600X bei Allcore-Last und ~80°C ständig hörbar rauf. Will gar nicht wissen, wie das mit dem 5800X (oder 5800X3D :eek: ) wäre.
Vollkommen normal bei Tctl bei jedem Ryzen und ganz im Ernst wen juckt das bitte? :wink:
Andere µArch, andere Platzierung der Thermosensoren und ganz andere Auswertung eben jener.
Ganz im Ernst...dann ist Lüfterkurve falsch eingestellt...das ist alles.
Den Boardherstellern kann man da aber den Vorwurf machen, dass die Voreinstellungen bei AMD meist leider echt Rotz sind...das war es dann aber auch schon.
Kleiner Tipp:
Man nimmt als Führungsgroße für die Kühlung den Wert der für der die Wärmeabfuhr am wesentlichsten ist und das ist gar nicht zwingend Tctl.
Der ist eher für die Boostregelung relevant aber nicht für die Kühlung.
dargo
2022-01-30, 19:00:09
Und möchte mal deinen gesponserten AMD Schnapps trinken.
Schon einer der kleinsten AlderLake Prozessor, nämlich der 12600k haut den 5950X der übrigens viel teuer ist, in Spielen um 20% weg.
Warum sollte man als Spieler bei einem neukauf einen Zen 3 setzen? Das muss man schon der übelste Fanboy sein.
Erstmal musst du uns mal erklären warum man einen 5950X überhaupt in ein Gamingsystem verbauen sollte wenn nicht mal ein 5800X in Games vollständig genutzt wird? Weil man es kann? :freak:
r3ptil3
2022-01-30, 19:00:43
trotzdem fahren die Lüfter am Mugen x mit dem 5600X bei Allcore-Last und ~80°C ständig hörbar rauf. Will gar nicht wissen, wie das mit dem 5800X (oder 5800X3D :eek: ) wäre. .
4.5Ghz - das wird den Unterschied machen was diese extremen Temperatursprünge anbelangt.
Mein 5900X @ 4.5Ghz wäre unhörbar. Auf default (Single-Core-Boost auf 4.95Ghz) hingegen, passiert natürlich auch genau das was du beschrieben hast, durch meine optimierte Kühlung nicht gerade auf 80°, aber trotzdem zu hoch.
In Sachen Effizienz wird der 5800X3D noch was draufsetzen, vermutlich wird der AllCore-Turbo deutlich besser funktionieren, so dass selbst in nicht Cache abhängigen Anwendungen/Games, ein 5800X3D deutlich vor dem 5800X liegen wird. 30-40Watt tieferer Verbrauch, viel bessere Temps, machen dann einen sehr guten Prozessor. Dass AMD aber gleich den 12900k als Vergleich nimmt und diesen wirklich lächerlich dastehen lässt, halte ich für etwas zu hoch gegriffen. Ich sehe einen 12900k im Ranking weiterhin vor dem 5800X3D und genau das wird wohl viele enttäuschen. Über Effizienz muss man nicht reden, da ist selbst Zen3 noch vor Intel, wobei hier Intel zumindest einen ziemlich guten Kompromiss bietet, indem man die Powerlimits halbiert und dadurch lediglich 20% Leistung verliert.
Savay
2022-01-30, 19:11:10
4.5Ghz - das wird den Unterschied machen was diese extremen Temperatursprünge anbelangt.
Die hat jeder Ryzen2/3 weil Tctl in der Boostregelung berücksichtigt wird.
Egal ob 5, 4.5 oder 4Ghz.
Mein 4500U zeigt das tatsächlich genauso wie der 5950X, selbst der 2700X hatte das schon ähnlich gezeigt.
Außerdem ist der Wert nicht wirklich geglättet und wird, weil er für ersteres Relevant ist, anscheinend möglichst nah über bestimmte Hotspots abgegeriffen.
Wenn man in HWInfo nur schnell genug abtastet kann man selbst im Idle die Sägezähne sichtbar machen die sich daraus ergeben.
Daraus die alleinige Führungsgröße für den CPU Lüfter zu bauen, kann man machen, allzu clever find ich das aber nicht, vor allem wenn man sich nicht im klaren ist was man damit erreichen will. :wink:
Da kommt man halt in die absurde Situation das eine Leistungsaufnahme von 15W auf einem Kern zu höheren Drehzahlen der Lüfter führt als 8*8W, obwohl letzteres klar der höheren Wärmemenge entspricht die abgeführt werden muss.
aber trotzdem zu hoch.
Wieso "zu hoch"?! :freak:
Definiere das bitte mal!
Zu hoch ist schlimmstenfalls 95°C weil der Precision Boost da das softcap hat, aber da es ein opportunistischer Boostmechanismus ist, ist es halt auch sein Ziel möglichst dicht da dran zu kommen um den Chip bestmöglich auszureizen!
Working as intended.
Der_Korken
2022-01-30, 19:25:05
Das Problem mit den sprunghaften Temps bei Ryzens sind nicht die Temps an sich, sondern dass es keine geglättete Variante davon gibt, die man als Input für eine Lüfterkurve nutzen kann. Gelöst habe ich das dadurch, dass ich über einen externen Sensor die Lufttemperatur zwischen den Finnen abgreife und darüber regele. Das erfordert aber zusätzliche Investitionen und geht nicht bei jedem Board. Insofern hat aufkrawall durchaus einen Punkt.
@5800X3D: Mir ist gar nicht aufgefallen, dass auch der Baseclock deutlich geringer ausfällt. Mit 3,4Ghz ist er auf 5950X-Level. Da es weiterhin bei 105W TDP bleibt und der Cache wohl kaum so viel verbraucht wie ein zweites Chiplet, kann es sein, dass das Stacking sich doch deutlich bei den Temps bemerkbar macht und der 5800X3D bei deutlich geringerem Verbrauch als der 5800X laufen muss, um nicht zu heiß zu werden?
Savay
2022-01-30, 19:28:41
Das erfordert aber zusätzliche Investitionen und geht nicht bei jedem Board. Insofern hat aufkrawall durchaus einen Punkt.
Man kann auch den Sockel nehmen, das geht m.W. bei jedem Board. Der korreliert nahezu perfekt mit der abzuführenden Wärmemenge.
Das Problem sind m.E. primär eher die Boardhersteller, die default als Führungsgröße tdie mit niedrigen Integrationszeiten und absurd hohen Voreinstellungen ausliefern.
Wenn dann jemand sowas vor sich hat der eher wenig MSR erfahrung hat, doktert der da oft einfach nur an den Zahlen der Presets rum, statt das eigentliche Problem anzugehen.
Aber das AMD nicht auf jeder CPU auch die "CPU Skin Temperature" ausgibt, die anscheinend ja nur ein geglätteter Mittelwert ist, wie sie es bei den APUs tun, ist blödsinnig, das stimmt.
Bei ordentlich Laptops wird der nämlich für die Regelung benutzt, weil das einfach viel mehr Sinn ergibt.
Ex3cut3r
2022-01-30, 19:34:41
Erstmal musst du uns mal erklären warum man einen 5950X überhaupt in ein Gamingsystem verbauen sollte wenn nicht mal ein 5800X in Games vollständig genutzt wird? Weil man es kann? :freak:
Natürlich, darum ging es mir ja nicht. Es geht im Kern darum, dass AMD partout nicht die Preise senken will. + RX 6500XT ist das mieste Produkt was ich den letzen 10 Jahre gesehen habe, egal zu welchen Preis. Was ist eigentlich mit AMD passiert? Ich dachte Intel und Nvidia wären soooo böse. Und AMD hätte nur den den armen PC Gamer im Sinn? Tja.....
Mal sehen, was aus Zen 4 wird.. Im Moment ist alles drin, sogar ein fast Bulldozer 2.0 IHMO.
Jetzt muss man schon auf Intels GPUs warten, und hoffen das dadurch AMD sowohl auch Nvidia mal wieder runterkommen, von ihrem hohen Ross.
Das muss man sich mal geben. Intel ist der vermutliche Retter des PC Gamers. ;D
Savay
2022-01-30, 19:38:30
Mal sehen, was aus Zen 4 wird.. Im Moment ist alles drin, sogar ein fast Bulldozer 2.0 IHMO.
;D
Du glaubst echt Zen4 wird weniger IPC haben und streckenweise relevante performance Regression ggü. einem Zen3 mit gleicher Kernzahl zeigen?!?!?!? :freak:
dargo
2022-01-30, 19:44:38
Natürlich, darum ging es mir ja nicht. Es geht im Kern darum, dass AMD partout nicht die Preise senken will. + RX 6500XT ist das mieste Produkt was ich den letzen 10 Jahre gesehen habe, egal zu welchen Preis. Was ist eigentlich mit AMD passiert? Ich dachte Intel und Nvidia wären soooo böse. Und AMD hätte nur den den armen PC Gamer im Sinn? Tja.....
Mal sehen, was aus Zen 4 wird.. Im Moment ist alles drin, sogar ein fast Bulldozer 2.0 IHMO.
Jetzt muss man schon auf Intels GPUs warten, und hoffen das dadurch AMD sowohl auch Nvidia mal wieder runterkommen, von ihrem hohen Ross.
Das muss man sich mal geben. Intel ist der vermutliche Retter des PC Gamers. ;D
Was ist eigentlich mit dir los? Diese regelmäßigen Anfälle fallen schon öfter bei dir auf.
aufkrawall
2022-01-30, 19:47:36
Ganz im Ernst...dann ist Lüfterkurve falsch eingestellt...das ist alles.
Die Lüfterkurve ändert gar nichts daran, dass die Temperatur innerhalb weniger Sekunden auf >80°C hochknallt. Und dann willst du ab 80°C die Kurve in 1-2°C-Schritten anpassen, oder was? :freak: Und wie gesagt, mit 8C 1CCX wärs ohne Drosselung noch schlimmer. Das kann man nur als Murks bezeichnen, wenn man die Dinge mal klar sieht.
Savay
2022-01-30, 19:53:43
Die Lüfterkurve ändert gar nichts daran, dass die Temperatur innerhalb weniger Sekunden auf >80°C hochknallt. Und dann willst du ab 80°C die Kurve in 1-2°C-Schritten anpassen, oder was? :freak: Und wie gesagt, mit 8C 1CCX wärs ohne Drosselung noch schlimmer. Das kann man nur als Murks bezeichnen, wenn man die Dinge mal klar sieht.
Das ist einfach nur ein Sensorwert und der ist weder das eine noch das andere.
Wenn der für den Zweck nicht passt dann nimm einen anderen. :freak:
Murks ist es Dinge als "Murks" zu bezeichnen nur weil man es nicht klar als das erkennt oder verstanden hat was es ist.
Mir ist BTW auch noch kein BIOS untergekommen, bei dem man rein auf tdie beschränkt gewesen wäre.
PS:
Bei mir heult nix auf...obwohl ich den gleichen angeblichen "murks" habe. :rolleyes:
Gelöst mit passender Kurve.
Und ja, das ist fummelei, weil die Presets der Boards tatsächlich Murks sind...das hat aber nichts mit den "Temperaturen" zu tun.
PPS:
Tdie korreliert bei 1T tatsächlich nur schwach mit der Lüfterdrehzahl, da es eher eine Hotspottemperatur ist und damit am Takt hängt.
Der ist allerdings so oder so effektiv gedeckelt.
Das merkt man spätestens wenn man mal mit fixen Lüfterdrehzahlen arbeitet und das kann man sich tatsächlich zunutze machen wenn man wirklich unbedingt tdie nehmen will.
Mangel76
2022-01-30, 19:58:14
Die Lüfterkurve ändert gar nichts daran, dass die Temperatur innerhalb weniger Sekunden auf >80°C hochknallt. Und dann willst du ab 80°C die Kurve in 1-2°C-Schritten anpassen, oder was? :freak: Und wie gesagt, mit 8C 1CCX wärs ohne Drosselung noch schlimmer. Das kann man nur als Murks bezeichnen, wenn man die Dinge mal klar sieht.
Das ist doch Quatsch. Die lokal hohe Temperatur bei einem Kern bekommst du auch mit höherer Drehzahl nicht deutlich runter. Dazu kann die Wärme gar nicht schnell genug abgeführt werden. Außerdem liegt das doch alles im Soll! Der Takt geht hoch, solange die Temp unter dem Grenzwer liegt. Die Steuerung ist nur blöd umgesetzt, wenn der Lüfter ständig reagiert, ohne dass es irgendwas bringt. Nur wäre die Temp auch nicht höher, wenn der Lüfter einfach unten bleibt.
Ex3cut3r
2022-01-30, 20:17:44
Was ist eigentlich mit dir los? Diese regelmäßigen Anfälle fallen schon öfter bei dir auf.
KA, ich geh mal an die Frische Luft. :biggrin:
Thunder99
2022-01-30, 21:02:10
Die Tests können das nicht bestätigen, außer du redest von Promilledifferenzen in ausgesuchten Tests. Das ist für mich ein Gleichstand, die beiden CPUs nehmen sich nichts. Nur dass der 5600x eben 85€ mehr kostet.
Schau dir PCGH an :wink:
nordic_pegasus
2022-01-30, 21:10:15
@5800X3D: Mir ist gar nicht aufgefallen, dass auch der Baseclock deutlich geringer ausfällt. Mit 3,4Ghz ist er auf 5950X-Level. Da es weiterhin bei 105W TDP bleibt und der Cache wohl kaum so viel verbraucht wie ein zweites Chiplet, kann es sein, dass das Stacking sich doch deutlich bei den Temps bemerkbar macht und der 5800X3D bei deutlich geringerem Verbrauch als der 5800X laufen muss, um nicht zu heiß zu werden?
ähnliche Gedanken hatte ich mir nach der CES Präsentation auch gemacht. Irgendwie passen die Eckdaten nicht zusammen.
Ich hatte zumindest 2 Varianten mit V-Cache erwarten, einen 8 und einen 16 Kerner. Das man Salvage CCX mit V-Cache kreuzt, halte ich aufgrund der hohen Kosten für unwirtschaftlich. Das aber der 5800X3D die TDP von 105 Watt behält, dafür aber den Base Clock vom 5950x bekommt, der Boost auch deutlich sinkt und der Release mit "Spring 2022" mehr als dehnbar in den Büchern steht, lässt mich grübeln. Zen4 und AM5 wird ja für Q3/2022 gerüchtet, dafür geht der Frühling im Worst-Case bis Ende Juni.
Ich vermute, AMD wollte eigentlich V-Cache erst mit Zen4 bringen wollte aufgrund Probleme bei der Zen3D-Fertigung oder Ausbuchung der Kapazitäten von Epyc, wurde aber von ADL überrumpelt und musste zur CES eine Nebelkerze werfen. Genau wie Intel präventiv den 12900KS angekündigt hat, welcher ausschließlich für OEMs angekündigt wurde.
Für mich ähnelt der 5800X3D extrem dem i7-5775c mit Broadwell und 14nm. Auch ein last minute Lückenbüßer, damit die Wartezeit zu Skylake samt neuem Sockel und DDR4 überbrückt werden konnte.
robbitop
2022-01-30, 21:27:57
Mich würde es nicht wundern wenn das Teil in Spielen richtig durchzieht und mit etwas OC auch wieder an die 5 GHz rankommt.
Mal schauen was AMD mit Zen 4 macht. Ggf es gleich von Anfang an anbieten.
r3ptil3
2022-01-30, 21:47:24
Die Frage ist vielleicht auch, ob der 5800X3D wirklich nur einen gestapelten Cache beinhaltet oder vielleicht sogar auch noch architektonische Anpassungen, evtl. Designänderungen Richtung Zen4. Wäre ja nicht das erste Mal, dass sowas passiert...
Der Vergleich mit dem 12900k macht mich einfach so stutzig - auf der einen Seite kann der Cache alleine nicht so einen grossen Abstand aufholen, auf der anderen Seite ist AMD nicht unbedingt prädestiniert dafür hoch zu stapeln und nicht zu liefern.
Ex3cut3r
2022-01-30, 21:50:17
Leider doch, in der jüngsten Vergangenheit hat die 6700XT damals in den AMD Folien die 3070 sehr oft geschlagen, oder einen gleichstand erreicht. In der Realität war Sie dann aber 20% zurück.
Ich füchte auch in diesem Bereich hat AMD sich verändert. Nur igendwie wird sowas immer schnell vergessen. Anders als wenn Nvidia oder Intel sowas gemacht hätten.
https://abload.de/thumb/92635722-vollbildnhkta.jpg (https://abload.de/image.php?img=92635722-vollbildnhkta.jpg)
https://abload.de/thumb/unbenannt4ajbw.png (https://abload.de/image.php?img=unbenannt4ajbw.png)
robbitop
2022-01-30, 21:57:52
Die Frage ist vielleicht auch, ob der 5800X3D wirklich nur einen gestapelten Cache beinhaltet oder vielleicht sogar auch noch architektonische Anpassungen, evtl. Designänderungen Richtung Zen4. Wäre ja nicht das erste Mal, dass sowas passiert...
Der Vergleich mit dem 12900k macht mich einfach so stutzig - auf der einen Seite kann der Cache alleine nicht so einen grossen Abstand aufholen, auf der anderen Seite ist AMD nicht unbedingt prädestiniert dafür hoch zu stapeln und nicht zu liefern.
Laut AMD sind das Vermeer Chiplets mit einfach nur gespaltem VCache. Das war von Anfang an vorgesehen.
Savay
2022-01-30, 22:06:09
Leider doch, in der jüngsten Vergangenheit hat die 6700XT damals in den AMD Folien die 3070 sehr oft geschlagen, oder einen gleichstand erreicht.
Komisch. :rolleyes:
Anhand der CB Werte der einzelnen Titel die AMD da gezeigt hat erscheinen mir deren Marketing Benches gar nicht sooo unplausibel.
Nicht jede Koinzidenz ist gleich eine Korrelation und nen Index mit Einzelbenches vergleichen ist immer ziemlicher Blödsinn.
Ex3cut3r
2022-01-30, 22:16:41
Komisch. :rolleyes:
Anhand der CB Werte der einzelnen Titel die AMD da gezeigt hat erscheinen mir deren Marketing Benches gar nicht sooo unplausibel.
Nicht jede Koinzidenz ist gleich eine Korrelation und nen Index mit Einzelbenches vergleichen ist immer ziemlicher Blödsinn.
Dann sieh mal bei PCGH nach, die haben einiger der selben Spiele gebencht wie AMD in der Folie. Und auch da ist die 6700XT überall langsamer, außer in AC Valhalla.
https://www.pcgameshardware.de/Radeon-RX-6700-XT-Grafikkarte-277204/Tests/vs-RTX-3070-Benchmark-Review-Release-Preis-Hashrate-1368234/
Mein Gott. :rolleyes:
Wie viele agressive Krieger hat AMD eigentlich?
Du willst mir jetzt also ehrlich sagen, eine 6700XT ist schneller als eine 3070? Wow. Das wird immer verrückter hier.
davidzo
2022-01-30, 22:30:34
AMD hat eindeutig Probleme. Mit einem Comeback der blauen, habe Sie anscheinend überhaupt nicht gerechnet. Ok, kann passieren. Aber dann senkt man normalerweise die Preise, wurde jeder so machen.
Lol, überhaupt nicht. Um das nochmal in Erinnerung zu rufen: Zen2 ist der geplante Gegenspieler zur Generation Icelake, Cypresslake gewesen. AMD hat intern damit gerechnet dass man mehr Cores als Intel aufbietet und wie bei Zen1 und Zen1+ schon weiterhin ein wenig zurückliegt bei der 1Core IPC. Icelake-SP mit 42Cores wäre der geplante Counter zu Epyc Rome mit 64Cores.
Dass zen3 ins Vakuum released wurde hat AMD selbst völlig überrascht. Und selbst der hinterhergeschobene IclakeSP und Rocketlake konnte da nichts ändern, sind die doch gerademal ein Gegenspieler für Zen2.
Zen3 ist nicht wirklich teurer in der Herstellung als Zen2. AMD könnte ohne weiteres die Zen3 um 50% senken und würde damit keinen Verlust fahren. Der R3600 war mal eine 160-180€ CPU.
Aber wozu sollte man die Preise senken wenn einem derzeit trotzdem jedes Stück Silizium aus den Händen gerissen wird?
AMD hat den Supply gigantisch unterschätzt, aber Schuld daran ist nicht in erster Linie Covid, Ethereum mining, die globale Chipkrise oder Rohstoffsupply, sondern das Vakuum was Intel Icelake-SP hinerlassen hat. Der ist zwar jetzt so langsam in Massen verfügbar aber SP4 ist nach wie vor die bessere Plattform und viel robuster, besser getestet und breiter verfügbar.
Intel hält die Marktanteile in erster Linie über Subventionen und Volume-Deals von Low-end SKUs.
AMD könnte aktuell massiv Marktanteile gewinnen im Servermarkt, wenn sie besser liefern könnten. Stattdessen machen sie das zweitbeste - Gewinn.
Der Sinn ist ganz einfach. Das Ding ist hauptsächlich erstmal ein Stacking Testchip in Massenproduktion. Damit lernt man schon eine Menge über die Kinderkrankheiten von TSMCs SoIC Verfahren zum Stacken für Zen4 und RDNA3.
Ein weiterer Faktor könnte sein das TSMC einfach noch nicht für die benötigten Volumen bereit ist. Die größten Packaging-fabs sind ja erst im Bau.
Und wenn die einigermaßen eingerichtet sind, dann klopft sicher nicht nur AMD an, sondern auch Apple mit ihren Jade2C und Jade4C Packages, Qualcomm, Ampere computing, Amazon, Google etc.
Der Vergleich mit dem 12900k macht mich einfach so stutzig - auf der einen Seite kann der Cache alleine nicht so einen grossen Abstand aufholen, auf der anderen Seite ist AMD nicht unbedingt prädestiniert dafür hoch zu stapeln und nicht zu liefern.
Natürlich kann man das einfach nur mit viel Cache. Das hängt ja nur vom Workload ab - sobald das working set in den L3 passt ist es ein Vielfaches schneller und stromsparender (=höherer Turbo) als der Gang zum DRAM. Spiele scheinen genau der Workload zu sein:
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2021/09/image-18.png?ssl=1
Nicht vergessen sollte man allerdings dass AMD das Kunststück gelingt dass sich die Latenzen trotz Verdreifachung des caches nicht spürbar verändern. Wen Intel in der Vergangenheit auch nur eine Verdopplung gebracht hat, so wie damals bei Dothan, zuletzt bei Alderlake und davor schon bei Sunny Cove, dann kam das immer mit einer erheblichen Regression bei den Latenzen die in bestimmten Workloads dann einen negativen performance-impact hat.
Chips and Cheese hat die Latenz bei Milan-X ja bereits vermessen: https://chipsandcheese.com/2022/01/14/amds-v-cache-tested-the-latency-teaser/
Savay
2022-01-30, 23:40:08
Du willst mir jetzt also ehrlich sagen, eine 6700XT ist schneller als eine 3070? Wow. Das wird immer verrückter hier.
Mein Gott, es wird wirklich immer verrückter. :rolleyes:
1) Was war daran "aggressiv"? :freak:
2) Das habe ich überhaupt nicht geschrieben! :facepalm:
Wenn du intellektuell nicht in der Lage bist zu durchdringen das die Benchmark Szenen dort offensichtlich eine Rolle spielen, wie die CB Zahlen zeigen, und AMD deswegen nicht per se Vorsatz unterstellt werden kann, wie es deinerseits suggeriert wird, ist jede Diskussion diesbezüglich hier mit dir generell komplett überflüssig. :freak:
Ex3cut3r
2022-01-30, 23:41:47
Gut, dann hatten wir wohl Kommunikations missverständnis. Gute Nacht.
Der_Korken
2022-01-30, 23:55:25
Was ist eigentlich mit AMD passiert? Ich dachte Intel und Nvidia wären soooo böse. Und AMD hätte nur den den armen PC Gamer im Sinn? Tja.....
Außer den gemeinen Fanboys hat das hoffentlich niemand geglaubt. Es macht als Kunde allerdings Sinn den underdog leicht zu bevorzugen, um den Wettbewerb aufrecht zu erhalten. Im übrigen hattest du dich bei Zen 2 Release selber genug über Intel lustig gemacht und rumerzählt, ob du dir nicht gleich nen 3900X zu holen mit nem "richtigen" X570-Board, um so lange Ruhe zu haben wie deinem 4770K davor (mit dem du dich zuvor 2 Jahre lang über Zen 1 lustig gemacht hast). Dann ist es irgendwie doch nur ein 3600 geworden, um auf Zen 3 zu warten und anschließend seit fast 15 Monaten in jedem Thread darüber zu meckern, dass die Zen 3 CPUs 50-100€ zu teuer sind.
Jetzt muss man schon auf Intels GPUs warten, und hoffen das dadurch AMD sowohl auch Nvidia mal wieder runterkommen, von ihrem hohen Ross.
Das muss man sich mal geben. Intel ist der vermutliche Retter des PC Gamers. ;D
Welches hohe Ross? Haben AMD und Nvidia ihren MSRP erhöht? Oder sacken sich vielleicht die ganzen Zwischenhändler und Scalper die Kohle ein? Und was soll Intel genau ausrichten? Hast du mal in den Mining-Threads mitgelesen und das Problem verstanden? Was auf dem Markt landet und minen kann, wird auch leergekauft. Sofern Intel nicht alle Karten einzeln und persönlich an nachweisliche Gamer verkauft, wird sich da gar nichts ändern. Siehe auch den Post von davidzo.
Mir ist BTW auch noch kein BIOS untergekommen, bei dem man rein auf tdie beschränkt gewesen wäre.
Dann hast du wohl noch kein Asus-Board gehabt? :freak: Ich kann den CPU-Fan ausschließlich über Tctl regeln und der Stecker MUSS auch belegt werden (lösen tut man das, indem man einen unwichtigen Gehäuselüfter dranhängt, den man dann mit konstanter Drehzahl laufen lässt.)
Zen4 und AM5 wird ja für Q3/2022 gerüchtet, dafür geht der Frühling im Worst-Case bis Ende Juni.
Ich vermute, AMD wollte eigentlich V-Cache erst mit Zen4 bringen wollte aufgrund Probleme bei der Zen3D-Fertigung oder Ausbuchung der Kapazitäten von Epyc, wurde aber von ADL überrumpelt und musste zur CES eine Nebelkerze werfen. Genau wie Intel präventiv den 12900KS angekündigt hat, welcher ausschließlich für OEMs angekündigt wurde.
Irgendwo habe ich mal aufgeschnappt, dass AMD sogar bereits für Zen 2 über Cache-Stacks nachgedacht hat. Deswegen würde es mich wundern, wenn es bei Zen 3 da immer noch große Schwierigkeiten bei den Stacks gäbe. Ist eigentlich bei Zen 4 Launch überhaupt schon 7nm-on-5nm als Fertigung verfügbar? Afaik gibt es 7nm-on-7nm erst seit Ende letzten Jahres.
Nightspider
2022-01-30, 23:57:43
Ich vermute, AMD wollte eigentlich V-Cache erst mit Zen4 bringen wollte aufgrund Probleme bei der Zen3D-Fertigung oder Ausbuchung der Kapazitäten von Epyc, wurde aber von ADL überrumpelt und musste zur CES eine Nebelkerze werfen. Genau wie Intel präventiv den 12900KS angekündigt hat, welcher ausschließlich für OEMs angekündigt wurde.
Ähm, Zen3 musste damals schon in der Designphase vor 3-4 Jahren auf V-Cache vorbereitet werden.
Wie kommst du darauf man wollte das erst mit Zen4 bringen?
Schon mal dran gedacht das man die V-Cache Variante eher bringen wollte aber das Packaging noch nicht spruchreif war?
TSMC und AMD bewegen sind hier auf Neuland und die Maschinen dafür mussten sicherlich auch erstmal designt und gebaut werden.
Außerdem ist das Silizizm viel knapper als vor 3 oder 4 Jahren. AMD hat damals bestimmt auch gedacht einfacher an mehr Wafer zu kommen, falls sie erfolgreich mit den Produkten sind.
Mich würde es nicht wundern wenn das Teil in Spielen richtig durchzieht und mit etwas OC auch wieder an die 5 GHz rankommt.
Mal schauen was AMD mit Zen 4 macht. Ggf es gleich von Anfang an anbieten.
This. Mit Wasserkühlung werden da genauso die 4,9 / 5Ghz drin sein.
Wie hoch der Wärmewiderstand durch den Stapel ist muss sich noch zeigen. Kann sein das normale Luftkühler da eher limitieren.
Ex3cut3r
2022-01-31, 00:05:50
Außer den gemeinen Fanboys hat das hoffentlich niemand geglaubt. Es macht als Kunde allerdings Sinn den underdog leicht zu bevorzugen, um den Wettbewerb aufrecht zu erhalten. Im übrigen hattest du dich bei Zen 2 Release selber genug über Intel lustig gemacht und rumerzählt, ob du dir nicht gleich nen 3900X zu holen mit nem "richtigen" X570-Board, um so lange Ruhe zu haben wie deinem 4770K davor (mit dem du dich zuvor 2 Jahre lang über Zen 1 lustig gemacht hast). Dann ist es irgendwie doch nur ein 3600 geworden, um auf Zen 3 zu warten und anschließend seit fast 15 Monaten in jedem Thread darüber zu meckern, dass die Zen 3 CPUs 50-100€ zu teuer sind.
Welches hohe Ross? Haben AMD und Nvidia ihren MSRP erhöht? Oder sacken sich vielleicht die ganzen Zwischenhändler und Scalper die Kohle ein? Und was soll Intel genau ausrichten? Hast du mal in den Mining-Threads mitgelesen und das Problem verstanden? Was auf dem Markt landet und minen kann, wird auch leergekauft. Sofern Intel nicht alle Karten einzeln und persönlich an nachweisliche Gamer verkauft, wird sich da gar nichts ändern. Siehe auch den Post von davidzo.
Och Göttchen, der nächste AMD Krieger ist da. Wie viele gibt es von euch? Seriously und ständig das gleiche Fanboy Gewäsch. ;D
Was interessiert mich mein geschwätz von vorgestern?
Aber gut, 3600 kam deswegen rein, weil ich erst Mitte 2020 auf die Plattform gewechselt bin. Und ich mir dachte, ende des Jahres kommt Zen 3. Gut, dann holst du dir jetzt einen 3600 und dann später einen Zen 3. Selbst der 5600X hätte mir gereicht.
Doch dann habe ich die Preise gesehen, und dachte mir, ok. Dann wartet man halt bis es günstiger wird. So, 1,5 Jahre und nix......tja richtig enttäuschend. Trotz AlderLake rls. trotz keiner CPU Knappheit. Trotz 1,5 Jahre wartezeit.
Aber gut, dann wird es eben nix mit einem weiteren AMD Kauf. Sondern die Sache wird so lange ausgessen, bis AMD die Preise senkt. Und wenn nicht, dann kaufe ich wieder einen Intel und MB. Die ganze AGESA Geschichte bei AMD geht mir sowieso mächtig auf den Sack. Und so schnell werde ich auch keine AMD Plattform mehr kaufen.
Denniss
2022-01-31, 00:13:04
Nur mal so ne kleien Anmerkung:
Scythe-Kühler und AMD CPU sind manchmal eine unglückliche Kombination da der Kühlerboden nicht eben ist sondern eine leichte Beule in der Mitte hat um optimal auf Intel-CPUs zu arbeiten die meist eine leichte Delle in der Mitte haben.
AMD CPU sind eher flach bzw haben selbst eine ganz kleine Beule. Und Beule auf Beule ist halt kein optimaler Kontakt.
Linmoum
2022-01-31, 00:13:50
Es wäre schön, wenn du nicht immer irgendwelche Fanboy-Sprüche klopfen würdest, sondern auch mal auf das eingehst, was die Leute argumentativ vorbringen. Das ignorierst du nämlich alles, s. vor allem auch den Beitrag von davidzo.
Unabhängig davon, dass du den Markt noch immer nicht zu verstehen scheinst und warum Preise dort stehen, wo sie aktuell sind.
Schau dir PCGH an :wink:
Und was siehst du dort? Die liegen dort gleichauf. Verwechselst du vielleicht die CPUs?
Nightspider
2022-01-31, 00:26:36
Och Göttchen, der nächste AMD Krieger ist da. Wie viele gibt es von euch? Seriously und ständig das gleiche Fanboy Gewäsch. ;D
Was interessiert mich mein geschwätz von vorgestern?
Aber gut, 3600 kam deswegen rein, weil ich erst Mitte 2020 auf die Plattform gewechselt bin. Und ich mir dachte, ende des Jahres kommt Zen 3. Gut, dann holst du dir jetzt einen 3600 und dann später einen Zen 3. Selbst der 5600X hätte mir gereicht.
Doch dann habe ich die Preise gesehen, und dachte mir, ok. Dann wartet man halt bis es günstiger wird. So, 1,5 Jahre und nix......tja richtig enttäuschend. Trotz AlderLake rls. trotz keiner CPU Knappheit. Trotz 1,5 Jahre wartezeit.
Aber gut, dann wird es eben nix mit einem weiteren AMD Kauf. Sondern die Sache wird so lange ausgessen, bis AMD die Preise senkt. Und wenn nicht, dann kaufe ich wieder einen Intel und MB. Die ganze AGESA Geschichte bei AMD geht mir sowieso mächtig auf den Sack. Und so schnell werde ich auch keine AMD Plattform mehr kaufen.
Also ich lese da viel "mimimi, die Chipkrise kam bevor ich meine CPU günstig aufrüsten konnte."
Böses AMD. >10 Jahre Underdog, kurz vor der Pleite und jetzt wo die erfolgreich werden verschenken die keine CPUs mehr. :rolleyes:
Deine Fanboy Sprüche sind übrigens niveaulos.
nordic_pegasus
2022-01-31, 06:34:57
Schon mal dran gedacht das man die V-Cache Variante eher bringen wollte aber das Packaging noch nicht spruchreif war?
genau das meinte ich mit meiner Aussage. AMD wollte V-Cache sicherlich mit Zen3 bringen, hatte aber Fertigungs-Probleme. Darum wollte man mutmaßlich auf Zen4 als erster V-Cache Chiplet umswitchen, fühlte sich aber nach der Performance des 12900K und den 12900KS Gerüchten genötigt, doch noch etwas auf der CES anzukündigen. Darum wohl nur eine SKU mit vagen Release-Zeitraum.
Für mich sieht der 5800X3D mit seinen bekannten Specs, seiner Einzigartigkeit in der Produktpalette und dem Release kurz von Zen4 wie ein Verlegenheitsprodukt aus, damit die Fans und Reviewer nicht wieder AMD zur Nummer 2 von 2 abstempeln und man den aufgebauten Premiumstatus der Marke nicht verliert.
Bzgl. der Bedenken zur Wärmeabführ wegen der Stacked Dies bin ich gespannt, ob zumindest der angegebene Boost-Clock von 4.5GHz ab Werk Allcore gehalten werden kann... das kann ja sogar mein 5950x, wenn die TDP nicht limitiert.
amdfanuwe
2022-01-31, 07:17:56
Schonmal was von Milan-X gehört?
nordic_pegasus
2022-01-31, 08:14:36
Schonmal was von Milan-X gehört?
hier dürfte der Gewinn die sicherlich noch hohen Kosten, speziell wenn der Yield noch relativ gering ist, besser kompensieren als ein Consumer Produkt.
basix
2022-01-31, 11:20:12
Dass es nur den 5800X3D gibt, kann mMn mehrere Gründe haben:
- Grosser Fokus auf Gaming. >8C nützen da nicht viel
- Angespanne Lieferkette. Doppelt so viele CPUs verkaufen oder eine teurere SKU? AMD Fans hätten die Einführung von noch teureren CPUs wohl ebenfalls nicht mit grosser Begeisterung aufgenommen. Eine noch knapp bezahlbare CPU aber sehr wohl --> Image-Pflege als Bonus
- Alder Lake Konkurrenz. Der 5950X spielt eh in einer eigenen Liga und der wird nicht primär fürs Gaming gekauft. Eine SKU in der Mitte, mit Alder Lake mässigen Preisen, macht mehr Sinn.
- Man wollte vermutlich Alder Lake abwarten und hat erst danach final entschieden, welche CPUs es geben soll. Wäre Alder Lake in Spielen auf ~Zen 3 Niveau zu liegen gekommen, hätte man eher 5900X3D und 5950X3D gesehen. Nun gibt es halt den 5800X3D und bis man die CPUs bestellt + gefertigt hat, vergehen 3 Monate bis zum Release. Ende Februar wäre also so ungefähr das Release-Date des 5800X3D
- Zen 4 ist evtl. näher als wir denken
Als Refresh war V-Cache wohl schon immer geplant. Als Reaktion auf Alder Lake sehe ich das jetzt nicht. Gezeigt wurde V-Cache schon lange vor Alder Lake, nämlich im Mai 2021. Nur ob nun 5800X3D, 5900X3D oder 5950X3D hat man wohl recht kurzfristig nach dem Alder Lake Launch entschieden. mMn ist das die einzige Planänderung aufgrund Alder Lake.
Evtl. ist die Fertigung auch etwas später als geplant, kann gut sein. Darauf wetten würde ich aber nicht unbedingt.
Edit:
Wenn die Preise hier stimmen, sollte V-Cache nicht extrem teuer sein:
https://wccftech.com/amd-epyc-7773x-milan-x-flagship-cpu-benchmarked-in-dual-socket-configuration-scores-almost-30000-multi-threaded-points-in-cpu-z/
- 10480$ für den 7773X
- 9420$ für den 7763
Bei den kleineren Modellen sieht es dann aber deutlich teurer aus :D Oder AMD sieht sich konkurrenzlos und fragt nach mehr Marge.
- 6650$ für den 7573X
- 4290$ für den 7543
- 4640$ für den 7473X
- 2290$ für den 7443
Thunder99
2022-01-31, 12:01:53
Letzteres ;D
Preis denke ich wird zwischen 5800X und 5900X sein.
basix
2022-01-31, 12:13:30
Ich hätte auch auf 499$ oder 529$ MSRP getippt, ja.
BavarianRealist
2022-01-31, 12:17:50
...Bzgl. der Bedenken zur Wärmeabführ wegen der Stacked Dies bin ich gespannt, ob zumindest der angegebene Boost-Clock von 4.5GHz ab Werk Allcore gehalten werden kann... das kann ja sogar mein 5950x, wenn die TDP nicht limitiert.
Nachdem AMD bisher auch keinen Preis genannt hat, wäre ich mir nicht mal sicher, ob der Boost-Takt wirklich final ist. Wenn sie höheren genannt hätten, wären nur die Erwartungen höher geschraubt worden, was dazu geführt hätte, dass noch mehr potenzielle Kunden auf den 5800X3D warten statt sich jetzt noch einen 5900X zu holen. Ebenso hat man Intel nicht unnötig provoziert.
Thunder99
2022-01-31, 12:23:32
Ich hoffe ja auf B2 und selektierte Chips damit es keine unnötige Limitierung gibt :)
basix
2022-01-31, 12:36:17
Nachdem AMD bisher auch keinen Preis genannt hat, wäre ich mir nicht mal sicher, ob der Boost-Takt wirklich final ist
Das kann ich nur schwer glauben. Auf der Packung wird genau das,w as vorgestellt wurde, aufgedruckt. Was eher der Fall sein wird, ist dass die CPU dann höher boostet als angeschrieben. Wie sie das bei Zen 3 generell schon tun.
Und ein generell reduzierter Takt hat für AMD allenfalls einen weiteren Vorteil: Zuverlässigkeit & Garantieleistungen. Da die Technologie noch neu ist, sind die Ausfallraten wohl noch nicht gänzlich bekannt. Reduziert man den thermischen Stress, wäre schon viel geholfen. Die, die die CPU dann noch manuell übertakten, werden bei weitem nicht den Grossteil der Käufer darstellen.
maximus_hertus
2022-01-31, 13:07:18
Trotz AlderLake rls. trotz keiner CPU Knappheit.
Alderlake ist ziemlich irrelevant. Bisher gab es nur den i9 und mit Abstrichen den i7. DDR5 und Boardpreise haben jedwede Preisdiskussion obsolet gemacht.
keiner CPU Knappheit? Ja, man kann die CPUs kaufen ohne große Wartezeit. Allerdings: die werden auch allesamt gekauft. Zum aktuellen Preis. Ergo keine direkte Knappheit, aber eine indirekte, da man aktuell die NAchfrage gerade so erfüllen kann. Große Lagerbestände gibt es aber nicht und das ist die Basis, um bei Zen 3 (deutliche) Preissenkungen zu sehen.
Ausnahme ist der 5800X, der ja zum Launch die mieseste CPU beim Preis war und mittlerweile 100 Euro günstiger ist (350 statt 450 Euro).
Was bei Preisvergleichen oft leider vergessen wird, sind die Preise für Boards. Was habe ich von einer 199 Euro CPU, wenn ich 250+ Euro für das Board ausgeben muss.
Dann sind 299 Euro für die CPU und 150 Euro für das Board nicht schlechter, da gleich teuer (sofern die Performance gleich ist).
Last, but not least, Umrechungskurs USD - Euro. Nach wie vor wird ALLES in USD bezahlt. Schwächelt der Euro, wird Technik hier spürbar teurer.
Siehe AMDs Direct Shop: dort wird Stumpf USD mit aktuellem Kurs in Euro umgerechnet. Der USD PReis ist die ganze Zeit exakt gleich geblieben.
Aus rund 970 Euro für die 6900XT sind mittlerweile fast 1070 Euro geworden. Nur durch den schwachen Euro. Da kann man AMD imo nicht die Schuld für geben.
Mit einem starken Euro würde ein 5600X sicherlich eher in Richtung 220-230 Euro liegen, statt 265+. Und damit in einem Bereich, den viele sicherlich dann als gut und relativ günstig bezeichnen würden.
r3ptil3
2022-01-31, 13:24:39
Ich hätte auch auf 499$ oder 529$ MSRP getippt, ja.
Die Frage ist dann aber, wieso soll AMD eine CPU für 499$ anbieten, welche einen 12900K für 599$ übertrumpft und ebenbürtig mit einem selektierten 12900KS für 700-800$ ist?
Dass die CPU teurer als der 5900X ist, könnte man problemlos mit der neuartigen "Cache-Technologie" und der damit resultierenden überlegenen Gaming-Performance begründen. Beim 5950X hingegen wird die Argumentation schwierig, so dass die CPU doch mind. 100$ günstiger sein muss.
Ich tippe auf 599-649$ für den 5800X3D.
basix
2022-01-31, 13:53:17
Ein 12900K wird ja nicht in allen Belangen übertrumpft:
- Höhere ST Performance
- Höhere MT Performance
- Eingebaute iGPU
- PCIe 5.0
- Tunderbold 4.0
- USB 4.0
Das hat ein 5800X3D alles nicht. Wenn man nur im Gaming schneller ist und sonst überall hinten liegt, ist ein höherer Preis mMn nicht gerechtfertigt. Und AMD hat immer noch ein Image bezüglich gutes P/L-Verhältnis, das würde ich mit dem 5800X3D nicht riskieren (mit Zen 3 wurde es ja etwas angeknackst).
Daredevil
2022-01-31, 14:02:44
Der Cache Zen wird einfach "nur" eine sehr gute Gaming CPU, er kann weder mithalten mit der P/L eines Budgetgaming 6-Kerners, noch kann er mithalten mit der ( non Gaming ) SC Leistung eines Alder Lake und schon gar nicht mit der MC Leistung eines 5950X.
Das ist ein "Nischenprodukt", welches sich auf eine Komponente fokussiert > Gaming.
Insofern darf sich der 5800X3D auch nicht weit weg entfernen vom herkömmlichen 5800X, da der Nutzen schlicht nicht so hoch ist. 50-100€ mehr als Fanservice und Machbarkeitsstudie für AMD, mehr sollte es nicht sein.
Selbst die 349€ für einen 5800x sind ja aus heutiger Sicht schon sehr... sportlich in anbracht der Konkurrenz.
Ich denke der Prozessor wird sowas ähnliches sein wie eine Radeon VII.
Gut platziert für den Zweck, keine großen Stückmengen und halt einfach etwas, was AMD weiter hilft und nicht viel Gewinn erwirtschaftet, da Fanservice für alle AM4 User.
Edit: Und da würde ich mich drauf freuen als AM4 User, weil ich damit nicht komplett auf Alder Lake umsatteln muss, wenn mir die CPU Leistung zu gering wird.
r3ptil3
2022-01-31, 14:12:30
Ein 12900K wird ja nicht in allen Belangen übertrumpft:
- Höhere ST Performance
- Höhere MT Performance
- Eingebaute iGPU
- PCIe 5.0
- Tunderbold 4.0
- USB 4.0
Stimme ich zu, aber ein 5800X hat das auch nicht und wird weiterhin ohne offizielle Preissenkung für 450$ verkauft. Wie viel kostet ein schnellerer 12700f? 320$
Klar ein 5800X geht teilweise deutlich günstiger weg als für 450$.
Und AMD hat immer noch ein Image bezüglich gutes P/L-Verhältnis, das würde ich mit dem 5800X3D nicht riskieren (mit Zen 3 wurde es ja etwas angeknackst).
Wenn Zen4 alles andere massiv übertrumpft, davon gehe ich aktuell stark aus bis Meteor Lake, dann wird die UVP für einen Zen4 16 Kerner nicht mehr bei 799$ liegen.
Beim Zen1 Release wurde AMD ja als der Wohltäter schlechthin dargestellt, obwohl das nie der Fall war. Die kamen in einen von Intel dominierten Markt rein und hatten keine andere Wahl, als erstmal eine neue, fehlerbehaftete, frische neue Plattform über den Preis an den Mann zu bringen.
Erinnerst dich bestimmt an die glorreichen Zeiten von AMD, als die FX CPUs, zu einem ganz anderen Preis angeboten wurden. Und nicht vergessen, die Inflation nicht mal einberechnet, weil dann wäre ja eine FX CPU von 2004 gleich nochmals 50% teurer. Das gleiche kommt wieder und ist ganz normal, wenn AMD bis 2023 den Ton angibt in diesem Segment.
Daredevil
2022-01-31, 14:19:39
Kleine Spinnerei:
Vielleicht ist die 3D Cache Technologie in dem Produkt auch einfach ein "Test" für einen Konsolen Refresh in naher oder langer Zeit?
Hier ist der Fokus 100% Gaming und in der Hinsicht bekommt man einen Prozessor/APU und dessen Leistung deutlich effizienter, als es heute möglich ist.
basix
2022-01-31, 14:22:02
@bardh:
Heutzutage werden MSRPs ja nicht mehr nach unten angepasst. Was relevant ist, ist der Marktpreis zum gegebenen Zeitpunkt. Und ja, hier ist ein 12700K oder KF prinzipiell preislich attraktiver. Was aber durch die teure Plattform wieder negiert wird.
Wenn Zen 4 deutlich abliefert, erwarte ich auch dass die Preise etwas anziehen. Dabei liefert man dann aber auch deutlich mehr ;) Im Endeffekt geht es um P/L. Ist die CPU +50% schneller, aber kostet "nur" 10-20% mehr --> deutliche P/L Steigerung. Ist immer noch deutlich besser, als Sandy Bridge bis Skylake gleiche Preise aber auch nur +10% pro Generation. Und ja, sinkende Preise werden wir eher nicht mehr erleben.
Bei Zen 2 war AMD preislich ebenfalls sehr attraktiv. Was bei Zen 3 komplett fehlt, sind die non-X Modelle. Gäbe es die, wäre Zen 3 preislich ebenfalls sehr attraktiv. Da man aber eh alles verkauft, was man produzieren kann, kamen diese Modelle aber nie zustande. Bei Zen 4 wird man vermutlich wieder von Beginn weg auch non-X SKUs anbieten und möglichst auch günstige Mainboards. Man will hier die Leute für AM5 begeistern, damit man nicht auf Intels Sockel landet und zukünftige CPU-Aufrüster reinholen kann.
Ich kann mir vorstellen, das AMD nach dem Zen 4 Release non-X Zen 3 bringt (falls es die Waferkapazitäten zulassen und es in ihre Strategie passt).
BavarianRealist
2022-01-31, 14:24:29
...Und ein generell reduzierter Takt hat für AMD allenfalls einen weiteren Vorteil: Zuverlässigkeit & Garantieleistungen. Da die Technologie noch neu ist, sind die Ausfallraten wohl noch nicht gänzlich bekannt. Reduziert man den thermischen Stress, wäre schon viel geholfen. Die, die die CPU dann noch manuell übertakten, werden bei weitem nicht den Grossteil der Käufer darstellen.
Der Gedanke klingt sehr logisch: wie sich die thermische Belastung auf die Dauer auf die Verbindung der beiden Chiplets - und hier vor allem auf die diversen Kontakte - auswirkt, ist vermutlich noch zu wenig in der Masse getestet. Da macht es auf jeden Fall Sinn, die thermische Belastung für die Massenprodukte erst mal deutlich niedriger anzusetzen, als in den Labor-Versuchen, um die Ausfälle niedrig zu halten.
Es würde mich daher nicht wundern, dass AMD für den 5800X3D quasi eine künstlich niedrige Betriebstemperatur ansetzt und daher die Takte formal begrenzt hat. Das würde dann aber auch heißen, dass der 5800X3D dann sehr viel OC-Potenzial haben dürfte (wir wissen ja, dass einzelne Cores längst >5Ghz können) und dann am Ende im Gaming unter OC noch viel besser abschneidet, als schon angekündigt....aber dann halt ohne Garantie.
maximus_hertus
2022-01-31, 14:25:07
MAn kann imo folgende Straßenpreis um Ostern / nach dem echten Launch des 5800X3D erwarten:
5600X - 249 Euro
5800X - 339 Euro
5900X - 479 Euro
5800X3D - 525-540 Euro (ich gehe von 499 USD UVP aus, "dank" schwachem Euro landet man aber bei etwas über 500 Euro).
5950X - 699 Euro
Ggf. sind es 549 USD UVP und dann rund 580 Euro Straßenpreis bei uns. Viel mehr wird es wohl nicht. Schon ein Preis von über 500 Euro lässt die Nachfrage spürbar sinken, ergo kein großes Risiko, dass man "überrant" wird (Nachfrage).
basix
2022-01-31, 14:29:51
Der Gedanke klingt sehr logisch: wie sich die thermische Belastung auf die Dauer auf die Verbindung der beiden Chiplets - und hier vor allem auf die diversen Kontakte - auswirkt, ist vermutlich noch zu wenig in der Masse getestet. Da macht es auf jeden Fall Sinn, die thermische Belastung für die Massenprodukte erst mal deutlich niedriger anzusetzen, als in den Labor-Versuchen, um die Ausfälle niedrig zu halten.
Es würde mich daher nicht wundern, dass AMD für den 5800X3D quasi eine künstlich niedrige Betriebstemperatur ansetzt und daher die Takte formal begrenzt hat. Das würde dann aber auch heißen, dass der 5800X3D dann sehr viel OC-Potenzial haben dürfte (wir wissen ja, dass einzelne Cores längst >5Ghz können) und dann am Ende im Gaming unter OC noch viel besser abschneidet, als schon angekündigt....aber dann halt ohne Garantie.
So in etwa stelle ich mir das vor, genau. Bei Milan-X sind die Taktraten und Verlustleistungen pro Chiplet deutlich tiefer als bei Desktop Ryzen. 280W / 8 Chiplets ergibt gerade mal 35W pro CCD. Bei Ryzen mit >100W ist das deutlich mehr.
BavarianRealist
2022-01-31, 14:37:37
So in etwa stelle ich mir das vor, genau. Bei Milan-X sind die Taktraten und Verlustleistungen pro Chiplet deutlich tiefer als bei Desktop Ryzen. 280W / 8 Chiplets ergibt gerade mal 35W pro CCD. Bei Ryzen mit >100W ist das deutlich mehr.
Schädlich - heißt hohe Belastung/Alterung - wirken auf solche Sandwich-Lösungen vor allem Temperatur-Schwankungen: Häufigkeit und vor allem Höhe der Temperatur-Schwankungen. Insofern dürfte der 5800X3D hier vermutlich sogar stärkerer "Alterung" unterliegen, als die im Dauerbetrieb befindelichen Milan-X. Der 5800X3D würde damit eher zu einem großen Test-Objekt....womit AMD seinen Preis womöglich dann am Ende vielleicht doch nicht zu hoch macht, je nachdem wie groß man das Testfeld haben möchte.
Ich frage mich sowieso, wie diese Kontakte zwischen den zwei Chiplets überhaupt so zuverlässig verbunden werden: es dürfte eines der aktuell größten Geheimnisse von AMD sein, wie hoch hier das Yield wirklich ist. Dass es nur den 5800X3D gibt (wo man eben nur 1 statt 2 dieser Chiplets braucht), spricht eher für noch zu grenzwertiges Yield, zumal auch der Launch ja hinaus geschoben worden ist. Ich bin schon ziemlich gespannt, wie es hier weiter geht.
r3ptil3
2022-01-31, 14:39:07
Schon ein Preis von über 500 Euro lässt die Nachfrage spürbar sinken, ergo kein großes Risiko, dass man "überrant" wird (Nachfrage).
Wenn die Gerüchte stimmen, dass der 5800X3D eine Art limitierte Auflage wird, dann wird die CPU im Gesamtumsatz sowieso komplett irrelevant sein, wichtig ist, und das kann man aus den AMD-Folien definitiv schliessen, sie wollen in einem Bereich (Gaming) die Speerspitze darstellen. Schlussendlich geht es ums Marketing, was sich im Verkauf auch bei den ganz kleinen CPUs positiv auswirkt.
Intel machte es besonders klug und lieferte auch CPUs an Youtube-Reviewer , die keine Ahnung von der Hardware haben. Lassen dann halt 4-5 von Intel empfohlenen (oder Vertraglich abgemachten) Benchmarks laufen und der Eindruck bei einem Millionenpublikum am Schluss: Intel ist der absolute König!! Kein Hinweis auf den Verbrauch oder sonst was kritisches.
Das ganze könnte in einer kritischen Zeitschrift hingegen auch so klingen: "300W+ für die Performancekrone", "Effizient geht anders", "Powerlimits? Nicht bei Intel".
davidzo
2022-01-31, 14:49:21
Kleine Spinnerei:
Vielleicht ist die 3D Cache Technologie in dem Produkt auch einfach ein "Test" für einen Konsolen Refresh in naher oder langer Zeit?
Hier ist der Fokus 100% Gaming und in der Hinsicht bekommt man einen Prozessor/APU und dessen Leistung deutlich effizienter, als es heute möglich ist.
Ich glaube 3D-VCache hat eher wenig mit dem Clientmarkt zutun. Konsolenspiele sind immer so eingestellt das die im GPUlimit laufen, eine schnelle CPU braucht da niemand.
3D-Vcache ist eher entstanden weil es die Serverkunden gewünscht haben. IBM dominiert seit Jahren mainframes und den financial sektor weil dort der gigantische Cache einfach für unheimlich gute sustained performance sorgt. Das ist ein spezieller Teil des Markts, insofern werden die X3D CPUs auch nicht mainstream werden.
Intel ist seit Jahren dabei den Servermarkt zu zerteilen und mit kundenspezifischen CPUs zu bedienen und solange Xeon Scalable konkurrenzlos war hat man damit auch Rekordmargen eingefahren. AMD hat ebenfalls erkannt wieviel Marge man mit spezialisierten SKUs herausholen kann, z.B. mit dem Epyc 72F3 der fast die doppelte per thread performance gegenüber dem schnellsten xeon liefert.
Aus demselben Wunsch einzelner Kunden nach größeren Caches sind bei Intel die SR HBM2e SKUs entstanden, bei AMD eben der X3D cache. Die sind auch nicht mainstream und werden nie die normalen SKUs komplett verdrängen, greifen aber eben ein Aufpreispotential im Markt ab das man nicht ungenutzt verstreichen lassen will.
Der 5800x3d auf AM4 wird eher ein Schnellschuss gewesen sein, der war bis Q2 2021 gar nicht auf der Roadmap. Das ist wohl ähnlich wie damals Threadripper, wo man sich kurzfristig (also 1-2Jahre vor launch) entschieden hat den Epyc Socket auch auf den Desktop zu bringen, entsprechend tauchte der auf den früheren Roadmaps nicht auf, die nachfolgenden TR-Generationen aber sehr wohl.
Ich bezweifle aber dass das ein direkter Counter zu ADL sein soll, also eine Notfallreaktion. Momentan ist die kompetitive Situation irrelevant, denn beide Hersteller verkaufen alles was sie haben. Da ist null kompetitiver Druck durch ADL, sieht man ja an den ausbleibenden Preissenkungen. Der 5800x3d wird halt gelauncht "weil man es kann" und weil man wohl intern gesehen hat wie gut MilanX in Game-Benchmarks abschneidet. Wozu also nicht den Teil des Markts auch bedienen, wenn sich der Aufpreis hier gut vergolden lässt?
Solche Halo SKUs, tuning und OC machen AMD ja auch Spaß. Threadripper ist als reines Feierabendprojekt gestartet, bis Lisa den Engineers erlaubt hat da ein offizielles Produkt draus zu machen.
Daredevil
2022-01-31, 14:53:23
Wenn aber der Cache "günstig" die Performance einer CPU anhebt, kann man sie am Ende auch niedriger Takten und somit gleiche/bessere Performance liefern bei niedrigerem Verbrauch, ergo hat man mehr TDP Limit für mehr GPU Einheiten oder halt eher bei Konsolen üblich kostenloser Takt, ergo mehr GPU Power.
Klar sind Prozessoren irgendwie immer "Abfall" vom Profimarkt, wo die Marge am größten ist, aber Gaming scheint ja hier offensichtlich auch glücklicherweise ein Anwendungsfall zu sein.
davidzo
2022-01-31, 15:06:58
Wenn aber der Cache "günstig" die Performance einer CPU anhebt
Tut es nicht. Es wird genauso einige Anwendungen geben die Performance Regressionen hinnehmen müssen (wegen Takt + Latenz). Insofern ist das keine richtige mainstream Client-Lösung.
Die meisten Desktop workloads können mit dem cache überhaupt nichts anfangen. Es wird weder eine überzeugende Allround-SKU werden wenn man viele Benchmarks gegen CPUs mit höherem Takt und mehr Kernen deutlich verliert, noch ist es für den Mainstream Gamer interessant der sowieso im GPUlimit hängt.
Ich sehe den X3D Cache eher als Highend-gaming-spezifisch an, wie damals
- den Pentium 4 EE Gallatin mit L3 aus dem XeonMP, den alle Reviewer mitgetestet haben aber niemand gekauft hat,
- den 4790K als erste 4Ghz CPU um die Broadwell-Verzögerung zu überbrücken,
- oder Limited Editions wie den 8086K.
basix
2022-01-31, 15:13:41
Schädlich - heißt hohe Belastung/Alterung - wirken auf solche Sandwich-Lösungen vor allem Temperatur-Schwankungen: Häufigkeit und vor allem Höhe der Temperatur-Schwankungen. Insofern dürfte der 5800X3D hier vermutlich sogar stärkerer "Alterung" unterliegen, als die im Dauerbetrieb befindelichen Milan-X. Der 5800X3D würde damit eher zu einem großen Test-Objekt....womit AMD seinen Preis womöglich dann am Ende vielleicht doch nicht zu hoch macht, je nachdem wie groß man das Testfeld haben möchte.
Ja, mehr und höhere Temperaturzyklen sind sicher schädlicher. Bei Milan-X entstehen durch Lastwechsel aber sicher auch 10-20°C Temperaturunterschiede und die Dinger laufen 24/7. Nichtsdestotrotz sollten die reduzierten Taktraten die Temperaturspitzen um einiges dämpfen können.
Wenn man ein reines Testobjekt wollte, wäre der 5900X und 5950X wohl die passendere Lösung. Deutlich geringere Stückzahlen und aufgrund zwei Chiplets deutlich geringere Temperaturen. Evtl. hätte es beim 5950X3D mit normalen Taktraten geklappt und beim 5800X3D ist die thermische Belastung dann doch zu viel des Guten. Wie gesagt nicht zwinged aufgrund zu hoher Temperaturen der Kerne aber dem thermischen Stress der 3D-SoIC Verbindungen.
JackBauer
2022-01-31, 15:21:12
was läuft bei AMD!!
lohnt es sich nen 5800x jetzt zu kaufen oder kommt in ein paar Monaten ein Refresh^^ Modell
das einzige was ich herausgefunden habe das die 7000 Reiher erst Ende des Jahres kommt und die 6000 Reihe nur mobile sind
Sweepi
2022-01-31, 15:23:27
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2021/09/image-18.png?ssl=1
Fuer alle anderen, die sich das auch fragen, die Grafik stammt aus https://chipsandcheese.com/2021/09/29/do-ibms-giant-l3-and-v-cache-represent-the-future/
Thunder99
2022-01-31, 17:50:12
was läuft bei AMD!!
lohnt es sich nen 5800x jetzt zu kaufen oder kommt in ein paar Monaten ein Refresh^^ Modell
das einzige was ich herausgefunden habe das die 7000 Reiher erst Ende des Jahres kommt und die 6000 Reihe nur mobile sind
Warte, da entweder 5600x oder 5900x dann interessant sind , falls der 5800x3d für das gebotene zu teuer ist.
Denke auch mit einem Chiplet lässt sich mehr CPUs verkaufen als mit 2 war ihre wesentliche Entscheidung. Hätte ggf. den 5900x zu teuer gemacht
nordic_pegasus
2022-01-31, 19:38:34
Hätte ggf. den 5900x zu teuer gemacht
ich kann mir immernoch nicht vorstellen, dass AMD einen V-Cache Chiplet auf teildefekte Zen3 Kerne packen wird. Salvage-Chips mit V-Cache wird es erst geben, wenn die Fertigung sau günstig ist.
Darum halte ich, wenn überhaupt noch was nach dem 5800X3D kommt, nur einen 5950X3D für realistisch.
Blediator16
2022-01-31, 22:24:16
Wie meinst du teildefekt? Die CPUs bestehen aus IOD und CCD mit je 8 Kernen was ist da nun Teildefekt?
Freestaler
2022-01-31, 22:27:09
Ich denke er meint einen hypothetischen 5900X3D (2x6 (Teildefekt) & IOD).
nordic_pegasus
2022-01-31, 22:36:35
Wie meinst du teildefekt? Die CPUs bestehen aus IOD und CCD mit je 8 Kernen was ist da nun Teildefekt?
hier wird immer von einem 5900X3D geträumt. Ein CCX hat bein Zen2/3 8 Kerne, darum sind im 5900X und 5600X jeweils Chiplets mit 6/8 aktiven Kernen.
Warum sollte AMD teildefekte Chiplets mit 6 aktiven Kernen für 3D-Stacking schleifen und mit dem Cache zusammenfügen, wenn man angesichts des mutmaßlich geringen Yields + hohe Kosten für das Stacking vollständige CCX mit 8 aktiven Kernen nehmen kann und so mehr Geld pro fertiger CPU bekommt.
Darum wird aus meiner Sicht neben dem 5800X3D nur ein theoretischer 5950X3D in Überlegung (gewesen) sein.
Ramius
2022-01-31, 23:31:39
Warum sollte AMD teildefekte Chiplets mit 6 aktiven Kernen für 3D-Stacking schleifen und mit dem Cache zusammenfügen, wenn man angesichts des mutmaßlich geringen Yields + hohe Kosten für das Stacking vollständige CCX mit 8 aktiven Kernen nehmen kann und so mehr Geld pro fertiger CPU bekommt.
Wo gibt es hier "geringe" Yields?
Chiplets verwendet man doch gerade weil sie hohe Yields bieten.
Der 3D Cache an sich hat ebenfalls hohe Yields.
Der_Korken
2022-01-31, 23:59:33
Ich glaube er meinte Yields des Stacking-Prozesses.
Wobei ich mir selbst dann nicht sicher bin, ob 6er Chiplets dann so unwirtschaftlich sind. Ob sich die zusätzlichen Kosten des Cache-Chiplets lohnen, hängt vom Aufpreis des gestackten Chips gegenüber der ungestackten Variante ab. Bei einer Yieldrate von p heißt das: Mit Wahrscheinlichkeit p verdienst du den Aufpreis (minus Kosten für den Cache-Die), und mit 1-p schrottest du den CCD und Cache-Die (=Verlust). Wahrscheinlich wird man für einen 5950X3D mehr Aufpreis verlangen können als für einen 5900X3D, weil ersterer generell teurer ist. Dafür schrottet man bei ersterem aber auch 2 "gute" CCDs, bei letzterem nur den Ausschuss. Wenn die Yieldrate für 8 funktionsfähige Kerne nahe bei 100% ist, ist es natürlich egal, aber in diesem Fall würde AMD generell lieber nur 5800er und 5950er verkaufen, weil sie für 5600 und 5900 heile Chips für weniger Erlös verbraten müssen.
Edit: Aus produktpolitischer Sicht macht ein 5600X3D natürlich keinen Sinn, weil er nur den günstiger zu produzierenden 5800X kannibalisiert. Und wenn man ehrlich ist, sind auch 5900X3D und 5950X3D reine Nischenprodukte, weil das Mehr an Kernen für Gamer irrelevant ist und Anwendungen vom Cache nicht so stark profitieren dürften. Außerdem verbraucht ein 5800X3D weniger Waferspace als ein 5900X und wird in fast allen Games vorne sein. Für mich war der 5800X3D daher schon immer das logischste Produkt mit 3D-Cache gewesen, vor allem als ADL-Konter.
amdfanuwe
2022-02-01, 04:30:25
Ich dachte eher, sie machen es wie Intel: Beste Gamingleistung gibt es nur im teuerstem Produkt.
Mit 5800X3D dürften sie aber mehr verkaufen.
Eventuell ist das auch ein Grund: Der Cache Chip muß ja auch in einer gewissen Menge produziert werden, damit er sich lohnt. Mit Server allein erreichen sie nicht die nötige Menge.
5900/5950X3D hätten zu wenig Menge gebracht und wären kaum schneller als 5800X3D in Gaming. Vielleicht kommt da aber auch noch was, wenn AMD genügend X3D Chiplets im Lager hat.
nordic_pegasus
2022-02-01, 08:24:09
Wo gibt es hier "geringe" Yields?
Chiplets verwendet man doch gerade weil sie hohe Yields bieten.
Der 3D Cache an sich hat ebenfalls hohe Yields.
soweit bekannt sind aktuell die Kapaziäten für das Stacking begrenzt bzw. schon für Milan-X zum Großteil gebucht. Ferner müssen die CPU-Chiplets für das Stacking noch vorbereitet werden (Schleifen). Und dann ist noch die Frage, wie hoch das Yield für den Stacking-Prozess ist.
Warum sollte AMD in dieser Konstellation dann teildefekte CPU-Chiplets dem "Veredelungsprozess" unterziehen? Es macht wirtschaftlich keinen Sinn, einen 5600X3D oder 5900X3D mit 6 aktiven Kernen pro Chiplet zu produzieren, wenn man stattdessen Chiplets mit 8 aktiven Kernen veredeln und zum höheren Preis verkaufen kann.
Darum wird m.E. maximal noch ein 5950X3D nachgeschoben werden. Aber auch diesen halte ich für unwahrscheinlich, wenn man die sonstigen Randbedingungen einbezieht (105 Watt TDP Korsett, Zen4 im Nacken).
amdfanuwe
2022-02-01, 08:33:25
Warum sollte AMD in dieser Konstellation dann teildefekte CPU-Chiplets dem "Veredelungsprozess" unterziehen?
Weil der ganze Wafer bestückt wird und erst anschließend selectiert.
https://semiengineering.com/next-gen-3d-chip-packaging-race-begins/
Aber glaub mal nicht, dass nur teildefekte als 6 Kerner verkauft werden.
Und schau die Milan-X an, da gibt es Modelle mit nur 2 aktiven Cores pro Chiplet.
w0mbat
2022-02-01, 10:55:23
Warum sollte AMD in dieser Konstellation dann teildefekte CPU-Chiplets dem "Veredelungsprozess" unterziehen? Es macht wirtschaftlich keinen Sinn, einen 5600X3D oder 5900X3D mit 6 aktiven Kernen pro Chiplet zu produzieren, wenn man stattdessen Chiplets mit 8 aktiven Kernen veredeln und zum höheren Preis verkaufen kann.
Ich stimme dir zu, es ist aber interessant, dass AMD "Zen3D" auf der Computex 2021 in Form einex 5900X mit 3D V-Cache vorgestellt hat.
Vielleicht hat man beim prototyping lieber teildefekte chiplets benutzt, weil die vollwertigen für den Verkauf gebraucht werden.
Der Yield wird so exzellent sein bei den 80mm²-Dingern, dass es reine Produktselektion ist, ob Salvage oder nicht.
BavarianRealist
2022-02-01, 12:03:10
Der Yield wird so exzellent sein bei den 80mm²-Dingern, dass es reine Produktselektion ist, ob Salvage oder nicht.
Ich denke auch, dass das Yield für die Zen3-Chiplets unter den reduzierten Takt-Bedingungen für 5800X3D extrem hoch ist: es müssen lediglich alle Cores funktionieren und sie müssen lediglich 4,5Ghz machen (und das nicht mal alle).
Nachdem man womöglich die thermische Belastung sowieso reduziert haben könnte (wegen Haltbarkeit des Stackings), könnte am Ende die Variante mit nur einem gestackten Chiplet doch die viel günstigere gewesen sein. Bin gespannt, ob uns AMD dieses Geheimnis in nächster Zeit mal lüftet.
Auch die Taktvarianz wird super gering sein. Die paar lahmen und echten Salvage-Dies gehen halt als Epycs weg. Im Desktop werden nur Dies landen, die 5GHz packen und voll funktionsfähig sind.
X-Bow
2022-02-01, 17:05:01
Warum sollte AMD in dieser Konstellation dann teildefekte CPU-Chiplets dem "Veredelungsprozess" unterziehen? Es macht wirtschaftlich keinen Sinn, einen 5600X3D oder 5900X3D mit 6 aktiven Kernen pro Chiplet zu produzieren, wenn man stattdessen Chiplets mit 8 aktiven Kernen veredeln und zum höheren Preis verkaufen kann.
AMD zahlt pro Wafer und nicht Pro gutem Kern. Ein Chiplet kostet in der Produktion genau gleichviel, egal ob ein guter Kern oder alle acht. Somit wird der Preisunterschied erst in der Marge generiert, einen 5800X kann man bei exakt gleichen Produktionskosten wie der 5600X eben teuerer verkaufen.
Der 5900X hat zwar doppelt so viele CCDs wie der 5800X, macht ihn aber im Umkerschluss nicht doppelt so teuer in der Produktion weil sich die sonstigen Kosten nicht auch verdoppel. Sprich die aktuelle Marge eines 5900X kann jetzt schon genauso hoch sein wie beim 5800X.
Sprich erhöht AMD die UVP vom 5800X3D um fiktive 50€ gegenüber dem non-3D dann müsste die UVP für ein 5900X3D eben um 100€ steigen um Wirtschaftlich keine Rolle zu spielen. Ist die Marge eines 5900X aber schlechter als die eines 5800X dann hast Du natürlich grundsätzlich Recht, aber manchmal ist es auch wirschaftlich besser wenn man etwas mit geringerer Marge verkauft als für potenziell höhere Marge drauf sitzen zu bleiben. Wenn man sich jetzt mal die Verkaufszahlen von AMD auf MF anschaut dann hat es ja auch den Anschein das AMD viel mehr CCDs mit 6 Kernen verkauft als mit 8 (5800X+5950X vs. 5600X+5900X). Bei dem eingefahrenen Prozess werden aber sehr wahrscheinlich mehr CCDs mit allen 8 Kernen aus dem Wafer geschnitten als mit genau 6. :wink:
Die Margen sind eh gigantisch. Wieviel kostet das Ding in der Produktion, $60 in etwa? Müsste ja irgendwo da rauskommen.
Nightspider
2022-02-01, 19:31:05
AMD müsste heute Abend eh die Prognose für das neue Jahr bekanntgeben.
Glaube die angepeilte Marge wird auch genannt.
Bin gespannt.^^
robbitop
2022-02-01, 20:58:40
Die Margen sind eh gigantisch. Wieviel kostet das Ding in der Produktion, $60 in etwa? Müsste ja irgendwo da rauskommen.
Abschreibungen für Prozessentwicklung, Tooling und Entwicklung der uArch kosten aber on top. Das muss alles pro Produkt mitbezajlt werden.
X-Bow
2022-02-02, 01:07:29
Abschreibungen für Prozessentwicklung, Tooling und Entwicklung der uArch kosten aber on top. Das muss alles pro Produkt mitbezajlt werden.
Wie genau es AMD macht und die internen Verrechnungen sind kann natürlich nur AMD selbst sagen, aber meiner Erfahrung nach wird dies nicht mit dem Produkt selbst verrechnet sondern läuft über diverse Kostenverteiler. R&D Beispielsweise sind relativ fixe Kosten und gut kalkulierbar. Bezahlt wird das in der Regel vom bestehenden Rücklagen (also Geld was frühere Produkte erwirtschaftet haben) und/oder direkt aus dem Geldfluss der aktuellen Produkten. Abschreibungen macht man so gut wie nie für Entwicklungen sondern wenn dann für Gebäude und Maschinen, also Dinge welche einen bestehenden Gegenwert haben. Hier Plant man Abschreibungen aber auch nicht nur auf ein Produkt (ausgenommen Anlagen was nur genau das eine einzige Produkt kann, was eher selten vorkommt) sondern für einen Zeitraum, für Anlagen in der Regel 7 Jahre, für Gebäude können es gut und gern mal 10,15,20 Jahre sein.
Ich kenne Marge eigentlich nur als Differenz zwischen Herstellkosten und Verkaufspreis was dann in der Regel als Prozentwert dargestellt wird.
Da bin ich ganz bei HOT, die Margen sind gigantisch, der Gewinn am Ende des Monats, abzüglich der von Dir genanten Nebenkosten, je nach dem wie viel man dann im verkauft hat eben mehr oder weniger.
amdfanuwe
2022-02-02, 05:06:26
die Margen sind gigantisch,
Eine Marge von 50%, wie sie AMD gerade erzielt hat, nenn ich nicht grad "gigantisch".
https://ir.amd.com/news-events/press-releases/detail/1044/amd-reports-fourth-quarter-and-full-year-2021-financial
Non-GAAP(*) Quarterly Financial Results
Q4 2021 Q4 2020 Y/Y Q3 2021 Q/Q
Revenue ($M) $4,826 $3,244 Up 49% $4,313 Up 12%
Gross profit ($M) $2,427 $1,452 Up 67% $2,087 Up 16%
Gross margin % 50% 45% Up 560 bps 48% Up 190 bps
Operating expenses ($M) $1,103 $789 Up 40% $1,035 Up 7%
Operating income ($M) $1,328 $663 Up 100% $1,055 Up 26%
Operating margin % 27% 20% Up 7pp 24% Up 3pp
Net income ($M) $1,122 $636 Up 76% $893 Up 26%
Earnings per share $0.92 $0.52 Up 77% $0.73 Up 26%
Revenue = Umsatz
Gross Profit = Umsatz - Herstellungskosten
Operating expenses = laufende Kosten wie Miete, Gehälter, etc. sowie Entwicklung
Definition: Research and development (R&D) costs are the costs you incur for activities intended to develop or improve a product or service. They are listed on the income statement under Operating Expenses and can be expensed or capitalized.
Operating income = Gewinn nach abzug aller Kosten
Net income = Gewinn nach Steuern
Ist doch gar nicht so schwer mit etwas googeln
dildo4u
2022-02-02, 05:56:38
Logisch wenn man Konsolen Deals hat, Ryzen und Radeon Produkte sollten gerade üppige Margen haben.
Eine XBox Serie X GPU würde AMD alleine für 500€ verkaufen und dann muss AMD noch den Ryzen dazu spendieren.
robbitop
2022-02-02, 07:09:02
Wie genau es AMD macht und die internen Verrechnungen sind kann natürlich nur AMD selbst sagen, aber meiner Erfahrung nach wird dies nicht mit dem Produkt selbst verrechnet sondern läuft über diverse Kostenverteiler. R&D Beispielsweise sind relativ fixe Kosten und gut kalkulierbar. Bezahlt wird das in der Regel vom bestehenden Rücklagen (also Geld was frühere Produkte erwirtschaftet haben) und/oder direkt aus dem Geldfluss der aktuellen Produkten. Abschreibungen macht man so gut wie nie für Entwicklungen sondern wenn dann für Gebäude und Maschinen, also Dinge welche einen bestehenden Gegenwert haben. Hier Plant man Abschreibungen aber auch nicht nur auf ein Produkt (ausgenommen Anlagen was nur genau das eine einzige Produkt kann, was eher selten vorkommt) sondern für einen Zeitraum, für Anlagen in der Regel 7 Jahre, für Gebäude können es gut und gern mal 10,15,20 Jahre sein.
Ich kenne Marge eigentlich nur als Differenz zwischen Herstellkosten und Verkaufspreis was dann in der Regel als Prozentwert dargestellt wird.
Da bin ich ganz bei HOT, die Margen sind gigantisch, der Gewinn am Ende des Monats, abzüglich der von Dir genanten Nebenkosten, je nach dem wie viel man dann im verkauft hat eben mehr oder weniger.
Ohne, dass konkrete Zahlen vorliegen, kann das hier niemand beurteilen.
Zumal das mit den Abschreibungen nicht immer so ist wie du beschreibst. Letztenendes müssen sämtliche Kosten nunmal über die Produkte bezahlt werden. Völlig egal ob man das intern auf das Produkt umlegt oder nicht (bei uns in der Firma ist das übrigens so wie ich oben beschrieben habe).
Und am Ende kann die gross margin so hoch sein wie sie will. Das Verhältnis aus Bruttoumsatz und Gewinn ist entscheidend, denn das ist was am Ende hängen bleibt. Und da ist man mit 20% im gesunden, normalen Bereich. Insbesondere wenn man bedent, dass die Chipkrise eine Anomalie (welche die Bruttomarge nach oben teeibt) ist, die nicht ewig hält
Zossel
2022-02-02, 07:27:03
Eine Marge von 50%, wie sie AMD gerade erzielt hat, nenn ich nicht grad "gigantisch".
Was dabei raus kommt wenn man kurzfristiges Shareholdervalue zu sehr im Blick hat können wir gerade bei Intel bewundern.
basix
2022-02-02, 08:53:31
Was bei AMDs Quartalszahlen auffällt: Wahnsinnige Steigerung bei Enterprise, Embedded and Semi-Custom (EESC). Vor allem beim Gewinn. Hier hat man Q4/2021 erstmals deutlich mehr verdient als im Consumer und Gaming Bereich (Computing & Graphics, CG). Und auch aufs ganze FY21 bezogen hat AMD bei EESC verglichen zu FY20 massiv zugelegt. Auch CG lief sehr gut, aber verglichen zu EESC doch deutlich weniger.
Für mich ist das starke Wachstum und die hohe Marge bei EESC eindeutig ein Indiz, dass EPYC und CDNA sehr gut laufen.
amdfanuwe
2022-02-02, 10:33:51
Für mich ist das starke Wachstum und die hohe Marge bei EESC eindeutig ein Indiz, dass EPYC und CDNA sehr gut laufen.
CDNA wird zu CG gezählt, siehe Fußnoten.
https://d1io3yog0oux5.cloudfront.net/_8673b1e876d56c181768b458de9812a9/amd/db/778/6681/file/Q4+2021+GAAP+and+Non-GAAP+Earnings+Tables.pdf
1)The Computing and Graphics segment primarily includes desktop and notebook microprocessors, accelerated processing units that integrate microprocessors and graphics, chipsets, discrete
graphics processing units (GPUs), data center and professional GPUs and development services. From time to time, the Company may also sell or license portions of its IP portfolio.
2)The Enterprise, Embedded and Semi-Custom segment primarily includes server and embedded processors, semi-custom System-on-Chip (SoC) products, development services and
technology for game consoles. From time to time, the Company may also sell or license portions of its IP portfolio
davidzo
2022-02-02, 11:33:34
Eine Marge von 50%, wie sie AMD gerade erzielt hat, nenn ich nicht grad "gigantisch".
https://ir.amd.com/news-events/press-releases/detail/1044/amd-reports-fourth-quarter-and-full-year-2021-financial
Vorsicht, auch wenn zwar die Vetriebskosten und R&D-Ausgaben nicht mit in die Gross Margin zählen, gehört Software und support sehr wohl dazu. Schließlich ist der Treiber / Firmware etc. ein großer Teil des zu verkaufenden Produkts. Und SWdev und Swsuppport ist ein sehr großer Teil von AMDs Headcount bzw. ein großer Teil der engineers auf der payroll.
Außerdem entwickelt AMD Produkte mit einem großen Teil an lizensierter IP, PCIe, Speichercontroller, USB, Videocodecs, etc. ähnlich wie ein mobile SOC developer. In der ARM-socwelt sind einstellige Margen nicht unüblich und nur Qcom, Intel die quasi alle IP inhouse haben, kommen da über 50% Margen...
Hier gleich auf 50% reine Herstellungskosten zu schließen ist also vorschnell, bzw. passt auch überhaupt nicht zu den Waferpreisen die hier zirkulieren (10-13K pro 7nm wafer).
AMD hält durch die Lizensierung von IP seine R&D Ausgaben (Headcount HWdev) überschaubar. Deswegen liegen Gross margin und operating margin bei AMD in der Regel näher beieinander als zum Beispiel Intel.
Intel erziehlte zuletzt zwar eine mit 55% noch höhere Gross margin, aber nur 24% operating margin, was heißt dass ihr Vetriebsweg und ihr R&D etc. teurer sind.
Das wird von der Börse in der Regel kritisch gesehen, weil solche Kosten in der Regel unflexible Fixkosen sind, während die Lizenzkosten auf AMD-Seite in der zum Großtenteil Umsatzabhängig sind. AMD hat also die "leanere" struktur und geht weniger Risiko ein und erziehlt trotzdem eine höhere operating margin von 27% obwohl die gross margin noch nicht an die von Intel heranreicht.
amdfanuwe
2022-02-02, 14:49:00
Außerdem entwickelt AMD Produkte mit einem großen Teil an lizensierter IP, PCIe, Speichercontroller, USB, Videocodecs, etc. ähnlich wie ein mobile SOC developer. In der ARM-socwelt sind einstellige Margen nicht unüblich und nur Qcom, Intel die quasi alle IP inhouse haben, kommen da über 50% Margen...
Hier gleich auf 50% reine Herstellungskosten zu schließen ist also vorschnell, bzw. passt auch überhaupt nicht zu den Waferpreisen die hier zirkulieren (10-13K pro 7nm wafer).
Letztendlich hängt es vom Verkaufspreis ab.
Sieht man ja bei Intel wie die Marge runtergeht, da sie nicht mehr so hochpreisig verkaufen können.
Inwiefern passt das nicht zu den Waferpreisen?
Ist ja nicht mit dem Chip allein getan.
Dann darf man ja auch nicht vergessen, das eine Menge Konsolenchips und ältere Produkte mit geringer Marge verkauft werden und AMD noch Rabatte gibt bei entsprechender Menge.
MSABK
2022-02-03, 08:33:24
https://www.notebookcheck.com/AMD-Ryzen-7-6800H-Ein-erster-Test-zeigt-nur-minimale-Fortschritte-der-Intel-Core-i7-12700H-ist-deutlich-schneller.597413.0.html
Ryzen 6xxxx ist wie erwartet nicht soo viel schneller als sein Vorgänger. Ich denke Amd wird da über den Preis gehen. Wenn ich die Listungen bei Geizhals mir anschaue dann werden Alder Lake Notebook extrem teuer.
robbitop
2022-02-03, 08:39:53
Ja ein bisschen mehr Takt und das wars bei der CPU. Die GPU ist allerdings massiv(!) schneller.
Savay
2022-02-03, 17:27:09
Rembrandt wird wohl auch eher im 15-28W Segment seine Stärke haben.
Ex3cut3r
2022-02-03, 17:34:33
Ryzen 6xxxx ist wie erwartet nicht soo viel schneller als sein Vorgänger. Ich denke Amd wird da über den Preis gehen. Wenn ich die Listungen bei Geizhals mir anschaue dann werden Alder Lake Notebook extrem teuer.
Jo. Das ist ne ganze Gen unterschied IMHO.
robbitop
2022-02-03, 19:48:00
Sollte zumindest in Spielen keine Bedeutung haben weil man Laptops nicht die GPU upgraden kann und die meisten Laptops eine GPU haben bei denen kein CPU Limit (nicht mal ansatzweise) relevant ist.
fondness
2022-02-03, 20:02:16
Rembrandt wird wohl auch eher im 15-28W Segment seine Stärke haben.
Jup. Vollkommen lächerlich die ganzen alder laker Notebook Tests, welche mit einer tdp von 65 bis 95W testen. Das ist alles mögliche aber sicher nicht mobile. Mit 15W ist Intel absolut chancenlos, denn da hat man nur zwei big cores zu bieten. Lisa hat eh mehrmals angemerkt, dass man sich längst an Apple orientiert und nicht mehr an Intel.
Der_Korken
2022-02-03, 21:03:26
Je mehr Kerne desto mehr TDP braucht man tendenziell auch, um diese auszufahren. Wenn Alder Lake H bei 65W gewinnt aber bei 28W verliert, wäre das kein Widerspruch, da den 8 Zen-3-Kernen die 28W locker reichen können, um durchgehend 3 Ghz auf die Straße zu bringen, während Intel deutlich weiter runtermuss, um ihre 6+8 Kerne zu füttern. Alder Lake S ist deutlich effizienter als Rocket Lake S, allein schon wegen 10nm vs 14nm. Tiger Lake war aber auch schon 10nm SF, d.h. hier muss die Effizienz allein aus der Architektur kommen und afaik kam Tiger Lake nicht an die Effizienz von Zen 3 ran. Ob Alder Lake es schafft, wird man sehen.
Nightspider
2022-02-03, 21:08:39
Die Effizienz interessiert mich mit am meisten bei APU Vergleichen.
Intel 7 vs. TSMC N6
ADL vs. Zen3++RDNA2
Wenn Intel mal ein Jahr lang im CPU Part 15% vorne liegt wird AMD einen scheiß tun von wegen Preise zu senken. Schon gar nicht in den aktuellen Zeiten.
Die gute MT Leistung von ADL macht die Geschichte erst interessant, wenn auch nur für eine bestimmte Zielgruppe interessant.
basix
2022-02-04, 10:48:27
Je mehr Kerne desto mehr TDP braucht man tendenziell auch, um diese auszufahren. Wenn Alder Lake H bei 65W gewinnt aber bei 28W verliert, wäre das kein Widerspruch, da den 8 Zen-3-Kernen die 28W locker reichen können, um durchgehend 3 Ghz auf die Straße zu bringen, während Intel deutlich weiter runtermuss, um ihre 6+8 Kerne zu füttern. .
Weiter runter = weniger Takt = höhere Effizienz. Zen 3 skaliert weniger gut nach unten wie Zen 2. Und Alder Lake kann den Takt tiefer anlegen bei gleicher Performance. Ich sehe da ein breiteres Design bei MT-Last nicht im Nachteil, ausser bei dann wirklich tiefen TDPs, wo man mit breiten Designs mit höherem Grundverbrauch einfach nicht ganz so tief runter kommt. Und hier stellt sich die spannende Frage: Wie hoch ist diese Grundlast bei Rembrandt und Alderlake-U?
Thunder99
2022-02-04, 11:23:28
Eventuell deshalb das + vom Zen um die Schwächen im Mobile Bereich anzugehen
Der_Korken
2022-02-04, 11:48:04
Ich sehe da ein breiteres Design bei MT-Last nicht im Nachteil, ausser bei dann wirklich tiefen TDPs, wo man mit breiten Designs mit höherem Grundverbrauch einfach nicht ganz so tief runter kommt. Und hier stellt sich die spannende Frage: Wie hoch ist diese Grundlast bei Rembrandt und Alderlake-U?
Bei zwei gleich-effizienten Architekturen hast du natürlich vollkommen Recht. Die Frage ist jetzt, ob Alder Lake den Effizienz-Rückstand von Tiger Lake aufholen konnte. Irgendwann bricht nach unten hin nur noch der Takt ein, weil die Spannung schon am Minimum ist. Zen 3+ muss Alder Lake ja nicht gleich zersägen, aber der große MT-Vorsprung, den wir bei 80W+ sehen, könnte sich bei kleinen Verbräuchen mglw. ins leichte Gegenteil kehren.
dildo4u
2022-02-04, 12:18:13
Alder Lake Power skaling leider nur bis 35Watt runter.
https://youtu.be/OYvXx6x3AKc?t=812
MSABK
2022-02-04, 12:28:25
Die Effizienz interessiert mich mit am meisten bei APU Vergleichen.
Intel 7 vs. TSMC N6
ADL vs. Zen3++RDNA2
Wenn Intel mal ein Jahr lang im CPU Part 15% vorne liegt wird AMD einen scheiß tun von wegen Preise zu senken. Schon gar nicht in den aktuellen Zeiten.
Die gute MT Leistung von ADL macht die Geschichte erst interessant, wenn auch nur für eine bestimmte Zielgruppe interessant.
Preise senken brauchen sie nicht, nicht erhöhen würde schon langen. Intel wird da denke ich den Premium-Aufschlag nehmen weil sie Nr.1 sind.
basix
2022-02-04, 12:50:52
Bei zwei gleich-effizienten Architekturen hast du natürlich vollkommen Recht. Die Frage ist jetzt, ob Alder Lake den Effizienz-Rückstand von Tiger Lake aufholen konnte. Irgendwann bricht nach unten hin nur noch der Takt ein, weil die Spannung schon am Minimum ist. Zen 3+ muss Alder Lake ja nicht gleich zersägen, aber der große MT-Vorsprung, den wir bei 80W+ sehen, könnte sich bei kleinen Verbräuchen mglw. ins leichte Gegenteil kehren.
Da hast du vollkommen recht. Und wie gesagt, momentan wissen wir nicht genau, wie weit runter Alderlake skaliert.
Alder Lake Power skaling leider nur bis 35Watt runter.
https://youtu.be/OYvXx6x3AKc?t=812
Hier gibt es bis runer 5W, allerdings nur mit dem Desktop Die auf 4x Cores beschränkt und Renoir im Vergleich
Edit:
Leo hatte mal was verlinkt gehabt. Das Diagramm ist aber etwas ungeschickt, da es die System Power abbildet. Die Leistungsaufnahme der CPU ist als Wert in die Grafik geschrieben. Anhand dieser Werte würde ich einem 12700 zwischen 10-35W einen Gleichstand mit einem 5700G attestieren, leichter Vorteil Intel. Der Renoir mit Zen 2 übertrifft beide aber bei weitem
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12903747#post12903747
Der_Korken
2022-02-04, 13:22:12
Hier gibt es bis runer 5W, allerdings nur mit dem Desktop Die auf 4x Cores beschränkt und Renoir im Vergleich
Edit:
Leo hatte mal was verlinkt gehabt. Das Diagramm ist aber etwas ungeschickt, da es die System Power abbildet. Die Leistungsaufnahme der CPU ist als Wert in die Grafik geschrieben. Anhand dieser Werte würde ich einem 12700 zwischen 10-35W einen Gleichstand mit einem 5700G attestieren, leichter Vorteil Intel. Der Renoir mit Zen 2 übertrifft beide aber bei weitem
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12903747#post12903747
Wenn man sich im letzten Bild mal nur die Steigung anguckt und den Achsenabschnitt wegen Board-Verbrauch u.ä. rausnimmt, sieht es für mich so aus, als wären Renoir und Cezanne bis 30W ungefähr gleich, danach läuft Cezanne erst etwas später in die Verbrauchswall, weil die Zen-3-Kerne etwas fetter sind. Der 12700 ist bis 25W etwas schlechter als beide, danach etwa Gleichstand und ab 35W skaliert er deutlich besser als der 5700G. Bei dem Link zu HWU sieht man ganz gut, wie der Vorsprung von Alder Lake zu Zen 3 mit kleinerem Verbrauch immer weiter schrumpft. Wenn Rembrandt noch 10% Effizienz rausholen kann, würden sich die Kurven bei 28W ungefähr schneiden. Alder Lake H ist also eindeutig eine High-Performance-APU, da sieht AMD keinen Stich. Im U-Bereich könnte es spannend werden, weil da größtenteils Zen 3 vs Gracemont im MT gebencht wird.
basix
2022-02-04, 14:31:11
Wenn man sich im letzten Bild mal nur die Steigung anguckt und den Achsenabschnitt wegen Board-Verbrauch u.ä. rausnimmt, sieht es für mich so aus, als wären Renoir und Cezanne bis 30W ungefähr gleich, danach läuft Cezanne erst etwas später in die Verbrauchswall, weil die Zen-3-Kerne etwas fetter sind.
Die Steigung ist in Leos Bild sehr ähnlich ja, aber bis 15W zersägt Renoir die Konkurrenz. Da einfach generell -5...7W verbraucht wird. Wie gesagt, die Grafik ist ein wenig unglücklick. Das selbe Diagramm mit nur den CPU Wattagen sieht in etwa so aus (von Auge aus der Grafik extrahiert):
- 5700G mit einem leichten Vorteil zwischen 13-33W
- Darunter und darüber ist der 12700 etwas im Vorteil. Bei sehr hohen Wattagen gewinnt der 12700 aufgrund seiner höheren Anzahl Cores und Auslegung in Richtung High Performance Cores deutlich.
- Renoir spielt insbesondere bis 15W in einer eigenen Liga
Was ich mir dann bei Zen 4/5 APUs erhoffe: Ein paar Zen 4c/5c Cores für maximale Energieeffizienz bis 15W ;)
mboeller
2022-02-11, 10:59:13
quote: RIP 5800X3D
https://twitter.com/greymon55/status/1491981119905931273
???
dildo4u
2022-02-11, 11:52:33
AM5 kann nur DDR5 wenn die Preise nicht total einbrechen wird der 5800X3D noch ein "Deal" sein.
BlacKi
2022-02-11, 14:57:57
es wird keine 12 und 16 kerner mit 3D V-Cache auf am4 geben? und nur den 8 kerner? ist ganz an mir vorrübergegangen... da frag ich mich schon, warum sie die menge mit einem 12 kerner angeheizt haben...
https://dtechted.com/tsmcs-3d-tech-supply-manufacturing-issues-may-cause-limited-amd-ryzen-7-5800x3d-supply/
amdfanuwe
2022-02-11, 15:14:52
es wird keine 12 und 16 kerner mit 3D V-Cache auf am4 geben? und nur den 8 kerner? ist ganz an mir vorrübergegangen... da frag ich mich schon, warum sie die menge mit einem 12 kerner angeheizt haben...
https://dtechted.com/tsmcs-3d-tech-supply-manufacturing-issues-may-cause-limited-amd-ryzen-7-5800x3d-supply/
AMD did show a prototype Ryzen 9 5900X3D last year but that is not the priority. The prototype which was shown by AMD featured 3D Stacking on a single stack, and that also introduces the query of what if AMD had just enabled Ryzen 9 5900X and 5950X with just a single 3D stacked CCD,
Was schreiben die denn da für einen Blödsinn?
Lisa hatte einen Ryzen mit 2 Chiplets in die Kamera gehalten, wo bei einem Chiplet zur Verdeutlichung der 3D Cache freigelegt war.
Angesagt war, dass es 3D-Cache nur für High End geben sollte, weshalb alle auf 5900 und 5850 getippt haben.
dildo4u
2022-02-11, 15:19:21
AMD hatte das mal erklärt der Vorteil des 3D Cache wird gemindert wenn man ihr auf zwei Chips aufteilt.
https://youtu.be/ha_U8rrxvyE?t=1353
BlacKi
2022-02-11, 15:26:41
pcgamer schreibt:
AMD did previously demonstrate a 5900X prototype, but according to Digitimes, manufacturing limitations are likely behind the reason we’ll only be seeing the 5800X3D for now.
weiter:
Manufacturing capacity is the bottleneck.
und nennen sie deshalb:
limited edition
:biggrin:
tja, wenn die cpu im frühling kommt, also frühesten märz, dann nochmal monate warten bis ein 12/16 kerner kommt?
es gibt sicher ein paar am4 user die dann vl nochmal zugreifen, aber ob das aus amds sicht wirklich sinn macht? IDK
Blediator16
2022-02-11, 15:36:08
Digitimes als seriöse Quelle zu sehen ist sportlich.
Thunder99
2022-02-11, 17:20:08
AMD hatte das mal erklärt der Vorteil des 3D Cache wird gemindert wenn man ihr auf zwei Chips aufteilt.
https://youtu.be/ha_U8rrxvyE?t=1353
Wie schaut es bei den Servern aus? Milan X?
Nightspider
2022-02-11, 17:22:24
Die werden nicht so extrem Latenzkritisch sein denke ich.
Die Latenzen zwischen den Dies wird da nicht so drastische Auswirkungen haben wie beispielsweise beim Zocken.
BlacKi
2022-02-11, 17:52:06
Wie schaut es bei den Servern aus? Milan X?
dort wird das genauso aussehen, richtig mieße gaming performance:biggrin:
Blediator16
2022-02-11, 19:06:15
dort wird das genauso aussehen, richtig mieße gaming performance:biggrin:
Nichts was etwas Wasser und OC lösen könnte ;D
Denniss
2022-02-12, 03:18:41
Für Spiele will man viel schnellen L3, Server mögen Unmengen an L3 der dafür aber einen Tacken langsamer sein kann
Thunder99
2022-02-12, 11:31:33
Für wann sind kaufbare Rembrandt U Notebooks angekündigt?
OgrEGT
2022-02-13, 10:14:20
Müsste der 5800X3D nicht auch mal bald in freier Wildbahn auftauchen?
dildo4u
2022-02-13, 10:26:35
Ich glaube nicht das die zum testen versendet werden.
AMD wird drauf geachtet haben das das Ding genau so viel Strom zieht wie der 5800X, daher brauchen die Mainboard Hersteller nur den nötigen Microcode aber nicht den Chip.
davidzo
2022-02-14, 13:20:57
Bei zwei gleich-effizienten Architekturen hast du natürlich vollkommen Recht. Die Frage ist jetzt, ob Alder Lake den Effizienz-Rückstand von Tiger Lake aufholen konnte.
Ich denke das muss man getrennt betrachten, Golden Cove und Gracemont. Und die Desktop CPUs sind in beiden Fällen über den sweetspot getaktet, das werden wir bei mobile CPUs hoffentlich nicht haben.
https://chipsandcheese.com/2022/01/28/alder-lakes-power-efficiency-a-complicated-picture/
Wie es aussieht ist Golden Cove zwar schneller, bzw. skaliert gut nach oben, hat aber bei 1Ghz nur eine Effizienz vergleichbar zu Skylake. Das ist sehr peinlich, vor allem wenn man den Fertigungsrückstand berücksichtigt. Golden Cove ist also mit Sicherheit auch weniger effizient als Willow Cove.
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/01/image-22-1.png?ssl=1
Gracemont ist bei niedrigen Taktraten zwar effizienter als Golden Cove, allerdings immer noch deutlich hinter Renoir. Und Zen2 hat nicht das Malus bei FPU-lastigen Anwendungen, wo Gracemont plötzlich von golden cove in der Effizienz geschlagen wird.
money quote:At the high end of its power range, Zen 2 looks like a better version of Gracemont. It scales further, and does much better with vector workloads.
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/01/image-28-1.png?ssl=1
Und das ist ein Desktop 3950X, der taktet auch oberhalb des sweetspots! Mit Renoir sieht das nochmal viel trauriger für Intel aus, da ist Gracemont noch weiter abgeschlagen im low power bereich.
Mobile and desktop Zen 2 have very different power characteristics. It’s almost like Golden Cove and Gracemont. In Renoir form, Zen 2 scales down very well to low power levels. It beats both of Alder Lake’s microarchitectures below 15 watts of core power, and beats Gracemont at all core power levels.
Da Renoir bei niedrigeren Taktraten aber auch Zen3 schlagen kann, muss das noch nicht viel für Rembrandt heißen.
AMD hat aber anscheinend einen höheren Grad an Prozess und Core Customization zwischen desktop und mobile als Intel, die dieselbe Architektur und Prozess bringen.
Da Cezanne im mobile gewisse Regressionen brachte rechne ich damit dass man diese Handbremse bei Zen3+ als reinen mobile Core wieder gelöst hat.
Letzendlich haben sich die Alderlake-P Leaks mit +20% Singlecore Lead und +30-40% Multicore auf einen Ryzen 9 nicht bewahrheitet. Das waren wohl keine echten Leaks, sondern mal wieder sehr effektive Strohfeuer von Intels Marketing, entstanden auf stark übertakteten Maschinen im Labor.
220Watt TDP in einem labtop? Cmon das ist doch keine News wert:
https://www.notebookcheck.com/Intel-Core-i9-12900HK-Geleakte-Performance-mit-einem-30-Prozent-Boost-gegen-Ryzen-9-5900HX-und-Tiger-Lake.593352.0.html
In der Realität sind es bei CB gerade mal 13% Singlethread und 10% Multithreaded die ein 12900Hk mit 65/135W) vor einem Ryzen 9 5900HX bzw. 5980HS liegt. https://www.computerbase.de/2022-02/intel-core-i7-12700h-test/2/
Bei der niedrigeren TDP in einem durchschnittlichen non-gaming Notebook, also 35-45Watt, wird Alderlake-P vielleicht noch knapp die Singlecorekrone halten, aber im MT selbst gegenüber Renoir und Cezanne schon hinten liegen.
Rembrandt wird mit DDR5 und etwas mehr Takt Singlecore recht nah heranrobben und mit sinnvollen TDPs im Multicore wieder ähnliche Abstände einführen wie wir von Renoir/Cezanne vs Tigerlake gewohnt sind.
Intels Marketing wird natürlich einige handübertaktete Geräte zu allen Testern schicken damit die feststellen können dass "Intel im mobile wieder vorne liegt", aber das Gros der Geräte mit ADL-P wird wohl wieder mal langsamer und energiefressender sein als ein vergleichbares Gerät mit Rembrandt.
Bei der niedrigeren TDP in einem durchschnittlichen non-gaming Notebook, also 35-45Watt, wird Alderlake-P vielleicht noch knapp die Singlecorekrone halten, aber im MT selbst gegenüber Renoir und Cezanne schon hinten liegen.
Komisch, das ein 12700H mit 45W nur 7% hinter einem 5980HS mit 80W liegt im CB Test :freak:
https://www.computerbase.de/2022-02/intel-core-i7-12700h-test/2/#abschnitt_benchmarks_in_anwendungen
Du siehst das alles sehr rosig für AMD und wie immer äußerst negativ für Intel.
davidzo
2022-02-14, 14:06:17
Komisch, das ein 12700H mit 45W nur 7% hinter einem 5980HS mit 80W liegt im CB Test :freak:
https://www.computerbase.de/2022-02/intel-core-i7-12700h-test/2/#abschnitt_benchmarks_in_anwendungen
Du siehst das alles sehr rosig für AMD und wie immer äußerst negativ für Intel.
Bla bla, du hast dir nichtmal die Mühe gemacht den von dir verlinkten Artikel zu lesen geschweige denn birnen zu birnen vergleiche herauszusuchen.
TDP ist nicht Verbrauch!
Guck dir doch die Graphen bei CB auf der ersten Seite an, dann siehst du dass der 35/60W 12700H in Blender die Hälfte der zeit exakt 60W verbraucht und der angebliche "80Watt" 5980HS mit 64Watt anfängt und im Laufe des Runs auf 50Watt fällt.
Die Beschriftung der Balken in den CB Diagrammen sagt rein gar nichts über die verbrauchte Energie eines Runs aus.
Der 5980HS steckt übrigens in einem 13" Notebook und ist TDP limitiert während der 12700H in einem dicken gaming Desktop replacement mit 15" steckt. Wenn du dir die Mühe gemacht hättest den 35Watt test des 5980HS zu rechrchieren, dann hättest du gesehen dass die CPU dort bei tatsächlichen 35Watt Dauerverbrauch nur 7% langsamer ist als mit dem 80/65W/55W setting: https://www.computerbase.de/2021-06/asus-rog-flow-x13-xg-mobile-test/2/#abschnitt_cpuleistung_in_anwendungen
Im Gegensatz zum 12700H aber viel sparsamer, weil sie nicht den halben test lang mit 60Watt läuft. Selbst die 42/65W Einstellung ist beim xflow13 in dem Test immer noch sparsamer als die 35/60W Einstellung beim Neo15.
Und meine Rede ist von realistischen Lastverbräuchen um die 35-45Watt. Nix 60Watt oder 80Watt, das sind völlig unrealistisch Verbräuche für normale Alltagsgeräte.
35W, das ist ein Mittelwert für normale Notebooks die nicht gerade Gamingboliden mit riesigen Netzteilen und lauten Kühllösungen sind die man nicht gern herum schleppt. Btw, in der Hälfte der normalen Alltagsgeräte stecken bestimmt sogar nur 15Watt Kühllösungen. nach einem kurzen Turbo ist da Sense.
Und da ist Alderlake auch mit Gracemont einfach nicht konkurrenzfähig, da die E-Cores effizienztechnisch selbst gegen Zen2 "big Cores" noch anstinken.
fondness
2022-02-14, 14:11:41
Komisch, das ein 12700H mit 45W nur 7% hinter einem 5980HS mit 80W liegt im CB Test :freak:
https://www.computerbase.de/2022-02/intel-core-i7-12700h-test/2/#abschnitt_benchmarks_in_anwendungen
Du siehst das alles sehr rosig für AMD und wie immer äußerst negativ für Intel.
Ein 5980HS skaliert über 45W halt auch praktisch gar nicht mehr. Eigentlich schon über 35W. Aber klar kann man auch mobile Chips mit 100W und mehr testen, dann steht Intel gut da.
davidzo
2022-02-14, 14:23:59
Ein 5980HS skaliert über 45W halt auch praktisch gar nicht mehr. Eigentlich schon über 35W. Aber klar kann man auch mobile Chips mit 100W und mehr testen, dann steht Intel gut da.
Ja und selbst bei "35W TDP" läuft der 11700H die Hälfte der Testzeit mit 60Watt.
Intel cheated im mobile die letzten Generationen extrem mit der TDP bzw. TAU, was sich nur zeigt wenn Tests konsequent auch die verbrauchte Energie messen, was leider kaum einer macht oder spätestens an den Akkulaufzeiten. Die sind nämlich schon seit Icelake im Keller.
Anandtech sind einige der Wenigen die manchmal die Energieverbräuche in Joule für Benchmark Tasks mit messen.
Das aber leider kein Randzenario neben der absoluten Performance, sondern Energieeffizienz ist nunmal das wichtigste für ein Mobilgerät. Es ist entscheidend ob ich nach einem bestimmten Task noch 90% oder nur noch 70% Energie in meinem Akku habe. Das Entscheidet im worstcase darüber ob ich mein Netzteil mit zur Arbeit nehmen muss oder nicht, ob ich unterwegs eine Steckdose suchen muss oder Produktiv bleiben kann. Ob ich den Labtop auch mal auf den Knien haben kann oder ob das zu heiß wird. Benchmarkpunkte sind ist da nur am Rande interessant bei einem wirklichen mobilen Alltagsgerät.
Bla bla, du hast dir nichtmal die Mühe gemacht den von dir verlinkten Artikel zu lesen geschweige denn birnen zu birnen vergleiche herauszusuchen.
Vielleicht stellt dich das zufriedener: https://youtu.be/OYvXx6x3AKc?t=812
Allerdings passt das nicht zu deiner Behauptung, Renoir und Cezanne wären schneller als ADL-P bei 35-45W. Die Ryzen skalieren tatsächlich sehr schlecht oben raus, weswegen die performance dann doch stark zurückhängt, wenn mit entspechender power gefahren wird.
Dein chipsandcheese Link ist übrigens ganz interessant an dieser Stelle.
Please take power measurements in this section with a grain of salt. Research suggests that AMD doesn’t have power measurement hardware, which limits the accuracy of their RAPL counters:
The results indicate that the energy data is modeled, not measured….this does not necessarily imply that RAPL readouts are wrong. But it shows that they cannot be used to accurately estimate and therefore optimize for total system power, as opposed to Intel systems since Haswell.
Denniss
2022-02-15, 13:32:37
Es ist doch schon lange bekannt das die mobilen AMD im Bereich bis ~60W schnell und sparsam sind aber höhere Powerbudgets nur in wenig Mehrleistung umwandlen können. Sind halt nicht für maximales Vollgas entwickelt sondern für möglichst sparsam.
Bei Intel skalierte schon Tigerlake mit moar Power gut obenraus sofern man es kühlen konnte. ADL wird ähnlich sein. Da zeigt der 10nm prozess halt immer noch schwächen bzw die Auslegung der CPU ist halt nicht auf den Niedrigwattbereich ausgerichtet.
Der_Korken
2022-02-15, 14:14:31
Vielleicht stellt dich das zufriedener: https://youtu.be/OYvXx6x3AKc?t=812
Das Power Scaling ist hier nicht gut vergleichbar, weil der 12700H mit 6+8 Kernen läuft, während der Rest 8+0 hat. Bei MT kann der 12700H also kleinere Taktraten fahren als die Konkurrenz bei gleichem Verbrauch. Um was über die Architektur zu sagen, hätte man alle Modelle als 6+0 laufen lassen müssen als kleinsten gemeinsamen Nenner.
dildo4u
2022-02-17, 15:32:56
Alienware X14 Alderlake vs Asus G14 6900HS.
S5iXvDAwNVI
Kt6JWVPtVc4
mironicus
2022-02-17, 15:57:08
Intel hat schon verloren. Effizienz, Laufzeiten... :)
wNSFKfUTGR8
Linmoum
2022-02-17, 16:07:14
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/58093-deep-dive-was-genau-hinter-der-ryzen-6000-serie-steckt.html
Noch ein paar Slides und weitere Infos zu Rembrandt als das, was bisher (offiziell) bekannt ist.
Blediator16
2022-02-17, 16:34:40
Ich hatte mich schon gefragt wo diese Zerstörung durch big.little bleibt. Falsche Schublade vielleicht?
vinacis_vivids
2022-02-17, 16:43:00
Geile SOCs und relativ konkurrenzlos. Vor allem weil die SOCs nicht nur Office-PC Aufgaben abdecken, sondern auch einen Bereich der einfachen Games und Apps, die 3D-Leistung brauchen. Mit Rembrandt sind die Aussichten hervorragend für AMD nun endlich auch im Mobile-Bereich krass zu expandieren.
mironicus
2022-02-17, 16:46:32
Genau! Gerade für kleine Laptops nur mit Onboard-Grafik im unter 1000 Euro-Bereich kann man Intel gar nicht mehr empfehlen.
MSABK
2022-02-17, 16:47:40
Sehr gute APU, nur die mobilen Radeons enttäuschen mich ein bisschen. Die hätten den 6800 lieber 6700 nennen sollen. 6800 ist nämlich eine Liga darüber. Die 6800S hat auch nur 8GB, dachte das sind 10GB oder 12GB?
Freue mich schon auf Lenovo Geräte mit 14 Zoll und 120Hz.
Edit: Cyberpunk 1080p mit iGPU und Medium 27fps, da sollte mit FSR mehr gehen.:)
Das neue G14 scheint ein gutes Gerät zu werden mit dem 16:10 Bildschirm, das Lenovo Legion 5 Pro ist mir einen Tick zu groß, da könnte das G14 eine gute Alternative sein.
Weiß jemand ob der interne Bildschirm mit FreeSync läuft? Geht auch über HDMI FreeSync auf dem externen Schirm?
mironicus
2022-02-17, 17:08:26
Der Bildschirm hat Adaptive Sync.
https://hothardware.com/Image/Resize/?width=1170&height=1170&imageFile=/contentimages/Article/3187/content/big_ryzen-6000-zephyrus-g14-2022-1.jpg
Review: https://hothardware.com/reviews/amd-ryzen-6000-asus-zephyrus-g14-2022-review
dildo4u
2022-02-17, 17:21:56
2.5K krank sind das sind Razor Preise.
https://www.theverge.com/22938516/asus-rog-zephyrus-g14-gaming-laptop-review
mironicus
2022-02-17, 17:22:51
Kann bei Asus hier vorbestellt werden in der größten Version mit 32 GB für 2299 Euro. Auslieferung ab Ende März.
https://estore.asus.com/de/rog/90nr09u3-m008j0.html
MSABK
2022-02-17, 17:27:56
Da hat AMP endlich mal fast eine komplette Plattform, fehlt nur noch TB4, brauche ich aber nicht.
Ja, das G14 ist teuer, vor allem 2299€ und die GPU hat nur 8GB, da hätte ich schon min 10GB erwartet. Aber sehr interessantes Gerät. Die iGPU ist aber der Wahnsinn, da sollte man jetzt auch mit Geräten ohne dGPU paar Spiele gut spielen können.
mironicus
2022-02-17, 17:29:44
Das neue Razer Blade 14 mit Ryzen 6000 ist viel teurer. 2900 und 3800 Euro und nur 16 GB RAM, dafür eine 3070/80 Ti.
https://www.amazon.de/Razer-Blade-AMD-Gaming-Laptop-CNC-Aluminium-Layout/dp/B09Q67JWXB/
https://www.amazon.de/Razer-Blade-AMD-Gaming-Laptop-CNC-Aluminium-Layout/dp/B09Q67D4FM/
basix
2022-02-17, 18:44:00
Da hat AMP endlich mal fast eine komplette Plattform, fehlt nur noch TB4, brauche ich aber nicht.
USB 4.0 = TB4, wenn komplett alles umgesetzt.
y33H@
2022-02-17, 20:05:33
Review: https://hothardware.com/reviews/amd-ryzen-6000-asus-zephyrus-g14-2022-reviewOhne Angaben zur Package Power leider wertlos.
VooDoo7mx
2022-02-17, 21:50:34
Da hat AMP endlich mal fast eine komplette Plattform, fehlt nur noch TB4, brauche ich aber nicht.
Ja, das G14 ist teuer, vor allem 2299€ und die GPU hat nur 8GB, da hätte ich schon min 10GB erwartet. Aber sehr interessantes Gerät. Die iGPU ist aber der Wahnsinn, da sollte man jetzt auch mit Geräten ohne dGPU paar Spiele gut spielen können.
Also 2300€ sind voll in Ordnung für das was man bekommt. Nicht sonderlich günstig aber vollkommen ok.
Und da das Teil nur ein Navi 23 ist, wie soll denn da bitte 10GiB VRAM gehen? Mit den aktuell verfügbaren Speicherchips geht nur 4 oder 8GiB VRAM.
Einmal vorm posten nachdenken.
-------------------------
Von den neuen 2022er 14" Notebooks (Asus G14, Alienware X14, Razer Blade 14) gefällt mir das G14 mit großen Abstand am besten. Besonders auch wegen den 16:10 Display. Leider nur maximal Navi 23, keine NV GPU. und wieder mal miese Lautsprecher.
Ich werde mal schauen ob ich ein 2022er Legion 5 Pro mit Ryzen und 3070Ti zu einen guten Preis bekomme. Ansonsten bleib ich bei meinen 2021er pro mit 5800H und 3060.
Ohne Angaben zur Package Power leider wertlos.
Man sollte eben nicht solche Reviewer überfordern. :ugly:
Wird schon seinen Grund haben warum solche Leute immer die neusten High End Geräte Monate vor allen anderen zum "testen" bekommen. :ugly:
basix
2022-02-17, 22:07:31
Habe gerade die Folien bei HWLuxx durchgeschaut. Displayport 2 scheint nur UHBR10 zu unterstützen, was 40 Gbps bedeutet. Schade, DP 2.0 ginge bis 80 Gbps.
MSABK
2022-02-17, 22:25:26
Also 2300€ sind voll in Ordnung für das was man bekommt. Nicht sonderlich günstig aber vollkommen ok.
Und da das Teil nur ein Navi 23 ist, wie soll denn da bitte 10GiB VRAM gehen? Mit den aktuell verfügbaren Speicherchips geht nur 4 oder 8GiB VRAM.
Einmal vorm posten nachdenken.
-------------------------
Von den neuen 2022er 14" Notebooks (Asus G14, Alienware X14, Razer Blade 14) gefällt mir das G14 mit großen Abstand am besten. Besonders auch wegen den 16:10 Display. Leider nur maximal Navi 23, keine NV GPU. und wieder mal miese Lautsprecher.
Ich werde mal schauen ob ich ein 2022er Legion 5 Pro mit Ryzen und 3070Ti zu einen guten Preis bekomme. Ansonsten bleib ich bei meinen 2021er pro mit 5800H und 3060.
Man sollte eben nicht solche Reviewer überfordern. :ugly:
Wird schon seinen Grund haben warum solche Leute immer die neusten High End Geräte Monate vor allen anderen zum "testen" bekommen. :ugly:
Hmm ok. Dachte der hat eine Navi 22 verbaut. Weil die 6700M hattr 10GB und 6800M 12GB. Bei dem Preis hätten die locker mal Navi 22 verbauen können.
Linmoum
2022-02-17, 22:34:45
Habe gerade die Folien bei HWLuxx durchgeschaut. Displayport 2 scheint nur UHBR10 zu unterstützen, was 40 Gbps bedeutet. Schade, DP 2.0 ginge bis 80 Gbps.
https://i.gyazo.com/4a494ab36a63c9061a8c2347627653ee.png
Wahrscheinlich deswegen erstmal nur UHBR10. Oder hat sich daran mittlerweile etwas geändert?
MSABK
2022-02-18, 11:02:13
USB 4.0 = TB4, wenn komplett alles umgesetzt.
Die Frage ist halt, wie viele Hersteller das so umsetzen werden.
basix
2022-02-18, 11:28:49
Wenn der SoC das unterstützt, müssen da die OEM-Partner noch was machen? Zusätzliche Komponenten aufs PCB?
Zumindest habe ich AMDs Folien so verstanden, dass Rembrandt das volle USB 4.0 Programm liefert. Und TB wird bei vielen Business Notebooks verwendet (zum Beispiel alle Thinkpads).
bloodflash
2022-02-19, 01:19:14
Auf USB 4 bin ich auch gespannt.
Laut Dell geht das auch an einem Ryzen 5700u oder 5500u (Mit welchen Chips?):
"1 USB 4.0 Typ-C™ (voller Funktionsumfang)"
https://www.dell.com/de-de/work/shop/dell-notebooks/inspiron-14-2-in-1/spd/inspiron-14-7415-2-in-1-laptop
KarlKastor
2022-02-19, 04:17:41
Zumindest habe ich AMDs Folien so verstanden, dass Rembrandt das volle USB 4.0 Programm liefert.
Welche Folien sollen das sein?
Wenn es TB4 wäre, würden sie es ja dran schreiben und nicht nur USB 4.0 nutzen, was ja alles mögliche sein kann.
Aber auf diese Folie steht zumindest 40 Gbps. Das ist schon mal eine gute Nachricht.
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcT-mIvo3CZxnEFCMQZ8eYsMjM1D5t55N_8waQ&usqp=CAU
Da steht auch UHBR10. Kein so großer Beinbruch in meinen Augen. Ich würde mir mehr Gedanken machen warum da DP 2.0 ready steht.
SimonGreen
2022-02-19, 07:32:40
Nach aktuellen Meldungen:
Was meint ihr?
Mit welcher (älteren) NV/AMD Desktop Grafikkarte könnte man die Grafikleistung eines 6800u mit LPDDR5 6400 vergleichen?
dildo4u
2022-02-19, 07:48:48
Gibt bisher nur Tests mit dem 35Watt Modell Plus 4800 RAM.(Asus G14)
Es scheinen noch keine Ultra Books im Umlauf zu sein.
IGP im G14 2400 Timespy
https://www.pcworld.com/article/615591/tested-5-key-things-to-know-about-amds-ryzen-9-6900hs.html
1050 Ti 2400
https://benchmarks.ul.com/de/hardware/gpu/NVIDIA+GeForce+GTX+1050+Ti+review
R9 280x 2340
https://benchmarks.ul.com/hardware/gpu/AMD+Radeon+R9+280X+review
MSABK
2022-02-19, 09:00:07
Nach aktuellen Meldungen:
Was meint ihr?
Mit welcher (älteren) NV/AMD Desktop Grafikkarte könnte man die Grafikleistung eines 6800u mit LPDDR5 6400 vergleichen?
Ist LPDDR5-6400 schneller als DDR5-4800?
KarlKastor
2022-02-19, 10:10:27
Deutlich mehr Bandbreite, warum also nicht?
Bei der CPU kann es wieder anders aussehen. LPDDR hat höhere Latenzen.
basix
2022-02-19, 16:23:41
Welche Folien sollen das sein?
Wenn es TB4 wäre, würden sie es ja dran schreiben und nicht nur USB 4.0 nutzen, was ja alles mögliche sein kann.
Aber auf diese Folie steht zumindest 40 Gbps. Das ist schon mal eine gute Nachricht.
https://encrypted-tbn0.gstatic.com/i..._8waQ&usqp=CAU
Diese hier + Eine Gegenüberstellung von Thunderbolt mit USB 4.0:
Fully supports any external device protocol compatible with the USB 4.0 Spec
Thunderbolt 4 is USB 4 with all the trimmings.
https://www.techpowerup.com/img/up4E7ejjDLpEqrZr.jpg
https://photos5.appleinsider.com/gallery/37296-69994-thunderbolt4-comparison-chart-xl.jpg
Das kritische hier sind die 40 Gbps sowie PCIe 4.0 Support (was PCIe 32 Gbps von Thunderbolt enstpricht). Evtl. ist es am Schluss "nur" Thunderbolt 3.0, grundsätzlich wäre die Performance von Thunderbolt 4.0 aber wohl gegeben. Wenn zudem "any protocol" steht, würde ich zudem von Thunderbolt ausgehen. Ausser die USB 4.0 Spezifikation sagt rein gar nichts über Thunderbolt und dessen Protokolle aus, dann müsste man genauer nachschauen.
Da steht auch UHBR10. Kein so großer Beinbruch in meinen Augen. Ich würde mir mehr Gedanken machen warum da DP 2.0 ready steht.
UHBR10 ist DP 2.0. Das gibt es mit früheren DP Versionen gar nicht. Das DP 2.0 ready bezieht sich hier auf die USB 4.0 Schnittstelle (DP 2.0 via USB-C Stecker).
Ist LPDDR5-6400 schneller als DDR5-4800?
8-15% Vorsprung in dem Test für die iGPU.
https://zhuanlan.zhihu.com/p/402834470
fondness
2022-02-19, 17:14:18
Intel hat schon verloren. Effizienz, Laufzeiten... :)
https://youtu.be/wNSFKfUTGR8
Also hilft Intel auch ADL nicht wirklich, bis 50W ist es halbwegs ausgeglichen, ab 30W wirds ein Blutbad. Interessant wären noch 15W gewesen, wobei man sich das Ergebnis denken kann.
https://i.postimg.cc/R0dB2qc3/Screenshot-2022-02-19-171234.png (https://postimg.cc/yJDtZ1pB)
Mayhem
2022-02-19, 19:29:51
Das können doch auch einfach nicht korrekt gepflegte Spannungnen/Konfigurationen sein. Big.Little ist doch im Desktop noch relativ neu.
dildo4u
2022-02-19, 19:43:34
Intel nutzt nicht umsonst nur 2P Cores im 15 Watt Bereich.
Das HK Modell ist für Desktop Replacements gedacht die 100Watt Kühlen können.
Ich denke nicht das es unbedingt negativ für Intel ist das sie extra 2 + 8 Cores Dies haben, die vermutlich deutlich kleiner sind als Ryzen 6000.
Thunder99
2022-02-19, 19:56:12
Blöd nur für Intel, dass dann die Performance darunter leidet.
Kann es kaum erwarten wenn die 15-28W 14" Notebooks erscheinen
MSABK
2022-02-19, 20:57:13
Was bedeutet auf der USB4 Folie eGFX Accelerators, externe Gpu?
MSABK
2022-02-19, 23:31:30
8-15% Vorsprung in dem Test für die iGPU.
https://zhuanlan.zhihu.com/p/402834470
Da bin ich mal gespnnt was die Hersteller verbauen werden. Denke eher weniger LPDDR5-6400.
mironicus
2022-02-20, 08:46:13
Könnten zwei gleichzeitig aktivierte RDNA2-GPUs (intern, diskret) in einem AMD-Laptop mit Ryzen 6000 im Tandem eigentlich noch sinnvoller genutzt werden? Also z.B. Multi GPU-Arbeiten beschleunigen?
dildo4u
2022-02-20, 08:52:34
Das muss vom Game untersützt werden mit ein Grund warum Crossfire gestorben ist sobald DX12/Vulkan genutzt wird kann AMD keine Multi GPU Profile mher per Treiber anfertigen.
Krank ist schon 6 Jahre her.
https://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/4
KarlKastor
2022-02-20, 09:04:02
Diese hier + Eine Gegenüberstellung von Thunderbolt mit USB 4.0:
Danke. Wurde kaum irgendwo gezeigt.
Das kritische hier sind die 40 Gbps sowie PCIe 4.0 Support (was PCIe 32 Gbps von Thunderbolt enstpricht). Evtl. ist es am Schluss "nur" Thunderbolt 3.0, grundsätzlich wäre die Performance von Thunderbolt 4.0 aber wohl gegeben. Wenn zudem "any protocol" steht, würde ich zudem von Thunderbolt ausgehen.
Hört sich schon gut an. Vielleicht muss man sich eher Gedanken machen was an USB Transferrate unterstützt wird.
USB 4 bei Apple ist ja auch nur TB und für USB Geräte 10 Gbps.
UHBR10 ist DP 2.0.
Habe nie was anderes behauptet.
Das DP 2.0 ready bezieht sich hier auf die USB 4.0 Schnittstelle (DP 2.0 via USB-C Stecker).
Hätte ich dann zu USB geschrieben. Ergibt so wenig Sinn. Aber das ist ja bei Marketingfolien nicht unüblich.
Thunder99
2022-02-20, 09:28:35
Könnten zwei gleichzeitig aktivierte RDNA2-GPUs (intern, diskret) in einem AMD-Laptop mit Ryzen 6000 im Tandem eigentlich noch sinnvoller genutzt werden? Also z.B. Multi GPU-Arbeiten beschleunigen?
Es kann nur SAM beschleunigt werden, siehe Tests vom Asus Laptop auf CB
Corny
2022-02-20, 09:30:42
Da bin ich mal gespnnt was die Hersteller verbauen werden. Denke eher weniger LPDDR5-6400.
DDR5 vs LPDDR5 ändert nicht nur die Bandbreite, sondern auch die Aufrüstbarkeit: LPDDR ist immer verlötet.
Tangletingle
2022-02-20, 09:48:18
Da ist man imho bei 16-32gb für die meisten workloads gerüstet. Soll es natürlich eine Maschine sein auf der massive Speicherlast vorliegt, dann sollte man das vor dem Kauf bedenken. Wer das braucht, dem ist es imho aber vorher bewusst.
MSABK
2022-02-20, 09:49:54
DDR5 vs LPDDR5 ändert nicht nur die Bandbreite, sondern auch die Aufrüstbarkeit: LPDDR ist immer verlötet.
Die Gaming-Geräte werden dann sicherlich DDR5-4800 haben. Da sollte das nicht so viel ausmachen, da immer eine dGPU vorhanden ist.
Aber die Slim Geräte, da wird es spannend zu sehen sein welchen LPDDR5 sie verbauen.
Corny
2022-02-20, 10:07:03
Das kann auch eine Frage der Verfügbarkeit sein. DDR5-Module sind aktuell schlecht lieferbar, da es Probleme mit der Verfügbareit der Powermanagement-Chips auf den Modulen gibt. Ich weiß nicht wie das bei LPDDR5 aussieht - wenn die Verfügbarkeit der dort notwendigen Komponenten besser ist, könnten uns viele LPDDR5-Geräte erwarten.
MSABK
2022-02-20, 10:11:44
Das G14 z.B hat einen Ram-Slot und DDR5, das hat mich bissi überrascht bei so einem kompakten Gerät. Hätte da eher verlöteten LPDDR5 erwartet.
fondness
2022-02-20, 11:30:08
Aktuell sind zwei Geräte gelistet, eins mit DDR5 und eins mit LPDDR5:
https://geizhals.eu/?cat=nb&xf=6763_Ryzen+6000
dildo4u
2022-02-20, 11:37:26
Die Razor 3800€ Konfig ist ja mal wieder totaler Blödsinn 170 Watt GPU auf 100 gebremst naja wenn sie sowas verkaufen gut für Razor.
Berniyh
2022-02-20, 11:39:45
DDR5 vs LPDDR5 ändert nicht nur die Bandbreite, sondern auch die Aufrüstbarkeit: LPDDR ist immer verlötet.
Macht doch eh praktisch niemand.
Würde mich wundern, wenn auch nur einer von tausend Laptops mal aufgerüstet würde. Vermutlich sind es noch deutlich weniger.
Nightspider
2022-02-21, 02:33:27
Uff wenn Intel aktuell schon gegen die 6nm APUs abstinkt wird es nächstes Jahr ein Blutbad geben wenn AMD auf TSMC N5 wechselt mit ~35% besserer Effizienz.
Nach den schlechten Low Power Ergebnissen von ADL finde ich Rembrandt doch sehr nice geraten.
Lange Laufzeiten bei Laptops sind einfach wichtig, gerade wenn die Performance in jeder Hinsicht stimmt.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.