PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25

Lehdro
2023-01-11, 16:47:19
Über den Taskmanager kann man ein Programm an bestimmte Kerne binden. Kannst auch mit start /affinity machen. Aber das ist halt alles Gefrickel hoch drei. Und start /affinity funktioniert nicht bei Spielen, die mit einem Launcher gestartet werden müssen.
Umgehungslösung (funktioniert zumindest in Black Desert Online): Dem Launcher vor dem Start des eigentlichen Spieles die entsprechenden Kerne zuweisen. Wird dann vom Spiel so übernommen.

aufkrawall
2023-01-11, 16:49:25
Der Thread Director muss ja lediglich Dumpfbacken-CPUs von sophisticated CPUs unterscheiden und nicht sophisticated CPU von a little less sophisticated CPU.

So einfach ist das nicht. Was da von Intel für den Scheduler des Linux-Kernels in Vorbereitung ist ("FOSS Thread Director"), ist offenbar auch ziemlich komplex.

Lehdro
2023-01-11, 16:52:18
So einfach ist das nicht. Was da von Intel für den Scheduler des Linux-Kernels in Vorbereitung ist ("FOSS Thread Director"), ist offenbar auch ziemlich komplex.
Der potenzielle Leistungsunterschied ist aber erheblich einfacher zu predicten als bei X3D vs non X3D. Klar, nicht unmöglich, aber nichtsdestotrotz schwerer. Deswegen ist das AMD Vorgehen auch so Banane, mit 2x X3D gäbe es das Problem halt überhaupt nicht.

Hakim
2023-01-11, 16:55:38
Sry wenn ich nachfrage, der Verständnishalber, taket dann auch der eine CCD mit Cache nicht so hoch wie der CCD ohne? Also muss man evt sogar bei Apps schauen das die bei dem CCD ohne Cache landen?

OpenVMSwartoll
2023-01-11, 16:57:53
Muss man halt 2x "Game Mode" im Ryzen Master implementieren.

maximus_hertus
2023-01-11, 17:17:24
Immer wieder lustig, dieses ganze "Weltuntergangsgeschwafel". Sorry, aber warum muss alles immer ins extreme und warum kotzt man sich schon ab, obwohl es nur halbgare Social Media Zitate gibt.

In 5 Wochen soll ja der "echte" Launch sein, bis dahin gibt es dann offizielle Infos mit allem, was dazu gehört. Dann kann man immer noch abkotzen. Aber so wirkt das leider nicht besonders toll um sinnvoll zu diskutieren.

Klar, wir spekulieren hier und es gibt ein Info-Häppchen, aber das ist doch kein Grund von Steinzeit etc. zu schreiben. Einfach einen kühlen Kopf bewahren und sich nicht von Emotionen leiten lassen :)

Der_Korken
2023-01-11, 17:23:22
Erklär doch mal wie so eine Heuristik arbeiten soll.

Performance-Counter, Speicherzugriffe pro 1000 Instruktionen, L3-missrate, durchschnittlicher Boost-Takt zur Laufzeit. Selbst mit ein paar händisch/empirisch ermittelten Thresholds dürfte da mehr rauskommen als bei "immer auf das Hochtakt-Chiplet". Listen kann man ja zusätzlich führen und die Heuristik greift nur dann, wenn die Anwendung nicht gelistet ist.

Zossel
2023-01-11, 18:16:44
Immer wieder lustig, dieses ganze "Weltuntergangsgeschwafel". Sorry, aber warum muss alles immer ins extreme und warum kotzt man sich schon ab, obwohl es nur halbgare Social Media Zitate gibt.



Welchen "halbgaren Social Media Zitate" meinst du?

Zossel
2023-01-11, 18:18:44
mit 2x X3D gäbe es das Problem halt überhaupt nicht.

Und das Thema wäre keins mehr.
Wahrscheinlich haben sich einige Unternehmensbewohner bei AMD in den letzten Jahren festgesetzt.

Nightspider
2023-01-11, 18:20:06
Es gibt ja ein paar wenige Spiele, die mehr als 8 Kerne bedienen können und bis zu 32 Threads spawnen lassen können, es wird interessant wie es sich da verhalten wird.

Ich kann mir vorstellen, dass die Game Engine und die Mainthreads auf dem V-Cache CCD laufen werden und die "unwichtigeren" Threads vom CCD ohne V-Cache noch gut genug bedient werden können.
Dennoch wird es interessant, ob in solchen Konfigurationen das CCD ohne V-Cache ausbremsen könnte. Erfahren würde man es aber wohl nur wenn man ein CPU Exemplar hätte, wo beide CCDs V-Cache besitzen würde, um einen Vergleich machen zu können.

Thunder99
2023-01-11, 18:32:21
Sry wenn ich nachfrage, der Verständnishalber, taket dann auch der eine CCD mit Cache nicht so hoch wie der CCD ohne? Also muss man evt sogar bei Apps schauen das die bei dem CCD ohne Cache landen?
Ja, da der Cache keine Hitze mag welches entsteht bei hohen Taktraten mit entsprechender VCore

Zossel
2023-01-11, 18:55:39
Ich kann mir vorstellen, dass die Game Engine und die Mainthreads auf dem V-Cache CCD laufen werden und die "unwichtigeren" Threads vom CCD ohne V-Cache noch gut genug bedient werden können.

Die ganze Spiele sind ja sowieso schlecht programmiert, und jetzt soll es solche Sonderlocken geben?

Zossel
2023-01-11, 18:56:19
So einfach ist das nicht. Was da von Intel für den Scheduler des Linux-Kernels in Vorbereitung ist ("FOSS Thread Director"), ist offenbar auch ziemlich komplex.

Wer von den Scheduler-Profis hier hat da schon Commits drin?

Linmoum
2023-01-11, 19:38:51
Deswegen ist das AMD Vorgehen auch so Banane, mit 2x X3D gäbe es das Problem halt überhaupt nicht.Kostet abseits von Spielen halt unnötig Leistung und macht vor allem Spiele ggü. eines 7800X3D auch nicht schneller in diesem Fall. Wie auch? Leute, die beides wollen/brauchen, gucken dann in die Röhre, weil ihnen (bis zu) 10-15% an Takt fehlt. Wird halt auch Spiele geben, in denen du mit >5.7GHz schneller bist, weil Cache eben nicht in jedem einzelnen Spiel durchschlägt.

Ich halte die beiden Großen immer noch für interessant, wenn man selbst keine Scheu hat, die Zuweisung je nach Spiel selbst festzulegen. Was im Übrigen auch wahrlich kein Hexenwerk ist. Mit AB switche ich auch ständig zwischen meinen Profilen, weil auch das, was ich da brauche, schlicht spieleabhängig ist.

Wie gut das für einfaches Plug&Play funktioniert und ob man da irgendwo spürbare Nachteile hat, wird man dann nächsten Monat sehen.

Ich frag mich ja immer noch, ob AMD hier grundsätzlich nur 8C CCDs nimmt (und damit 8C+4C beim 7900X3D), oder ob es da bei 6+6 bleibt.

Nightspider
2023-01-11, 19:45:34
Die ganze Spiele sind ja sowieso schlecht programmiert, und jetzt soll es solche Sonderlocken geben?

Ich bin mir nicht sicher ob ich verstehe, wie du das meinst.

Lurtz
2023-01-11, 21:52:54
Ich bin mir nicht sicher ob ich verstehe, wie du das meinst.
Dass niemand sich den Aufwand machen wird, solche spezifischen Anpassungen zu pflegen.

Zossel
2023-01-12, 07:05:00
Es gibt ja ein paar wenige Spiele, die mehr als 8 Kerne bedienen können und bis zu 32 Threads spawnen lassen können, es wird interessant wie es sich da verhalten wird.

Ich bin da skeptisch, wenn man sich da anschaut was Intel da für einen Aufriss betreibt.
Und AMD würde sich wirklich keinen Zacken aus der Krone brechen wenn es ein Modell mit 2* Extra-Cache anbieten würde.

Linmoum
2023-01-12, 09:26:30
Wenn man Kosten/Nutzen ignoriert, dann nicht. Was AMD aber halt schon länger nicht mehr tut.

In Anwendungen fällt man damit hinter einen 7900X/7950X zurück und in Spielen hat man dadurch keinen Vorteil mehr gegenüber einem 7800X3D, weil die paar hundert MHz Taktvorteil, die beide gegenüber dem 7700X noch haben, dann auch Geschichte sind.

MSABK
2023-01-12, 09:43:17
Ja mai, mal abwarten was die Tests zeigen. Ist doch jetzt alles kein Grund für nen Weltuntergang. Der 7800X3d wird schon gut werden und die zwei anderen 3d haben halt eine andere Zielgruppe. Da wird man sicherlich bissi unter der MT Leistung von den non 3d Varianten sein.

dildo4u
2023-01-12, 09:51:53
Ich sehe auch nicht wo man Argumentieren kann das Intel die bessere Lösung hat, Windows muss einfach lernen mit Hybrid umzugehen schon damit Apple sie im Notebook Markt nicht komplett ersetzt.(Non Gameing)
Aktuell scheinen Qualcomm und Apple immer eine Generation weiter, dieses Jahr sollte es SOC in 3nm geben.

Exxtreme
2023-01-12, 09:59:01
Ich sehe auch nicht wo man Argumentieren kann das Intel die bessere Lösung hat, Windows muss einfach lernen mit Hybrid umzugehen schon damit Apple sie im Notebook Markt nicht komplett ersetzt.(Non Gameing)

Ich glaube, ohne Whitelists wird es nicht gehen. Das Problem ist, ein Programm kann nicht analysieren was ein anderes Programm macht. Wenn man das könnte dann hätte man auch das Halteproblem gelöst. Und deshalb wird Windows das wohl auch nicht zuverlässig hinbekommen eine Anwendung an die "passenden" Kerne zu pinnen. Und Heuristiken sind viel zu unzuverlässig bzw. an die nötigen Informationen kommt das OS wohl sowieso nicht ran. Oder es passiert, dass einer das Spiel startet, dann vom Rechner weggehen muss und das Spiel bleibt erstmal 10 Minuten im Startbildschirm. Da bin ich gespannt was die Heuristik draus macht wenn der Startbildschirm nur in einem Thread läuft und den Rechner gar nicht belastet.

dildo4u
2023-01-12, 10:01:07
Wie wird das bei Android und iOS gelöst die haben ja auch Performance Cores und Games die dort am besten laufen.

Crazy_Chris
2023-01-12, 10:02:27
Man könnte das ja fast schon als Vorstufe einer "Big/Little Architektur" sehen. :wink: Wie macht das Intel? Sollen sie doch die CCD mit 3DCache einfach pauschal als "Performance Cores" behandeln und gut ist. In den wenigen Fällen(??) wo die andere CCD schneller ist muss an dann ggf. manuell eingreifen. Schätze mal das dies eh die Ausnahme ist und nicht so großartig ins Gewicht fällt.

amdfanuwe
2023-01-12, 10:15:29
Wie war das damals beim Threadripper 24C/32C?
Da musste man doch einiges auf die CCX mit Speicheranbindung pinnen damit es lief.

Zossel
2023-01-12, 10:19:01
Wie wird das bei Android und iOS gelöst die haben ja auch Performance Cores und Games die dort am besten laufen.

Solange der Bildschirm dunkel ist werden nur die Schmalspurkerne genutzt, für Medienabspielmaschinen und das Ziel möglichst wenig Strom zu verbrauchen stellt das keine signifikant merkbare Einschränkung für den Nutzer dar.

Weiterhin sind diese Kisten hinreichend schnell das der User es sowieso nicht merkt wenn Heuristiken nicht funktionieren.

Zossel
2023-01-12, 10:19:48
Wie war das damals beim Threadripper 24C/32C?
Da musste man doch einiges auf die CCX mit Speicheranbindung pinnen damit es lief.

Alle NUMA "Optimierungen" haben Probleme.

Exxtreme
2023-01-12, 10:25:23
Wie wird das bei Android und iOS gelöst die haben ja auch Performance Cores und Games die dort am besten laufen.

Das dürfte auch intern mit Whitelists funktionieren. Das Smartphone weiss ja ob eine App ein Spiel ist oder nicht. Denn das ist ja schon in den jeweiligen Appstores festgelegt.

Wie gesagt, eine zuverlässige Erkennung wird schwierig sein ohne vorher das Halteproblem gelöst zu haben. Nur ist das so: wenn sie es nicht gebacken bekommen eine gute Erkennung einzubauen dann sollen sie das dem Nutzer überlassen ohne umständliches Gefrickel ala Taskmanager.

Zossel
2023-01-12, 10:26:51
Ich sehe auch nicht wo man Argumentieren kann das Intel die bessere Lösung hat, Windows muss einfach lernen mit Hybrid umzugehen schon damit Apple sie im Notebook Markt nicht komplett ersetzt.(Non Gameing)
Aktuell scheinen Qualcomm und Apple immer eine Generation weiter, dieses Jahr sollte es SOC in 3nm geben.

Mit und ohne Extra-Cache ist das Problem eher noch schwieriger. Die Dumpfbacken-Core bei Intel sind *immer* langsamer.
Bei mit und ohne Extra-Cache ist mal das eine oder das andere schneller oder langsamer und das kann sich auch permanent ändern.

Ohne /dev/glaskugel kommt man da nicht besonders weit.

Savay
2023-01-12, 16:56:52
Ich sehe das Problem ehrlich gesagt auch noch nicht.
Die x3D haben defakto eh einen starken Gaming Fokus!
Mit den dual CCD bekommt man aber Best of Both Worlds...wenn auch mit ggf. ein bisschen gebastel.

Grundsätzlich erstmal die Cache CCD als Prime Cores nehmen und gut ist und den Rest Black/Whitelisten.

Beim 7800X3D hast du genau wie beim 5800X3D ja eh erst gar nicht die Wahl ob Takt oder Cache für Anwendungen und die paar Spiele die nicht Cache limitiert sind.

Wäre halt nur schön wenn sie ne einfach erreichbare und Usereditierbare Whitelist zumindest im Ryzen Master und/oder auch im Adrenalin Panel anbieten. (Das erkennt btw. ja auch heute schon Spiele)
Aber ich warte lieber erstmal ab was da noch kommt statt hier gleich in Untergangsstimmung zu verfallen.

Nightspider
2023-01-12, 17:57:13
Ich hoffe auch, dass der User die Whitelist bearbeiten kann.

Rolsch
2023-01-12, 18:34:05
Könnt ja noch etwas an eurer Scheduler Strategie feilen, die 3Ds verspäten sich. Der 14.2 war ja überraschend früh, aber es gibt noch kein neues Releasedatum.

robbitop
2023-01-12, 18:42:37
Ich würde mir einfach einen 7800X3D holen und schauen ob noch ein wenig was im Takt geht. Dürfte fürs Zocken die beste Wahl sein (günstiger, unkomplizierter und wahrscheinlich konsistenter).

Zossel
2023-01-20, 17:07:00
Wenn der "Chipsatz" die PCIe Spec erfüllt sollte diese Karte auch in einem Intel-Board laufen, möglicherweise nicht unter Windows wegen dieser blöden Chipsatztreiber.

Wäre lustig, ein Intelboard mit AMD "Chipsatz" :-)
Ein Test, was beim Einsatz mit anderen Mainboards passiert, insbesondere mit Intel-Modellen, wäre aber allemal spannend.
https://www.heise.de/news/Asrock-X670-Xpansion-Kit-Aus-AMD-B650-mach-X670-Mainboard-7465877.html

Nightspider
2023-01-23, 05:16:51
Ein neues Relrease-Datum gibts wohl noch immer nicht oder?

In fast einer Woche ist schon wieder Februar. :O

Rolsch
2023-01-23, 09:29:14
https://www.amd.com/en/product/12731

Zwar kein neues Release Date aber beim 7800x3D "Unlocked for overcklocking = YES".
Stand das früher auch schon so drinn?

dildo4u
2023-01-23, 10:13:51
Kommt drauf an was sie damit meinen laut dem Interview gibt es kein eigenes setzen des Multiplikators sondern nur per Curve Optimiser.


ZdO-5F86_xo

Rolsch
2023-01-23, 10:38:11
CO ist aber kein Overclocking. Vielleicht haben sie ja nachgebessert um attraktiver zu werden.

dildo4u
2023-01-23, 10:47:10
Ist es nicht so das das Cache Modul einfach vom 5800X3D übernommen wurde und das verträgt nur bestimme Spannungen.

Linmoum
2023-01-23, 11:18:58
https://www.amd.com/en/product/12731

Zwar kein neues Release Date aber beim 7800x3D "Unlocked for overcklocking = YES".
Stand das früher auch schon so drinn?PBO ist Overclocking unds das zu nutzen wird möglich sein.

mboeller
2023-01-23, 11:25:03
https://www.amd.com/en/product/12731

Zwar kein neues Release Date aber beim 7800x3D "Unlocked for overcklocking = YES".
Stand das früher auch schon so drinn?

gilt das für das Chiplet mit extra Cache, oder nur für das andere Chiplet?

HOT
2023-01-23, 12:13:36
Ist es nicht so das das Cache Modul einfach vom 5800X3D übernommen wurde und das verträgt nur bestimme Spannungen.
Sieht schwer so aus, jo. Hab ich ja gleich gesagt, aber wurde dafür wie immer direkt bespuckt. Falls das aufkommt: Das Ding lässt sich in N7 oder N6 produzieren, da gibts keinen Unterschied.

r3ptil3
2023-01-23, 12:15:07
5.7 Ghz + 3D-Cache auf dem 7950X3D also nicht möglich.

Entweder 5.7Ghz auf dem CCD ohne 3D-Cache oder 3D-Cache und geringere Taktraten.

Klingt für mich als ob man die CPUs mit zwei CCDs meiden sollte.

Der_Korken
2023-01-23, 12:55:11
gilt das für das Chiplet mit extra Cache, oder nur für das andere Chiplet?

Der 7800X3D hat nur ein Chiplet, nämlich das mit extra Cache.

Dass der Boost-Takt wegen der Spannungsbeschränkung kleiner ausfällt, ist für mich am naheliegendsten. Es wäre gut, wenn wenigstens etwas OC gehen würde, denn durch den niedrigen Verbrauch von Zen 4 ist das ein Kandidat für klassisches Allcore-OC. Bei normalen Modellen verliert man dadurch viel Boost-Takt, dafür benutzt PBO bei MT-Lasten dann gefühlt viel zu viel Spannung bei den gedrosselten Taktraten, wodurch Strom verschwendet wird, wodurch die effektiven Taktraten unter MT-Last sinken (zumindest bei Zen 3, der säuft vor allem auch bei Teilllast extrem).

Complicated
2023-01-23, 12:55:52
Entweder 5.7Ghz auf dem CCD ohne 3D-Cache oder 3D-Cache und geringere Taktraten.
Und das automatisiert je nach Bedarf. Du bekommst beides. Takt wenn die Anwendung davon profitiert und Cache wenn das Spiel damit mehr FPS liefert..

Das beschleunigt zum Vorgänger alle Spiele die ohne 3DCache besser liefen auf das Niveau der Non-3D Version und behält alle Vorteile der Cache Versionen - wenn das funktioniert hat man mehr davon, denke ich. Es eliminiert ja den größten Kritikpunkt der 3D-Vorgänger.

Der_Korken
2023-01-23, 13:00:14
wenn das funktioniert hat man mehr davon, denke ich. Es eliminiert ja den größten Kritikpunkt der 3D-Vorgänger.

In der Theorie ist die Idee gut, aber eine rein software-basierte Umsetzung klingt für mich nicht überzeugend. Hier hätte ich mir Hardware-Support gewünscht wie Intel's Thread Director. In den üblichen Reviews wird das in AAA-Titeln wahrscheinlich korrekt funktionieren, aber bei Spielen aus der zweiten Reihe und unter Linux sehe ich langfristig schwarz.

00-Schneider
2023-01-23, 13:00:14
Und das automatisiert je nach Bedarf. Du bekommst beides. Takt wenn die Anwendung davon profitiert und Cache wenn das Spiel damit mehr FPS liefert...


Theoretisch...

Ansonsten ist alles außer 7950 eine Mogelpackung:

- 7800 stark runtergetaktet

- 7900 effektiv nur ein 6-Kerner.

HOT
2023-01-23, 13:09:11
Das Cache-Die ist ja erheblich dichter gepackt als der Cache on Die. Das wird einfach bei Takt und Spannung eingeschränkt sein. Und da die AMDs den L3 so hoch takten wie den hochgetaktetesten Core (IIRC), ist die Folge doch klar. Aber auch mehr als 1,25V kann der Cache nicht ab. Es ist ja beides gedeckelt, Takt und Spannung.

Und das ist auch kein 6 oder 8 Kerner :freak:. Es wird ja nur je nach Bedarf das eine oder das andere CCD per CPPC priorisiert. Das ist ja jetzt auch schon so, derzeit wird das bessere CCD priorisiert. Bei Spielen ist es eben günstiger das Cache-CCD zu priorisieren, bei Adobe oder andere Rendersoftware ist es günstiger den Takt zu haben. Aber es werden ja nach wie vor alle 24 bzw. 32 Threads genutzt. Ich finde, dass das Thema total überdramatisiert wird. Das wird schon funktionieren.

r3ptil3
2023-01-23, 13:17:04
Theoretisch...

Ansonsten ist alles außer 7950 eine Mogelpackung:

- 7800 stark runtergetaktet


Mich würde es nicht überraschen, wenn beim 7950X3D der CCD mit dem 3D-Cache maximal 100-300Mhz über dem 7800X3D liegt.

Die 3D-Cache CPUs mit 2 CCDs sind IMO Produkte für experimentierfreudige.
Langfristig sehe ich es wie Der_Korken, ohne direkten Hardware-Support, kann das sehr mühsam werden.

HOT
2023-01-23, 13:17:54
Totaler Unsinn. Das ist doch total transparent.

amdfanuwe
2023-01-23, 13:20:26
Ich finde, dass das Thema total überdramatisiert wird. Das wird schon funktionieren.
Seh ich auch so. Wer keine Ahnung hat, merkt es nichtmal, wenns nicht optimal läuft und wer Ahnung hat, stellt es sich entsprechend ein oder kauft es erst gar nicht.

HOT
2023-01-23, 13:23:28
Seh ich auch so. Wer keine Ahnung hat, merkt es nichtmal, wenns nicht optimal läuft und wer Ahnung hat, stellt es sich entsprechend ein oder kauft es erst gar nicht.
Da wirste nix einstellen können. Der wird laufen wie er läuft. Ich vermute stark, dass die Profile einfach per Windows Update kommen zusammen mit dem PCI-Driver, der ja auch automatisch mit aktualisiert wird. Wie gut das funktioniert wird man bei Reviews ja dann sehen.

mboeller
2023-01-23, 13:26:41
Der 7800X3D hat nur ein Chiplet, nämlich das mit extra Cache.


ah fuck... ich glaub ich brauch eine neue Brille. Ich hätte schwören können da steht eine 9 und keine 8

Linmoum
2023-01-23, 13:37:53
Da wirste nix einstellen können. Der wird laufen wie er läuft.Warum sollte es nicht möglich sein, Apps oder Spiele auf die entsprechenden CCDs zu pinnen? Darauf bezieht sich das "wer Ahnung hat" doch. Denn die Leute schauen einfach selbst kurz, ob es mit/ohne Cache besser läuft und pinnen Anwendung/Spiel dann auf das entsprechende CCD, wo es mehr Leistung mit gibt. Fertig. Ist auch kein Aufwand, das zu tun.

Wer Ahnung hat und basteln kann/will, für den sind die größeren Modelle ob des zusätzlichen non-Cache-CCDs mit +~15% Takt reizvoll.

Savay
2023-01-23, 14:25:03
Die passende SW gibt es doch eh schon... :deal:

https://bitsum.com/

Davon abgesehen könnte AMD das ganze auch als Whitelist im Ryzen Master einbauen und darüber jew. das "Prime" CCD verwalten. :wink:

Complicated
2023-01-23, 16:15:26
Davon abgesehen könnte AMD das ganze auch als Whitelist im Ryzen Master einbauen und darüber jew. das "Prime" CCD verwalten. :wink:Das denke ich auch, da ja angekündigt wurde, dass ein Chipsatz-Treiber Update dazu gehört.

Wer weiss, vielleicht werden die Spieleprofile im Adrenalin GPU-Treiber damit ergänzt und der Chipsatztreiber oder Ryzen Master kann sich den Wert da holen. Dann wäre es nur noch ein weiterer Haken im GPU-Treiber, den man selber anpassen kann und AMD seine Testergebnisse bei der Treiber-Entwicklung in Standard-Profilen für das jeweilige Spiel anbietet.
In den üblichen Reviews wird das in AAA-Titeln wahrscheinlich korrekt funktionieren, aber bei Spielen aus der zweiten Reihe und unter Linux sehe ich langfristig schwarz.
Das wäre dann so wie jetzt auch bei der Treiber-Optimierung für die GPU.

Neurosphere
2023-01-23, 20:40:31
https://pbs.twimg.com/media/FnK-UpCaEAABHFU?format=jpg&name=900x900

https://twitter.com/9550pro/status/1617565186050916352

Kann aber auch sein das nur die Kerne ohne V-Cache OC zulassen.

robbitop
2023-01-23, 20:51:17
Beim 7800x3d sagt AMD aber auch unlocked for OC. Und der hat nur den vcache ccd.
https://www.amd.com/en/products/apu/amd-ryzen-7-7800x3d

MSABK
2023-01-23, 20:54:47
Kann ja auch ein Fehler sein.

vinacis_vivids
2023-01-23, 21:00:11
Wenn die Clock Domain für die ALU strikt getrennt wird vom FCLK, also die Verbindung zum V-Cache, ist OC "unlocked". Das ist wohl der große Unterschied zum 5800X3D, wo der V-Cache erst im Nachhinein integriert wurde.

Die reinen Rechenwerke dürften dann ~6Ghz erreichen im Singel-Core beim Top-End Modell 7950X3D und 7900X3D. Der 7800X3D bekommt wohl viel Abfall, weshalb AMD nur 5Ghz max. Takt angibt.

robbitop
2023-01-23, 21:25:41
IMO hat man den 5800x3D gelockt weil er sonst Zen 4 schlecht darstehen lassen hätte. Die offizielle Version war IMO eine Ausrede.
Man hätte den Multi ja sonst offen lassen können und die VCore auf 1,35V maximum locken können.

Zossel
2023-01-23, 21:50:15
IMO hat man den 5800x3D gelockt weil er sonst Zen 4 schlecht darstehen lassen hätte. Die offizielle Version war IMO eine Ausrede.
Man hätte den Multi ja sonst offen lassen können und die VCore auf 1,35V maximum locken können.

Ich behaupte einfach mal das Gegenteil und brauche dafür genauso wenig eine Begründung wie du.

Neurosphere
2023-01-23, 22:02:45
Beim 7800x3d sagt AMD aber auch unlocked for OC. Und der hat nur den vcache ccd.
https://www.amd.com/en/products/apu/amd-ryzen-7-7800x3d

Stimmt.

Kann ja auch ein Fehler sein.

Leider Stimmt auch das.

Ich behaupte einfach mal das Gegenteil und brauche dafür genauso wenig eine Begründung wie du.

Er hat seine Meinung gesagt und begründet wo diese herkommt. Meinungen /= Fakten.

Lehdro
2023-01-23, 22:25:56
Man hätte den Multi ja sonst offen lassen können und die VCore auf 1,35V maximum locken können.
Oder alternativ wenn es sein muss Multi und Vcore locken, aber PBO für die extra MHz offziell freigeben - also die +200 MHz die da sonst einstellbar waren. Dazu CO für negative Werte zulassen.

Alles nicht so schwer wenn man will und wirklich nur die Voltage das Problem ist/war. Immerhin ist AMD durch RPL jetzt wirklich im Zugzwang was Gaming angeht - also gib Feuer AMD.

Gipsel
2023-01-23, 23:17:06
Wenn die Clock Domain für die ALU strikt getrennt wird vom FCLK, also die Verbindung zum V-Cache, ist OC "unlocked".Nein, die Verbindung zum Cache läuft nicht mit fclk (fabric clock), sondern mit cclk (core clock).

r3ptil3
2023-01-24, 13:42:05
Totaler Unsinn. Das ist doch total transparent.

Was genau, der Takt oder die Unterstützung?

HOT
2023-01-24, 13:45:28
Was genau, der Takt oder die Unterstützung?
Du wirst davon nichts merken. Das funktioniert einfach.

r3ptil3
2023-01-24, 13:48:59
Du wirst davon nichts merken. Das funktioniert einfach.

Gut dass wir im Speku-Thread sind, denn ansonsten klingt die Aussage ja wie eine Tatsache.

Die Reviews/Ergebnisse werden zeigen wie "einfach" das funktioniert.

HOT
2023-01-24, 14:07:34
Gut dass wir im Speku-Thread sind, denn ansonsten klingt die Aussage ja wie eine Tatsache.

Die Reviews/Ergebnisse werden zeigen wie "einfach" das funktioniert.
Nein, das ist keine Speku. Du wirst das nicht merken, da das System das automatisch regeln wird, welcher CCD genutzt wird. Du installierst mMn (jedenfalls später) auch nichts, ich wette, dass die Profile einfach über Windows Update kommen (jedenfalls später). Evtl. muss man auch anfangs manuell einen Chipsatztreiber installieren, aber das wird sicherlich nicht langfristig so sein. Ich weiss überhaupt nicht, was du da für komische Vorstellungen hast. Du installierst die CPU und dann den Chipsatztreiber, dann kannste natürlich loslegen.

Exxtreme
2023-01-24, 14:15:12
Nein, das ist keine Speku. Du wirst das nicht merken, da das System das automatisch regeln wird, welcher CCD genutzt wird. Du installierst mMn (jedenfalls später) auch nichts, ich wette, dass die Profile einfach über Windows Update kommen (jedenfalls später). Evtl. muss man auch anfangs manuell einen Chipsatztreiber installieren, aber das wird sicherlich nicht langfristig so sein. Ich weiss überhaupt nicht, was du da für komische Vorstellungen hast. Du installierst die CPU und dann den Chipsatztreiber, dann kannste natürlich loslegen.

Wobei du nicht davon ausgehen kannst, dass ausnahmslos jedes Spiel ein Profil bekommt. Ergo sollte man schon manuell eingreifen können.

Neurosphere
2023-01-24, 14:15:49
Uuuuund, kein OC wird mehr genannt auf den Seiten von AMD

HOT
2023-01-24, 14:19:39
Gibt ja entsprechende Software. Sicherlich wirste auch im Ryzen Master was einstellen können. Aber der Normalnutzer wird davon nix merken. Die CPU ist eben soundso schnell und fertig. Mal sehen, wie sich AMD hinterher denkt, wenn das Teil releast wird. Wissen wir ja noch gar nicht. Aber es ist definitiv klar, dass das ne transparente Lösung wird, was denn sonst. Wie AMD das intern löst, kann man ja als Reviewer nachmessen.

Edit: Nix OC, nur CO.
https://www.computerbase.de/2023-01/amd-ryzen-7000x3d-oc-pbo-cuver-optimizer/

r3ptil3
2023-01-24, 14:23:49
Aber es ist definitiv klar, dass das ne transparente Lösung wird, was denn sonst.

Satire oder meinst du das ernst?

HOT
2023-01-24, 14:26:02
Das mein ich absolut ernst, denn das ist sonst nicht nutzbar für die Masse. Die wollen das Ding verkaufen!

r3ptil3
2023-01-24, 14:30:14
Das mein ich absolut ernst, denn das ist sonst nicht nutzbar für die Masse. Die wollen das Ding verkaufen!

Die Masse... die Masse würde nicht mal merken, wenn permanent nur der CCD ohne 3D-Cache in Games läuft.

Alder Lake hat heute noch teilweise Probleme mit den E-Cores in diversen Games und Szenarien, obwohl die das auf einer anderen Ebene lösen.

AMD per manuellen Softwaresupport... wenn man darauf geht, dass es 100% funktioniert, gute Nacht.

Linmoum
2023-01-24, 14:34:15
Das mein ich absolut ernst, denn das ist sonst nicht nutzbar für die Masse. Die wollen das Ding verkaufen!Und Intel verkauft die CPUs mit E-Cores nicht, oder was? Da funktioniert das Scheduling auch nicht immer einwandfrei.

Savay
2023-01-24, 14:43:13
AMD per manuellen Softwaresupport... wenn man darauf geht, dass es 100% funktioniert, gute Nacht.

Warum sollte das nicht funktionieren?

Die IPC der Kerne ist grundsätzlich vollkommen identisch...nur Takt und Cache sind anders.
Die können einfach Default und als Fallback die Kerne das Cache CCD zu den Prime Cores machen und aus die Maus.

Da hast du doch überhaupt keinen Nachteil durch verglichen mit dem 7800X3D :freak:
Alleine schon aufgrund des Gamingfokus der X3D ist das absolut kein Problem.

Die paar Spiele die nur mit Takt skalieren rennen eh bereits wie blöd und kann man auch Whitelisten.
Wer das ganze parallel Produktiv nutzen will weiß schon warum er nen X3D nimmt und keinen normalen Zen4 und kann das Problem auch anders umgehen.

Das wird hier echt komplett überdramatisiert.

Und Intel verkauft die CPUs mit E-Cores nicht, oder was? Da funktioniert das Scheduling auch nicht immer einwandfrei.

Die E-Cores sind doch einfach komplette Krüppel verglichen mit den Coves.
Vollkommen andere Voraussetzungen!

Takt oder Cache bei Zen wirkt sich doch nur in Grenzfällen wirklich extrem aus.

r3ptil3
2023-01-24, 14:52:27
Takt oder Cache bei Zen wirkt sich doch nur in Grenzfällen wirklich extrem aus.

Ehm... genau wegen diesem Cache kauft man sich ja überhaupt einen Zen4-3D.

Und wie wir bereits wissen, im Gaming ist der Cache definitiv wertvoller, siehe 5800X vs 5800X3D:
https://tpucdn.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/images/1920-1080.png

Savay
2023-01-24, 14:53:38
Ja, deswegen Cache CCD als Default Prime grade aufgrund des Gaming Fokus...Was ist daran so schwer zu kapieren?

Ehrlich...das ist ein ganz anderes Problem als mit den E-Cores.

Bei voller Auslastung kommst du eh nicht den vollen Boost takt -> Da ist es eh wurscht ob das Cache CCD Prime ist oder nicht.
Bei Teillast ist grundsätzlich auch nen "nur" 5GHz Zen4 schnell genug...und wer für Productivity noch ein paar Prozent rausholen will pinnt die Anwendung einfach ans andere CCD.

Wo ist das Problem?
Hier wird ja so getan als wenn du damit in diese absurden E-Core Anomalien wie bei Alder Lake rennen würdest.

r3ptil3
2023-01-24, 14:57:35
Wir sehen dann nach den Reviews, wie sehr ein 7900X3D/7950X3D noch zu empfehlen ist.

Savay
2023-01-24, 14:59:19
Was genau soll deiner Meinung nach denn verglichen mit nem 7800X3D passieren?!

Linmoum
2023-01-24, 15:05:23
Die E-Cores sind doch einfach komplette Krüppel verglichen mit den Coves.
Vollkommen andere Voraussetzungen!

Takt oder Cache bei Zen wirkt sich doch nur in Grenzfällen wirklich extrem aus.
Es ging hier nur um HOTs "das funktioniert definitiv"-Mantra. Das hat nichts mit absoluter Performance zu tun, sondern ist rein aufs Scheduling bezogen. Da wird es - wie eben bei Intels E-Cores - auch Spiele geben, wo das schlicht nicht bestmöglich funktionieren wird. Einfach, weil garantiert nicht jeder Titel von AMD berücksichtigt wird. Das ist ja auch ein Ding der Unmöglichkeit bei der Masse.

Die werden wahrscheinlich standardmäßig das Cache-CCD für Spiele pinnen und fertig. Bringt in den meisten Spielen die beste Performance, aber eben nicht in allen. Sieht man ja an dem TPU-Parcours, wo es in 9 Spielen nur <=6% Vorsprung für den 5800X3D vs. 5800X gibt. Mit +~15% Takt, die die beiden großen Modelle durch das non-Cache-CCD haben werden, kann man sich eben schon denken, dass da dann eben diese Performance fehlt.

Natürlich ist das kein Beinbruch. Aber anzunehmen, dass grundsätzlich und überall die beste Performance erreicht werden würde, ist einfach naiv.

Der_Korken
2023-01-24, 15:27:33
Die Frage ist an der Stelle ja schon, was eigentlich ein "Spiel" ist. Die Executables haben kein Schild dran kleben, dass sie ein Spiel sind, sondern irgendwer muss Spiele-Executables von anderen Executables unterscheiden. Man kann natürlich sagen, scheiß drauf, nimm immer das Cache-CCD, weil es auf 10-15% ST-Leistung eh nicht ankommt. Nur warum sollte ich dann überhaupt einen 7900X3D kaufen?

Was passiert eigentlich, wenn ein Spiel mehr als 8 Threads nutzt? Lässt man das zweite CCD dann trotzdem komplett ungenutzt und lässt die überzähligen Threads per SMT auf dem Cache-CCD laufen? Bei 9 Threads vielleicht noch OK, aber bei 16 Threads? Eigentlich gibts neben Cache und Boost da noch die dritte Möglichkeit, ein Spiel auf beiden CCDs auszuführen, weil es eben gut parallelisiert ist. Jetzt kann es aber wieder sein, dass einige Threads des Spiels cachelastig sind und andere nicht. Und so weiter.

Ich bleibe dabei: Ein reines whitelisting nach Name der .exe-Datei ist eine Billiglösung, die in AAA-Titel Reviews gut aussieht, aber langfristig eine Bastellösung bleiben wird. Ist der Prozessor damit unbrauchbar? Keineswegs. Ein 7900X3D kann wahlweise immer mindestens so gut wie ein 7900X sein (default = alles Boost-CCD) oder mindestens so gut wie ein 7800X3D (default = alles Cache-CCD), aber er wird mit einer Software-Lösung nicht immer beide schlagen. Am Ende entscheidet der Aufpreis für das kleine Stück Silizium, wie sehr sich die Modelle lohnen.

Savay
2023-01-24, 15:30:43
OOTB wird es hier und da sicher Regressionen geben.

Andererseits sind die schon vernachlässigbar, da das Performance Delta abseits von Cache limitierten Spielen(!) zwischen einem X3D CCD und einem normalen CCD ziemlich klein ist verglichen mit Intels big.little.

Grundsätzlich hast du bei nem 7800X3D ja erst gar nicht erst die Option auf mehr Takt und Threads...und der wird ja ziemlich sicher auch gekauft werden.

Die Dual CCD X3D sind so gesehen schon eine spezifische CPU für ein sehr spezifisches Klientel.
Zocker die die CPU AUCH Produktiv nutzen...aber das sind halt oftmals eh Bastler und da wird man zur Not auch anderweitig einen Weg finden.

Langlay
2023-01-24, 15:42:47
aber das sind halt oftmals eh Bastler und da wird man zur Not auch anderweitig einen Weg finden.

Im Zweifel kannste das mit Process Lasso noch selber zuweisen. Das geht auch nach eigenen Regeln also z.b. CS:GO kriegt dann immer die Kerne auf den normalen CCD, WoW dann halt das Cache-CCD.

Exxtreme
2023-01-24, 15:50:03
Die Frage ist an der Stelle ja schon, was eigentlich ein "Spiel" ist. Die Executables haben kein Schild dran kleben, dass sie ein Spiel sind, sondern irgendwer muss Spiele-Executables von anderen Executables unterscheiden. Man kann natürlich sagen, scheiß drauf, nimm immer das Cache-CCD, weil es auf 10-15% ST-Leistung eh nicht ankommt. Nur warum sollte ich dann überhaupt einen 7900X3D kaufen?


Das ist korrekt. Deshalb kann man diese Problematik erst dann lösen nachdem man das Halteproblem gelöst hat. :D Man kann natürlich mit Heuristiken rangehen aber auch das ist nicht sehr zuverlässig.

Von daher wären manuelle Eingriffsmöglichkeiten sehr gut.

Savay
2023-01-24, 16:49:25
Nur warum sollte ich dann überhaupt einen 7900X3D kaufen?

Weil ich für Spiele wahrscheinlich mindestens auf 7800X3D Niveau liege aber ich für MT mehr Kerne habe und in den wenigen Fällen in denen ich es es nicht OOTB bekomme ich auch zur Not noch mit manuellen Affinitäten noch etwas mehr rausquetschen kann?

Ich finde z.B. den 7950X3D für mein Anwendungsprofil und Basteldrang hochgradig interessant!

Da brauche ich auch keine Goldrand-Heuristiklösung oder gar nen Nostradamus HW-Scheduler welche am Ende eh nur halbgar funktionieren.

Der 7900X3D sitzt natürlich wie der 7900X so ein bisschen zwischen den Stühlen...das ist aber eh ein spezifisches 12C Problem in dieser "Saison". ;)

Der_Korken
2023-01-24, 17:10:49
OK, für MT sind 7900X3D und 7950X3D besser als der 7800X3D, das stimmt. Prinzipiell bin ich auch jemand, der sowohl produktiv mit dem System arbeitet als auch spielt, d.h. ich würde sowohl vom Cache als auch vom hohen ST-Boost profitieren (MT eher weniger, da würden mir 8 Kerne eigentlich reichen). Problem: Das "produktiv" ist größtenteils unter Linux, wo es keinen ProcessLasso gibt und die Devs wenig Bock haben werden große Softwarelisten von Hand zu pflegen. Schon gar nicht irgendwelche wissenschaftlichen Open-Source-Tools. Da wäre dann die Frage, was ich mit einem 7900X3D bekommen würde.

Ich stelle mal die gewagte These auf, dass dieses asymmetrische Design nur eine Zwischenlösung ist, die mit Zen 5 wieder verschwinden wird. Dort soll es größere Änderungen an der Speicherhiearchie geben, z.B. wird man langfristig den L3 vom CCD lösen wollen wegen der schlechten SRAM-Skalierung mit 3nm und folgende. Dadurch bekommen wir vielleicht einen über alle Teilnehmer geshareten L3, der sich optional stacken lässt und es braucht keine Unterscheidung zwischen verschiedenen CCDs mehr. Ich denke, wenn AMD sich langfristig drauf einschießen wollte, dass es Kerne mit mehr Cache und Kerne mit mehr Takt gibt, dann hätten sie da mehr in Hardware-Lösungen investiert. Noch besser wäre natürlich gewesen, wenn der Cache 5,5Ghz schaffen und sich die Frage gar nicht stellen würde.

Zossel
2023-01-24, 17:24:29
Problem: Das "produktiv" ist größtenteils unter Linux, wo es keinen ProcessLasso gibt

https://man7.org/linux/man-pages/man1/taskset.1.html

HOT
2023-01-24, 17:55:58
Der_Korken
Wann lernt ihr Leute endlich, dass SC überhaupt keine Rolle spielt, erst recht nicht bei mordernen Spielen.
Was die CPU an sagen wir 4 Threads abrufen kann an Leistung ist relevant, aber SC braucht nun wirklich kein Mensch. Und bei Rendersoftware ist das ja noch schlimmer, denn die Belastung treibt den Takt runter. Dann biste eh nur noch auf 5GHz. Es ergibt also 0 Sinn den nicht-Cache-CCD zu priorisieren, das wird auch nicht passieren. Es wird ne Whitelist für Spiele geben, die ohne den Zusatz-Cache gut laufen und vom Takt mehr profitieren, das wars.

Es ging hier nur um HOTs "das funktioniert definitiv"-Mantra. Das hat nichts mit absoluter Performance zu tun, sondern ist rein aufs Scheduling bezogen. Da wird es - wie eben bei Intels E-Cores - auch Spiele geben, wo das schlicht nicht bestmöglich funktionieren wird. Einfach, weil garantiert nicht jeder Titel von AMD berücksichtigt wird. Das ist ja auch ein Ding der Unmöglichkeit bei der Masse.

Die werden wahrscheinlich standardmäßig das Cache-CCD für Spiele pinnen und fertig. Bringt in den meisten Spielen die beste Performance, aber eben nicht in allen. Sieht man ja an dem TPU-Parcours, wo es in 9 Spielen nur <=6% Vorsprung für den 5800X3D vs. 5800X gibt. Mit +~15% Takt, die die beiden großen Modelle durch das non-Cache-CCD haben werden, kann man sich eben schon denken, dass da dann eben diese Performance fehlt.

Natürlich ist das kein Beinbruch. Aber anzunehmen, dass grundsätzlich und überall die beste Performance erreicht werden würde, ist einfach naiv.

Wer hat denn gesagt, dass das Scheduling perfekt funktioniert? Ich hab gesagt, dass das für den Endnutzer 100% transparent ist und das wird es auch sein.

r3ptil3
2023-01-24, 18:47:33
Was genau soll deiner Meinung nach denn verglichen mit nem 7800X3D passieren?!

Je nach Spiel, gibt's dann böse Ausreisser für den 7800X3D.
Das schmälert den Gesamteindruck der zwei grösseren und insbesondere teureren Modelle.
Im Gesamtrating der Gaming-Performance, könnte dadurch sogar der 7800X3D vor den beiden anderen 3D-Modellen liegen.

Die 3D-Cache CPUs richten sich in erster Linie an Gamer (siehe letztes AMD Interview von PCWorld). Da sind dann Aussagen wie "aber dafür hat man auch die beste Anwendungsleistung" hinfällig. Alle die Anwendungsleistung brauchen, holen sich den 7950X, welcher in Anwendungsperformance durch die höhere TDP sowieso unerreicht bleibt. Die Gaming-Performance ist auch mit dem alles andere als schlecht, nur spielt eben ein 7800X3D in Sachen Gaming-Leistung auf einer anderen Liga.

Alles andere hier mit dem selber rumexperimentieren ist total hirnrissig bei solchen CPU-Preisen.

Nicht vergessen: Wir sind im Speku-Thread. Das wäre sozusagen die schlimmste Befürchtung für die 2xCCD Modelle.



Wer hat denn gesagt, dass das Scheduling perfekt funktioniert? Ich hab gesagt, dass das für den Endnutzer 100% transparent ist und das wird es auch sein.

Nein, das ist keine Speku. Du wirst das nicht merken, da das System das automatisch regeln wird, welcher CCD genutzt wird.
Du wirst davon nichts merken. Das funktioniert einfach.

Linmoum
2023-01-24, 18:54:28
Alles andere hier mit dem selber rumexperimentieren ist total hirnrissig bei solchen CPU-Preisen. Was ist das denn für ein komisches Argument? Spielt man allem ab einer 4070Ti aufwärts jetzt auch nicht mit PL und/oder UV/OC rum, weil die Karten ja so teuer sind?

Savay
2023-01-24, 18:55:56
Je nach Spiel, gibt's dann böse Ausreisser für den 7800X3D.
Das schmälert den Gesamteindruck der zwei grösseren und insbesondere teureren Modelle.
Im Gesamtrating der Gaming-Performance, könnte dadurch sogar der 7800X3D vor den beiden anderen 3D-Modellen liegen.

Das musst du mal elaborieren wie das zustande kommen soll, wenn die Prime Cores (die es auch jetzt schon gibt!) die vom Scheduler bevorzugt werden erstmal auf dem Cache CCD liegen und dann einfach per Whitelist die auffälligsten Ausreißer umsortiert werden!

So ganz verstehe ich deine Logik nicht!
Das wird wenn überhaupt genauso sein wie bisher bei 7700X vs. 7950X ohne 3D Cache. (Wahrscheinlich sogar besser, wenn sie jetzt wirklich das Profiling und mit Affinitäten anfangen)
Wo ist da also der Unterschied zum Status Quo?!

Da behauptet ja auch keiner der 7700X wäre die bessere CPU.

Alle die Anwendungsleistung brauchen, holen sich den 7950X, welcher in Anwendungsperformance durch die höhere TDP sowieso unerreicht bleibt.

Ja, alle die NUR Anwendungsleistung priorisieren.
Es gibt aber nicht nur Entweder/Oder.

Was ist mit denen die Anwendungs- UND Spieleleistung gleichermaßen gewichten?!
Videoschnitt? Content Creation?
Die komplette Twitch Szene wäre demzufolge schonmal die perfekte Zielgruppe. :freak:

Wie gesagt...wer sich für nen Dual CCD X3D Interessiert wird schon wissen warum. :tongue:

Der_Korken
2023-01-24, 19:08:09
https://man7.org/linux/man-pages/man1/taskset.1.html

Dass das irgendwie geht, ist mir schon klar, aber wer guckt jedes Mal, wenn ein Prozess spawnt erstmal nach, welche pid er bekommen hat, um dann manuell oder per shellscript die Affinity zu setzen?


Wann lernt ihr Leute endlich, dass SC überhaupt keine Rolle spielt, erst recht nicht bei mordernen Spielen.

[...]

Und bei Rendersoftware ist das ja noch schlimmer, denn die Belastung treibt den Takt runter. Dann biste eh nur noch auf 5GHz.

Man stelle sich vor, es gäbe auch andere Workloads als Rendern und Zocken. Womöglich sogar noch ST-limitiert.

Für mich ist zu dem Thema Scheduling alles gesagt: Software-Listen werden im Vergleich zu einer HW-basierten Lösung immer unterlegen bleiben oder das durch ständige manuelle Eingriffe kompensieren müssen. Man kann sich jetzt streiten, ob die letzten 10-15% die ganze Diskussion Wert sind. Ich würde sagen, jeder muss selber entscheiden, wofür er die CPU nutzen will, aber die potenziellen Probleme sollten nicht unerwähnt bleiben.

Savay
2023-01-24, 19:10:17
Womöglich sogar noch ST-limitiert.


LAME?! ;p

Software-Listen werden im Vergleich zu einer HW-basierten Lösung immer unterlegen bleiben

Oder auch nicht...auch ein HW Scheduler ist ja letztlich SW definiert. ;)

Die SMU ist doch eh bereits sowas in der Art und wenn eine HW das grundsätzlich lösen könnte, nur weil es eine HW ist, dann hätte Intel ja gar keine Probleme.
Die sie aber offensichtlich doch hier und da haben.

Der_Korken
2023-01-24, 19:46:27
Die SMU ist doch eh bereits sowas in der Art und wenn eine HW das grundsätzlich lösen könnte, nur weil es eine HW ist, dann hätte Intel ja gar keine Probleme.
Die sie aber offensichtlich doch hier und da haben.

Der Unterschied ist, dass eine Hardware-Lösung (wenn sie einmal ausgereift ist) immer funktioniert, auch in zukünftigen Anwendungen. Intel musste da jetzt einiges an Pioniersarbeit leisten, aber dafür werden sie AMD beim Scheduling für einige Zeit weit voraus sein, sofern AMD auf ein ähnliches big.LITTLE-Konzept setzen sollte. Die Hardware muss dazu kein Halteproblem lösen, sondern mit Hilfe von Performance-Countern eine möglichst gute/hilfreiche Empfehlung für das Betriebssystem generieren. Bei AMD hätte das ganz vereinfacht z.B. so aussehen können, dass man für jeden Thread (oder jeden Prozess) Buch führt über die L3-Missrate und dem Anteil an NOOPs, eventuell gestaffelt nach "in den letzten 5 Sekunden" und "in den letzten 5 Minuten". In Software kann man dann einen Algorithmus schreiben, der nicht mehr von kuratierten Listen abhängt, sondern Werte benutzt, die für jeden Prozess zur Verfügung stehen, der gerade auf der Hardware ausgeführt wird. Dass das Scheduling im Betriebssystem am Ende Software ist, ist klar, aber das ist nicht der Punkt.

Savay
2023-01-24, 19:58:16
Ein HW Scheduler wird aber auch niemals "ausgereift" sein.
Auch der HW sagst du ja wie sie zu funktionieren hat und das geschieht nun mal an irgendeinem Punkt durch Software.
Davon abgesehen haben die Probleme mit Alder Lake doch gezeigt, dass es ohne Hilfestellung auch nicht wirklich immer toll funktioniert und dann musst du doch wieder den OS Scheduler nachpatchen.

An sich ist diese bestreben nach einer Goldrandlösung schon etwas Overkill.
Statt erstmal mit der 95% Lösung zufrieden zu sein schmeißt man Ressourcen ohne Ende auf ein Problem um dann eine 96,253241% Lösung für den x-fachen Aufwand zu bekommen. ;)

Der_Korken
2023-01-24, 20:13:09
Wie gesagt: Bei AMD reden wir am Ende über 10-15% potenziellen Leistungsverlust, da wird AMD in Reviews gut genug mit wegkommen. Ich sag ja nicht, dass die 3D-Modelle unkaufbarer Müll wären, sondern ich meckere nur über den "Pfusch" :tongue:.

Intel hat eine HW-Lösung aber absolut gebraucht. Stell dir vor, du würdest versuchen die Aufteilung zu P- oder E-Cores über Software-Listen zu regeln :freak:. Und bitte nicht auf irgendwelche Spiele beschränken, für die man eh nur die P-Cores braucht. Jeder Hintergrundprozess von Windows und Linux müsste eingeteilt werden, jedes Nutzerprogramm, weil eben nicht genug P-Cores da sind, um mal alles pauschal auf die P-Cores auszulagern. Vor allem nicht bei mobilen CPUs mit 2+8 Kernen. Natürlich lief nicht alles rund und es musste und muss immer noch am OS-Scheduler getweakt werden. Aber ehrlich gesagt kann ich mir gar nicht vorstellen, wie man das Scheduling für eine dermaßen heterogene Architektur überhaupt anders hätte hinbekommen können. Wenn AMD sowas auch irgendwann ernsthaft machen will, brauchen sie HW-Unterstützung dafür.

Übrigens sind beim 7900X3D z.B. auch perfekt gepflegte Listen nicht der Weisheit letzter Schluss, nämlich dann, wenn ein Spiel einen CCD mehr als voll macht. Irgendwann muss das OS einen Thread aufs andere CCD verschieben, aber die Liste kann dem OS nicht sagen, welcher von den 10 Threads den Cache braucht. Wenn der Main-Thread durch Pech runterfliegt, dann kann das schon etwas mehr Leistung kosten. Im Moment eher nicht so akut, weil 6 Kerne in der Regel reichen, aber langfristig nicht so optimal.

Savay
2023-01-24, 20:18:16
Wie kommst du auf 10-15%?

Der 5800X3D ist vielleicht avg. 4-7% langsamer in Anwendungen aufgrund des geringeren Takts...und die größten Unterschiede kommen in Renderanwendungen zustande die gut über Takt aber eben auch hervorragend über Kerne skalieren...
Bei Volllast wird sich aber wohl auch auch eher der Takt angleichen verglichen mit non-X3D, da die Dual CCD CPUs schon immer deutlich eher Stromlimitiert sind.
Dadurch werden aber auch die Threads ggü. dem Takt wichtiger werden.

Wenn AMD sowas auch irgendwann ernsthaft machen will, brauchen sie HW-Unterstützung dafür.

Die haben quasi aus dem Stand über die SMU schon technisch betrachtet bessere und flexiblere Boost Algorithmen als Intel umgesetzt und (immer noch) den besten x86 Branch Predictor...da traue ich denen das ehrlich gesagt schon zu da was halbwegs brauchbares zu bauen sobald sie es benötigen. :wink:


Übrigens sind beim 7900X3D z.B. auch perfekt gepflegte Listen nicht der Weisheit letzter Schluss.

Du musst das doch garnicht so statisch machen... https://bitsum.com/product-update/process-lasso-10-4-cpu-sets-and-adler-lake/

Zossel
2023-01-24, 20:32:28
Der Unterschied ist, dass eine Hardware-Lösung (wenn sie einmal ausgereift ist) immer funktioniert, auch in zukünftigen Anwendungen.

Eine Heuristik bleibt eine Heuristik auch wenn die durch Hardware unterstützt wird.

Zossel
2023-01-24, 20:37:07
Dass das irgendwie geht, ist mir schon klar, aber wer guckt jedes Mal, wenn ein Prozess spawnt erstmal nach, welche pid er bekommen hat, um dann manuell oder per shellscript die Affinity zu setzen?


Was kann dieses Windows Tool besser?

Der_Korken
2023-01-24, 20:56:25
Wie kommst du auf 10-15%?

Der 5800X3D ist vielleicht avg. 4-7% langsamer in Anwendungen aufgrund des geringeren Takts


Wir reden aber über den 7900X3D/7950X3D. Da steht es taktmäßig 5,6Ghz/5,7Ghz vs 5,0Ghz bei den beiden CCDs.


Die haben quasi aus dem Stand über die SMU schon technisch betrachtet bessere und flexiblere Boost Algorithmen als Intel umgesetzt und (immer noch) den besten x86 Branch Predictor...da traue ich denen das ehrlich gesagt schon zu da was halbwegs brauchbares zu bauen sobald sie es benötigen. :wink:


Was hat denn das eine mit dem anderen zu tun? Außerdem benutzt AMD zur Bestimmung des Boost-Taktes diverse Sensordaten aus dem Chip bezüglich Temps und anliegende Ströme. Eigentlich ist der Boost-Algorithmus eher ein Beispiel dafür, dass eine gut funktionierende Software guten Input braucht, den sie nur aus der Hardware selber bekommen kann. Und Branch Prediction ist so Hardware, mehr Hardware geht gar nicht.

Du musst das doch garnicht so statisch machen... https://bitsum.com/product-update/process-lasso-10-4-cpu-sets-and-adler-lake/

Inwiefern löst es das Problem im Spoiler? Du kannst doch wieder nur sagen "game.exe bitte an Kerne 1 bis 6 pinnen" (um alles auf dem ersten CCD zu haben) oder "game.exe bitte an Kerne 1 bis 8 pinnen", wenn du noch Rechenpower vom zweiten CCD haben willst. Welcher von den Threads, die von game.exe gespawnt werden, aber dann ausgelagert werden, kannst du nicht bestimmen, weil nach außen hin nicht sichtbar ist, welcher der Threads den Cache braucht und welcher nicht. Das könnten dir nur die Kerne sagen, während sie Threads ausführen.

Eine Heuristik bleibt eine Heuristik auch wenn die durch Hardware unterstützt wird.

Nur weil man ein Problem nicht (beweisbar) optimal lösen kann, heißt das nicht, dass eine bessere Lösung niemanden interessiert. Für OS-Scheduling wird es auch keine optimale Lösung im Allgemeinen geben, aber trotzdem sagt ja keiner, dass man es dann auch beliebig schlecht machen sollte.

Was kann dieses Windows Tool besser?

Keine Ahnung, ich nutze es nicht. Das Linux-Tool scheint sich aber zumindest nicht merken zu können welche Prozessnamen er standardmäßig wohin pinnen muss, sondern das muss zur Laufzeit manuell gemacht werden, nachdem man die pid seiner Anwendung kennt.

Savay
2023-01-24, 21:15:44
Wir reden aber über den 7900X3D/7950X3D. Da steht es taktmäßig 5,6Ghz/5,7Ghz vs 5,0Ghz bei den beiden CCDs.

Doch nicht unter Voll- und auch nicht unter Teillast. :freak:
Und den Takt des Cache CCD auf dem 7900X3D und dem 7950XD ist zudem noch gar nicht wirklich bekannt....nur der des 7800X3D

Schon der 5800X war schlechter auf Takt gebinnt als das "Prime" CCD0 des 5950X, geschweige denn besser auf die Stromaufnahme als das Zweite "low Power" CCD1.

Eigentlich ist der Boost-Algorithmus eher ein Beispiel dafür, dass eine gut funktionierende Software guten Input braucht, den sie nur aus der Hardware selber bekommen kann. Und Branch Prediction ist so Hardware, mehr Hardware geht gar nicht.

Ganz genau!
Also...wie kommst du dann bitte drauf das Intel da einen uneinholbaren Vorsprung hat. :confused:



Inwiefern löst es das Problem im Spoiler? Du kannst doch wieder nur sagen "game.exe bitte an Kerne 1 bis 6 pinnen" (um alles auf dem ersten CCD zu haben) oder "game.exe bitte an Kerne 1 bis 8 pinnen

Richtig gelesen?! :freak:
Genau das was du Beispielhaft beschrieben hast machen die CPU Sets ja eben nicht!

"The OS will try to abide by a CPU Set, but has discretion to schedule outside the Set."

Das ist im Kern ein Feature des OS Schedulers, da so bspw. schon auch die normale Affinität auf die Prime Cores und CCD0 verteilt wird!
Nur das es bspw. für einen 7950X bisher nur ein statisches Set gibt, das immer gilt.

MSABK
2023-01-24, 21:26:25
Die Frage ist halt, wie hoch taktet der 7700X unter Vollast in games, vorausgesetzt es wird ausgelastet. Weil da wird die Differenz zum 3d dann geringer.

Zossel
2023-01-24, 21:32:10
Keine Ahnung, ich nutze es nicht. Das Linux-Tool scheint sich aber zumindest nicht merken zu können welche Prozessnamen er standardmäßig wohin pinnen muss, sondern das muss zur Laufzeit manuell gemacht werden, nachdem man die pid seiner Anwendung kennt.

Unix ist ein Baukasten, diese typischen Windowstools die alles mögliche versuchen zu machen dann aber typischerweise an einer Sache scheitern nerven meistens ziemlich ab.
Das ist wie Lego oder Fischertechnik :-)

Also kombiniert man taskset einfach mit pidof:

https://linux.die.net/man/8/pidof

Der_Korken
2023-01-24, 21:34:02
Doch nicht Voll- und auch nicht unter Teillast. :freak:
Und den Takt des Cache CCD auf dem 7900X3D und dem 7950XD ist zudem noch gar nicht wirklich bekannt....nur der des 7800X

Schon der 5800X war schlechter auf Takt gebinnt als das "Prime" CCD des 5950X, geschweige denn besser auf die Stromaufnahme als das Zweite "low Power" CCD.


Die 10-15% sind worst case. Den hat man in ST-Loads, denn da zählt (im worst case für das Cache-CCD) nur der Takt. Dein Wort in Gottes Ohr, dass der Cache auf dem 7950X3D besser gebinnt ist als beim 7800X3D und mehr schafft. Ich befürchte aber eher, dass es am Cache hängt und da kaum was geht.


Ganz genau!
Also...wie kommst du dann bitte drauf das Intel da einen uneinholbaren Vorsprung hat. :confused:


Ach so meinst du das. Naja, so ganz Neuland war das für AMD nicht, die haben mit ihren (Bulldozer-) APUs und GPUs schon Erfahrungen mit Boost-Algorithmen sammeln können. Da halte ich big.LITTLE für ein anderes Kaliber. AMD könnte höchstens von der Vorarbeit profitieren, die in Windows und Linux durch Intel jetzt vorhanden ist. Aber solange wir nicht wissen, was AMD mit ihren C-Cores vorhat, ist das eh pure Spekulation.


Richtig gelesen?! :freak:
Genau das was du Beispielhaft beschrieben hast machen die CPU Sets ja eben nicht! (die im Kern ein Feature des OS Schedulers sind, da so auch die normale Affinität verteilt wird!)

Tatsächlich nein (:redface:), aber auch für diese CPU Sets muss irgendwer (das OS) entscheiden, welcher Thread woanders hinkommt, wenn das zugewiesene Set zu klein war. Da kann es immer auch den Main Thread erwischen, der dann die Performance runterzieht, solange niemand die einzelnen Threads differenzieren kann.

Edit:

Unix ist ein Baukasten, diese typischen Windowstools die alles mögliche versuchen zu machen dann aber typischerweise an einer Sache scheitern nerven meistens ziemlich ab.
Das ist wie Lego oder Fischertechnik :-)

Also kombiniert man taskset einfach mit pidof:

https://linux.die.net/man/8/pidof

OK, aber dann brauchst du immer noch ein Script, dass kontinuierlich nach ungepinnten, aber bekannten Prozessnamen scannt und dann per Datenbank zuweist. Ist halt sehr gebastelt.

Savay
2023-01-24, 21:46:52
Die 10-15% sind worst case. Den hat man in ST-Loads, denn da zählt (im worst case für das Cache-CCD) nur der Takt.

Also etwas das nicht über cache sondern nur über Takt skaliert und max. 1-2 Threads auslastet, dabei aber gleichzeitig so langsam rennt, dass ein solcher Unterschied wirklich relevant ist?!

Na da muss man aber nun wirklich schon sehr hart nach suchen im Alltag. :biggrin:
....oder es konstruieren ala CB 1T :deal:

AMD könnte höchstens von der Vorarbeit profitieren, die in Windows und Linux durch Intel jetzt vorhanden ist.

Naja und Intel hat bereits von der Vorarbeit durch AMD und Microsoft aufgrund der Multi CCD Ryzen seit Zen2 profitiert. :freak:

So läuft das nun mal!
Das entsteht ja alles nicht in nem Vakuum.

Da kann es immer auch den Main Thread erwischen, der dann die Performance runterzieht, solange niemand die einzelnen Threads differenzieren kann.


Dann ist aber eher das Programm scheiße, nicht mehr Zeitgemäß und läuft dann potenziell auf nem Alder/Raptor Lake erst Recht wie ein Sack Nüsse...sollte dann also auch an anderer Stelle auffallen und generellen Nachbesserungsbedarf nach sich ziehen. :wink:

Und wenn es wirklich so spinnt und es nicht fixbar ist, da EOL o.ä., einfach ne klassische harte Affinity vergeben und fertig ist die Gschicht'

basix
2023-01-24, 22:04:11
Müsste man nicht in HW die Speicherzugriffsmuster analysieren können? Bspw. anhand der bestehenden Cache-Prefetching Muster? Was z.B. viel Cache belegt oder oft (random?) auf den DRAM zugreift eher aufs CCD mit viel L3$.

Der_Korken
2023-01-24, 22:17:48
Dann ist aber eher das Programm scheiße, nicht mehr Zeitgemäß und läuft dann potenziell auf nem Alder/Raptor Lake erst Recht wie ein Sack Nüsse...sollte dann also auch an anderer Stelle auffallen und generellen Nachbesserungsbedarf nach sich ziehen. :wink:

Wie kommst du zu diesem Schluss? Ich würde bei einer modernen Spiele-Engine erwarten, dass dort simultan sehr unterschiedliche Berechnungen mit unterschiedlichen Anforderungen laufen. AMD sagte über Zen 3, dass sie Spiele-Workloads analysiert haben und die Performance oft an einem ST-lastigen Mainthread hängt. Ein Großteil der Performance kam daher, dass ein einzelner Thread nun die gesamten 32MB L3 eines CCDs benutzen konnte, was im Umkehrschluss heißt, dass die anderen Threads auf dem selben CCD nicht so cachelastig sind, sonst würden sie mit dem Mainthread stärker um Cache konkurrieren. Insofern spielt es imho schon eine Rolle welche der Threads, die zu selben Executable gehören, auf welchem CCD laufen, ohne dass das was mit schlechter Programmierung zu tun hätte.

Savay
2023-01-24, 22:19:18
Ja?! Was meinst du denn wie die "Prime" Cores bisher von Spielen gefüllt werden und wie die relativ statischen Auslastungsmuster zustande kommen?

Nochmal:
Seit Zen2 gibt es doch schon 2 Prime Cores, ein Prime CCD und ein sekundär zu füllendes.
Das ist doch bisher alles schon irgendwie pseudo big.little light sein Zen2 und Win10.

Noch nie in den Taskmanager geschaut mit nem Zen2 oder neuer?
Das ist doch schon ein "CPU Set" wie es von bitsum da genannt wird.

Der_Korken
2023-01-24, 22:27:00
Was genau meinst du? ST-Burst-Loads landen i.d.R. auf den selben Kernen, das ist mir bekannt. Hier ist das "Problem" einfacher, weil Prime-Cores immer schneller sind als Non-Prime-Cores. Bei Cache vs Clocks ist das nicht so.

Savay
2023-01-24, 22:28:33
Die Threads und Handles bekommen ja idealerweise eine Priorität und werden dementsprechend verteilt!
Und um Cache vs. Takt zu differenzieren hast du dann ja ein zweites Set, statt wie bisher nur ein einziges...das du halt erstmal Whitelisten musst.

Ich sehe das Problem immer noch nicht!

Der_Korken
2023-01-24, 22:32:09
Dafür hast du dann ja ein zweites Set, statt wie bisher nur ein einziges...das du halt erstmal Whitelisten musst.

Ich sehe das Problem immer noch nicht!

Eine .exe kann man viele Threads spawnen, die nach außen hin nicht unterscheidbar sind (außer durch eine Nummer, die ihen das OS gibt), aber unterschiedliche Anforderungen haben. Solange alles auf ein Cache-CCD passt (und das wird auch 2023 die Regel sein), dürfte es egal sein, aber sobald es überläuft, musst du die Threads splitten. Wie, wenn dir die CPU nicht sagt, wie sich die einzelnen Dinger verhalten?

Savay
2023-01-24, 22:33:41
Weil das Programm beim spawnen anhand der Priorität sagt wie sie sich verhalten?!
Meinst du Alder/Raptor Lake erfühlt sich die Information generell on the fly?!

Der_Korken
2023-01-24, 22:36:18
Weil dir das Programm sagt wie sie sich verhalten?! Meinst du Alder/Raptor Lake erfühlt sich die Information generell on the fly?!

Doch, genau das denke ich. Wie soll dir das Programm diese Info mitteilen? Dazu bräuchte man ein Protokoll/API, an das sich alle Entwickler halten müssten, damit es funktioniert. Bei Alder Lake musste niemand seine Binaries umschreiben oder annotieren, das lief alles über den Thread Director und eine entsprechende Anpassung im OS-Scheduler.

Savay
2023-01-24, 22:38:02
Wie soll dir das Programm diese Info mitteilen?

Weil das Programm bspw. weiß was ein Mainthread ist und was nicht und dem OS auch derartige Infos u.a. über die Priorität geben kann?
Wenn es das nicht wüsste, könntest du div. Codeanalysen und Optimierungen doch in die Tonne treten.
Dann wäre ja alles ein und dieselbe Soße!

Und der OS Scheduler weiß das dann woher? Und verteilt es auf nem Zen2-4 entsprechend ohne derartigen "HW-Scheduler" auch bereits heute schon?!

CrazyIvan
2023-01-24, 22:43:43
Also ich kann mich weitestgehend nur Der_Korken's Argumentation anschließen. Eine Lösung über statische (AKA hard-coded) Listen für eine sehr dynamische Problemstellung ist grundsätzlich nicht sonderlich "sophisticated".
Das mag für heutige AAA-Workloads gut funktionieren. Aber für alles andere kann das Resultat deutlich vom Optimum entfernt sein. Und was ist mit AAA-Titeln in, sagen wir, 3 Jahren? Wie lang wird AMD eine solche Frickellösung aktiv pflegen?
Und übrigens wird hier völlig außer Acht gelassen, dass das Problem eine deutlich niedrigere Granularität hat, als nur den Prozess? Ein und dasselbe Spiel, ein und derselbe Thread können binnen kürzester Zeit von cache-limitiert auf taktlimitiert und umgekehrt umschlagen - je nach Szene, Modus, etc.pp. Für so etwas braucht es eine dynamische Unterstützung. Und ja, der abstrakt und simpel beschriebene Ansatz von Der_Korken würde ein konsistenteres Gesamtbild und mehr Zukunftssicherheit bescheren.
IMHO ist das Problem auch komplexer als Big.little - die spezifischen Vor- und Nachteile der Kerntypen sind viel weniger eindeutig.

Fakt ist auch, dass die Auswirkungen vermutlich nicht wahnsinnig dramatisch sein werden. Damit bleibt die Frage, wie AMD es tatsächlich umsetzen wird und wie gut es dann auch über Zeit funktioniert, mindestens ein technisch interessantes Thema. Ob es auch ein für Endanwender relevantes Thema wird, werden die nächsten Wochen zeigen müssen.

Der_Korken
2023-01-24, 22:45:25
@Savay: Ist sowas üblich (ernstgemeinte Frage)? Die wenigen Male, wo ich etwas parallelisiert habe, habe ich eine Thread-Pool-Implementierung der jeweiligen Programmiersprache benutzt und meine Work-Items verteilt. Unter Linux wird (zumindest bei Python) im Hintergrund geforkt, sodass das OS natürlich weiß, welcher der Elternprozess und was die Kindprozesse sind. Dann ist aber trotzdem nicht klar, ob der cachelastige Prozess immer der Elternprozess ist. Man kann es vielleicht annehmen, aber nicht wissen.

Savay
2023-01-24, 22:46:22
Unter Windows scheint das relativ üblich zu sein.

Und nochmal ob "Cachelastig" oder nicht definierst du hier doch im Zweifel nur über Ausnahmen und stumpf über ne Whitelist bzw. nimmst erstmal den Mainthread als Cachelastig an...nicht "automatisch".
Das ist im ersten Schritt und bei der aktuellen Architektur die AMD da hat ist das ja sicher immer noch genau genug!
Zudem spielt das eh erst bei der vollständigen Auslastung des 16. Threads eine Rolle.

Du musst es ja auch nicht wissen, das wirst du sowieso wohl niemals abschließend, du musst nur ein Annahme treffen die erstmal nicht grob falsch ist...und anders macht es auch ein HW Scheduler sicherlich nicht.
Nur das der wenn du Glück hast ggf. ein wenig weniger falsch Annimmt.

"sophisticated".

Sophisticated bringt dir als Metrik erstmal gar nix.

Nen Itanium und Pentium 4 war auch sehr "sophisticated". :tongue:

Ein und dasselbe Spiel, ein und derselbe Thread können binnen kürzester Zeit von cache-limitiert auf taktlimitiert und umgekehrt umschlagen

Und die schiebst du einfach vom einen auf das andere CCD "binnen kürzester Zeit", statt es auf dem CCD zu lassen wo es generell am wenigsten falsch ist?!
Trotz der Latenzprobleme die sich durch das umkopieren ergeben?

CrazyIvan
2023-01-24, 22:58:54
@Savay
Und auch das ist keine so simple Problemstellung, wie Du es hier darzustellen versuchst. Natürlich gibt es einen Cut-Off-Punkt, ab dem sich ein CCD-Wechsel trotz der damit verbundenen "Kosten" lohnen würde. Auch das zu bewerten ist Aufgabe eines dynamischen Verfahrens anhand von Performance Countern o.ä.

Savay
2023-01-24, 23:00:48
@Savay
Und auch das ist keine so simple Problemstellung, wie Du es hier darzustellen versuchst.

Ich sage nicht das es simpel ist, sondern dass man es sich auch erstmal einfach machen kann und einen trotzdem ausreichenden Optimierungsgrad erreichen sollte! :freak:

Du kannst natürlich auf irgendwelche Edgecases zu Tode optimieren...die Frage ist was es bringt und das hängt ja eben auch vom grundsätzlichen Performance Delta zwischen den CPU Threads ab.
Nur ist das hier ja eh erstmal gar nicht so groß.

Und dann ist die Frage:
Was willst du durch eine derartige Optimierung überhaupt erreichen?

Ein 7950X3D wird auch so im Schnitt schneller sein als ein 7800X3D.

CrazyIvan
2023-01-24, 23:14:12
Mal ganz im Ernst: In Bezug auf Hardware verfügt AMD über das Know-How, wortwörtlich die komplexeste und komplizierteste Technik der Menschheit zu entwickeln und zu produzieren.
Eine halbwegs vernünftige Heuristik unter Zuhilfenahme einiger sowieso bereits vorhandener Telemetriedaten könnte jeder mittelmäßig begabte Software Entwickler in überschaubarer Zeit implementieren. Die Variante "statische Liste" würden nur die Dummköpfe unter den Anfängern wählen. Das ist es, was ich mit nicht sonderlich "sophisticated" meine.

KhanRKerensky
2023-01-24, 23:26:46
An sich ist diese bestreben nach einer Goldrandlösung schon etwas Overkill.
Statt erstmal mit der 95% Lösung zufrieden zu sein schmeißt man Ressourcen ohne Ende auf ein Problem um dann eine 96,253241% Lösung für den x-fachen Aufwand zu bekommen. ;)
Und dann auch noch für eine CPU die für den Markt eher ein Nischenprodukt ist. Mein Spekulatius dazu: Das ist keine Goldrandlösung, sondern ein Testprodukt. Intel ist mit BIG.little direkt in die tiefe Seite des Pools gesprungen und der Release war nicht ganz reibungslos. Man könnte die 2CCD Cache CPUs als BIG.BIG betrachten. Beide können absolut das Gleiche nur leicht unterschiedlich schnell. 100% Kompatibilität ohne das etwas angepasst werden MUSS.
AMD hat jetzt allerdings die Möglichkeit Software zu testen um das Scheduling Problem zu lösen. Ich denke die gleichen Einwände und Zweifel die man hier im Thread lesen kann gibt es bei AMD ebenfalls. Deswegen die Einführung mit einer CPU die ich eher als "optional" bezeichnen würde. Für die meisten Gamer ist 8C+Cache wahrscheinlich die beste Wahl. Wer viele Kerne für MT braucht nimmt den 16C. Und die Schnittmenge dieser Gruppen darf dann diesen 8C/8C+Cache testen. Ein Prozessor mit kleiner Zielgruppe und einem kleinen Performanceboost als Wetteinsatz. AMD kann jetzt aber schon mal herausfinden was funktioniert und ist dann für echtes BIG.little vorbereitet und hat eventuell sogar OS support.

Ich würde vermuten das wir wie bei Grafikkarten schon lange üblich ein Stück Software (Treiber/Hintergrunddienst/GUI/whatever) für die Einstellungen haben werden. Mit dabei Defaults für Benchmarks (manche davon sind glaube ich auch Spiele), eine Art Automatikmodus und die Option was eigenes einzustellen. Am einfachsten wäre wahrscheinlich ein Benchmarkmodus in dem das zu testende Programm durch die unterschiedlichen Scheduling-Optionen durchwechselt und dabei die IPC misst. Ich denke die meisten Käufer von einem solchen Prozessor hätten kein Problem ein Spiel/Programm erst 15min in einem Testmodus laufen zu lassen um dann eine fundierte Empfehlung zu erhalten.

Savay
2023-01-24, 23:31:13
Die Variante "statische Liste" würden nur die Dummköpfe unter den Anfängern wählen.

Mit Listen, Tabellen oder auch LUTs zu arbeiten ist jetzt aber auch nicht so unüblich...auch bei komplexen Problemstellungen nicht und das wird auch nicht nur durch "Dummköpfe unter den Anfängern" gemacht. :|
Sogar Softwareseitig...
Siehe CP2077 das auf >16Thread Ryzen nur einen Task/Core spawnt und auf <=16T auf die SMT Threads mit nutzt.
Ist das stumpf und simpel? Ja.
Funktioniert es? Ja, an sich relativ OK.
Ist es optimal? Nein, natürlich nicht!

Unabhängig davon was AMD nun wirklich in dieser Richtung umsetzen kann und wird, sollte ein 7950X3D zumindest am Ende der Tage nicht schlechter dastehen als nen 7800X3D...zumindest nicht mehr als es bei 7950X vs. 7700X nicht auch schon der Fall ist.

Grundsätzlichen haben sie ja sowieso auch jetzt schon die SMU die eh für sie programmierbar und die relativ flexibel ist.

vinacis_vivids
2023-01-25, 00:08:16
AMD macht kein big-little. Selbst die Zen4c können AVX512. Zen4c kann alles was Zen4 kann, nur die ALUs wurden verkürzt, sind kompakter, takten niedriger und verbrauchen somit weniger Energie, die wiederum mehr Cores erlaubt.

Bei Server klopft AMD bei 30% Marktanteil an, kein Grund die Wachstumsstrategie durch irgendwelche krummen Intel-Experimente zu ändern.

Beim Desktop wünsche ich demnächst ein 32C/64T CPU-Monster auf AM5 nach dem Erscheinen der (Gaming,-) 3D-CACHE Modelle.

Savay
2023-01-25, 00:13:35
AMD macht kein big-little. Selbst die Zen4c können AVX512.

Das eine hat doch mit dem anderen nichts zu tun!
Die ARM SoCs haben idR. auch nen "symmetrischen" Befehlssatz...aus Gründen.
Auch Intels CPUs haben nach außen einen einheitlichen Befehlssatz... (exklusiv irgendwelcher SMT Spezifika vielleicht)
Was theoretisch ins Silizium geätzt ist, ist da doch unerheblich! Das könnte genauso gut reiner Fillspace aufm Die sein.


Zen4c kann alles was Zen4 kann, nur die ALUs wurden verkürzt, sind kompakter, takten niedriger und verbrauchen somit weniger Energie, die wiederum mehr Cores erlaubt.

Herzlichen Glückwunsch!
Du hast soeben die Quintessenz des litte in big.little erklärt. ;D

DozerDave
2023-01-25, 06:33:33
Das eine hat doch mit dem anderen nichts zu tun!
Die ARM SoCs haben idR. auch nen "symmetrischen" Befehlssatz...aus Gründen.
Auch Intels CPUs haben nach außen einen einheitlichen Befehlssatz... (exklusiv irgendwelcher SMT Spezifika vielleicht)
Was theoretisch ins Silizium geätzt ist, ist da doch unerheblich! Das könnte genauso gut reiner Fillspace aufm Die sein.



Herzlichen Glückwunsch!
Du hast soeben die Quintessenz des litte in big.little erklärt. ;D

Ich verstehe nicht, was an big.Little so toll sein soll, wenn AMD mit minimalen Leistungsverlust viel Fläche einspart. Warum dann noch big Cores? Für ca. 10% Mehrleistung?

Gott1337
2023-01-25, 06:43:20
Ich verstehe nicht, was an big.Little so toll sein soll, wenn AMD mit minimalen Leistungsverlust viel Fläche einspart. Warum dann noch big Cores? Für ca. 10% Mehrleistung?
sind doch eher 20+% die man verliert. Es ist eben auch wichtig alle Bereich abzudecken. Es wird schon auf Big Little hinaus laufen, wenn die Software die Menge an Kernen auch vermag auszulasten. Davon hängt alles ab.

Exxtreme
2023-01-25, 09:36:39
Ich verstehe nicht, was an big.Little so toll sein soll, wenn AMD mit minimalen Leistungsverlust viel Fläche einspart. Warum dann noch big Cores? Für ca. 10% Mehrleistung?

Big.Little hat den Zweck Multithreading-Benchmarks zu gewinnen. Sprich, dieses Konzept existiert ausschließlich zu Marketingzwecken. Gängige Software kann mit so vielen Kernen gar nichts anfangen da sie so viele Threads gar nicht sinnvoll nutzen kann. Spiele erst recht nicht. Big.Little macht auf Servern mehr Sinn.

Dr.Doom
2023-01-25, 09:41:57
Auf einem Rechner läuft nicht nur eine Anwendung. Sagt ja niemand, dass alle Kerne immer nur von einer (aus-)genutzt werden muss, sondern dass immer noch genug Kerne da sind, um andere (Hintergrund-)Anwendungen laufen zu lassen -- und/oder "der einen Anwendung" keine Kerne zu stibitzen.

DozerDave
2023-01-25, 10:30:42
Big.Little hat den Zweck Multithreading-Benchmarks zu gewinnen. Sprich, dieses Konzept existiert ausschließlich zu Marketingzwecken. Gängige Software kann mit so vielen Kernen gar nichts anfangen da sie so viele Threads gar nicht sinnvoll nutzen kann. Spiele erst recht nicht. Big.Little macht auf Servern mehr Sinn.

Und ich dachte einfach mehr Kerne sind in Servern sinnvoller.
Welche Server-CPU ist denn nach big little aufgebaut? Nichtmal die ARM Server CPUs sind so aufgebaut.

Skysnake
2023-01-25, 11:35:00
Die Fujitsu FX Systeme hatten "litle" Cores fürs OS

robbitop
2023-01-25, 11:39:25
Big.Little hat den Zweck Multithreading-Benchmarks zu gewinnen. Sprich, dieses Konzept existiert ausschließlich zu Marketingzwecken. Gängige Software kann mit so vielen Kernen gar nichts anfangen da sie so viele Threads gar nicht sinnvoll nutzen kann. Spiele erst recht nicht. Big.Little macht auf Servern mehr Sinn.

Das mag für bisherige Implementierungen von Intel gelten. In der ARM Welt hingegen wird es genutzt um für den jeweiligen Betriebszustand eines Threads den dafür (aus energetischer Sicht) den besten Core zu wählen. Und die Cores sind so ausgelegt, dass ihre Betriebskennlinien (mit guten Betriebspunkten) praktisch keine Überlappung bilden so dass man einfach eine breite Möglichkeit hat immer im guten Betriebspunkt zu fahren.
Und das scheint in der ARM Welt auch gut zu funktionieren.

Eine einzige Implementierung sagt nicht unbedingt universell etwas zu einem Prinzip.

Zossel
2023-01-25, 18:38:57
Das mag für bisherige Implementierungen von Intel gelten. In der ARM Welt hingegen wird es genutzt um für den jeweiligen Betriebszustand eines Threads den dafür (aus energetischer Sicht) den besten Core zu wählen.

Ersetze durch "Handy Welt".

robbitop
2023-01-25, 19:47:09
Und Tablets, Android/iOS TV Boxen und Macs. Und das ändert überhaupt nichts daran, dass es funktioniert und grundsätzlich sinnvoll ist.

SentinelBorg
2023-01-26, 15:59:47
Bei den Konsolen hätten Little.Cores schon einen Vorteil. Die reservieren ja derzeit beiden jeweils einen der 8 Kerne nur für OS Background-Tasks. Und in der Praxis laufen die dann die meiste Zeit mit Minimaltakt nahezu im Standby. Stattdessen ein oder zwei Little.Cores um so Chipfläche zu sparen wären da schon nützlich gewesen, aber hatte AMD halt nicht im Angebot.

Complicated
2023-01-26, 16:13:43
Das ist eher ein Kandidat für die Zen4c-Cores IMHO. Der max. Takt der Zen-Kerne ist durch das Powerbudget der GPU in dem Formfaktor sowieso begrenzt. Da dürfen auch gerne alle Kerne kleinere Verbrauchswerte haben. Die Zen2-Kerne kommen bei der PS5 auch nur bis 3,5 GHz.
Auch die PS4 hatte nur Jaguar-Kerne verbaut. Zen4c-Cores werden auch deutlich weniger Diefläche benötigen.

basix
2023-01-26, 18:02:52
Bei PS6 und Co. sehe ich sowieso XYc Cores als gute Kandidaten an. Evtl. sogar ganz ohne die normalen High Performance Cores. Perf/Area wird einfach deutlich besser sein und maximalen Takt benötigt man nicht.

CrazyIvan
2023-01-26, 19:36:17
@Savay
Lookup Tables haben mal so rein gar nichts mit statischen Listen wie im jetzigen Kontext gemein. Dazu muss man noch nicht einmal Fachliteratur bemühen, sondern kann einfach mal bei Wikipedia seinen Horizont erweitern. Auch Listen im Sinne der Datenstruktur sind etwas völlig anderes. Am ehesten kann man noch mit Block- und Allowedlists argumentieren. Die finden jedoch in der Regel bei eher kleinen, diskreten Mengen Anwendung und sollen vor allem per definitionem statisch sein (Ports, ACLs, etc.).
Aber allein schon das Anführen solches Halbwissens, sowie die Art und Weise, wie Du Argumentation vortäuschst und Dich gegen jeglichen Erkenntnisgewinn streubst, zeigt mir, das jedwede weitere Diskussion einfach nur Zeitverschwendung ist.

Kalmar
2023-02-01, 19:42:28
FLxH9ivPWUI

erhältlich 28.02.2023 :
7900X3D: 599 USD
7950X3D: 699 USD

erhältlich 06.04.2023 :
7800X3D: 449 USD

eben bei pcgh drüber gestolpert im forum

hmm tjo welchen nimmt man. weiss man schonw as über die aufteilung sind das immer 8 kerne mit x3d oder beim 7900x3d nur 6 kerne ?

DavChrFen
2023-02-01, 20:54:50
Haben MB-Hersteller zum Launch auch neue MBs angekündigt? Werde aber erstmal abwarten, auf welchen MBs sich der 7950X3D am besten übertakten lässt. Insbesondere der 3D-Kern. Ich brauch Single-Thread Leistung. :freak:

Konami
2023-02-01, 20:59:25
https://youtu.be/FLxH9ivPWUI

erhältlich 28.02.2023 :
7900X3D: 599 USD
7950X3D: 699 USD

erhältlich 06.04.2023 :
7800X3D: 449 USD

eben bei pcgh drüber gestolpert im forum

hmm tjo welchen nimmt man. weiss man schonw as über die aufteilung sind das immer 8 kerne mit x3d oder beim 7900x3d nur 6 kerne ?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82545&stc=1&d=1675281490

;(

Schnitzl
2023-02-01, 21:24:25
Also ich weiss nicht was mit AMD los ist zur Zeit. Die wollen einfach nicht dass ich von denen was kaufe.

Der April Termin ist für mich der Mittelfinger an alle Gamer, nach dem Motto "Ihr geht uns am A.... vorbei"

Raptor Lake + Ada, here i come :P

G3cko
2023-02-01, 22:23:16
Der Termin ist Anfang April. Das ist gerade Mal 5 Wochen später. Und sie bedienen zuerst das HighEnd-Segment und dann den Rest. Wenn sie könnten würden sie eher liefern. Können sie aber anscheinend nicht.

amdfanuwe
2023-02-01, 22:44:44
Vielleicht sollte AMD erst die Läden beliefern, bevor sie Termine angeben.
Können es ja eh keinem Recht machen.
Liefern sie früh und sind ausverkauft, schreit jeder Paperlaunch.
Produzieren sie etwas auf Lager um eine gewisse Menge für den Start zu haben, sind die Leuts auch nicht zufrieden.
Undankbares Volk. AMD sollte sich aus DIY zurückziehen, dann könnt ihr wieder mit Intel Quad Core spielen.

Hammer des Thor
2023-02-01, 23:23:01
Also ich weiss nicht was mit AMD los ist zur Zeit. Die wollen einfach nicht dass ich von denen was kaufe.

Der April Termin ist für mich der Mittelfinger an alle Gamer, nach dem Motto "Ihr geht uns am A.... vorbei"

Raptor Lake + Ada, here i come :P


Ein echter April-Scherz, zumal ich mein Board wegen dem Asus-Cashback schon jetzt gekauft hab, wollte im März die Kiste zusammenbauen, dann wird er wohl Mai, na ja ev werden DDR5 SSDs und vor allem Grakas noch ein Stück günstiger bis dann!

Zergra
2023-02-02, 07:54:00
Denke die haben Schiss das keiner dann den 7900/79503D kaufen würde, wenn man die gleichzeitig auf den Markt bringt. Falls dann die Zuordnungsliste nicht passt in den Reviews, stehen die großen schlechter da als der 7800X3D

00-Schneider
2023-02-02, 08:28:45
Drei Theorien zum späten 7800X3D-Launch:

1. Man kann nicht genug produzieren, um alle Interessenten vernünftig zu versorgen. Also streicht man den mit Abstand am meisten nachgefragten Chip(7800X3D) um zumindest die High-End User(7900/7950X3D) noch im Februar versorgen zu können.

2. 7900/7950X3D haben eine deutlich höhere Marge als 7800X3D. AMD spekuliert darauf, dass viele 7800X3D Interessenten jetzt kurzfristig zu den teureren Modellen greifen, weil sie nicht mehr warten wollen. Sind diese abgeschöpft, wird der 7800X3D released.

3. Der 7800X3D lässt sich dermaßen gut übertakten oder er performed stock in Games auf fast ähnlichem Niveau wie 7900/7950X3D. Wenn das der Fall wäre und alle drei Chips zur selben Zeit erscheinen, würde niemand mehr 7900/7950X3D kaufen, sondern jeder zu 7800X3D greifen.

-------------

Egal welche Theorie stimmt: AMD hat mit dem späteren Launch des 7800X3D aus Unternehmenssicht alles richtig gemacht.

vinacis_vivids
2023-02-02, 08:57:48
Der 7800X3D bekommt die Abfall-Dies mit niedrigen Takt und wird bei 4,8-5Ghz gelockt/limitiert. Die besseren selektierten Dies kommen im 7900X3D und 7950X3D takten mit 5,8-6,0Ghz. Wird auch Zeit, dass Gaming Richtung 12-16C sich bewegt. Das ewige rumturnen auf 4C/8C bzw. 8 Threads dauert nun schon zu lange.

Crazy_Chris
2023-02-02, 09:28:40
Also ich weiss nicht was mit AMD los ist zur Zeit. Die wollen einfach nicht dass ich von denen was kaufe.

Der April Termin ist für mich der Mittelfinger an alle Gamer, nach dem Motto "Ihr geht uns am A.... vorbei"

Raptor Lake + Ada, here i come :P

Das sind doch nur ein paar Wochen. Man man... Bei den Grafikkarten reden wir inzwischen bei über einen halben Jahr zwischen Highend und Midrange. :freak:

Schnitzl
2023-02-02, 09:48:20
Das sind doch nur ein paar Wochen. Man man... Bei den Grafikkarten reden wir inzwischen bei über einen halben Jahr zwischen Highend und Midrange. :freak:
nun ja, evtl. leicht überreagiert - jedoch das was du schreibst ist ja im Moment das Hauptproblem das ich mit AMD habe (neben anderen), der April-Termin ist nur der letzte Tropfen und dann läuft das Faß eben über ;)
Bei der ganzen Warterei kann man irgendwann dann auch gleich auf den Refresh bzw. nächste Gen warten...

HOT
2023-02-02, 09:53:28
Die haben gesehen, wie der 5800x3d verkauft wurde und haben schlichtweg Angst dann die zu hohe Nachfrage nicht bedienen zu können bei der gedrosselt 5nm Produktion. Das ist der Hintergrund. Also wird vor dem Launch erst mal gesammelt.

dildo4u
2023-02-02, 10:00:54
Was kein Sinn macht da es keine billigen AM5 Boards gibt, der 5800x3D läuft Problemlos auf 100€ Boards.
Logisch das dort die Nachfrage massiv höher ist.

BlacKi
2023-02-02, 10:18:32
Der Termin ist Anfang April. Das ist gerade Mal 5 Wochen später. Und sie bedienen zuerst das HighEnd-Segment und dann den Rest. Wenn sie könnten würden sie eher liefern. Können sie aber anscheinend nicht.inwiefern soll ein 7800x3d mehr zeit brauchen als der 16kerner? natürlich will man hier die ungeduldigen abfarmen. 5 wochen oder nicht, jeder zeitunterschied würde denselben effekt haben.


und ich versteh auch nicht den 7900x3d. 6 kerne pffffttt:freak: der preis :biggrin:

HOT
2023-02-02, 10:23:41
Was kein Sinn macht da es keine billigen AM5 Boards gibt, der 5800x3D läuft Problemlos auf 100€ Boards.
Logisch das dort die Nachfrage massiv höher ist.
Noch ein Grund für den verspäteten Launch, denn bis dahin sind genug A620 auf dem Markt. Und A620 ist nicht A320 oder A520, denn A620-Boards können in etwa so ausgestattet werden wie B650-Boards, die Lane-Anzahl ist gleich.

dildo4u
2023-02-02, 10:27:14
Soweit ich mich erinnern kann lag das 3D Modell für 400€+ wie Blei im Lager, erst als klar wurde das alle neuen CPU Modelle absurd überteuert waren ging es los.

vinacis_vivids
2023-02-02, 10:32:02
Soweit ich mich erinnern kann lag das 3D Modell für 400€+ wie Blei im Lager, erst als klar wurde das alle neuen CPU Modelle absurd überteuert waren ging es los.

:confused:

dildo4u
2023-02-02, 10:37:11
Bei Mindfactory dort kann man gucken wie viel verkaufte wurde das meiste war als 58003Xd bei 350€ war.


Juni 2022 5800X3D weit unten

https://imgur.com/a/M9l8wIi

Dezember ganz oben

https://imgur.com/a/IWkDrk3

vinacis_vivids
2023-02-02, 10:42:35
MF ist einer von wie vielen Distributors von Zen3 ?

HOT
2023-02-02, 10:50:46
Soweit ich mich erinnern kann lag das 3D Modell für 400€+ wie Blei im Lager, erst als klar wurde das alle neuen CPU Modelle absurd überteuert waren ging es los.
Und das hat was damit zu tun? Fakt ist, der 5800X3D ging durch die Decke (du kannst des den Leuten ja nicht verübeln, dass die erst mal sehen wollten, bevor sie kaufen) und daher ist klar, auch der 7800X3D wird einen ähnlichen Impact haben, weil Preis/Leistung einfach sehr gut ist zusammen mit A620. Wenn AMD den zusammen mit den übrigen launchen würde, würde das a.) die Verkäufe der größeren Modelle schmälern und b.) läuft AMD dann Gefahr in einen Lieferengpass bei Prozessoren und Boards zu laufen, da der 7800X3D für den Preis einfach die beste Gamingperformance liefern wird. Momentan laufen die 5nm-CPUs bei gedrosselter Produktion, aber AMD könnte die 7nm-Generation auch langsam hinter sich lassen wollen. Wie auch immer, die machen das nicht um euch zu quälen, das wird einen handfesten wirtschaftlichen Hintergrund haben.

Weitere Punkte sind:
- Plant AMD vorher einen 5800X3D-Abverkauf?
- wie wirkt sich Promontory 22 auf das restliche Produktportfolio der Boardhersteller aus? Gibt es auch billigere X670 bzw. B650-Kandidaten dank P22? Dann müssten die ja erst mal auf den Markt, bevor man so eine Hit-CPU launcht.

dildo4u
2023-02-02, 10:55:59
Ich denke die Nachfrage für 400€+ CPU wird nicht da sein vorallem wenn es wärmer wird und die Masse nicht mehr gezwungen ist zu Hause zu sitzen.
Das einzige was sein kann ist das AMD bewusst weniger liefert was angekündigt wurde.

https://www.pcworld.com/article/1499957/amd-is-undershipping-chips-to-keep-cpu-gpu-prices-elevated.html

BlacKi
2023-02-02, 11:07:10
was sind umgerechnet 449$ in euro? wieviel geld muss man bei intel hinlegen für 8 schnelle kerne? wieviel teurer ist der 7800x3d?

mag sein, das er 7800x3d schneller ist, aber auch massiv teurer.

macht ja, nichts. in einem halben jahr kostet der 7800x3d wieder weniger als 400€...

dildo4u
2023-02-02, 11:12:11
Wie geschrieben sie reduzieren die Menge an Consumer Modelle um Preise oben zu halten AMD kann Die einfach in Server setzen dort gibt es noch Wachstum Spielraum.

https://www.pcworld.com/article/1499957/amd-is-undershipping-chips-to-keep-cpu-gpu-prices-elevated.html

HOT
2023-02-02, 11:27:36
Das ist wieder so ein Unsinn... natürlich brauchen die mehr Dies für Server, aber das ist doch überhaupt nicht verhältnismäßig zum Desktop/Mobile-Markt. Außerdem: Hört auf die Preise als fixe Größen zu behandeln, das ist so dämlich... Der Preis ergibt sich aus Angebot und Nachfrage. Wenn AMD Knappheit an CPUs erzeugt mit einem zu früh gelaunchten 7800X3D, dann steigt der Preis über 500$, wenn AMD die insgesamt eher geringe Nachfrage in der jetzigen Marktsituation mit einem hohen Angebot bringt, sinken die Preise unter die UVP. Man muss diese Basics offenbar immer wieder bringen, weil niemand an sowas denkt.

Hammer des Thor
2023-02-02, 11:32:27
Der 7800X3D bekommt die Abfall-Dies mit niedrigen Takt und wird bei 4,8-5Ghz gelockt/limitiert. Die besseren selektierten Dies kommen im 7900X3D und 7950X3D takten mit 5,8-6,0Ghz. Wird auch Zeit, dass Gaming Richtung 12-16C sich bewegt. Das ewige rumturnen auf 4C/8C bzw. 8 Threads dauert nun schon zu lange.


Nein, die Chiplets ohne extra cache werden genau so gelockt! Und gerade für Gaming wird es wohl sinnvoll sein die Chiplets ohne extra cache abzuschalten. Ich mag den Begriff 3d cache nicht da ganz klassisch gestackt und nicht wie flash schon bei Herstellung mehrere Schichten aufgetragen. Werde mir auch wen star citizen für mehr Kerne entwickelt wird erst mal den 7800X3D holen und hoffen dass AMD bei Zen 5 nicht wieder ins Klo greift mit CCDs ohne extra cache und dann g.g. upgraden.

Konami
2023-02-02, 11:44:00
Ein echter April-Scherz, zumal ich mein Board wegen dem Asus-Cashback schon jetzt gekauft hab, wollte im März die Kiste zusammenbauen, dann wird er wohl Mai, na ja ev werden DDR5 SSDs und vor allem Grakas noch ein Stück günstiger bis dann!
Same here. Bei mir hat AMD gewonnen - ich hol mir jetzt übergangsweise den 7600X. Hat auch den Vorteil, dass ich dann nicht bis zum X3D-Launch auf heißen Kohlen sitze und Early-Adopter-Steuer zahle, sondern gemütlich Reviews und Preissenkungen abwarten kann.

vinacis_vivids
2023-02-02, 12:07:21
Nein, die Chiplets ohne extra cache werden genau so gelockt! Und gerade für Gaming wird es wohl sinnvoll sein die Chiplets ohne extra cache abzuschalten. Ich mag den Begriff 3d cache nicht da ganz klassisch gestackt und nicht wie flash schon bei Herstellung mehrere Schichten aufgetragen. Werde mir auch wen star citizen für mehr Kerne entwickelt wird erst mal den 7800X3D holen und hoffen dass AMD bei Zen 5 nicht wieder ins Klo greift mit CCDs ohne extra cache und dann g.g. upgraden.

Nein, die besten CCDs kommen in den 7950X3D, die guten kommen in den 7900X3D und die schwachen kommen in den 7800X3D.

Der 7800X3D ist auf 5Ghz limitiert.
https://www.amd.com/de/products/apu/amd-ryzen-7-7800x3d

Der 7900X3D ist auf 5,6Ghz limitiert.
https://www.amd.com/de/products/apu/amd-ryzen-9-7900x3d

Der 7950X3D ist auf 5,7Ghz limitiert.
https://www.amd.com/de/products/apu/amd-ryzen-9-7900x3d

Die ganz guten CCDs beim 7950X3D oder 7900X3D werden womöglich 5,8-6Ghz packen. Das sind +20% Spitzentaktrate für die besten CCDs ggü. den 7800X3D. Die Takt-Selektion ist mittlerweile ein sehr teurer Prozess, der nicht mehr verschenkt wird. Gaussche Normalverteilung schlägt da einfach zu.

Complicated
2023-02-02, 12:19:36
Eine Grafik die das binning bei Takt mit Chiplets vielleicht verdeutlicht:
Chiplets an sich bringen Vorteile (unsorted), doch das zusätzliche Taktbinning verbessert es weiter:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82559&stc=1&d=1675336899

r3ptil3
2023-02-02, 12:20:22
Geht man hier ernsthaft davon aus, dass das CCD mit 3D Cache 5.6 bzw. 5.7Ghz erreichen wird?

Linmoum
2023-02-02, 12:31:57
Nein. Dass beide nur ein Cache-CCD haben ist ja schon lange bekannt. Das non-Cache hat die hohen Taktraten.

Konami
2023-02-02, 12:33:32
Geht man hier ernsthaft davon aus, dass das CCD mit 3D Cache 5.6 bzw. 5.7Ghz erreichen wird?
Frage ich mich auch. Es ist ja offenbar eine harte Limitation des 3D V-Cache. Dementsprechend sind alle Überlegungen von wegen "7800X3D bekommt den Müll" hinfällig - bzw. wenn, dann kann AMD jeweils 1 Müll-CCD auf jeden 7800X3D, 7900X3D und 7950X3D verbauen. Falls TSMC so viel Müll produziert. Was ich nicht glaube.

Der_Korken
2023-02-02, 12:41:19
Das CCD für den 7800X3D kann höchstens insofern "Abfall" sein als dass es keine Peak-Taktraten von 5,6Ghz und mehr schafft. Ansonsten will man unter dem Cache einen Die haben, der die 5Ghz mit möglichst wenig Verbrauch schafft, weil die Wärmeabführung schwieriger ist als ohne Cache.

Der Preis des 7800X3D wirkte für mich relativ hoch im Vergleich zum 7950X3D, aber wenn man sich klar macht, dass die beiden eigentlich nur ein 70mm² 5nm Die trennt, dann kommt das eigentlich gut hin, wenn man von 5N = 2x Kosten wie 6N ausgeht:

7800X3D = 156mm² N6 + 70mm² N5 (IOD = 120mm², Cache = 36mm²)
7950X3D = 156mm² N6 + 140mm² N5

dildo4u
2023-02-02, 12:54:04
Wenn sie noch 7700X absetzen wollen macht der Preis sinn, schätze mal mit der Zeit haben sie zu viele Die die den hohen Takt können und 50€ mehr dafür einzusacken macht Sinn.

Langlay
2023-02-02, 12:55:02
Geht man hier ernsthaft davon aus, dass das CCD mit 3D Cache 5.6 bzw. 5.7Ghz erreichen wird?

vinacis_vivids ist ein AMD Jubelperser. Der glaubt halt alles was er sich so zusammenreimt.

Natürlich wird der 3D Cache CCD bei einem 7950X3D nicht viel schneller takten als beim 7800X3D.

Imo ist der 7800X3D der interressanteste 3D Cache Prozessor für Gamer, du hast das Problem mit auf welchem CCD soll was laufen nicht und zum Zocken reichen 8 Kerne gut aus mehr braucht es da nicht. Beim Preis bin ich sogar überrascht, ich hatte eigentlich mit 499$+ gerechnet.

Es ist ja offenbar eine harte Limitation des 3D V-Cache. Dementsprechend sind alle Überlegungen von wegen "7800X3D bekommt den Müll" hinfällig -

Das wird wie beim 5800X3D ne Spannungsache sein, der 5800X3D kriegt ja auch maximal 1.35V, die normalen Zen3 gehen bis 1.5V im Peak.

davidzo
2023-02-02, 13:23:41
Imo ist der 7800X3D der interressanteste 3D Cache Prozessor für Gamer, du hast das Problem mit auf welchem CCD soll was laufen nicht und zum Zocken reichen 8 Kerne gut aus mehr braucht es da nicht. Beim Preis bin ich sogar überrascht, ich hatte eigentlich mit 499$+ gerechnet.

Ist es und das weiß AMD auch. Der wird selbst einen 13900KS in Spielen schlagen. Wenn man den 7800X3D aber gleichzeitig launchen würde, dann kauft niemand die größeren teureren X3D Modelle. 2 Monate ist schon so lange dass die meisten ihren PC-Kauf nicht verschieben. Und diejenigen die aufs Budget und Gelegenheiten schauen, die würden auch keinen 13700k 13900k oder KS kaufen sondern warten jetzt schon auf den 7800x3d.

Lisa hatte schon letztes Jahr angekündigt dass man die ASPs nach oben treiben möchte und eine höhere Rohmarge anstrebt. Im Zweifelsfalle wird man die DIEs eh los, da man im Servermarkt weiterhin fast konkurrenzlos Marktanteile ausbauen kann. Daran hat auch Sapphire Rapids nichts geändert.
Eine Hochpreisstrategie also wie Intel das Jahrzehntelang auch gemacht hat. Nur passt das eben nicht so gut zu einem kontraktierenden Markt, bei dem der Konkurrent gerade einen Preiskampf anzettelt. Siehe Intels angekündigte 20% OEM-Preissenkungen, deren Auswirkungen auf den Retailpreis Intel wohl kaum verhindern kann.
AMD wird da wohl oder übel mitgehen, allerdings nur mit den non-Vcache Modellen. Die Vcache Modelle sind konkurrenzlos.

Wenn man also mehr 7950x und 7950x3d verkauft als 7600er, dann stimmt das mit den höheren ASPs und Margen trotzdem.

Letztes mal hat man dazu den 5950x3d komplett weggelassen. Angesichts der guten Lieferzeit ging es da weniger um Produktionsengpässe, als dass AMD sich bewusst war dass der 5900x3d und 5950x3d kaum Käufer gefunden hätte gegenüber einem in Spielen ähnlich schnellen 12900KS und dem in Allem schnelleren 13900k 6 Monate später. Ein 7950x3d weit über den 600€ wäre nicht aufgegangen gegen den 13900k. Ein 5800x3d für 499€ schon. Ist die bessere Marge und treibt den ASP immer noch nach oben.

nordic_pegasus
2023-02-02, 13:41:19
Das wird wie beim 5800X3D ne Spannungsache sein, der 5800X3D kriegt ja auch maximal 1.35V, die normalen Zen3 gehen bis 1.5V im Peak.

genau darum ist für mich der 7800X3D ebenfalls die interessantes CPU. Man bekommt nur einen CCD, welcher dank dem Spannungs-Limit des V-Cache nicht unnötig hoch boostet. Genau wie der 5800X3D wird das sicherlich ein Effizienz-Monster werden. Dazu ein nicht überladenes B650 Board und der Alltags-Verbrauch sollte angenehm niedrig sein.

Die bei R9 mit V-Cache sind wegen dieser "nichts halbes und nichts ganzes" Konfiguration für mich völlig uninterresant. Eine CPU mit einem Zen4 + V-Cache CCD und dazu einen Zen4c würde ich dagegen spannend finden. Quasi ein direktes Gegenstück zum Intel big.Little Ansatz.

Hammer des Thor
2023-02-02, 13:52:35
Same here. Bei mir hat AMD gewonnen - ich hol mir jetzt übergangsweise den 7600X. Hat auch den Vorteil, dass ich dann nicht bis zum X3D-Launch auf heißen Kohlen sitze und Early-Adopter-Steuer zahle, sondern gemütlich Reviews und Preissenkungen abwarten kann.

Der 7700X ist in star citizen in Städten sogar deutlich schneller als der 5800X3d, im freiem Raum minimal langsamer: https://www.youtube.com/watch?v=UpjLgvxYAmY

Da könnte ich mir den 7700 erst mal holen spare erst mal nen Kühler und muss nat. schnellen RAM nehmen für 200 Euro. Wie ist das eig. bei Vollbelegung des RAMs: AMD gibt da nur einen effektiven Standardtakt von 3600 MHZ an. Da aber auch bei AM4 ja 3600 funktioniert haben mit Vollbestückung wo AMD keine 2000 angab sollte das doch auch hier klappen mit einem gutem Board das gute Signalqualität liefert so 6000 MHZ effektiv?

Konami
2023-02-02, 14:36:16
Der 7700X ist in star citizen in Städten sogar deutlich schneller als der 5800X3d, im freiem Raum minimal langsamer: https://www.youtube.com/watch?v=UpjLgvxYAmY

Da könnte ich mir den 7700 erst mal holen spare erst mal nen Kühler und muss nat. schnellen RAM nehmen für 200 Euro. Wie ist das eig. bei Vollbelegung des RAMs: AMD gibt da nur einen effektiven Standardtakt von 3600 MHZ an. Da aber auch bei AM4 ja 3600 funktioniert haben mit Vollbestückung wo AMD keine 2000 angab sollte das doch auch hier klappen mit einem gutem Board das gute Signalqualität liefert so 6000 MHZ effektiv?
Vollbestückung würde ich immer noch grundsätzlich nicht machen. Das bedeutet einfach viel mehr Belastung für den IMC (d.h. das Mainboard ist gar nicht so entscheidend, vor allem wenn die AM5 Bretter eh schon alle 8-layer PCBs haben - dafür spielt die Siliziumlotterie bei der CPU eine umso größere Rolle) und dadurch viel weniger Spielraum bei Takt und Timings.
Gibt auch gar keinen Grund dazu - wenn du dir z.B. sowas hier (https://geizhals.de/kingston-fury-beast-dimm-kit-64gb-kf556c36bbek2-64-a2876907.html) kaufst, hast du eh schon 64 GB auf zwei dual-rank DIMMs mit Hynix M-Die Chips, die idR locker 6000+ schaffen.

Bei Interesse kannst du dir mal von Actually Hardcore Overclocking @YT ein paar seiner Videos zu DDR5 anschauen, er erklärt das sehr ausführlich.

robbitop
2023-02-02, 15:35:48
War dual rank nicht ähnlich schwierig in Bezug auf Taktraten wie doppelte Menge an single rank Modulen? Ich meine ich hatte sowas im Hinterkopf.

Konami
2023-02-02, 15:46:44
War dual rank nicht ähnlich schwierig in Bezug auf Taktraten wie doppelte Menge an single rank Modulen? Ich meine ich hatte sowas im Hinterkopf.
Ja, mehr RAM ist immer schwieriger, aber es ist halt immer noch die deutlich bessere Option als 4 DIMMs.

Langlay
2023-02-02, 15:51:57
Die bei R9 mit V-Cache sind wegen dieser "nichts halbes und nichts ganzes" Konfiguration für mich völlig uninterresant. Eine CPU mit einem Zen4 + V-Cache CCD und dazu einen Zen4c würde ich dagegen spannend finden. Quasi ein direktes Gegenstück zum Intel big.Little Ansatz.

Wenn ich das richtig verstanden hab, ist das quasi wie Zen5 aussehen soll.

Aber mit dem 7800X3D wird die Plattform schon deutlich runder für Gamer. Die Boards könnten durch die Bank noch 50€ billiger werden, dann wäre die P/L schon ganz gut.

Der_Korken
2023-02-02, 15:58:32
Warum tun sich IMCs eigentlich so schwer damit viele Channels stabil zu betreiben? Bei den PHYs verstehe ich ja noch, dass hohe Taktraten da an physikalische Limits stoßen, aber bei Rembrant ist der IMC schon so groß wie zwei Zen-3-Kerne. Intel hat gefühlt deutlich kleinere und trotzdem performantere IMCs/PHYs auf ihren CPUs drauf.

amdfanuwe
2023-02-02, 17:30:13
Warum tun sich IMCs eigentlich so schwer damit viele Channels stabil zu betreiben?
Tun sie doch nicht. Kannst jeden Channel gleich belasten.
Nur wenn du 2 DIMMs an einen Channel hängst, hast du andere Kapazitäten auf dem Bus und musst für saubere Signale mit dem Takt runter.

Hammer des Thor
2023-02-02, 18:02:21
Nein, die besten CCDs kommen in den 7950X3D, die guten kommen in den 7900X3D und die schwachen kommen in den 7800X3D.

Der 7800X3D ist auf 5Ghz limitiert.
https://www.amd.com/de/products/apu/amd-ryzen-7-7800x3d

Der 7900X3D ist auf 5,6Ghz limitiert.
https://www.amd.com/de/products/apu/amd-ryzen-9-7900x3d

Der 7950X3D ist auf 5,7Ghz limitiert.
https://www.amd.com/de/products/apu/amd-ryzen-9-7900x3d

Die ganz guten CCDs beim 7950X3D oder 7900X3D werden womöglich 5,8-6Ghz packen. Das sind +20% Spitzentaktrate für die besten CCDs ggü. den 7800X3D. Die Takt-Selektion ist mittlerweile ein sehr teurer Prozess, der nicht mehr verschenkt wird. Gaussche Normalverteilung schlägt da einfach zu.

Hallo, hast Du nicht gelesen was ich geschrieben habe? Die CCDs in den Ryzen 9 X3d mit extra cache sind ebenfalls auf 5GHZ limitiert. Warum sollten die besser sein als die im 7800X zumal im letzteren die TDP Belastung auf dem chiplet dann viel höher ist da auch mit 120 Watt angegeben.

nordic_pegasus
2023-02-02, 18:25:35
Tun sie doch nicht. Kannst jeden Channel gleich belasten.
Nur wenn du 2 DIMMs an einen Channel hängst, hast du andere Kapazitäten auf dem Bus und musst für saubere Signale mit dem Takt runter.

da quasi immer empfohlen wird, Ryzen (egal welche Generation) nur mit 1DPC zu betreiben, fände ich es nur konsequent, wenn man auch die Boards darauf auslegen würde.

Leider muss man dafür immer auf die XOC Boards oder ITX gehen, wenn man nur 2 DIMMs auf dem Board haben will.

Hammer des Thor
2023-02-02, 19:13:45
Bei Interesse kannst du dir mal von Actually Hardcore Overclocking @YT ein paar seiner Videos zu DDR5 anschauen, er erklärt das sehr ausführlich.


Ist das auch der Grund warum man bei der CPU die Garantie verliert wenn man den Speicher höher taktet auch mit AMD-Expo?

Nightspider
2023-02-02, 19:32:47
Der 7800X3D bekommt die Abfall-Dies mit niedrigen Takt und wird bei 4,8-5Ghz gelockt/limitiert.

Kannst du bitte aufhören dumme Dinge zu posten, danke.

Zossel
2023-02-02, 20:33:59
da quasi immer empfohlen wird, Ryzen (egal welche Generation) nur mit 1DPC zu betreiben, fände ich es nur konsequent, wenn man auch die Boards darauf auslegen würde.

Wird das nicht mit mehr Cache obsolet?

nordic_pegasus
2023-02-02, 23:05:26
also bei Zen4 ist DDR5-6000 der Sweetspot. Selbst dafür werden in den QVLs entweder 4 Module mit Single Rank oder 2 Module mit Dual Rank empfohlen. Nur mit 2 Modulen und Single Rank mehr Takt möglich, aber auch nur bedingt sinnvoll wegen der Teiler.

4 Module mit Dual Rank sind nur mit sehr viel Einbußen beim Takt möglich, machen also nur Sinn, wenn 128GB benötigt werden. Hier sind wir aber eher im Workstation / Threadripper Pro Territorium.

Für 64GB würde ich dann auf 2x32GB gehen, für 32GB auf 2x16GB. Sprich ich sehe keinen sinnvollen Anwendungsfall für 4 DIMM Slots bei AM5, zumindest mit den Einschränkungen des IMCs von Zen4. Ferner sparen 2 statt 4 DIMM Slot Platz auf dem Board, machen das Tracing der Leitungen einfacher und auch das OC sollte wegen besserer Signalqualität einfacher sein.

amdfanuwe
2023-02-02, 23:57:16
Für 64GB würde ich dann auf 2x32GB gehen, für 32GB auf 2x16GB.
Kann sich nicht jeder direkt 64GB leisten und fängt erst mal mit 32GB an.
Schön wenn man dann bei Bedarf später noch 32GB zustecken kann.

Nightspider
2023-02-03, 07:17:05
Bei Zen4D sollte es wieder ziemlich egal sein, wie schnell der RAM ist.

Ich würde mir wenn dann wieder billigen DDR5 kaufen und im Zweifelsfall den 7900X3D statt des 7800X3D holen, das bringt mehr Leistung als die Differenz in schnelleren RAM zu investieren.

Complicated
2023-02-03, 07:27:28
Ich bin gespannt ob es Zen4c mit 3DV geben wird. Der halbe L2 Cache profitiert vermutlich mehr als bei normalen Zen4.

MSABK
2023-02-03, 08:15:56
Hatten wir eigentlich schon die Frage ob der 7900X3d 6+6 Kern chiplets hat? Weil dann wäre der 3d Kern ja langsamer als der 7800X3d.

Nightspider
2023-02-03, 08:26:50
Ich bin gespannt ob es Zen4c mit 3DV geben wird. Der halbe L2 Cache profitiert vermutlich mehr als bei normalen Zen4.

Theoretisch könnte AMD zwei Lagen Cache mit halber Größe auf Zen4c stapeln, denn der V-Cache darf die Cores ja nicht überlappen.

Aber eher unwahrscheinlich.

Weil dann wäre der 3d Kern ja langsamer als der 7800X3d.

Wat? :confused:

Wat ist ein 3D Kern und wie kann ein 3D Kern langsamer sein als eine ganze 3D CPU?

Bei einer 6+6 Config hätte jeder Kern, des Chiplets mit V-Cache, mehr L3 Cache als beim 7800X3D

Wäre also nicht von Nachteil bei allen Spielen die nur 6 Kerne nutzen. Alles darüber hinaus wird interessant.

Ist die gleiche Situation wie bei einer 8+8 Config, wenn ein Spiel mehr als 8 Kerne nutzt.


Theorie meinerseits:
Genauso wie es Software gibt, die wenig Cache braucht, brauchen vielleicht auch manche Threads einiger Spiele nicht zu viel Cache wie die Mainthreads.
Manche Spiele spawnen Threads um relativ simple Dinge auszulagern und diese haben dann eventuell nicht so viele Cache sensitive Abhängigkeiten.
Games mit vielen Threads stocken ja auch nicht plötzlich, wenn ein Teil der Threads auf dem zweiten Chiplet läuft wegen höherer Latenzen.

Bin aber schon sehr auf Tests von PCGH und Computerbase gespannt.

Pirx
2023-02-03, 08:35:22
Bei Zen4D sollte es wieder ziemlich egal sein, wie schnell der RAM ist.

Ich würde mir wenn dann wieder billigen DDR5 kaufen und im Zweifelsfall den 7900X3D statt des 7800X3D holen, das bringt mehr Leistung als die Differenz in schnelleren RAM zu investieren.
der hat doch dann nur 6 Kerne mit L3-Cache-Erweiterung

Nightspider
2023-02-03, 08:39:16
Theorie 2:

Threads die weniger Cache sensitiv sein könnten, könnten von der 10-15% höheren Taktrate des 2. Chiplets profitieren.

Who knows.

Gewissheit werden ausführliche Tests bringen. Vorher den 12 Kerner schlechtzureden halte ich zum aktuellen Zeitpunkt für voreilig.


Theorie 3:

Es wird Spiele geben, die auf einem 7800X3D schneller laufen und es wird Spiele geben die auf einem 7900X3D schneller laufen und es wird keinen eineindeutigen Sieger geben.

Exxtreme
2023-02-03, 09:01:39
Theorie 2:

Threads die weniger Cache sensitiv sein könnten, könnten von der 10-15% höheren Taktrate des 2. Chiplets profitieren.

Who knows.


Wobei ich das für höchst unwahrscheinlich halte, dass Micros~1 den Windows-Scheduler so hinbekommt, dass der sowas erkennen kann, welcher Thread auf welchem Kern am besten läuft.

BlacKi
2023-02-03, 09:36:51
Das wird wie beim 5800X3D ne Spannungsache sein, der 5800X3D kriegt ja auch maximal 1.35V, die normalen Zen3 gehen bis 1.5V im Peak.
das hab ich so erst gestern realisiert, was die konsequenzen sind.





Ich würde mir wenn dann wieder billigen DDR5 kaufen und im Zweifelsfall den 7900X3D statt des 7800X3D holen, das bringt mehr Leistung als die Differenz in schnelleren RAM zu investieren.


dir ist klar, das wenn du mehr die mehr als 5ghz kerne nutzen willst, 6 kerne ausschalten musst? willst du 5,5ghz nutzen, hast du einen 6kerner! und als 12kerner bist du auf 1,35v limitiert und hast max 5ghz.



Hatten wir eigentlich schon die Frage ob der 7900X3d 6+6 Kern chiplets hat? Weil dann wäre der 3d Kern ja langsamer als der 7800X3d.natürlich hat der chiplets und damit alle nachteile die sich damit ergeben.




Bei einer 6+6 Config hätte jeder Kern, des Chiplets mit V-Cache, mehr L3 Cache als beim 7800X3D

Wäre also nicht von Nachteil bei allen Spielen die nur 6 Kerne nutzen. Alles darüber hinaus wird interessant.

Ist die gleiche Situation wie bei einer 8+8 Config, wenn ein Spiel mehr als 8 Kerne nutzt.


Theorie meinerseits:
Genauso wie es Software gibt, die wenig Cache braucht, brauchen vielleicht auch manche Threads einiger Spiele nicht zu viel Cache wie die Mainthreads.
Manche Spiele spawnen Threads um relativ simple Dinge auszulagern und diese haben dann eventuell nicht so viele Cache sensitive Abhängigkeiten.
Games mit vielen Threads stocken ja auch nicht plötzlich, wenn ein Teil der Threads auf dem zweiten Chiplet läuft wegen höherer Latenzen.

Bin aber schon sehr auf Tests von PCGH und Computerbase gespannt.ziemlich teurer 6kerner...




Es wird Spiele geben, die auf einem 7800X3D schneller laufen und es wird Spiele geben die auf einem 7900X3D schneller laufen und es wird keinen eineindeutigen Sieger geben.das wird so nicht kommen. immer wenn mehr als 6 kerne genutzt werden ist die cpu langsamer. immer wenn du weniger als 6 kerne nutzt hast du keine 12 kerne mehr im system, auch nicht für hintergrund tasks. die 3d kerne müssen off.

dildo4u
2023-02-03, 09:41:39
Das gute ist Reviewer können sofort den 7800X simulieren selbst wenn AMD ihn nicht sampelt, da kann jeder selber entscheiden ob man besser wartet.

Nightspider
2023-02-03, 10:40:35
Wobei ich das für höchst unwahrscheinlich halte, dass Micros~1 den Windows-Scheduler so hinbekommt, dass der sowas erkennen kann, welcher Thread auf welchem Kern am besten läuft.

Definitiv nicht.

Das müssten schon die GameDevs selber oder Tools mit viel Handarbeit und Testen erledigen, beides unrealistisch.

Könnte nur ab und zu im normalen Alltag auftreten, ohne das man davon etwas mitbekommt, welcher Thread gerade optimal verteilt.


dir ist klar, das wenn du mehr die mehr als 5ghz kerne nutzen willst, 6 kerne ausschalten musst?


wat? :confused:


immer wenn mehr als 6 kerne genutzt werden ist die cpu langsamer

Vor allem in den Spielen, die nicht vom Cache profitieren, wa? :ugly:

immer wenn du weniger als 6 kerne nutzt hast du keine 12 kerne mehr im system

Also ist es Nachts nicht immer dunkel?

Bitte erstmal Kaffee trinken vor dem Posten, danke. ;)

G3cko
2023-02-03, 10:48:48
da quasi immer empfohlen wird, Ryzen (egal welche Generation) nur mit 1DPC zu betreiben, fände ich es nur konsequent, wenn man auch die Boards darauf auslegen würde.

Leider muss man dafür immer auf die XOC Boards oder ITX gehen, wenn man nur 2 DIMMs auf dem Board haben will.

Das ist doch bei jeder CPU so und war auch schon immer so. Das ist keine Eigenheit von AMD. Serverboards haben sogar oftmals 3 DIMMs per Channel. Der Takt reduziert sich bei Vollbestückung dort noch viel weiter.

Willst du maximales OC, dann eben nur 2 DIMMs bei DualChannel-Plattformen. Aber immerhin hast du die Möglichkeit nachzurüsten. Niemand zwingt dich voll zu bestücken.

Hoher Takt ist schön, mehr RAM bei Speicherknappheit viel viel schöner.

dildo4u
2023-02-03, 12:11:30
12 Core Mobile Zen 4 im Passmark.


https://www.cpubenchmark.net/laptop.html

amdfanuwe
2023-02-03, 12:31:43
Ist nur der 12 Core 7845HX. Der 7945HX hat 16 Core.
Um so erstaunlicher, dass mit 46791 fast ein doppelt so hoher Wert gegenüber dem 6900HX 8 Core mit 24,640 Punkten ermittelt wird.

Pirx
2023-02-03, 12:36:24
7845 wäre ein 12-Kerner, 7945 der 16er

edit: viel zu spät

BlacKi
2023-02-03, 12:44:07
wat? :confused:

die 3dkerne dürfen nicht mit 1,45v plus laufen. überleg doch mal, was das bedeutet. entweder 12kerne @1,35v und all 5ghz, oder 5,5ghz@1,35v mit 6 aktiven und 6 deaktivierten 3dkernen.

in spielen spielst du so oder so nur mit 6 kernen, entweder mit den 6x 5ghz 3d kernen oder 6x5,5ghz ohne die 3d kerne.

DeadMeat
2023-02-03, 13:21:01
die 3dkerne dürfen nicht mit 1,45v plus laufen. überleg doch mal, was das bedeutet. entweder 12kerne @1,35v und all 5ghz, oder 5,5ghz@1,35v mit 6 aktiven und 6 deaktivierten 3dkernen.

in spielen spielst du so oder so nur mit 6 kernen, entweder mit den 6x 5ghz 3d kernen oder 6x5,5ghz ohne die 3d kerne.

Wird sicher witzig werden wenn Benchmarker mit processlasso permanent hin und her wechseln in allen möglichen Programmen und Spielen um direkt Vergleiche zu haben ;D

Lehdro
2023-02-03, 13:49:08
die 3dkerne dürfen nicht mit 1,45v plus laufen. überleg doch mal, was das bedeutet. entweder 12kerne @1,35v und all 5ghz, oder 5,5ghz@1,35v mit 6 aktiven und 6 deaktivierten 3dkernen.

in spielen spielst du so oder so nur mit 6 kernen, entweder mit den 6x 5ghz 3d kernen oder 6x5,5ghz ohne die 3d kerne.
Die Kerne können unterschiedliche Voltages bekommen. Sonst würde so etwas wie CO pro Kern auch gar nicht gehen. Das (individuelle Spannung pro Kern) geht übrigens seit Zen(1). (https://en.wikichip.org/wiki/amd/microarchitectures/zen#Core_2)
In Zen, each core has a digital LDO regulator (low-dropout) and a digital frequency synthesizer (DFS) to vary frequency and voltage across power states on individual core basis.
Du kannst also theoretisch 6x 5.5 GHz und 6x 5.0 GHz gleichzeitig kriegen wenn alles andere passt.

aceCrasher
2023-02-03, 13:55:27
Willst du maximales OC, dann eben nur 2 DIMMs bei DualChannel-Plattformen. Aber immerhin hast du die Möglichkeit nachzurüsten. Niemand zwingt dich voll zu bestücken.

Hoher Takt ist schön, mehr RAM bei Speicherknappheit viel viel schöner.
Das ist doch Blödsinn heutzutage, der RAM Verbrauch von Spielen steigt kaum noch, 16GB sind nach über einem Jahrzehnt immernoch okay. Außerdem gibt es heute so große Sticks dass 64GB auch mit 2 Slots möglich sind. Ich kenne niemanden der in den letzten 10 Jahren als Spieler noch nachträglich seinen RAM erweitert hat. Meiner Meinung nach werden die Boards nur weiterhin mit 4x DIMMs bestückt, damit sie ihre extrem teuren XOC Boards verkaufen können, das ist nämlich für nicht-LN2 Übertakter die Hauptattraktion.

vinacis_vivids
2023-02-03, 14:32:14
12C/16C Zen4 AllCore + 128MB VCache @ 5,8Ghz sind absolute Monster. Brachiale Rechenleistung und brachiale Bandbreite. Ich muss sagen sich freue mich riesig auf diese beiden AMD CPU's. Wenn der Preis noch bei ~600€ bis 700€ landet, wäre das absolut genial.

Langlay
2023-02-03, 14:45:28
12C/16C Zen4 AllCore + 128MB VCache @ 5,8Ghz sind absolute Monster. Brachiale Rechenleistung und brachiale Bandbreite. Ich muss sagen sich freue mich riesig auf diese beiden AMD CPU's. Wenn der Preis noch bei ~600€ bis 700€ landet, wäre das absolut genial.

Junge für dich nochmal zum Mitmeiseln.

Es wird keine 5.8GHz Allcore geben, das gibts nicht mal mit dem normalen 7950X. Das Cache CCD wird auf beim 7950X3D nicht groß über 5 GHz Takten, des weiteren ist der Multiplikator eh gelockt. Du kannst jetzt PBO anmachen und eventuell den Fmax +200 MHz einstellen mehr wird auch bei Zen4 3D nicht drin sein.

Deine feuchten Träume werden durch Wiederholung nicht realistischer.

vinacis_vivids
2023-02-03, 14:54:31
Klar macht der 7950X 16C AllCore ~5,8Ghz:
https://youtu.be/E3hMc07BaKg
https://youtu.be/9KypoyynW68

Langlay
2023-02-03, 15:11:35
Klar macht der 7950X 16C AllCore ~5,8Ghz:
https://youtu.be/E3hMc07BaKg
https://youtu.be/9KypoyynW68

Das ist ja auch keine Allcore Last. Zeig mal den 5.8GHz Allcore Cinebench Multi

Das der 7950X das bei Teillast macht okay, aber die 5.8GHz siehte halt nicht wenn wirklich alle Kerne ausgelastet sind. Irgendwelche Teillastszenarien sind für mich nicht 5.8GHz Allcore.

Für mich heisst 5.8 GHz Allcore. A) das Teil rennt mit fixem 58 Multi bei BCLK100 oder B) hat in z.b. Cinebench Multi ~5.8GHz auf allen Kernen.

Complicated
2023-02-03, 17:16:26
Also in dem Video sind 8 Cores über 5,8 und 8 Cores bei 5,775 GHz Takt zu sehen. 25 MHz fehlen da jetzt auf 8 Cores und wird mit dem ca. Symbol "~ 5,8 GHz" IMHO korrekt bezeichnet von ihm.

Edit: Möglicherweise zeigt das Tool allerdings nicht Cores sondern Threads an - die Auslastung ist hier bei ca. 50% durchgehend angezeigt - hier sogar all (Threads oder Kerne?) auf 5,8 GHz:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82585&stc=1&d=1675444666

Linmoum
2023-02-03, 17:48:47
Nur ist das, was in dem Video zu sehen ist, noch immer keine richtige Last. Dass der Takt bei Teillast (also vor allem in Spielen), derart hoch liegt, ist keine bahnbrechend neue Erkenntnis. Bringt halt auch vor allem nichts, weil es scheiß egal ist, ob nun die drei genutzten Kerne max. boosten oder alle. Davon steigt die Performance nicht. Wenn man schon von Allcore spricht, dann auch in einem Zusammenhang, wo es Vorteile bringt (= was wiederum heißt, dass der Takt eben nicht mehr so hoch liegt).

Bei den X3D mit 2 CCDs gibt's die Diskussion eh nicht, da das Cache-CCD sowieso einen niedrigeren Takt haben wird.

Complicated
2023-02-03, 18:19:29
Siehe mein Edit :)

vinacis_vivids
2023-02-03, 18:44:07
Bei CP2077@720p geht die Auslastung auf 80% hoch und der 7950X macht 16C AllCore @ ~5,8Ghz.

Langlay
2023-02-03, 19:45:18
Edit: Möglicherweise zeigt das Tool allerdings nicht Cores sondern Threads an - die Auslastung ist hier bei ca. 50% durchgehend angezeigt - hier sogar all (Threads oder Kerne?) auf 5,8 GHz:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82585&stc=1&d=1675444666

Ist beide Vids sind in Win11 22H2 entstanden, wo CPU Auslastungsanzeige komplett broken ist, inkl. aller 3rd Party Tools.

https://forums.overclockers.co.uk/threads/msi-afterburner-and-rtss-on-win11-22h2-update-to-4-6-5-beta2-manually-to-fix-incorrect-cpu-usage-monitor.18960735/

/Edit Quelle geändert

Linmoum
2023-02-03, 20:10:17
Bei CP2077@720p geht die Auslastung auf 80% hoch und der 7950X macht 16C AllCore @ ~5,8Ghz.Ja, geile "Last" bei einer Temperatur von unter 50°C, wahrscheinlich auch noch mit einem Lukü oder irgendeiner durchschnittlichen 360mm AiO. Völlig sinnlose Diskussion einfach nur.

Das was Langlay schreibt dann wahrscheinlich auch noch.

Wovon soll es davon ab überhaupt gehen? Dass CPUs in Spielen hoch (auch "Allcore") boosten? Tell me more. Das ist so überraschend wie die Tatsache, dass der Boden bei Regen nass wird.

Nightspider
2023-02-03, 20:55:09
die 3dkerne dürfen nicht mit 1,45v plus laufen. überleg doch mal, was das bedeutet. entweder 12kerne @1,35v und all 5ghz, oder 5,5ghz@1,35v mit 6 aktiven und 6 deaktivierten 3dkernen.

in spielen spielst du so oder so nur mit 6 kernen, entweder mit den 6x 5ghz 3d kernen oder 6x5,5ghz ohne die 3d kerne.

Das ergibt absolut keinen Sinn und ist dämlich. Sorry aber wieso sollte AMD das so stümperhaft umsetzen?

Jedes Chiplet bekommt seine eigene Spannung. Ende.

12C/16C Zen4 AllCore + 128MB VCache @ 5,8Ghz sind absolute Monster. Brachiale Rechenleistung und brachiale Bandbreite. Ich muss sagen sich freue mich riesig auf diese beiden AMD CPU's. Wenn der Preis noch bei ~600€ bis 700€ landet, wäre das absolut genial.

Ryzen Zen4 gibts nur mit 64 MB V-Cache. Hör auf Blödsinn zu schreiben.

Zen 4 besitzt schon 32MB pro Chiplet, 64 MB beim 16 Kerner. Dazu kommen dann nur ein mal 64 MB und das V-Cache Chiplet taktet deutlich niedriger.

Hammer des Thor
2023-02-03, 21:17:58
12C/16C Zen4 AllCore + 128MB VCache @ 5,8Ghz sind absolute Monster. Brachiale Rechenleistung und brachiale Bandbreite. Ich muss sagen sich freue mich riesig auf diese beiden AMD CPU's. Wenn der Preis noch bei ~600€ bis 700€ landet, wäre das absolut genial.
Ähem, hast Du die Vorstellung von AMD zur CES überhaupt gesehen? Die bekommen keine 128 MB extra cache sondern nur 64 wie die R/X3D, die Dinger sind asymmetrisch, die CCDs mit dem extra cache werden genauso gelockt sein auf 5 GHZ oder minimal drüber die die der 7800XD3, deshalb haben wir uns gestern gestritten!

BlacKi
2023-02-03, 21:49:28
Die Kerne können unterschiedliche Voltages bekommen. Sonst würde so etwas wie CO pro Kern auch gar nicht gehen. Das (individuelle Spannung pro Kern) geht übrigens seit Zen(1). (https://en.wikichip.org/wiki/amd/microarchitectures/zen#Core_2)

Du kannst also theoretisch 6x 5.5 GHz und 6x 5.0 GHz gleichzeitig kriegen wenn alles andere passt.


mach mal bitte und zeig mal her wie du auf der hälfte der kerne 1v anlegst und die andere hälfte mit 1,35v.


geht nicht. so groß ist der spielraum nicht.

Lehdro
2023-02-03, 23:47:09
mach mal bitte und zeig mal her wie du auf der hälfte der kerne 1v anlegst und die andere hälfte mit 1,35v.


geht nicht. so groß ist der spielraum nicht.
Was genau willst du von mir jetzt sehen? Ich kann dir Core VIDs von meinem X3D schicken, aber reicht dir das auch? (https://abload.de/img/corevids4sdt6.jpg)
Logischerweise wird von den VRMs immer die höchste VID supplied, aber die Cores können individuell über die dLDO abweichen. So werden auch die Sleepstates erzeugt wenn andere Cores noch volle VID Voltage benötigen. Oder halt CO im beschränktem Rahmen der erlaubt ist.

Referenzen für dich zum Einlesen/Nachlesen/Anschauen:

Wikichip Zen Power (https://en.wikichip.org/wiki/amd/microarchitectures/zen#Power)
SkatterBencher über Zen 4 dLDO/Power/VIDs/OCVIDs/Bypass Modes (https://skatterbencher.com/2022/09/26/raphael-overclocking-whats-new/)
dLDO in Epyc für per Core Voltages (https://hexus.net/media/uploaded/2017/6/84295a1a-622f-417a-9283-682d4b59cda4.png)
dLDO extra erwähnt in AGESA 1.2.0.0 - ist also aktiv (https://www.hardwareluxx.de/index.php/news/hardware/mainboards/55191-agesa-comboam4v2pi-1-2-0-0-und-taeglich-gruesst-das-firmware-update.html)
CCX OC Tool (https://www.computerbase.de/2019-07/ryzen-3000-ccx-overclocking-tool/)
Ryzen Master Reference Guide (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwiXzfPnp_r8AhUUQvEDHQ1EC6U4ChAWegQIIxAB&url=https%3A%2F%2Fwww.amd.com%2Fsystem%2Ffiles%2Fdocuments%2Fryzen-master-quick-reference-guide.pdf&usg=AOvVaw1WMGMkwAckoa6lt23t8twx)
CTR Guide (https://www.guru3d.com/articles_pages/clocktuner_2_for_ryzen_(ctr)_guide,1.html)
Per Core Voltage in Zen 1 (https://www.anandtech.com/show/11964/ryzen-mobile-is-launched-amd-apus-for-laptops-with-vega-and-updated-zen/4)
Zen 3 Deepdive (https://www.anandtech.com/show/16214/amd-zen-3-ryzen-deep-dive-review-5950x-5900x-5800x-and-5700x-tested/8)
Zen @ ISSCC (https://videocardz.com/65774/more-details-about-amd-zen-cpu-core-revealed-at-isscc)
Digital per Core LDO in Zen 2 (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwijhbzzr_r8AhUsR_EDHSvIA0gQFnoECEAQAQ&url=https%3A%2F%2Fcourses.engr.illinois.edu%2Fcs433%2Ffa2019%2Fprojects%2Famd_ze n_2.pdf&usg=AOvVaw2Ie1s7n3635IruKqv91j7s)
per Core LDO in EPYC (https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwj33ICisPr8AhXoVPEDHVlxAEc4ChAWegQIDhAB&url=https%3A%2F%2Fwww.amd.com%2Fsystem%2Ffiles%2Fdocuments%2FThe-Energy-Efficient-AMD-EPYC-Design.pdf&usg=AOvVaw2VhgH2ZdiRJEpITvgF50bY)
Idle Voltages in Zen 2 per Core/Sleepstates (https://www.reddit.com/r/Amd/comments/cbls9g/the_final_word_on_idle_voltages_for_3rd_gen_ryzen/)

vinacis_vivids
2023-02-06, 12:12:24
https://www.reddit.com/r/Amd/comments/10u9t0t/7840hs_cinebench_result_leak_8_core_35w_ryzen_7/?utm_source=share&utm_medium=android_app&utm_name=androidcss&utm_term=1&utm_content=share_button

Ryzen 7 7840hs 8C/16T cinebench leak

MSABK
2023-02-06, 12:52:21
https://www.reddit.com/r/Amd/comments/10u9t0t/7840hs_cinebench_result_leak_8_core_35w_ryzen_7/?utm_source=share&utm_medium=android_app&utm_name=androidcss&utm_term=1&utm_content=share_button

Ryzen 7 7840hs 8C/16T cinebench leak

Wo kann man das einordnen?

dildo4u
2023-02-06, 13:02:44
14 Core Alder Lake.

https://videocardz.com/newz/amd-ryzen-7-7840hs-has-been-tested-with-cinebench-r23-up-to-26-faster-than-r7-6800h

MSABK
2023-02-06, 13:05:18
Ok, immerhin ist der mal bissi schneller als der Vorgänger. Weil Ryzen 6xxx war ja eher ein sehr kleiner Sprung.

user77
2023-02-06, 13:05:21
Wo kann man das einordnen?


warum lösche ich den SIngle Core, wenn der Multi da steht :freak: -> 1.588 Punkte

der AMD Ryzen 7 6800HS hat Single ca. 1500 Punkte und Multi ca. 12680 Punkte.

Twodee
2023-02-06, 13:26:31
verglichen mit einem Desktop 5700G@Stock:
MC: +20% | SC: +5%
und das mit 35Watt - Krass

Savay
2023-02-06, 16:48:36
Ich kann dir Core VIDs von meinem X3D schicken, aber reicht dir das auch? (https://abload.de/img/corevids4sdt6.jpg)

Nur als Ergänzung und fürs Protokoll von nem Stock 5950X...da sieht man OOTB auch durchaus mal größere Differenzen von ~0,5V...

82637

vinacis_vivids
2023-02-06, 17:42:37
https://www.reddit.com/r/Amd/comments/10uo558/typo_ryzen_7700_non_x_labeled_as_10_cores_on/?utm_source=share&utm_medium=android_app&utm_name=androidcss&utm_term=1&utm_content=share_button

Ryzen 7700 non-X gelabelt als 10C/20T CPU bei AMD?

DeadMeat
2023-02-06, 19:52:49
Aus irgendwelchen Gründen sind dort die GPU Einheiten mit drinnen, hat mal wieder jemand nicht aufgepasst. War bei den anderen non X auch so, 14 Kerne und 8. Ist schon so seit die vorgestellt worden.

Lehdro
2023-02-07, 14:58:25
Nur als Ergänzung und fürs Protokoll von nem Stock 5950X...da sieht man OOTB auch durchaus mal größere Differenzen von ~0,5V...

82637
Danke, so hatte ich das auch von meinem 5950X in Erinnerung.

Ryzen kann das also, ist nur die Frage wie das AMD mit dem X3D dann umsetzt. Da aber die hohe Boostfrequenz so gesetzt ist, muss das Chiplet ohne 3D Vcache zwangsweise mehr Vcore beim Boosten bekommen. Ist nur die Frage was AMD bei allcoreload plant, wobei ich denke durch das Limit von 120W TDP, wird man eh in sehr humanen Regionen landen was Vcore angeht. Bleibt noch Gaming und die wilde Rumtakterei da - da wird es wohl drunter und drüber gehen: Genug Last dass alles boostet und zu wenig um die Taktraten/Vcore senken zu müssen. Bin gespannt.

Zossel
2023-02-07, 18:52:25
Das Trauerspiel geht weiter:

https://www.phoronix.com/news/AMD-Open-Source-FW-2023

davidzo
2023-02-07, 20:56:00
Das wird halt nur von Google gepusht. Allen anderen (=Microsoft) ist es super egal was für ein BIOS dadrauf läuft. Scheinbar ist da die Nachfrage aus dem Markt nicht vorhanden und die klassischen UEFI Hersteller so günstig dass es keine Bestrebungen seitens der Boardhersteller gibt. Mit AGESA hat AMD ja sowieso einen großen proprietären Blob in der Firmware, übernimmt dafür aber auch viel Verantwortung von den Boardherstellern. Die schicken sogar BIOSupdate CPUs for free, als Entlastung für die boardhersteller. Damit sind anscheinend alle zufrieden.

Mich wundert ein bisschen dass es bei den Servern keine größere Nachfrage gibt. Gerade als Cloud Service provider zum Beispiel würde ich doch verlangen dass ich den quellcode der firmware einsehen und auf Sicherheitslücken/backdoors überprüfen kann.
Den Desktop sehe ich eher sekundär weil die meisten Consumer weder das knowhow noch den drang haben rein zu sehen.

Complicated
2023-02-07, 21:16:55
Weil es immer mehr als Sicherheitsrisiko auffällt: https://www.securityweek.com/us-gov-issues-stark-warning-calling-firmware-security-single-point-failure/
The government’s warning comes as threat hunters spot signs that nation-state APT actors are using UEFI firmware implants to maintain stealthy infections and survive reboots and OS reinstallations. The notorious FinSpy surveillance spyware toolkit was also fitted with a bootkit to conduct stealthy infections.

In the report, the agencies also warned of “complex supply chains” that compound the problems securing firmware deployments.

“In PC production, for example, the OEMs are typically responsible for firmware and the rest of the PC platform elements. However, many OEMs outsource firmware development to third-party suppliers where OEMs may not have visibility into their cybersecurity hygiene. Even if OEMs establish security standards, they may not be able to enforce supplier security protocols across a wide range of components and sub-suppliers,” the government agencies warned.

vinacis_vivids
2023-02-07, 22:56:33
https://www.hardwaretimes.com/amd-ryzen-9-7845hx-is-31-and-90-faster-than-the-intel-core-i9-12900hx-and-ryzen-9-6900hx-fastest-notebook-cpu-in-passmark/

Ryzen 9 7845hx ist 31% bzw. 90% schneller als i9 12900hx und Ryzen 9 6900hx.
78% schneller als Apple M2 Max.

AMD räumt richtig auf im mobilen CPU-Markt. Die Konkurrenz sieht nur noch Rücklichter.

Das ist das geile bei AMD, hier gehts richtig um technischen Fortschritt.

amdfanuwe
2023-02-08, 01:00:36
Bergamo 128 Core
https://appuals.com/epyc-9754-up-for-purchase/
https://cdn.appuals.com/wp-content/uploads/2023/01/Flslb9caAAASGPd-1536x1152.jpg.webp

Noch ein HWInfo Screenshot auf reddit:
https://www.reddit.com/r/Amd/comments/1064trq/amd_epyc_9754_bergamo/
Dies per CPU 10

Verbaut AMD da etwa doch 2 verknüpfte Siena I/O Dies?
Etwa um auf 16 IF-Links für die 8 ZEN4c Chiplets zu kommen?
Genoa I/O hat ja nur 12 IF-Links.

basix
2023-02-08, 02:09:32
Interessanter Gedanke mit den 2x Siena IOD.

Skysnake
2023-02-08, 06:12:04
Oder um noch wichtiger auf 24 DDR Channels zu kommen. Das wäre nen Killerfeature gegen Intel in vielen Bereichen.

mksn7
2023-02-08, 09:11:37
Fehlt auf dem einen Socket ein thread? Jeweils 128 cores pro Socket, aber einmal 255 und einmal 256 threads...

amdfanuwe
2023-02-08, 10:29:10
Oder um noch wichtiger auf 24 DDR Channels zu kommen. Das wäre nen Killerfeature gegen Intel in vielen Bereichen.
Wie soll das denn gehen?

amdfanuwe
2023-02-08, 10:31:44
Fehlt auf dem einen Socket ein thread? Jeweils 128 cores pro Socket, aber einmal 255 und einmal 256 threads...
Ja, merkwürdig.
Stimmen die 10 vielleicht auch nicht.
Keiner Erfahrung mit diesen Prozessor Info Screens bei EPYC?

mksn7
2023-02-08, 10:33:52
Ich würde sagen der Screenshot ist entweder fehlerhaft oder fake. Weder die 10 dies noch die 255 threads machen Sinn.

Zossel
2023-02-08, 17:42:07
Mich wundert ein bisschen dass es bei den Servern keine größere Nachfrage gibt. Gerade als Cloud Service provider zum Beispiel würde ich doch verlangen dass ich den quellcode der firmware einsehen und auf Sicherheitslücken/backdoors überprüfen kann.

Ich kenne virtuell niemanden der von diesen BIOS/UEFI/KVM Quatsch im X86-Server-Bereich nicht genervt ist.
Und vor dem Hintergrund das wahrscheinlich immer weniger Windows auf physikalischen Blechen läuft machen diese schlechten grafischen KVM-Lösungen immer weniger Sinn.
Allerdings scheuen die kommerziellen Virtualisierungsplattformen sich auch vor optionalen Textconsolen.

An das was es im Non-X86-Bereich gibt/gab kommt das einfach nicht ran.

davidzo
2023-02-08, 19:31:38
Ich kenne virtuell niemanden der von diesen BIOS/UEFI/KVM Quatsch im X86-Server-Bereich nicht genervt ist.
Und vor dem Hintergrund das wahrscheinlich immer weniger Windows auf physikalischen Blechen läuft machen diese schlechten grafischen KVM-Lösungen immer weniger Sinn.
Allerdings scheuen die kommerziellen Virtualisierungsplattformen sich auch vor optionalen Textconsolen.

An das was es im Non-X86-Bereich gibt/gab kommt das einfach nicht ran.
Ja, ich würde es auch erwarten dass Coreboot für Admins und DevOps ein wichtiges Feature ist.

Aber anscheinend führt das nicht zu konkreten Kaufentscheidungen oder Druck auf die Hersteller.

I guess nobody gets fired for buying a server with AMI/Award/Phoenix BIOS.

vinacis_vivids
2023-02-09, 20:25:00
https://www.hardwaretimes.com/amd-ryzen-7000-dragon-range-mobile-cpus-can-sip-over-700w-power-when-overclocked-rumor/

Dragon Range APU soll angeblich bis zu 700W skalierbar sein. 🙈

DeadMeat
2023-02-09, 20:42:24
Vermutlich genau so 700w wie bei meinem z590 board 4000w als standard eingestellt sind.

OgrEGT
2023-02-10, 06:27:30
https://www.computerbase.de/2023-02/asrock-4x4-box-7000-d5-kleine-barebones-erhalten-ryzen-7x35u-mit-rembrandt-r/
Neue Asrock MiniPCs mit mobile Rembrandt APUs...
Im Artikel ist auch eine schöne Übersicht über die gesamte 7000er (U, HS, HX) mobile Palette die Dank neuem Namensschema Dragon Range, Phönix, Rembrandt, Barcelo und Mendocino Chips umfasst...
Könnte bei den Desktop APUs also 7000G wohl dann auch so sein dass es dann APUs auf Basis Rembrandt und Phönix in einer Serie gibt? Rembrandt als 6000G wurde ja bis heute nicht gelauncht... wann sollen die nun erscheinen zusammen mit den Phönix APUs in 2H 2023?

amdfanuwe
2023-02-10, 12:08:12
Könnte bei den Desktop APUs also 7000G wohl dann auch so sein dass es dann APUs auf Basis Rembrandt und Phönix in einer Serie gibt? Rembrandt als 6000G wurde ja bis heute nicht gelauncht... wann sollen die nun erscheinen zusammen mit den Phönix APUs in 2H 2023?
Rembrand-R kommt später als Restposten, wie damals die 4000er.
Phoenix erst, wenn der Mobile Markt bedient ist.


Rembrandt-R : Native PCIe® Lanes (Total/Usable): 20/16 (https://www.amd.com/en/product/12941)
Phoenix: Native PCIe® Lanes (Total/Usable): 20/20 (https://www.amd.com/en/product/13036)
Hat jemand eine Erklärung für die 20/16 bei Rembrandt-R? Oder liegt das nur am Mobile Sockel?

amdfanuwe
2023-02-10, 12:51:25
https://pbs.twimg.com/media/Foj84mjWIAE9kcx?format=jpg&name=small
https://twitter.com/AMDGPU_/status/1623825717082443776?s=20
https://youtu.be/WRXZoDhk9Rw?t=493

Was ist denn da los?
Optimiert AMD nicht auf Intel?
Optimiert Nvidia nicht für AMD CPUs?
Noch eine Intel optimierte dll unterwegs in Windows?

DeadMeat
2023-02-10, 13:00:26
Es wurde in der Vergangenheit mal beobachtet das die Nvidia GPUs(Treiber) mehr CPU Last erzeugen, bis zu einem Punkt wo kleine CPUs stark einbrechen. Da gabs einige Tests wo eigentlich stärker NVidias hinter langsameren AMD Karten waren.
Sollte das noch aktuell sein, wäre das zumindest ein Hinweis warum die Karten besser laufen auf dem 8+8er Intel, der hat einfach mehr Kerne um sowas abzufangen.
Warum allerdings aufeinmal die AMD Karten langsamer auf Intel sind ist merkwürdig das gabs bisher nicht.