Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7000 (Zen 4) Review-Thread
Seiten :
1
2
3
4
5
[
6]
7
8
9
10
11
12
13
14
ElectricLeaf
2023-02-09, 01:32:26
Bei den Konsolen haben wir 8 Kerne mit 16 Threads aufgrund Zen2 die straucheln teilweise noch mit 1080p 60FPS und am PC tuts genauso ein Comet Lake i3 oder Zen+ wie ein Ryzen 3 1500.
ElectricLeaf
2023-02-10, 19:47:47
Ist ja toll was Zen 4 kann, das gleiche En und Decode kann von Intel eine 3 Jahre alte IGP.
Am anderen Ende kann eine INTEL IGP und GPU das selbe, weil die ganzen Codecs Hardwired sind.
Daraus ergeben sich Qualitätsunterschiede in UHD, bei 1440p merkt am Ende niemand was ob es die CPU oder die GPU mit Quicksýnc war.
w0mbat
2023-02-15, 11:17:26
Uii, HWUB hat gerade die CPU-Benchmarks von CB komplett zerlegt. Also sie sind nicht falsch, aber der große "Vorsprung" von Intel liegt ausschließlich am RAM.
qLjAs_zoL7g
dildo4u
2023-02-15, 11:32:01
Dafür werden bei PCGH/CB die 3D Modelle mher zulegen, das Gegenteil wird beim Hardware Unboxed Test der Fall sein.
Der Aufpreis von 7700 zu 7800x3D wird dort kaum Sinn machen was am RAM aber auch mit der Gameauswahl zu tun hat.
w0mbat
2023-02-15, 11:39:23
Ne, auch Zen3D macht mit schnellem RAM Sinn. Klar, bei CB sollte er noch mehr zulegen, aber auch mit schnellem RAM ist X3D deutlich flotter.
Crazy_Chris
2023-02-15, 11:45:52
Uii, HWUB hat gerade die CPU-Benchmarks von CB komplett zerlegt. Also sie sind nicht falsch, aber der große "Vorsprung" von Intel liegt ausschließlich am RAM.
Ist doch i.o. Letztens hat LTT auch diversen RAM getestet und da kam heraus das es auf Intel deutlich einfacher ist höhere Taktraten im Vergleich zu Zen 4 laufen zu lassen. RAM Controller scheint einfach noch besser auf Intel zu sein. Erinnert mich gerade ein wenig an die Anfangszeit mit Zen 1.
w0mbat
2023-02-15, 12:13:32
Wobei Intel eben nicht so stark von schnellem RAM profitiert. HWUB hat ja auch DDR5-7200 mit getestet.
Der_Korken
2023-02-15, 13:02:21
Uff, das sind teilweise brutale Unterschiede. Und es erklärt vor allem, warum Zen 4 in den Reviews so unterschiedlich wegkommt in Spielen. Ich vermute mal, dass das DDR5-6000 EXPO-Kit auch die Subtimings anders gesetzt hat, als der "Standard DDR5", denn der setzt sich auch immerhalb der 6000er RAMs immer ein gutes Stück ab. Teilweise setzen auch die Boards unterschiedliche Subtimings, was dann zu Performance-Unterschieden von bis zu 10% führen kann zwischen langsamsten und schnellsten Board: https://www.youtube.com/watch?v=UN2gkbMQ2fs
Das könnte tatsächlich dazu führen, dass die 3D-Modelle sich bei CB massiv von den normalen Modellen absetzen könnten, während es bei HWUB nicht so krass ist. Bei PCGH sind die Zen 4 Modelle vor kurzem auch bei sehr CPU-lastigen Benches sehr schlecht weggekommen und wurden fast durchgängig vom 5800X3D geschlagen. Dort waren es auch "nur" DDR5-5200 für Zen 4, welcher schnell mal 15% langsamer ist als ein 6000er EXPO-Kit.
Aus technischer Sicht frage ich mich natürlich woran das liegt. Nutzt Intel den L3 deutlich effizienter als AMD? Ist der Prefetch so viel besser? Die Verdränungsstrategie? Haben die Cores oder der IMC eine zu kleine Load-Queue, sodass Queries in einer deutlich ungünstigeren Reihenfolge beim RAM aufschlagen und dann öfter die Banks(?) gewechselt werden müssen? Das fühlt sich in der Tat ein wenig wie bei Zen 1 an, wo z.B. auch 4 DIMMs bzw. 2x Dual Rank DIMMs bei den min fps deutlich schneller waren als 2x Single Rank DIMMs.
M4xw0lf
2023-02-15, 13:10:39
Uii, HWUB hat gerade die CPU-Benchmarks von CB komplett zerlegt. Also sie sind nicht falsch, aber der große "Vorsprung" von Intel liegt ausschließlich am RAM.
https://youtu.be/qLjAs_zoL7g
Das ist doch kein zerlegen, das sind halt verschiedene Ansätze - Nach Spezifikation testen oder nach Willkür. Das heißt nicht dass cb oder pcgh irgendwas falsch machen oder die Ergebnisse nicht stimmen.
r3ptil3
2023-02-15, 13:26:55
Also ich sehe da bei Intel selbst mit dem langsamsten RAM noch vor oder gleichauf mit dem 7700X auf DDR5 6000 CL30 EXPO.
Hat noch niemand Intel mit optimierten Sekundärtimings getestet oder?
w0mbat
2023-02-15, 14:01:54
Das ist doch kein zerlegen, das sind halt verschiedene Ansätze - Nach Spezifikation testen oder nach Willkür. Das heißt nicht dass cb oder pcgh irgendwas falsch machen oder die Ergebnisse nicht stimmen.
Les doch bitte nochmal meinen Kommentar. Ich hab nirgends geschrieben dass es Willkür oder falsch wäre. Es ist auch kein bias, CB hat auch schon Intel CPUs mit langsameren Speicher getestet, weil das halt default war.
Trotzdem entsprechen die Ergebnisse von CB eben nicht der Realität der meisten Nutzer. Ich verstehe die Idee hinter dieser Testmethode und mMn müsste man sie nicht einmal wirklich ändern, man sollte aber im Test eindeutig darauf hinweisen. Also nicht nur, was für RAM genutzt wurde, sondern war für einen großen Einfluss diese Wahl auf die Testergebnisse hat. Das war früher nicht so extrem und ist mit Zen 4 in der Art schon fast "neu".
Die meisten werden sich aktuell DDR5-6000 oder 6400 kaufen und damit ist ein 7700X eben nicht 15% langsamer als ein 13700K, sondern vielleicht eher 5%, was die Entscheidung stark beeinflussen kann.
Also ich sehe da bei Intel selbst mit dem langsamsten RAM noch vor oder gleichauf mit dem 7700X auf DDR5 6000 CL30 EXPO.
Hat noch niemand Intel mit optimierten Sekundärtimings getestet oder?
Man sieht ja auch wie Intel in dem Test skaliert, HUWB geht bei Intel ja sogar auf DDR5-7200 hoch, was mit Zen 4 nicht möglich ist. Intels Architektur ist viel unabhängiger von RAM, was ja auch ein großer Vorteil sein kann.
HWU sagt auch, dass der ganz große Performancehit eben von dem zu niedrig getakteten IOD kommt, wenn man nicht 6k-Speicher einsetzt, was plausibel klingt. Und die sagen auch, dass es schlichtweg keinen Sinn ergibt, einen 300$-Prozessor mit Billigspeicher zu testen ;).
Und da viele Bretter noch zusätzlich die Timings versägen, wenn man den falschen 6k-Speicher einsetzt, ist das auch noch doppelt blöd. Da ist noch echt viel BIOS-Arbeit nötig bei der neuen Plattform ;). Da ist Intel einfach ein bisschen Problemloser als Zen4. Klar, der X3D wird das Problem dann größtenteils umgehen :D.
Crazy_Chris
2023-02-15, 17:03:49
HWU sagt auch, dass der ganz große Performancehit eben von dem zu niedrig getakteten IOD kommt, wenn man nicht 6k-Speicher einsetzt, was plausibel klingt. Und die sagen auch, dass es schlichtweg keinen Sinn ergibt, einen 300$-Prozessor mit Billigspeicher zu testen ;).
Nicht das hier einer Komplett-PCs kaufen würde (:biggrin:) aber ich denke schon das auch schlechter Speicher mit getestet werden sollte da daran gerne gespart wird.
r3ptil3
2023-02-15, 18:21:36
Ist eigentlich der Verbrauch mit "EXPO on" immer noch problematisch, sprich ca. 20%+ Verbrauch zusätzlich im IDLE?
Lehdro
2023-02-18, 11:56:32
HWUB hat mal ein paar einfache Timingtunings für Zen 4 durchgeführt und getestet:
MOatIQuQo3s
TL;DR: Tuning bringt ca 10%, in Extremfällen 20%. Erstaunlich ist das 5600 CL28 DR mit Tuning meistens ähnlich schnell wie 6000 CL30 mit Tuning ist.
Der_Korken
2023-02-18, 12:18:22
Wirklich interessanter Test. Auch dass SR vs DR mit drin ist, denn das war immer so eine Sache, die in Tests unter den Tisch gefallen ist. Bei Spiderman wird es nahezu absurd: DDR5-5600 tuned vs untuned sind >30% mehr 1%-Lows ;D. Selbst bei den DDR5-6000er Kits machen die unterschiedlichen Subtimings 30% bei den Lows aus zwischen dem langamsten und schnellsten Kit. Das ist wirklich Zen 1 reloaded.
Daraus kann man folgern, dass die Performance-Unterschiede aus dem anderen HWUB-Test hauptsächlich vom Speicher kommen. Ich weiß nicht wie flexibel der IF-Takt noch einstellbar ist, aber man hätte vielleicht noch eine Konfiguration testen können, wo nur der IF-Takt gesenkt wird. Meine Vermutung wäre, dass das nicht so viel ausmacht, sondern die RAM-Timings hier der King sind.
Woran liegt das? Intel scheint nicht so stark von diesen Timings abhängig zu sein. Ist es der IMC, der die Speicheranfragen so ungünstig bündelt, dass ständig Bänke auf- und zugemacht werden müssen? Hat es was mit den Load-Queues in den Kernen zu tun, dass zu wenige Loads in flight gehalten werden können und deswegen der RAM ineffizienter genutzt wird? An irgendwelchen Core-Topologien wird es wohl kaum noch liegen nachdem Intel mittlerweile auf einen Ring mit >=14 Teilnehmern setzt (8xP-Core, 4xE-Core, SoC, GPU, ...).
w0mbat
2023-02-18, 12:21:06
Richtig interessant, dass subs-timings, wie schon beim ursprünglichen Zen, so eine wichtige Rolle spielen. Je höher der RAM taktet desto weniger wichtig, aber bei DDR5-5200 extrem wirksam.
robbitop
2023-02-18, 12:24:33
Das verspricht für Zen4X3D schonmal gutes. :)
MSABK
2023-02-18, 14:01:43
Das ist halt dir erste Gen mit DDR5, wird ähnlich wie bei Zen1 damals, der hatte keinen guten Memcontroller.
aufkrawall
2023-02-18, 14:33:48
Tja, dann mal los und PCGH-Benchmark nachgestellt?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13232410&postcount=3003
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13234241&postcount=3068
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13234300&postcount=3072
Wär gut, wenn das ein Mod das in das Benchmark-Forum raussplitten könnte.
https://youtu.be/DTFUa60ozKY
Ich sags ja immer, einen großen Bogen um Asus machen, vor allem bei AMD-CPUs.
r3ptil3
2023-02-22, 14:44:01
https://youtu.be/DTFUa60ozKY
Ich sags ja immer, einen großen Bogen um Asus machen, vor allem bei AMD-CPUs.
Mir fehlen immer noch Reviews zu den Premium ASUS B650 Boards (B650-F,-E, B650E-I...) um solche Aussagen als richtig stehen zu lassen.
dargo
2023-02-22, 14:46:42
https://youtu.be/DTFUa60ozKY
Ich sags ja immer, einen großen Bogen um Asus machen, vor allem bei AMD-CPUs.
Und ich sage immer du redest pauschalen bullshit. ;)
Linmoum
2023-02-22, 14:58:09
Asus hat den Vogel eh schon wieder beim Marketing und dem X670E Hero abgeschossen. Hat natürlich die gesamte Presse kommentarlos übernommen, außer Thorsten von PCGH. Der hat im Heft sowie im Video dazu das auch ausführlicher ausgeschlachtet. Zurecht. Asus kann Marketing schon ganz gut, muss man denen lassen. Hauptsache mit irgendwas werben, wer nimmt das da schon so genau.
Außer Gigabyte verwenden alle Testteilnehmer eindeutige USB-Beschriftungen mit Geschwindigkeitsangabe - aber bei Asus steht die "40" nicht für die USB-, sondern einmal für die mit-Display-Port-Datenraten und einmal ist sie ganz falsch.
eratte
2023-02-22, 15:24:41
Die mit 40 bezeichneten sind nicht nur mit DP sondern auch mit TB4/USB4 - was daran falsch?
Und welcher soll der falsch bezeichnete sein?
https://forum.planet3dnow.de/data/product_images/mainboard/1/1040_1885.jpg?1664891711
Denniss
2023-02-22, 15:50:41
https://youtu.be/DTFUa60ozKY
Ich sags ja immer, einen großen Bogen um Asus machen, vor allem bei AMD-CPUs.
Nicht zu vergessen MSI in diesem Test - da kannst ne tasse kaffee trinken bevor die in Windoofs sind. ~20 sek bei Gigabreit vs ~50 Sek bei MSI von Knopf drücken bis Dektop
Linmoum
2023-02-22, 15:51:50
Weil der verbaute Maple Ridge von Intel nur mit TB 40Gbit/s liefert - das Board aber überhaupt nicht TB-zertifiziert ist. Asus wirbt also mit etwas, was in der Theorie zutreffend wäre, in der Praxis bei diesem konkreten Board aber schlicht gelogen ist. Einer der beiden ist in der Praxis sogar schlicht nur ein 10Gbit/s-Port, bei dem anderen kommt Asus auf die 40Gbit/s auch nur mit irgendwelchen Ausflüchten und mittels DP.
Nicht zu vergessen MSI in diesem Test - da kannst ne tasse kaffee trinken bevor die in Windoofs sind. ~20 sek bei Gigabreit vs ~50 Sek bei MSI von Knopf drücken bis Dektop
Also das interessiert mich nicht wirklich. Leistungen sind wichtiger und da hat Asus in Hardware und Software einfach den Vogel abgeschossen.
Ich mochte Asus in der AM3(+)-Ära gerne, aber danach kam der Abstieg.
Die ganzen High-End X570 mit 8 SATA statt 3 m.2, gruselig.
dargo
sry dargo, aber ich seh das nunmal so, und das ist begründet. Ich halte selbst Biostar für besser. Vielleicht wirds ja irgendwann wieder besser.
Lehdro
2023-02-22, 16:35:53
Ich halte selbst Biostar für besser. Vielleicht wirds ja irgendwann wieder besser.
Fand ich bei dem PCGH Mainboard Test auch arg verwunderlich warum gerade Biostar als Einzige eine komplett vernünftige PCIe Allokation, sowohl physisch als auch elektrisch, boten. Alle anderen haben irgendwelche unnötigen Pferdefüße:
- komische Slotaufteilung (x4 viel zu nah am PEG)
- unnütze PCIe Laneaufteilung (2 x2 Slots, aber kein x4?!)
- ungünstige shared Lanes bei PCIe-Slots mit m.2 Slots
- ungenutzte Lanes bei gleichzeitigem sharing von anderen I/O Features
- SATA Anschlüsse über zusätzliche m.2 priosiert, haben wir wieder 2014?
Das alte, damals zum Launch 200€ kostende X570GT8 hat deutliche Schwächen aber nach wie vor das beste Layout, was PCIe-Verteilung angeht. Das macht Biostar sehr oft richtig gut. Dafür ist das BIOS oft problematisch, beim GT8 waren es hohe RAM-Takte oder spezielle RAMs und die furchtbare Slotblendenaufteilung ;).
dargo
2023-02-22, 19:32:00
dargo
sry dargo, aber ich seh das nunmal so, und das ist begründet.
Und ich hatte dir schon mehrmals gesagt, dass das bullshit ist was du verbreitest. Es gibt eine breite Palette an Produkten je AIB und nicht alles ist Müll. Ich habe/hatte zwei verschiedene ASUS AMD-Bretter und beide sind absolute Spitze. Es gilt wie immer sich vor dem Kauf zu informieren was gut ist und was nicht!
Und ich hatte dir schon mehrmals gesagt, dass das bullshit ist was du verbreitest. Es gibt eine breite Palette an Produkten je AIB und nicht alles ist Müll. Ich habe/hatte zwei verschiedene ASUS AMD-Bretter und beide sind absolute Spitze. Es gilt wie immer sich vor dem Kauf zu informieren was gut ist und was nicht!
Jo gut für dich, bestreite ich ja gar nicht ;). Aber BS ist es offensichtlich nicht, wie hardwareunboxed nachgewiesen hat :D. AM5 kann Asus momentan gar nicht.
dargo
2023-02-22, 19:54:18
AM5 kann Asus momentan gar nicht.
Dazu kein Urteil von mir da ich AM5 überspringe beschäftige ich mich damit kaum. ;)
Dazu kein Urteil von mir da ich AM5 überspringe beschäftige ich mich damit kaum. ;)
Du willst die nächsten 5 Jahre überspringen-Respekt ;D
Ex3cut3r
2023-02-22, 21:32:37
Ich glaube, er meinte Ryzen 7000. :biggrin:
dargo
2023-02-22, 22:06:58
Du willst die nächsten 5 Jahre überspringen-Respekt ;D
Inwiefern soll das bei einer CPU ein Problem sein? In 5 Jahren verdoppelst du die Performance mit viel Glück gerade mal, wenn überhaupt. Oder anders formuliert... ich will die CPU 2028 sehen die Faktor 2 vom 5800X3D für 300€ bietet. :tongue: Einfach nur alles teurer machen ist keine Kunst. ;)
Mal ganz grobe Rechnung... nehmen wir an der 7800X3D legt im Schnitt +20% auf den 5800X3D drauf. Der 8800X3D legt weitere +25% auf den 7800X3D drauf. Dann bist du mit Zen5 X3D gerade mal 50% schneller als der 5800X3D. Das ist noch sehr weit von Faktor 2 entfernt. Unter Zen6 X3D braucht man da gar nicht erst anfangen nüchtern betrachtet. Für Faktor 2 wird womöglich sogar ein Zen7(X3D) benötigt wenns ganz blöd läuft.
Lehdro
2023-02-23, 15:27:45
So verschieden sind die Ansprüche: Für +20% würde ich halt schon aufrüsten wenn alles andere drumherum passt. Von daher hoffe ich das der kleine X3D aus +10% Takt und +13% IPC auch im Schnitt um die +20% in Games rausholt.
dildo4u
2023-02-25, 11:26:40
Kein Plan ob US Only aber es soll AM5 Bundles zum X3D Launch geben.
https://videocardz.com/newz/amd-announces-ryzen-7000-system-bundle-promotion-up-to-125-savings-on-select-am5-builds
y33H@
2023-02-25, 11:59:05
Wie erwartet profitiert Zen4 mit DDR5 weniger vom 3DVC als Zen3 mit DDR4, zudem die CCD-Problematik ... aber klar, erst Early Adopter abgreifen - und dann der 7800X3D.
Disco_STFU
2023-02-27, 14:54:37
Wie war alle brav auf 15.00 Uhr warten! :D
00-Schneider
2023-02-27, 15:01:35
Los gehts:
TechPowerUp 7950X3D Review
https://www.techpowerup.com/review/amd-ryzen-9-7950x3d/
Also PS3- und Switch-Emulation kann die CPU ganz gut:
https://tpucdn.com/review/amd-ryzen-9-7950x3d/images/emulation-ps3.png
https://tpucdn.com/review/amd-ryzen-9-7950x3d/images/emulation-switch.png
63%(!) schneller als 7950X bei PS3, WTF!?
Lows gates! :D
AMD Ryzen 9 7950X3D im Test: Der Gipfel der CPU-Entwicklung (https://www.pcgameshardware.de/Ryzen-9-7950X3D-CPU-279466/Tests/Benchmark-Review-Effizienz-AMD-Gaming-Vergleich-1414085/)
+
Ryzen 9 7950X3D im Test: Tuning, PBO/OC/Eco-Benchmarks, 7800X3D simuliert (https://www.pcgameshardware.de/Ryzen-9-7950X3D-CPU-279466/Tests/Tuning-Benchmark-Review-Release-7800X3D-1414209/)
+
Begleitvideo:
4esIWWp0Aew
MfG
Raff
dildo4u
2023-02-27, 15:03:52
Computer Base Test 7950x3D mit 4090/7900xtx
https://www.computerbase.de/2023-02/amd-ryzen-9-7950x3d-test/
DKt7fmQaGfQ
w0mbat
2023-02-27, 15:05:54
Ui, schlägt sogar einen 13900KS mit DDR5-7200!
Und zT 30% höhere min FPS als Intel, extrem!
Und die Effizienz, OMG! Zwei Generationen voraus!
Crazy_Chris
2023-02-27, 15:07:38
die Effizienz...hui :love4:
Na sieht doch ganz gut aus!
Linmoum
2023-02-27, 15:15:24
Der Sprung in DL2 ist ja heftig. Wtf.
Prinzenrolle
2023-02-27, 15:22:43
Die Effizient ist extrem stark, die Spieleleistung etwas unter meinen Erwartungen und nur auf dem Niveau der besten Intels.
Der_Korken
2023-02-27, 15:23:15
Cache-CCD peakt laut CB bei 5,25Ghz. Die Meldung, dass der 7800X3D das am höchsten taktende Cache-CCD haben soll, sind somit falsch.
Was mich die nächsten Wochen interessieren würde:
nstallation und Alltagseinsatz
Im Test erlaubte sich die Zuweisung von Threads zum jeweils optimalen CCD keinen gravierenden Fauxpas, allerdings stellte AMD über ausführliche Anweisungen und Installationsanleitungen auch sicher, dass bei den Redaktionen mit Mustern alles perfekt funktioniert. Es galt den Taskmanager nach aktiven Prozessen zu scannen und in Eingabeaufforderungen Scripte auszuführen. Auch hatte Beispielsweise AMD im Treiber explizit einen Testfall integriert, damit die Cinebench-R32-EXE umbenannt werden konnte um sich daraufhin als Spiel erkennen zu geben und auf dem 3D-V-Cache-CCD zu laufen. Schnell stand die Frage im Raum: Müssen Endkunden auch so vorgehen?
AMD hat das verneint. Laut dem Hersteller reicht es nach Markteinführung, BIOS- und Chipsatztreiber zu aktualisieren, Windows Update bezüglich der Windows Game Bar seinen Job machen zu lassen und dann ein paar Boot- und Idle-Zyklen abzuwarten, um die optimale Geschwindigkeit zu erhalten – was absolut normal ist. Zu hoffen bleibt, dass dem dann auch so ist.
https://www.computerbase.de/2023-02/amd-ryzen-9-7950x3d-test/3/#abschnitt_installation_und_alltagseinsatz
Zuletzt sah es wieder so aus, als ob im Hintergrund doch eine Heuristik läuft, die anhand von Performance-Countern zur Laufzeit die Scheduling-Empfehlung ändert. Wenn eine in "aagame.exe" umbenannte Cinebench.exe dann aber doch auf dem V-Cache läuft, muss es doch fixe whitelists geben. Prinzipiell habe ich nichts gegen manuelle Listen, sofern es als fallback eine halbwegs sinnvolle Heuristik gibt.
Disco_STFU
2023-02-27, 15:24:43
Gibts nen eigenen Thread für die x3d'ler? :)
Exxtreme
2023-02-27, 15:27:08
Ist wohl eine "shut up and take my money"-Spiele-CPU. Die Energieeffizienz ist echt krass. Mal schauen, was die Dinger real kosten werden.
Cubitus
2023-02-27, 15:28:21
Die Effizienz ist brutal gut, muss ich neidlos anerkennen.
Das Scheduling bereitet mir dagegen wieder Kopfzerbrechen.
Entweder es laufen alle Spiele ohne Gefrickel oder man hat Ausreißer, wo man selbst wieder an der Bastelbude rumschrauben darf, meh.
Zudem ist der Preis happig, für eine CPU.
Besser im Handling und billiger ist der kommende 7800X3D, wenn ich zu AMD greifen würde, dann eher zu dieser CPU.
00-Schneider
2023-02-27, 15:29:42
Ist wohl eine "shut up and take my money"-Spiele-CPU. Die Energieeffizienz ist echt krass. Mal schauen, was die Dinger real kosten werden.
Ich warte schon darauf, das uns jemand hier vorrechnet, nach wie vielen Spielstunden man die Mehrkosten beim Kauf ggü. Intel durch die höhere Effizienz wieder rein geholt hat. :freak:
Cubitus
2023-02-27, 15:33:53
Hier der Zusatzartikel von Techpowerup
Ryzen 7950X3D with One CCD Disabled - The 7800X3D Preview (https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/2.html)
Leonidas
2023-02-27, 15:35:42
Gibts nen eigenen Thread für die x3d'ler? :)
Dato nicht. Lohnt vielleicht auch nicht bei einem derart zerfledertem Launch. Kein 7900X3D zu sehen und 7800X3D kommt sowieso erst später.
Auch HWU hat mit deaktiviertem CCD getestet. Spieler sollten definitiv auf den 7800X3D warten. Problemloser und schneller.
https://youtu.be/DKt7fmQaGfQ
Cubitus
2023-02-27, 15:37:45
Auch HWU hat mit deaktiviertem CCD getestet. Spieler sollten definitiv auf den 7800X3D warten. Problemloser und schneller.
https://youtu.be/DKt7fmQaGfQ
+ Der Verbrauch ist halt dann nochmal um ne Ecke besser :)
https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/20.html
Das ist eben schon großes Kino, Hut ab. :eek:
Wenn man Stromverbrauch einbezieht ist das Teil absolut vernichtend, auch gegenüber den eigenen X-CPUs.
Linmoum
2023-02-27, 15:44:14
War zu erwarten, dass pauschal alles nur aufs Cache-CCD zu pinnen nicht immer erfolgversprechend ist. Gibt bei TPU einige Spiele, die dadurch langsamer laufen und in denen der 7800X3D dann auch logischerweise langsamer sein wird. Zumal der Takt sicherlich noch mal 100-200MHz tiefer liegt.
r3ptil3
2023-02-27, 15:44:32
Nicht schlecht:
https://i.ibb.co/Vt5dwhg/image.png
Effizienz ist noch viel besser als erwartet, krass.
Cubitus
2023-02-27, 15:45:03
Wenn man Stromverbrauch einbezieht ist das Teil absolut vernichtend, auch gegenüber den eigenen X-CPUs.
Wenn CCD1 deaktiviert wird, dann verbraucht CCD0 mit Cache bei Spielen 44 Watt!. Das lässt sich ohne Mühe sehr leise Kühlen.
Aber mal abwarten, was der 7800X3D mit den angekündigten geringeren Taktraten dann noch bringen wird.
Jedenfalls wirklich "spannend"
M4xw0lf
2023-02-27, 15:49:06
Leider geil :D
War zu erwarten, dass pauschal alles nur aufs Cache-CCD zu pinnen nicht immer erfolgversprechend ist. Gibt bei TPU einige Spiele, die dadurch langsamer laufen und in denen der 7800X3D dann auch logischerweise langsamer sein wird. Zumal der Takt sicherlich noch mal 100-200MHz tiefer liegt.
Das ist ja albern, das Argument. Das sind dann ja maximal 5%.
Disco_STFU
2023-02-27, 15:51:31
Was die CPU wohl mit guten Timings und DDR5 7000 schafft? :)
Radeonfreak
2023-02-27, 15:56:18
Leider geil :D
5800x3d leider nicht mehr. :frown:
Linmoum
2023-02-27, 15:59:10
Das ist ja albern, das Argument. Das sind dann ja maximal 5%.Ist doch völlig latte, ob das nun 2%, 5% oder 10% sind. Fakt ist, es gibt Spiele, wo das Ergebnis einzig mit Cache-CCD schlechter ausfällt. Nicht mehr und nicht weniger. Wer weiß, wie viele Spiele es gibt, wo der Unterschied ggf. sogar noch größer aussieht.
Beste Lösung ist also in der Theorie eine 2CCD-CPU und dann selbst entscheiden, wie/wo Spiele laufen. Ob das einem den Aufpreis zum 7800X3D wert ist, darf dann logischerweise jeder selbst entscheiden.
M4xw0lf
2023-02-27, 16:01:34
5800x3d leider nicht mehr. :frown:
Geil genug um nicht 1500€ in ein AM5-Upgrade stecken zu müssen :freak:
00-Schneider
2023-02-27, 16:02:09
5800x3d leider nicht mehr. :frown:
Preis-Leistungstechnisch immer noch Beste. :confused:
Der_Korken
2023-02-27, 16:03:16
Ich bin noch sehr unschlüssig, was ich von den beiden CCDs halten soll. Techpowerup hat getestet: Stock, Scheduler jeweils auf ein CCD gepinnt, jeweils ein CCD abgeschaltet (also 5 Configs). https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/19.html
Bei der oberen Hälfte der Games war Stock immer schneller als den Scheduler manuell zu setzen, egal auf welches CCD. Das würde für mich bedeuten, dass diese Games beide CCDs nutzen bzw. Vorteile aus den unterschiedlichen CCDs ziehen und somit immer besser sind, als stur die Anwendung auf ein CCD zu pinnen.
Das war übrigens im Speku-Thread sehr oft mein Punkt, den ich als Argument gegen manuelle Listen gebracht habe: Ein festpinnen auf Anwendungsebene ist viel zu grob, da es innerhalb einer Anwendung unterschiedliche Anforderungen gibt. Spätestens wenn eine Anwendung mehr Kerne nutzen kann als ein CCD hat, kann diese Strategie nicht mehr funktionieren.
Die untere Hälfte ist dann das Gegenteil und einige Spiele laufen auf Stock immer langsamer, selbst wenn man das Game auf das Freq-CCD pinnt. God of War ist +/-0% auf dem Freq-CCD und +10% auf dem Cache-CCD. Spiderman hat dann sogar +5% auf dem Freq-CCD und +20% auf dem Cache-CCD. Hier scheint das automatische Scheduling überhaupt nicht zu funktionieren. Im Performance-Index gleicht sich sowas wieder aus, aber ich finde es schon interessant zu sehen, dass intern viel mehr passiert als man auf den ersten Blick sieht.
Beim deaktivieren ganzer CCDs gibt es zwei Punkte, die man untersuchen kann:
1. Wie verhält sich das deaktivieren vs Festpinnen des Schedulers auf das andere CCD. Die Tendenz scheint dahin zu gehen, dass ein Deaktivieren schlechter ist als dem Scheduler Hints zu geben. Das ist erfreulich, denn das bedeuetet, dass aus dem jeweils anderen CCD offenbar noch Vorteile gezogen werden können und der Scheduler dies auch tut. Nur Doom Eternal und Mount & Blade mögen das Deaktivieren des Freq-CCDs lieber und das sogar deutlich. Über die Gründe kann man nur spekulieren, aber es könnte sein, dass diese Spiele überhaupt keine Cross-CCD-Kommunikation mögen und deswegen ein Deaktivieren hier die Performance verbessert. Bei Doom zumindest ist das völlig egal, weil es eh schnell genug läuft.
2. Wie verhält sich 1 CCD vs 2? Eigentlich wie weiter oben beschrieben: Stock ist in der Regel besser als dem Scheduler manuelle Hints zu geben und letzteres ist wiederum in der Regel besser als komplett abzuschalten. Mit Ausnahme der Anormalieren aus Punkt 1.
Bei PCGH wurde auch das Freq-CCD abgeschaltet und tendenziell Performance-Rückgänge beobachtet, mit Ausnahme von Doom mal wieder. Nicht spürbar, aber messbar.
OC, RAM, Verbrauch, etc. guck ich mir später an :D
Edit: Habe bei 1080p geguckt statt 720p. Die Aussage bleibt aber gleich:
Stock > manuelle Hits > Abschalten
Ausnahmen:
CS:GO (Freq > Cache)
Doom (will Freq-CCD aus)
Mount & Blade (will Freq-CCD aus)
Spiderman (will Freq-CCD aus oder Cache-CCD gepinnt)
Ganz so einfach ist das Scheduling also nicht, aber das war zu erwarten. Hier bräuchte man noch mehr Spiele, um zu sehen, ob das genannte Ausreißer sind oder sowas öfter vorkommt. Bei CS:GO und Doom ist es fps-technisch völlig egal und kein großer Unterschied, Spiderman scheint auf 2CCD-Ryzens eh völlig kaputt zu sein und M&B scheint ein richtiger Ausreißer zu sein.
Troyan
2023-02-27, 16:04:42
Gerademal 16% schneller als ein 13600K für einen 2,4x Aufpreis. Für die zusätzlichen 460€ bekommt man zusätzlich Mainboard und Speicher - wenn man spart auch noch SSD.
Soll noch jemand was über nVidia GPUs Preise sagen.
rentex
2023-02-27, 16:04:56
Das soll Intel mal kontern...ebenfalls im Verbrauch.
Exxtreme
2023-02-27, 16:07:06
5800x3d leider nicht mehr. :frown:
Jetzt weiss du wofür du wieder viel Geld ausgeben musst. ;(
Ich bin noch sehr unschlüssig, was ich von den beiden CCDs halten soll. Techpowerup hat getestet: Stock, Scheduler jeweils auf ein CCD gepinnt, jeweils ein CCD abgeschaltet (also 5 Configs). https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/19.html
Bei der oberen Hälfte der Games war Stock immer schneller als den Scheduler manuell zu setzen, egal auf welches CCD. Das würde für mich bedeuten, dass diese Games beide CCDs nutzen bzw. Vorteile aus den unterschiedlichen CCDs ziehen und somit immer besser sind, als stur die Anwendung auf ein CCD zu pinnen.
Ja, das überrascht mich tatsächlich, dass die das so gut hinbekommen haben. Offenbar besser als Intel mit ihrem P- und E-Kernen. Obwohl Intel es tendentiell einfacher hat. Denn ein E-Kern ist IMMER langsammer.
M4xw0lf
2023-02-27, 16:08:06
Bin schon gespannt auf die mental gymnastics bei Capframex, um die exotischsten Szenarien zu finden wo Intel gut aussieht :uup:
Chrisch
2023-02-27, 16:09:48
Das soll Intel mal kontern...ebenfalls im Verbrauch.
Hm, vielleicht habe ich da was übersehen aber mich würde ein Review interessieren wo man in div. Anwendungen (inkl. Desktop) den Verbrauch vom Gesamtsystem vergleicht statt nur die CPU.
Ansonsten muss ich sagen sieht es für mich sehr gut aus, ist eine interessante CPU.
Troyan
2023-02-27, 16:13:01
Das soll Intel mal kontern...ebenfalls im Verbrauch.
Haben die schon längst mit Raptor-Lake. Ein 13600K ist vollkommen ausreichend und der Verbrauch in vielen Fällen für viele Spieler deutlich unter 100W.
Wieviele Leute haben eine 4090 und zocken <=1440p? Nur dann sieht man diese massiven Unterschiede im Verbrauch. In Teillast ist Raptor-Lake kaum schlechter und 20-40W machen wohl kaum 460€ Aufpreis aus.
dildo4u
2023-02-27, 16:19:26
Intel 1 Watt 1 FPS :lol:
https://abload.de/img/fpswatty7egz.png
bWOErOr7INg
Exxtreme
2023-02-27, 16:19:42
Haben die schon längst mit Raptor-Lake. Ein 13600K ist vollkommen ausreichend und der Verbrauch in vielen Fällen für viele Spieler deutlich unter 100W.
Njaaa. Bei Intel musst du dich richtig hart entscheiden ob du was schnelles ODER was energieeffizientes haben willst. Mit dem R 7950X3D bekommst du beides in einem Paket. Und ja, ein 13600K ist zwar sehr flott unterwegs. Aber die Energieeffizienz ist da nicht so dolle.
Daredevil
2023-02-27, 16:21:03
Geile Kiste auf jeden Fall. Der Hybrid Einsatz gefällt mir, von beiden Welten das beste und dabei auch noch trotz der hohen Kernzahl ein niedriger Verbrauch. Die Eierlegende Wollmilchsau. :)
maximus_hertus
2023-02-27, 16:22:35
Zen 4 X3D ist also grob da, wo man ihn erwarten konnte. Im Gaming dann doch (minimal) schneller als der 13900K(S) und wie erwartet brutal Effizient. Die Temperaturen scheinen auch nicht komplett auf den brutalem Level der Intels zu liegen.
Ein 13900KS Refresh im Herbst dürfte wohl wieder minimal die Führung übernehmen, wobei ich da nicht zu viel erwarten würde. Grob Gleichstand ist da die Erwartung, wobei AMD wohl bei der Effizienz in einer eigenen Galaxis unterwegs ist. Unfassbar wie ineffizient die Intels dagegen wirken. Auch bei der Kühlbarkeit muss sich Intel strecken. Die X3D werden auch recht heiß, aber immerhin nicht ganz so brutal heiß wie die Intels.
Der 7800X3D für rund 490 Euro wird wahrscheinlich DER go-to Gaming-Prozessor werden. Deutlich günstiger als der 13900K, schneller, Effizienz braucht man gar nicht darüber reden.
Der 13700K ist mit rund 430 Euro etwas günstiger, liegt aber dann nochmal rund 5% hinter dem 13900K und je nach Review bis zu 10% hinter dem X3D. Auch hier ist die Effizienz kein Vergleich, die Unterschiede einfach surreal.
Jetzt fehlen nur noch ordentliche Boards für 130-150 Euro und der AM5 Zug kann an Geschwindigkeit aufnehmen.
Non X (plus die hoffentlich günstigeren Boards, von AMD ja zur CES angekündigt...) für die Preis / Leistungskäufer und X3D für die kompromisslosen Gamer.
Troyan
2023-02-27, 16:26:26
Njaaa. Bei Intel musst du dich richtig hart entscheiden ob du was schnelles ODER was energieeffizientes haben willst. Mit dem R 7950X3D bekommst du beides in einem Paket. Und ja, ein 13600K ist zwar sehr flott unterwegs. Aber die Energieeffizienz ist da nicht so dolle.
Erstmal musst du überhaupt ins CPU-Limit kommen. Wie willst du das in 1440p mit einer 4070TI und Co. schaffen? Zweitens müssen die Spiele massiv Multi-Threading nutzen, um einen Raptor-Lake wirklich komplett auszulasten.
Habe gerade Diablo 2 Ressurrected getestet: Im CPU-Limit nimmt sich ein Stock 13600K Prozessor ca. 60W. In Battlefield 2042 sind es bis 125W.
Je geringer die Last, umso besser steht Raptor-Lake da. Das ist bei Zen4 nicht so.
Cubitus
2023-02-27, 16:27:51
Haben die schon längst mit Raptor-Lake. Ein 13600K ist vollkommen ausreichend und der Verbrauch in vielen Fällen für viele Spieler deutlich unter 100W.
Wieviele Leute haben eine 4090 und zocken <=1440p? Nur dann sieht man diese massiven Unterschiede im Verbrauch. In Teillast ist Raptor-Lake kaum schlechter und 20-40W machen wohl kaum 460€ Aufpreis aus.
Der Intel 13600K ist weiterhin eine tolle Gaming-CPU.
Ich werde diese auch nicht so schnell wechseln.
Zudem kann man bei Intel günstige Platinen erwerben und mit DDR4 Speicher weiterverwenden.
Wiederrum hast du bei AM5 auch die Möglichkeit PCIE 5.0 zu verwenden, hast aber wiederum DDR5 als Pflicht.
Der 7800X3D bleibt noch am interessantesten --> bei kompletten Neukauf
Persönliche-Meinung:
Es liest sich schon wieder alles zu wunderbar, aber ich traue AMD eben auch nicht wirklich. :freak:
Mal schauen welche Schwierigkeiten und Ausreißer es noch mit diesen CPUs geben wird. :popcorn:
amdfanuwe
2023-02-27, 16:34:37
Mal gespannt, ob Dragon Range auch mit X3D kommt.
Dürfte der ultimative Prozessor für Gaming Notebooks sein.
Christopher_Blair
2023-02-27, 16:37:18
Oh, mit einem deaktivierten CCD beträgt der Unterschied bei Spielen doch mehrere Prozent.
Auch bei Spielen, welche nicht mehr als die 8 Kerne verwenden.
Eigentlich lohnt sich aufrüsten für ~20 Prozent nicht.
Aber trotzdem mal durchrechnen! ;D
AwesomeSauce
2023-02-27, 16:45:01
Interessant: Damit das Core Parking in Spielen funktioniert wie angedacht, muss Xbox Game Bar und Energie Profil "Balanced" aktiv sein:
https://youtu.be/9gCzXdLmjPY?t=1568
Exxtreme
2023-02-27, 16:51:17
Erstmal musst du überhaupt ins CPU-Limit kommen. Wie willst du das in 1440p mit einer 4070TI und Co. schaffen? Zweitens müssen die Spiele massiv Multi-Threading nutzen, um einen Raptor-Lake wirklich komplett auszulasten.
Habe gerade Diablo 2 Ressurrected getestet: Im CPU-Limit nimmt sich ein Stock 13600K Prozessor ca. 60W. In Battlefield 2042 sind es bis 125W.
Je geringer die Last, umso besser steht Raptor-Lake da. Das ist bei Zen4 nicht so.
CPU-Limit geht mit MMORPGs oder Strategiespielen locker. ;D Und komplett alle Kerne auslasten wirst du kaum können. Aber das ist in Spielen nicht so wichtig. Da brauchst du ein gutes Instruktionen pro Takt-Verhältnis. Und das liefert der R 7950X3D zusammen mit einer sehr guten Energieeffizienz.
maximus_hertus
2023-02-27, 16:56:33
Haben die schon längst mit Raptor-Lake. Ein 13600K ist vollkommen ausreichend und der Verbrauch in vielen Fällen für viele Spieler deutlich unter 100W.
So funktioniert es aber nicht. Wenn ich die Top-CPU haben möchte, nimmt ab heute den 7950X3D. Das deutlich beste Gesamtpaket.
Das eine Top-CPU beim Preis/Leistung nicht mit der Mittelklasse mithalten kann, ist weder neu noch überraschend.
Die X3D sind nicht für die große Mehrheit gedacht, sondern für Gamer, die bereit sind, für das beste Paket entsprechend etwas mehr zu bezahlen.
Und beim 7800X3D sind es "nur" noch rund +40% Preisaufschlag zum 13600K bei weiterhin rund +15% Performance. Sicherlich schlechteres P/L, aber dennoch einige Vorteile:
- mehr fps
- Effizienz (nicht so dramatisch wie beim i9, aber dennoch)
- Aufrüstoption Zen 5 (X3D), ohne alles neu kaufen zu müssen
Der 13600K ist am Ende ein gutes Paket. Aber mit 340+ Euro auch kein Schnäppchen.
Tesseract
2023-02-27, 16:59:54
der 7950X3D ist ein unrundes produkt. für reines gaming zu teuer, für reine produktivarbeit zu teuer, für mischnutzung ok aber aus scheduling- bzw. allgemein softwaresicht problematisch.
der 7800X3D wird viel interessanter.
Rolsch
2023-02-27, 17:03:01
Vom 7900X3D ist immer noch nichts bekannt? Laut PCGH hat den keine Redaktion bekommen.
Den 7950X3D find ich klasse und sogar etwas besser als erwartet, aber der 5800X3D bleibt erstmal!
Schnoesel
2023-02-27, 17:25:26
Na darauf hab ich gewartet und mein 5900x geht in Rente. Halt stop erst in einem Monat. Der 7800X3d wirds werden.
Crazy_Chris
2023-02-27, 17:26:28
der 7950X3D ist ein unrundes produkt. für reines gaming zu teuer, für reine produktivarbeit zu teuer, für mischnutzung ok aber aus scheduling- bzw. allgemein softwaresicht problematisch.
der 7800X3D wird viel interessanter.
Sehe ich auch so. Tolle CPU aber durch das Preis/Leistung Verhältnis eigentlich ziemlich uninteressant. Außer man will unbedingt eine Angeber-CPU und das Beste vom Besten. :wink:
Sehe ich auch so. Tolle CPU aber durch das Preis/Leistung Verhältnis eigentlich ziemlich uninteressant. Außer man will unbedingt eine Angeber-CPU und das Beste vom Besten. :wink:
Als wenn ein 5800X3D zum Launch für 549 Euro jetzt viel besser gewesen wäre. Guck mal heute, was der nicht mal ein Jahr nach Launch kostet. Launch-Preise zu bewerten, ist ziemlicher unsinn.
Sardaukar.nsn
2023-02-27, 17:37:09
5800x3d leider nicht mehr. :frown:
Naja, +5% für mich relevante 4K Gaming Performance ggü 5800x3D https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/18.html
124 vs. 117 min. FPS: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/19.html
Triggert mich jetzt nicht sofort. Ein 7800X3D wird wohl auch nicht viel mehr liefern @ 4K Gaming.
Rolsch
2023-02-27, 17:41:37
Naja, +5% für mich relevante 4K Gaming Performance ggü 5800x3D https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/18.html
124 vs. 117 min. FPS: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/19.html
Triggert mich jetzt nicht sofort. Wohlgemerkt 4K Gaming.
Ja dürfte ein typischer Fall sein wo man 1500€ in ein Upgrade steckt und sagt: "WOW, ich bemerk überhaupt keinen Unterschied."
robbitop
2023-02-27, 17:42:53
Gerademal 16% schneller als ein 13600K für einen 2,4x Aufpreis. Für die zusätzlichen 460€ bekommt man zusätzlich Mainboard und Speicher - wenn man spart auch noch SSD.
Soll noch jemand was über nVidia GPUs Preise sagen.
Das trifft auf den 13900KS ggü dem 13600K auch zu. Hast du aber nie kritisiert. Propellerjunge propellert wieder. X-D
Für kaum weniger Performance und deutlich weniger Geld gibt es den 13600K, den 5800x3d, den 7700X und bald den 7800x3d. Nennt sich Produktsegmentierung und liegt bei Intel und AMD ziemlich genau gleichermaßen vor.
Und welch Überraschung dass man in der Praxis fast nie im CPU Limit ist. Nach der Logik reicht auch Rocketlake, Alderlake und Zen 3.
Naja, +5% für mich relevante 4K Gaming Performance ggü 5800x3D https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/18.html
124 vs. 117 min. FPS: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/19.html
Triggert mich jetzt nicht sofort. Ein 7800X3D wird wohl auch nicht viel mehr liefern @ 4K Gaming.
Wie soll das auch gehen in 4k ;).
Troyan
2023-02-27, 17:48:58
Naja, +5% für mich relevante 4K Gaming Performance ggü 5800x3D https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/18.html
124 vs. 117 min. FPS: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/19.html
Triggert mich jetzt nicht sofort. Ein 7800X3D wird wohl auch nicht viel mehr liefern @ 4K Gaming.
Und das ist mit einer 4090. :freak:
Schön auch Spider-Man mit Raytracing:
https://tpucdn.com/review/ryzen-7800x3d-performance-preview/images/spider-man-rt-3840-2160.png
Sardaukar.nsn
2023-02-27, 17:49:07
Wie soll das auch gehen in 4k ;).
Keine Sorge, das wusste ich auch vorher schon. Der 7950x3D ist schon klasse, keine Frage. Natürlich lässt sich das AMD auch gut bezahlen, plus halt die "Nebenkosten" wie AM5 Board und DDR5. Ich hab das Gefühl das mir der 5800x3D noch eine Weile erhalten bleibt.
MSABK
2023-02-27, 17:49:44
+ Der Verbrauch ist halt dann nochmal um ne Ecke besser :)
https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/20.html
Das ist eben schon großes Kino, Hut ab. :eek:
Das muss doch ein Bug sein.
Geile CPU. Alles richtig gemacht würde ich sagen erst den großen zu launchen.
GerryB
2023-02-27, 17:50:10
5800x3d leider nicht mehr. :frown:
Kommt wohl darauf an, was man real so macht, ... bei P/L fürs Aufrüsten und bei W/fps siehts gar net so schlecht aus.
(net Jeder spielt pausenlos Games wo man mehr als 16Threads nutzt)
Selbst in CP2077 gibts eigentlich nur ne kurze Stelle im Frametimeverlauf, wo der 5800x3D ein mue langsamer ist.
(reale Bedingungen für hohe Fps@4k = mit FSR/DLSS)
Troyan
2023-02-27, 17:51:28
Das ist nicht 4K, das ist 1080p.
MSABK
2023-02-27, 17:53:10
Haben die schon längst mit Raptor-Lake. Ein 13600K ist vollkommen ausreichend und der Verbrauch in vielen Fällen für viele Spieler deutlich unter 100W.
Wieviele Leute haben eine 4090 und zocken <=1440p? Nur dann sieht man diese massiven Unterschiede im Verbrauch. In Teillast ist Raptor-Lake kaum schlechter und 20-40W machen wohl kaum 460€ Aufpreis aus.
Klar, wir reden hier aber über die Spitze. 13600 ist keine Spitze.
Troyan
2023-02-27, 17:55:59
Die 4090 ist auch Spitze, trotzdem testen die Seiten komischer auch ohne Raytracing und nicht nur in 4K.
Es wird der Eindruck vermittelt, dass die Cache Varianten von AMD immer schneller und immer deutlich effzienter sind. Das man dafür selbst <=1080p mit einer 4090 spielen muss, scheint von einigen nicht begriffen zu werden.
Dabei wäre es viel interessanter, wie es im Teillast mit günstigeren Karten und höheren Auflösungen aussieht.
GerryB
2023-02-27, 17:57:21
Das ist nicht 4K, das ist 1080p.
Sonst käme man ja auch net aus dem CPU-Limit.
Wenns ordentlich umgesetzt ist, spricht auch nix gegen Upsampling.
... fehlen nur noch ne ausreichend hohe Anzahl 240Hz-4k-Monis bei den Usern
(und mehr Modelle und annehmbare Preise)
Crazy_Chris
2023-02-27, 18:06:02
Als wenn ein 5800X3D zum Launch für 549 Euro jetzt viel besser gewesen wäre. Guck mal heute, was der nicht mal ein Jahr nach Launch kostet. Launch-Preise zu bewerten, ist ziemlicher unsinn.
Sehe ich anders. Was nützt mir der Preis in einem Jahr wenn ich jetzt aufrüsten will. :confused: Ob der Preis in Zukunft auch so stark nachgibt ist außerdem reine Spekulation.
Exxtreme
2023-02-27, 18:23:29
Sehe ich anders. Was nützt mir der Preis in einem Jahr wenn ich jetzt aufrüsten will. :confused: Ob der Preis in Zukunft auch so stark nachgibt ist außerdem reine Spekulation.
Der R 7900X ist real auch schon viel billiger als der Listenpreis, nämlich 508 EUR vs. 443 EUR. Das kann sehr schnell gehen, dass der Preis ordentlich runtergeht.
Loeschzwerg
2023-02-27, 18:23:35
Ich bin einerseits positiv überrascht wie gut das Scheduling funktioniert, aber auf der anderen Seite bin ich echt kein Fan davon:
https://www.computerbase.de/forum/threads/amd-ryzen-9-7950x3d-im-test-king-of-the-gaming-hill.2132802/page-7#post-27938973
Zwingend notwendig ist die game Bar nicht, das kostet aber etwas Leistung, das kann ich hier bestätigen. Wie viel, weiß ich nicht, aber das kann schon mal im zweistelligen Prozentbereich liegen.
Und wie verhält es sich dann unter Linux? Aber gut, für die meisten dürfte das schon OK funktionieren.
Linmoum
2023-02-27, 18:31:26
CB muss echt mal den CPU-Parcours überarbeiten. Dass man dann zwar Witcher 3 reinnimmt, aber genau in der Fassung nicht bencht, wo man dringend viel mehr CPU-Leistung im aktuellen Zustand braucht, muss man auch nicht unbedingt verstehen.
Troyan
2023-02-27, 18:32:39
Sonst käme man ja auch net aus dem CPU-Limit.
Wenns ordentlich umgesetzt ist, spricht auch nix gegen Upsampling.
... fehlen nur noch ne ausreichend hohe Anzahl 240Hz-4k-Monis bei den Usern
(und mehr Modelle und annehmbare Preise)
Es macht kein Sinn 4K mit Upscaling zu testen, weil man dann einfach die Grundauflösung - in diesem Fall 1080p - nehmen kann. Ist eine komplett sinnbefreite Testreihe.
Ansonsten nur mal so, wie Computerbase testen am Beispiel von Spider-Man:
Sehr-hoch-Preset, kein AF, Schatten + Detail „Sehr hoch“, FSR 2 „Performance“
RT-Auflösung „Hoch“, RT-Geometrie „Sehr hoch“, RT-Sichtweite „10“
Die testen also real in 360p. Die erste Xbox hat 480p ausgegeben. :eek:
Achill
2023-02-27, 18:35:25
[..]
Und wie verhält es sich dann unter Linux? Aber gut, für die meisten dürfte das schon OK funktionieren.
Scheint dort auch gut zu laufen: https://www.phoronix.com/review/amd-ryzen9-7950x3d-linux
Prinzenrolle
2023-02-27, 18:37:03
CB muss echt mal den CPU-Parcours überarbeiten. Dass man dann zwar Witcher 3 reinnimmt, aber genau in der Fassung nicht bencht, wo man dringend viel mehr CPU-Leistung im aktuellen Zustand braucht, muss man auch nicht unbedingt verstehen.
Bei denen ist das alles wieder Kraut und Rüben geworden.
Ich schau meist bei Techpowerup, PCGH bzw. werf die Spiele die ich nicht will bei CB aus dem Parcour.
Loeschzwerg
2023-02-27, 19:14:47
Scheint dort auch gut zu laufen: https://www.phoronix.com/review/amd-ryzen9-7950x3d-linux
Das Review muss ich mir erst noch in Ruhe anschauen. Aber das fehlen von der "Game Bar" müsste ja ein beständiges "Defizit" sein, verglichen zu Win, oder? Oder Win hat einen leichten Bonus, je nach Sichtweise.
Lehdro
2023-02-27, 19:17:50
Es wird der Eindruck vermittelt, dass die Cache Varianten von AMD immer schneller und immer deutlich effzienter sind. Das man dafür selbst <=1080p mit einer 4090 spielen muss, scheint von einigen nicht begriffen zu werden.
Dabei wäre es viel interessanter, wie es im Teillast mit günstigeren Karten und höheren Auflösungen aussieht.
Dann braucht aber auch niemand ADL oder RPL. Da würde ein lumpiger Zen 3 auf arschgünstiger Plattform reichen, 5600 oder so. Dafür gibt es genug Tests, ebenso zu den langsameren GPUs.
Darum geht es hier aber nicht: Es geht hier um die Gamingleistung in der Spitze. Da macht es keinen Sinn mit P/L oder "der 13600k hat aber genug MT Leistung" anzukommen. Das sind zwar deine subjektiven Faktoren, aber objektiv zählen FPS, Effizienz und MT Leistung. In der Kombination gibt es da nunmal einen neuen König. Im April gibt es dann für die Kombo aus FPS und Effizienz einen neuen König: 7800X3D. Wer auf Effizienz scheißt kann sich doch immer noch einen 13900KS kaufen. Wer P/L fürs Gaming will kauft dann 7800X3D oder 13600K. Wer P/L, FPS und MT Leistung haben will: 13600K.
Ist doch für jeden etwas dabei, fehlt nur noch der Preiskampf und sinkende Platformpreise.
Exxtreme
2023-02-27, 19:26:34
Dann braucht aber auch niemand ADL oder RPL. Da würde ein lumpiger Zen 3 auf arschgünstiger Plattform reichen, 5600 oder so. Dafür gibt es genug Tests, ebenso zu den langsameren GPUs.
Jein. ;D Es ist so, wenn man Raytracing nutzen will (und das dürfte der Kaufgrund #1 für eine RTX 4090 sein) dann braucht man auch eine extrem starke CPU. Ansonsten krebst man fast immer im CPU-Limit. Und ist auch der Grund warum der R7950X3D in RT-Spielen so geil performt. Teile von RT werden halt über die CPU gemacht.
https://www.techpowerup.com/review/amd-ryzen-9-7950x3d/19.html
Cubitus
2023-02-27, 19:39:26
Man könnte ja den 7950X kaufen um dann einen CCD zu deaktivieren. :freak:
Dann hätte man die beste Gaming Leistung bei höheren Taktraten bei echt gutem Verbrauch..
Das wäre dann schon sehr dekadent aber joa, Freiwillige vor :biggrin:
MSABK
2023-02-27, 19:42:55
Also mit einer RTX40xx gepaart gibt das eine mega sparsame Kombi. Echt was feines.
mboeller
2023-02-27, 19:54:47
Wenn CCD1 deaktiviert wird, dann verbraucht CCD0 mit Cache bei Spielen 44 Watt!. Das lässt sich ohne Mühe sehr leise Kühlen.
also die ideale Notebook CPU. AMD hat ja schon den "richtigen" Unterbau dafür
Sardaukar.nsn
2023-02-27, 20:02:13
Man könnte ja den 7950X kaufen um dann einen CCD zu deaktivieren. :freak:
Dann hätte man die beste Gaming Leistung bei höheren Taktraten bei echt gutem Verbrauch..
Das wäre dann schon sehr dekadent aber joa, Freiwillige vor :biggrin:
Siehe da: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/
Gerade die Effizienz beim Gaming ist mit CCD1 Disabled schon sehr stark. Denke mal der 7800x3D wird gut ;)
https://tpucdn.com/review/ryzen-7800x3d-performance-preview/images/efficiency-gaming.png
Cubitus
2023-02-27, 20:06:25
Siehe da: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/
Jepp, hab ich gelesen :)
dargo
2023-02-27, 20:13:36
Irgendwas ist hier komisch... normalerweise halte ich Igor insbesondere bei Verbrauchmessungen für kompetent. Aber was zum Teufel hat der da beim 5800X3D gemessen? :freak:
https://youtu.be/DBdtkCMwMrI?t=1591
43,5W @720p? :lol:
Das schaffe ich nicht mal mit CO-30 + -75mv Offset. :ulol: Insofern halte ich die anderen Verbrauchsmessungen eher für fraglich. Oder hat der in seinem Parkour besonders "sparsame" Engines drin? :D Sprich... alte Games wo kaum Threads gefordert werden? :uroll:
M4xw0lf
2023-02-27, 20:16:45
Scheint dort auch gut zu laufen: https://www.phoronix.com/review/amd-ryzen9-7950x3d-linux
Spannend was er alles für workloads im Anwendungstestfeld hat die teilweise auch extrem auf den Cache abgehen.
Sardaukar.nsn
2023-02-27, 20:17:48
Die Verbrauchswerte der Intel CPUs sind ja auch ganz human. Scheint an seinem Parkours zu liegen, aber wenn es vergleichbar ist, warum nicht.
dargo
2023-02-27, 20:23:38
Die Verbrauchswerte der Intel CPUs sind ja auch ganz human. Scheint an seinem Parkours zu liegen, aber wenn es vergleichbar ist, warum nicht.
Einerseits schon, andererseits erweckt sowas falsche Erwartungen. Mal zwei Vergleiche von mir mit SotTR was jetzt auch nicht so super neu ist.
5800X3D @Stock:
Cajdu7ZyS8M
5800X3D @CO-30 + -75mV Offset + 4350Mhz:
C5yYUWtajvc
An den Verhältnissen zu Intel wird sich natürlich prozentual nichts ändern. So ein 13900K dürfte da schon an den ~170W kratzen. :ulol:
Edit:
Eigentlich deutet alles darauf hin, dass Igor selbst in 720p bei seinen Messungen im GPU-Limit war. Anders kann ich es mir nicht erklären warum die CPU @1440p das gleiche verbraucht. Selbst 4k ist nur leicht sparsamer. Weiß einer welche GPU zum Einsatz kam?
PS: hier noch zwei aktuelle Beispiele mit 5800X3D @CO-30 + -75mV Offset im GPU-Limit.
https://youtu.be/s3J5ru8OAUk
https://youtu.be/F3_reA8aHiw
Ich fahre die CPU zwar mit scharfen Timings, aber das erhöht den Verbrauch (natürlich auch die Performance) um magere 2-3Wattchen nur.
Edit 2:
Ach verdammt... ich hatte ein kleines aber wichtiges Detail vergessen. Durch das zusätzliche Recording der Gaming-Videos verbraucht die CPU etwas mehr. Hatte ich jetzt gar nicht dran gedacht. Das hier entpricht dann schon eher dem tatsächlichen Verbrauch in Games im GPU-Limit.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13240542&postcount=3191
Ändert aber nichts daran, dass die Werte von Igor zu gering sind, ganz besonders @720p.
Troyan
2023-02-27, 20:54:41
Dann braucht aber auch niemand ADL oder RPL. Da würde ein lumpiger Zen 3 auf arschgünstiger Plattform reichen, 5600 oder so. Dafür gibt es genug Tests, ebenso zu den langsameren GPUs.
Um überhaupt einen Nutzen vom 790€ Prozessor ziehen zu können, muss man eine 4090 Grafikkarte verwenden. Ansonsten landest du nämlich in 1440p im GPU-Limit. Gleichzeitig ist der Stromverbrauch von Raptor-Lake in Teillast deutlich niedriger als unter Volllast.
Sieht dann nämlich so aus:
https://www.thefpsreview.com/wp-content/uploads/2023/02/f12022_rt_7950x3d.png
https://www.thefpsreview.com/2023/02/27/amd-ryzen-9-7950x3d-gaming-performance-cpu-review/5/#ftoc-heading-20
Und die verwenden eine 4090. :eek:
Mortalvision
2023-02-27, 21:06:45
Ich finde es gut, dass AMD weiter den 3D Ansatz nutzt! Generation zu Generation ist es aber eher nur ein "Häuchlein" besser. Plus 25% mit dem Monster 7950X3D auf den 5800X3D, ggf. im Schnitt ein wenig mehr (habe mir nur paar Tests bei CB in FHD angeschaut). Da gehen ca. 900 MHz aufs Konto des Taktes und nur wenig auf IPC Verbesserungen (DDR5 dürfte wenig Einfluss haben).
Daher hab ich mir gesagt: Wenn ich schon die 7900XTX aussitze, werde ich das mal auch mit der 7000er Serie tun. Sollte die nächste Generation +100% auf den 5800X3D hinlegen, auch ggf. für einen gewissen Aufpreis, wäre ich nicht abgeneigt. Aber für +25% haue ich doch nicht 1200€ auf den Tisch (CPU, Board, DDR5). Nope, never.
Langlay
2023-02-27, 21:10:42
Um überhaupt einen Nutzen vom 790€ Prozessor ziehen zu können, muss man eine 4090 Grafikkarte verwenden. Ansonsten landest du nämlich in 1440p im GPU-Limit.
CPU Test mit Raytracing on. Äh ja, noch mehr Cherrypicking ging gerade nicht.
Echt komisch das die CPU beim Gaming mit RT nicht limitiert. Dabei ist doch RT so hoch performant und kostet quasi keine GPU Leistung. /s
maximus_hertus
2023-02-27, 21:21:57
Um überhaupt einen Nutzen vom 790€ Prozessor ziehen zu können, muss man eine 4090 Grafikkarte verwenden. Ansonsten landest du nämlich in 1440p im GPU-Limit.
Das gilt doch auch für das gesamte Intel Raptorlake Lineup?
Nur mit einer 4090 macht ein 13600K aufwärts Sinn.
Bei einer 3070, 3080, 4070 langt auch ein Ryzen 5600. Alles darüber ist doch Geldverschwendung, wenn es um Preis / Leistung geht?
Linmoum
2023-02-27, 21:44:45
Genau wegen u.a. sowas hatte ich damals auch vermutet, dass CPUs mit V-Cache und 2xCCD für Spiele doch gar nicht so doof sein würden.
https://i.gyazo.com/e7a86d82e27ce1789022089b6ce75272.png
https://i.gyazo.com/16515a5b8e449b993c0da73de8ce946c.png
Für die Fälle, wo es dann wirklich etwas besser läuft, wenn man nur ein einzelnes (Cache-)CCD hat (z.B. Doom), hat man bei einem 7900X3D/7950X3D dann immer noch die Möglichkeit, das entsprechend zu forcieren. Aber ein 2. CCD kann man bei einem 7800X3D halt nicht herbeizaubern. Bei TWW3 hatte ich zuerst im Hinterkopf, dass das Spiel deutlich mehr Kerne liebt. Aber der 7950X ist hier nur ~10% vor einem 7700X, einzig durch das 2. CCD und die zusätzlichen Kerne kommt dieser enorme Leistungszuwachs also nicht.
Ist am Ende natürlich einfach die Frage, was man möchte und ob man bereit ist, mehr auszugeben. Wobei der 7800X3D zum Launch sicherlich auch bei 500€+ liegen wird. Das kann ja glücklicherweise jeder selbst entscheiden. Gibt ja auch Leute, die von einem 13900K auf einen 13900KS upgraden, von daher. ;)
00-Schneider
2023-02-27, 22:08:39
Ab wann werden die Dinger morgen eigentlich wo verkauft?
Timbaloo
2023-02-27, 22:17:37
7800X3D ich komme.
Das Preview von TPU reicht mir um B650E/X670E endlich schön zu reden :ulol:
Exxtreme
2023-02-27, 23:23:21
Mich interessiert eher der R7900X3D. 12 Kerne reichen mir. Leider keine Benchmarks gefunden.
OpenVMSwartoll
2023-02-27, 23:35:49
Mich interessiert eher der R7900X3D. 12 Kerne reichen mir. Leider keine Benchmarks gefunden.
Ist auch die unattraktivste CPU von den drei Modellen.
Wenn es ne 6+6-Config ist, ist es halt für den reinen Spieler nicht besser als die 8 Kerne des 7800.
Den 7950X3D kann man ja noch vor sich argumentieren, wenn man oft viele Kerne nutzt, aber unter bestimmten Spielen - warum auch immer - das Maximum zu benötigen glaubt.
Mal abgesehen von der überragenden Energieeffizienz.
Exxtreme
2023-02-27, 23:46:03
Wenn es ne 6+6-Config ist, ist es halt für den reinen Spieler nicht besser als die 8 Kerne des 7800.
Eine 6+6-Konfiguration wäre in der Tat schlecht, ja. Ich glaube aber, es wird eine 8+4-Konfiguration, die 128 MB L3-Cache sprechen dafür, dass es so sein wird. Der 7900X3D dürfte ein teildeaktivierter 7950X3D sein, aber mit 2 vollen CCDs. Aber mal schauen wie das preislich wird. Sind da nur 50 EUR Unterschied dann ist der 7950X3D wohl besser.
OpenVMSwartoll
2023-02-27, 23:58:14
Muss ja nen Grund haben, warum AMD keine Samples bereitgestellt hat.
Bei Anandtech habe ich Folgendes gelesen:
"The V-Cache equipped Zen 4 CCDs will offer 6 or 8 CPU cores backed by the massive L3 pool, for tasks that benefit from the larger cache size, while the vanilla Zen 4 CCDs will be unencumbered by the V-Cache, allowing them to clock higher for pure throughput workloads that wouldn’t benefit from the extra cache."
Der_Korken
2023-02-27, 23:59:12
Ich glaube eine asymmetrische Config der CCXs war bisher bei keinem Ryzen möglich. Ich würde stark von 6+6 ausgehen beim 7900X3D.
Exxtreme
2023-02-28, 00:18:22
We will see. Bei einer 6+6-Konfiguration würde ich eine krumme L3-Cache-Größe ala 96 MB erwarten. Aber laut AMD hat der 7900X3D weiterhin 128 MB.
Linmoum
2023-02-28, 00:23:46
Würde mich langsam auch mal interessieren. Kann ja nicht so schwer sein, dass vor dem Launch zu kommunizieren, ob nun 6+6 oder 8+4. Vielleicht ja auch beides und man muss einfach Glück haben. ;D
Der_Korken
2023-02-28, 00:28:52
We will see. Bei einer 6+6-Konfiguration würde ich eine krumme L3-Cache-Größe ala 96 MB erwarten. Aber laut AMD hat der 7900X3D weiterhin 128 MB.
Warum sollte der Cache kleiner sein? Der L3 war bei AMD seit Zen 1 immer voll aktiviert, auch bei den Salvages (mit Ausnahme von ein paar Lowend-Modellen, wo er dann halbiert war). Der 7900X hat ja genauso 32+32MB wie der 7950X. Leistungstechnisch wäre 8+4 sicherlich günstiger, da man >5,2Ghz nicht auf mehr 4 Kernen braucht. Zumindest nicht mehr als mehr Kerne unter dem großen Cache.
M4xw0lf
2023-02-28, 07:18:00
Eine 6+6-Konfiguration wäre in der Tat schlecht, ja. Ich glaube aber, es wird eine 8+4-Konfiguration, die 128 MB L3-Cache sprechen dafür, dass es so sein wird. Der 7900X3D dürfte ein teildeaktivierter 7950X3D sein, aber mit 2 vollen CCDs. Aber mal schauen wie das preislich wird. Sind da nur 50 EUR Unterschied dann ist der 7950X3D wohl besser.
Andreas Schilling von hwluxx sagt er hat die offizielle Bestätigung dass es 6+6 sind.
https://twitter.com/aschilling/status/1630259288626036736
https://pbs.twimg.com/media/Fp_fFjqXgAAq4KQ?format=jpg&name=4096x4096
(Die "L3-cache per core" Berechnung ist natürlich ziemlicher Käse.)
Zossel
2023-02-28, 07:19:53
CPU-Limit geht mit MMORPGs oder Strategiespielen locker. ;D Und komplett alle Kerne auslasten wirst du kaum können. Aber das ist in Spielen nicht so wichtig. Da brauchst du ein gutes Instruktionen pro Takt-Verhältnis. Und das liefert der R 7950X3D zusammen mit einer sehr guten Energieeffizienz.
MMORPGs oder Strategiespiele brauchen eher viele schnelle Daten/Zeit als Instruktionen/Zeit.
Exxtreme
2023-02-28, 08:38:31
Andreas Schilling von hwluxx sagt er hat die offizielle Bestätigung dass es 6+6 sind.
https://twitter.com/aschilling/status/1630259288626036736
OK, danke für die Info. Dann ist 6+6 wohl doch nicht der Hit. :/
MMORPGs oder Strategiespiele brauchen eher viele schnelle Daten/Zeit als Instruktionen/Zeit.
Das auch. :)
M4xw0lf
2023-02-28, 08:44:17
Das würde ich jetzt weiterhin nicht als ausgemacht ansehen. In Spielen wo die Anzahl der Kerne durchschlägt (pcgh hat ja ein paar im Parcours) dürfte der immer noch schneller sein als ein 7800X3D, und in so ziemlich allen anderen Fällen gleichauf.
dildo4u
2023-02-28, 09:37:17
Hier wird erklärt wie man die CCX Priorität per XBox Gamebar zuweist.
qq13-xxAVDE
Edgecrusher86
2023-02-28, 09:54:04
SkatterBencher #56: AMD Ryzen 9 7950X3D Overclocked to 5900 MHz (https://skatterbencher.com/2023/02/27/skatterbencher-56-amd-ryzen-9-7950x3d-overclocked-to-5900-mhz/)
Video
(https://www.youtube.com/watch?v=9BwNt6PD-00)
Wenig Ertrag für den Aufwand - lohnt schon einmal als Gamer nicht. Für mich genauso sinnig, wie RPL auf 6 GHz in 4K zu betreiben. ;)
r3ptil3
2023-02-28, 10:31:14
Mich interessiert eher der R7900X3D. 12 Kerne reichen mir. Leider keine Benchmarks gefunden.
Das ist in den meisten Spielen praktisch ein 7600X3D, da nur 6-Kerne mit 3D-Cache.
Halte ich für das schwächste Produkt der neuen 3D-Cache Modelle.
Cubitus
2023-02-28, 10:32:16
Bastelbudenflair :freak:
AMD ist halt AMD, wobei die CPU meistens eh an testfreudige Enthusiasten verkauft wird.
KnJVNcIed9g
Bestätigt meine Vermutung wieder, liest sich immer alles großartig, bei Inbetriebnahme ist es wie zu erwarten holprig.
BlacKi
2023-02-28, 10:39:30
Ab wann werden die Dinger morgen eigentlich wo verkauft?(28. Februar) 15:00
Das gilt doch auch für das gesamte Intel Raptorlake Lineup?
Nur mit einer 4090 macht ein 13600K aufwärts Sinn.
Bei einer 3070, 3080, 4070 langt auch ein Ryzen 5600. Alles darüber ist doch Geldverschwendung, wenn es um Preis / Leistung geht?
stimmt halt nicht. du hast auch mit einer 4070ti und einem optimierten 13600k noch cpu limit. davon abgesehen gilt immernoch, die cpu ist verantwortlich für die fps, die grafikeinstellungen für die gpu!. du kannst also auch einen 13900k oder 7950x je nach spielekombination sinnvoll mit einer 4070 kombinieren. in fhd für max fps.
Cubitus
2023-02-28, 10:45:21
(28. Februar) 15:00
Nach dem Video würde ich lieber mit dem Kauf warten :freak:
Scheint noch nicht so rund zu laufen.
Bios-Updates fehlen, OC nicht wirklich möglich.
Exxtreme
2023-02-28, 10:46:28
Bastelbudenflair :freak:
AMD ist halt AMD, wobei die CPU meistens eh an testfreudige Enthusiasten verkauft wird.
https://youtu.be/KnJVNcIed9g
Bestätigt meine Vermutung wieder, liest sich immer alles großartig, bei Inbetriebnahme ist es wie zu erwarten holprig.
Naja, bloß weil ein Youtuber Probleme hat, muss das nicht für alle anderen gelten. Wenn es generell Probleme gäbe dann würde das in den anderen Reviews auftauchen.
BlacKi
2023-02-28, 10:46:59
sag das mr. schneider, nicht mir^^
Troyan
2023-02-28, 10:47:56
Das gilt doch auch für das gesamte Intel Raptorlake Lineup?
Nur mit einer 4090 macht ein 13600K aufwärts Sinn.
Bei einer 3070, 3080, 4070 langt auch ein Ryzen 5600. Alles darüber ist doch Geldverschwendung, wenn es um Preis / Leistung geht?
Die Diskussion gab es letztes Jahr auch schon: Niemand sollte von einer veralteten Plattform auf eine andere veraltete Plattform wechseln. Deswegen floppte Zen4 auch, weil ein 13600K schneller ist als alles, was kein Cache hat bei AMD und dabei noch 400€ günstiger war.
M4xw0lf
2023-02-28, 10:49:51
Bastelbudenflair :freak:
AMD ist halt AMD, wobei die CPU meistens eh an testfreudige Enthusiasten verkauft wird.
https://youtu.be/KnJVNcIed9g
Bestätigt meine Vermutung wieder, liest sich immer alles großartig, bei Inbetriebnahme ist es wie zu erwarten holprig.
Die Mehrheit der Testberichte stimmt darin überein, dass es mit den mitgelieferten Softwareupdates sehr gut funktioniert.
M4xw0lf
2023-02-28, 10:51:56
Nach dem Video würde ich lieber mit dem Kauf warten :freak:
Scheint noch nicht so rund zu laufen.
Bios-Updates fehlen, OC nicht wirklich möglich.
OC ist sowieso nicht möglich und außerdem sinnlos. :facepalm:
Es gehen nur Späße über externe Taktgeber und die sind den Aufwand kaum wert.
Cubitus
2023-02-28, 10:57:17
Naja, bloß weil ein Youtuber Probleme hat, muss das nicht für alle anderen gelten. Wenn es generell Probleme gäbe dann würde das in den anderen Reviews auftauchen.
Der Youtuber hat keine CPU von AMD bekommen, Roman auch nicht, warum wohl? Seine Infos sind eben ungeschönte Erfahrungsberichte, wenn ich mir einen AMD PC zusammenbauen würde, hätte ich wahrscheinlich die gleichen Hürden zu überwinden.
Ich lese gerne Reviews, um Benchmarks und technische Hintergründe zu erfahren, aber die offiziellen Reviews sind schon wohlwollender geschrieben, was die Probleme angeht.
Man beißt ja nicht die Hand, die einen füttert.
Die Mehrheit der Testberichte stimmt darin überein, dass es mit den mitgelieferten Softwareupdates sehr gut funktioniert.
Ja von AMD kuratiert und mitgeliefert, so einen Zugang haben aber die wenigsten DIY-Schrauber.
Die Kritik des YT ist absolut gerechtfertigt, das deckt auch meine Erfahrungen vom meinem letzten AMD Build.
Ich finde den Ansatz von AMD gut, und bin von den neuen 3D CPUS wirklich angetan, aber das Ding so auf den Markt zu werfen ist halt wieder mal typisch.
dildo4u
2023-02-28, 11:04:58
Ich meine sie haben diesmal MS dazu gezwungen Arbeit zu investieren das ist deutlich besser als andere Launches.
https://youtu.be/qq13-xxAVDE?t=156
Und das Treiber für User erst zum Launch kommen ist Standard wenn der Chipsatz Treiber Heute nicht da ist wird es problematisch.
gbm31
2023-02-28, 11:17:51
Der Youtuber hat keine CPU von AMD bekommen, Roman auch nicht, warum wohl? Seine Infos sind eben ungeschönte Erfahrungsberichte, wenn ich mir einen AMD PC zusammenbauen würde, hätte ich wahrscheinlich die gleichen Hürden zu überwinden.
...
Die Kritik des YT ist absolut gerechtfertigt, das deckt auch meine Erfahrungen vom meinem letzten AMD Build.
Typisch ist eher dein BIAS.
https://www.igorslab.de/community/threads/amd-ryzen-9-7950x3d-im-gaming-und-workstation-test-wird-intels-core-i9-13900k-im-raptor-lake-abgek%C3%BChlt-und-versenkt.7841/post-208771
Der hat einfach nicht hinbekommen, was jeder andere hinbekommen hat.
Cubitus
2023-02-28, 11:25:11
Typisch ist eher dein BIAS.
https://www.igorslab.de/community/threads/amd-ryzen-9-7950x3d-im-gaming-und-workstation-test-wird-intels-core-i9-13900k-im-raptor-lake-abgek%C3%BChlt-und-versenkt.7841/post-208771
Der hat einfach nicht hinbekommen, was jeder andere hinbekommen hat.
Joa, das ist ja nett, dass Igor ihm geholfen hat, wie gesagt, wenn er damit Probleme hat, wird es auch andere User geben, die damit nicht zurechtkommen.
Und Fallstricke gibt es zuhauf. Wenn ich von benötigten AMD Chipsatztreibern, Biosupdates etc. höre + Kommandozeilenbefehl :freak: werde ich hellhörig.
Warum kann das Ding nicht einfach ordentlich funktionieren und schedulen, und warum gibt es nur eine Hand voll qualifizierter Bios Update?
Und das Treiber für User erst zum Launch kommen ist Standard wenn der Chipsatz Treiber Heute nicht da ist wird es problematisch.
Ich empfehle schon mal den Reddit-Megathread und diverse Foren sich als Favorit zu setzen.
Exxtreme
2023-02-28, 11:29:51
Warum kann das Ding nicht einfach ordentlich funktionieren und schedulen,
Weil man zuerst das sog. Halteproblem lösen müsste. Und da man das nicht kann, muss man mit irgendwelchen Whitelists und Heuristiken arbeiten. Funktioniert zwar meistens, aber auch nicht immer. Wichtig ist deshalb, dass man manuell Hand anlegen kann.
Cubitus
2023-02-28, 11:38:21
Weil man zuerst das sog. Halteproblem lösen müsste. Und da man das nicht kann, muss man mit irgendwelchen Whitelists und Heuristiken arbeiten. Funktioniert zwar meistens, aber auch nicht immer. Wichtig ist deshalb, dass man manuell Hand anlegen kann.
Ich verstehe schon, dass es Startprobleme geben kann, das ist bei Intel auch so, aber es bleibt immer ein fader Beigeschmack mit dem AMD-Treiber und der CCD-Erkennung. Für mich klingt das immer nach ständigem manuellen Nachjustieren. Jedes Spiel, jede Anwendung ist eine Blackbox, um dem Ganzen aus dem Weg zu gehen, bleibt nur der 7800X3D.
Crazy_Chris
2023-02-28, 11:43:26
AMD ist nunmal nicht Apple die das ganze Ökosystem quasi im Würgegriff haben.
Exxtreme
2023-02-28, 12:10:40
Ich verstehe schon, dass es Startprobleme geben kann, das ist bei Intel auch so, aber es bleibt immer ein fader Beigeschmack mit dem AMD-Treiber und der CCD-Erkennung. Für mich klingt das immer nach ständigem manuellen Nachjustieren. Jedes Spiel, jede Anwendung ist eine Blackbox, um dem Ganzen aus dem Weg zu gehen, bleibt nur der 7800X3D.
Nein. Das Halteproblem besagt, dass ein Programm nicht in der Lage ist herauszufinden ob ein anderes Programm sich jemals beenden wird. Oder anders gesagt: man ist nicht in der Lage herauszufinden was ein anderes Programm macht und machen wird. Und deshalb funktionieren Virenscanner bei unbekannten Schädlingen nicht zuverlässig da der Virenscanner nicht herausfinden kann ob ein anderes Programm dazu gemacht wurde etwas Schädliches zu machen etc.
Und die gleiche Problematik haben Intel, AMD und Microsoft und deren Heuristiken. Bei unbekannten Spielen oder Anwendungen werden sie so ähnlich zuverlässig sein wie Virenscanner. Wahrscheinlich sogar unzuverlässiger. Denn eine etwas schlechtere Heuristik gefährdet niemanden. Und ob man da Tonnen an Arbeit reinsteckt ist eher fraglich. Zuverlässiger sind Whitelists. Aber da kann man nur bekannte Anwendungen reinsetzen, die man vorher durchgemessen hat. Und auch Anwendungen, die auf einer Whitelist sind, können trotzdem zeitweise schlechter auf den Kernen mit mehr Cache laufen und vice versa. Sprich, auch das ist keine 100%-Lösung.
Complicated
2023-02-28, 12:13:42
Ja von AMD kuratiert und mitgeliefert, so einen Zugang haben aber die wenigsten DIY-Schrauber.
Die Kritik des YT ist absolut gerechtfertigt, das deckt auch meine Erfahrungen vom meinem letzten AMD Build.
Ich finde den Ansatz von AMD gut, und bin von den neuen 3D CPUS wirklich angetan, aber das Ding so auf den Markt zu werfen ist halt wieder mal typisch.
Nur sind halt die Erfahrungswerte nicht mehr anzuwenden.
Die AM5 Plattform hat für diese Themen Lösungen in Hardware. Hier benötigt man keine CPU oder RAM mehr um ein BIOS Update durchzuführen und kann einfach einen USB-Stick einstecken ohne umständliche Vorarbeit. BIOS USB Flashback. Was zuvor vom Mainboard-Hersteller abhing (ich hatte es schon auf meinem AM4 Board) ist jetzt in der CPU und nicht mehr abhängig von den Board-Herstellern, damit es implementiert wird.
z.B.: https://www.asus.com/support/FAQ/1038568
Linmoum
2023-02-28, 12:33:15
Bastelbudenflair :freak:
AMD ist halt AMD, wobei die CPU meistens eh an testfreudige Enthusiasten verkauft wird.
https://youtu.be/KnJVNcIed9g
Bestätigt meine Vermutung wieder, liest sich immer alles großartig, bei Inbetriebnahme ist es wie zu erwarten holprig.Das Video wurde im Luxx gestern schon völlig zerrissen weil es einfach nur schlecht ist.
Was leider auf viele Techtuber zutrifft, deswegen wird hier auch immer nur derselbe Kram verlinkt. Da weiß man, woran man ist.
OpenVMSwartoll
2023-02-28, 12:34:42
Nach dem Video würde ich lieber mit dem Kauf warten :freak:
Scheint noch nicht so rund zu laufen.
Bios-Updates fehlen, OC nicht wirklich möglich.
Der hat keine Ahnung von der CPU. Könnte Dir daran auffallen, dass er mutmaßt, manche Spiele könnten auf den taktfreudigen Kernen gelaufen sein. Wäre er dazu in der Lage, hätte er es geprüft.
Und dann macht es auch keinen Sinn, ihm Samples zu schicken.
Wie man es auch dreht und wendet, AMD muss eine Lösung für die Inter-CCX-Latenzen finden. Mal sehen, was bei den nächsten Generationen so passiert ;).
Als Spieler ist es sicherlich sinnvoll das Cache-Die auf Default zu stellen (sobald das dann geht, aber das kommt ja) oder gleich einen 7800X3D zu kaufen. Für Produktivarbeitende wäre es sinnvoll, das normals CCX zu priorisieren, da die CPU schlichtweg besser ist als der ursprüngliche 7950X, ist das ja auch für die sinnvoll, den zu kaufen. Und die Whitelists sind mMn kein Problem, man muss halt aktuell bleiben. Vielleicht kommt das aber sogar über Windows-Update in Zukunft, dann wäre das völlig transparent für den Nutzer.
Ich wette aber, dass das Gebastel ab Zen5 nicht mehr nötig sein wird.
Achill
2023-02-28, 12:58:12
Scheint dort auch gut zu laufen: https://www.phoronix.com/review/amd-ryzen9-7950x3d-linux
Das Review muss ich mir erst noch in Ruhe anschauen. Aber das fehlen von der "Game Bar" müsste ja ein beständiges "Defizit" sein, verglichen zu Win, oder? Oder Win hat einen leichten Bonus, je nach Sichtweise.
Spannend was er alles für workloads im Anwendungstestfeld hat die teilweise auch extrem auf den Cache abgehen.
Ich wollte erstmal auf das Linux-Review aufmerksam machen. Darüber hinaus habe ich auch noch nichts gelesen (aber auch noch nicht aktiv danach gesucht) ob hier etwas aktiv von AMD passiert - ich tippe eher auf community Arbeit, es sollte aber nicht schwer sein (aber natürlich aufwand bedeuten), dies via user-space tools zu unterstützen oder vielleicht macht es auch value im Zuge ihres Linux-Supports.
Hammer des Thor
2023-02-28, 13:00:01
We will see. Bei einer 6+6-Konfiguration würde ich eine krumme L3-Cache-Größe ala 96 MB erwarten. Aber laut AMD hat der 7900X3D weiterhin 128 MB.
Wieso das denn? Der normale L3 ist doch auch beí den 7600 und 7900 nicht reduziert!
Matrix316
2023-02-28, 13:20:23
AMD hätte ja auch beim 7950X3D einfach den Cache gemeinsam für beide Chiplets machen können und nicht pro Chiplet einen eigenen. Oder was spräche dagegen?
Ist Blödsinn, wenn man drüber nachdenkt. ;) Das Chiplet Design ist halt einerseits praktisch, aber für Performance vielleicht nicht unbedingt das optimalste...
dildo4u
2023-02-28, 13:22:22
AMD hätte ja auch beim 7950X3D einfach den Cache gemeinsam für beide Chiplets machen können und nicht pro Chiplet einen eigenen. Oder was spräche dagegen?
3D Cache überall bedeutet Geringer Takt für beide CCD, mit der Konfig behält der 7950X3D ca die selbe Single Core Performance.
https://youtu.be/pXmiLiGZ9KQ?t=215
Exxtreme
2023-02-28, 13:26:34
Ist Blödsinn, wenn man drüber nachdenkt. ;) Das Chiplet Design ist halt einerseits praktisch, aber für Performance vielleicht nicht unbedingt das optimalste...
Der Cache hat auch Nachteile: man kann nicht so hoch takten und der größere Cache hat etwas größere Latenzen. Kann also gut sein, dass es Anwendungen gibt, die dadurch langsamer laufen.
Achill
2023-02-28, 13:29:05
Bastelbudenflair :freak:
AMD ist halt AMD, wobei die CPU meistens eh an testfreudige Enthusiasten verkauft wird.
https://youtu.be/KnJVNcIed9g
Bestätigt meine Vermutung wieder, liest sich immer alles großartig, bei Inbetriebnahme ist es wie zu erwarten holprig.
Die Bild der YT-Channel? ... ich empfehle einfach mal die Video-Titel zu lesen - reicht m.E. völlig aus um diesen Channel zu klassifizieren: https://www.youtube.com/@KreativEcke/videos
OpenVMSwartoll
2023-02-28, 13:40:27
Die Bild der YT-Channel? ... ich empfehle einfach mal die Video-Titel zu lesen - reicht m.E. völlig aus um diese Channel zu klassifizieren: https://www.youtube.com/@KreativEcke/videos
Das ist seichteste Unterhaltung ohne jede Tiefe, keine Frage.
Wie gesagt: Wer nicht verifizieren kann, welche Cores nun vom jeweiligen Spiel genutzt wurden, hat fachlich wenig anzubieten.
Aber wenn man mal sehen will, was auf eBay für seltsame PCs angeboten werden und sein Hirn dabei abschalten möchte...
MD_Enigma
2023-02-28, 14:18:16
KreativEcke. Oh Gott. Ich bin zu alt für soetwas, aber die Zielgruppe scheint zu existieren ;-) Ignore auf den Channel und gut ist.
Der 7800X3D wird ne tolle CPU und tatsächlich eine Empfehlung, wenn die Benchmarks so zutreffen. Ich bin aber bei Igor, dass die CPU's eher in das Editors-Choice-Lager fallen. Der Aufpreis zum 5800X3D ist einfach zu hoch (+150 Euro CPU, +150 Euro Board, +50 Euro Speicher). Das Steckt man sinnvoller in ne GPU.
Lehdro
2023-02-28, 14:24:11
Der Aufpreis zum 5800X3D ist einfach zu hoch (+150 Euro CPU, +150 Euro Board, +50 Euro Speicher). Das Steckt man sinnvoller in ne GPU.
Wenn man die GPU aber schon hat? ;)
Das Video von Kreativ ist höchst peinlich, ich verstehe nicht, warum man sich überhaupt darüber unterhalten sollte.
MD_Enigma
2023-02-28, 14:33:55
Wenn man die GPU aber schon hat? ;)
Wenn du den UseCase für mehr CPU-Leistung hast - dann ganz klar: Shut up and take my money.
00-Schneider
2023-02-28, 14:47:58
7950X3D ist jetzt für 860€ bei Mindfactory drin.
edit: Preis runter auf 790€., 7900X3D für 680€
Lurtz
2023-02-28, 14:49:30
Die Zielgruppe für sowas ist halt da, deshalb sprießen diese semiprofessionellen Youtube-Channels aus dem Boden wie Unkraut nach dem Regen. Jugendliche und junge Erwachsene lassen sich doch nichts von einem alten weißen Mannn wie Raff über Technik erzählen ;)
Matrix316
2023-02-28, 14:52:58
Der Cache hat auch Nachteile: man kann nicht so hoch takten und der größere Cache hat etwas größere Latenzen. Kann also gut sein, dass es Anwendungen gibt, die dadurch langsamer laufen.
3D Cache überall bedeutet Geringer Takt für beide CCD, mit der Konfig behält der 7950X3D ca die selbe Single Core Performance.
https://youtu.be/pXmiLiGZ9KQ?t=215
Und wie entscheidet dann Windows ob Programme mehr Cache oder mehr Takt gebrauchen können? Bei Spielen ist ja eigentlich beides wichtig. Sehr verwirrend... :confused:
dildo4u
2023-02-28, 14:59:39
Laut AMD gibt es eine White List im Chipsatz Treiber wenn dein Game dort nicht eingetragen ist kann man per XBox Gamebar erzwingen das es auf dem CCD mit 3DCache läuft.
Die Whitelist sollte mit der Zeit erweitert werden alles sehr umständlich am Ende wird die Masse eh den 8 Core kaufen so wie jetzt den 5800X3D.
Cubitus
2023-02-28, 15:04:36
Und AMD liefert dann immer brav die nötigen Treiber-Updates für die neuesten Spiele pünktlich aus. Das klappt auch immer sehr lobenswert und sehr gut mit ihren Adrenalin Treibern ;D
Das sind schon wieder so komische Bedingungen, und Fallstricke mit einem großen Fragezeichen dahinter.
00-Schneider
2023-02-28, 15:05:48
Und AMD liefert dann immer brav die nötigen Treiber-Updates für die neuesten Spiele pünktlich aus. Das klappt auch immer sehr lobenswert und sehr gut mit ihren Adrenalin Treibern ;D
Da man heute eh nichts mehr Day1 bei Spielen kaufen sollte: non-issue. ;)
Cubitus
2023-02-28, 15:10:37
Da man heute eh nichts mehr Day1 bei Spielen kaufen sollte: non-issue. ;)
Falls du dir diese CPU gönnen willst, würde ich dir eh raten den CCD1 zu deaktivieren. Oder du wartest einfach auf den 7800X3D
Wie gesagt die CPU oder welche X3Ds noch kommen werden sind sicherlich geil.
Nur eben die Rahmenbedingungen sind wieder so AMD-Typisch..
Lehdro
2023-02-28, 15:11:37
Wär halt schön wenn man die (oder generell eine) Liste selbst editieren könnte, ohne Umwege mit händischer Zuweisung per CFX oder XBOX Gamebar - das muss man dann jedes mal per Hand machen wenn es automatisch nicht so läuft wie gewünscht, right?
Ich würde da nicht von AMD abhängig sein wollen, dass die ihre Listen pflegen und erweitern. Es gibt Tausende von Spielen, das alles zu whitelisten ist auch generell wenig elegant. Die Unterschiede zwischen beide CCDs aktiv, CCD0 aktiv und CCD1 geparkt und CCD1 aktiv und CCD0 geparkt sind teilweise schon heftig. Das mag bei den Reviewern kaum auffallen, aber die testen quasi auch alle dieselben paar Dutzend Titel. Die 3D Vcache Paradebeispiele sind alle nicht darunter. Und gerade bei HWUB hat man gesehen das Factorio, der bekannteste Sonderfall für X3D schlechthin, eben nicht richtig lief ohne händischen Eingriff. So wird es vielen Spielen gehen...
dildo4u
2023-02-28, 15:15:50
Falls du dir diese CPU gönnen willst, würde ich dir eh raten den CCD1 zu deaktivieren. Oder du wartest einfach auf den 7800X3D
Wie gesagt die CPU oder welche X3Ds noch kommen werden sind sicherlich geil.
Nur eben die Rahmenbedingungen sind wieder so AMD-Typisch..
Du hast doch selber nur den 13600k gekauft der i9 macht genau so wenig Sinn, es hat sein Grund warum die High-End Modelle ihre Preise nicht halten können gibt viel zu wenig Consumer Software, die so viele Threads vernünftig nutzen kann.
DavChrFen
2023-02-28, 15:15:57
7950X3D ist jetzt für 860€ bei Mindfactory drin.
edit: Preis runter auf 790€., 7900X3D für 680€
Ist der 7950X3D schon ausverkauft oder warum finde ich den nicht?
Taigatrommel
2023-02-28, 15:19:50
Ist der 7950X3D schon ausverkauft oder warum finde ich den nicht?
Offenbar schon ausverkauft, vorhin war er noch gelistet. Überrascht mich ja ein wenig, entweder die Nachfrage wirklich so hoch oder aber die Stückzahlen so begrenzt, bzw. einige Scalper hoffen auf ein gutes Geschäft.
Andererseits wenn man sich anschaut, wie >2000€ Grafikkarten aus den Regalen gerissen wurden, dann braucht einem das auch nicht bei einer ~800€ CPU inklusiver eher teurer Plattform wundern.
00-Schneider
2023-02-28, 15:19:54
Ist der 7950X3D schon ausverkauft oder warum finde ich den nicht?
Jep, is weg.
Schau mal bei Alternate.
Cubitus
2023-02-28, 15:20:23
Das mag bei den Reviewern kaum auffallen, aber die testen quasi auch alle dieselben paar Dutzend Titel.
Sie dürfen sich auch nicht zu laut äußern, sonst gibt es keine Testmuster und damit auch keine rechtzeitigen Tests. Egal welcher Hersteller, ob Intel, Nvidia oder AMD.
Bei den ganzen YT Influencern, von denen kann man halten was man will, ist es nicht so. Die haben ihre Abonnenten und bekommen trotzdem ihr Geld, auch wenn ein Video nicht sofort nach der Veröffentlichung fertig ist.
Evil Ash
2023-02-28, 15:26:13
Ist der 7950X3D schon ausverkauft oder warum finde ich den nicht?
Da bist du etwas zu spät. War 5 Minuten nach 15 Uhr weg (Mindfactory).
00-Schneider
2023-02-28, 15:34:46
So viel zum Thema: „Man bekommt zu Release problemlos welche, da jeder auf den günstigeren 7800X3D wartet.“
War mal wieder kompletter Dünnpfiff.
edit: NBB hat noch welche.
DavChrFen
2023-02-28, 15:42:23
Ich warte trotzdem auf die 2. Welle. Weil ich habe die Hoffnung nach OC noch nicht komplett aufgegeben und ich wollte erst noch User-Tests von einem geköpftem Exemplar abwarten.
Radeonfreak
2023-02-28, 15:48:14
Ich warte trotzdem auf die 2. Welle. Weil ich habe die Hoffnung nach OC noch nicht komplett aufgegeben und ich wollte erst noch User-Tests von einem geköpftem Exemplar abwarten.
Ryzen 9 7950X3D in Extremtests: Geköpft und übertaktet
https://www.pcgameshardware.de/CPU-CPU-154106/News/Ryzen-9-7950X3D-in-Extremtests-Gekoepft-und-uebertaktet-1414409/
Lehdro
2023-02-28, 15:58:18
Sie dürfen sich auch nicht zu laut äußern, sonst gibt es keine Testmuster und damit auch keine rechtzeitigen Tests. Egal welcher Hersteller, ob Intel, Nvidia oder AMD.
Das hat aber nix mit "dürfen" zu tun, eher mit dem "Weg des geringsten Widerstands". Sowohl für Reviewer, als auch den Großteil der Konsumenten ist es leichter wenn da die bekannten AAA Titel drin sind. Indie/Sondertitel mit anderen Metriken (Factorio: UPS, Civ: Rundenzeiten, Stellaris: Ingamezeit vs realtime) sind deutlich schwerer zu benchmarken (bestimmte Custom Szenarien, variierende Spiellogik mit kaskadierenden Folgen, Patches die alles ändern), bei manchen Spielen wie MMOs (ich sag nur aktive Spieler, Serverlast) sind sogar nur "grobe" Tendenzen zu messen, weil niemals 100% identisch nachstellbar. Das alles steht dem Streben nach wissenschaftlicher Arbeit doch stark entgegen. Vor allem wenn man die Testparcours über Monate beibehalten will. PCGH hatte da immer schön ausformuliert warum bestimmte Spiele im Testablauf landen und andere wiederum nicht. Die Sondertitel sind da, oh Wunder, alle etwas nachteilig für die Tester. Gerade was Zeitaufwand und Reproduzierbarkeit angeht.
Ich finde es aber trotz dieser Gründe einfach nur traurig, dass diese "Spezial"-CPUs nicht einmal im Rahmen von Sondertests mit solchen Workloads betraut werden. Seit dem 5800X3D wird das in Foren und Kommentaren hoch und runtergetrommelt, aber es tut sich nichts. Zu WoW zum Beispiel hatte damals ein kleiner YTer paar halbwegs vernünftige Benchmarks (https://www.youtube.com/watch?app=desktop&v=gOoB3dRcMtk) im Rahmen seiner Möglichkeiten gemacht, aber das war halt Einer unter Vielen und auch das kratzte quasi nur an der Oberfläche (kein Raidszenario z.B.).
Bei den ganzen YT Influencern, von denen kann man halten was man will, ist es nicht so. Die haben ihre Abonnenten und bekommen trotzdem ihr Geld, auch wenn ein Video nicht sofort nach der Veröffentlichung fertig ist.
Ich würde halt auch stark davon abraten alles von YT pauschal als "Influencer" zu diffamieren. Dort gibt es genauso gute und schlechte Reviewer, wobei Leute wie Kreativecke sowieso nur Influencer sind, mit Review hat das eher wenig zu tun.
Taigatrommel
2023-02-28, 16:09:22
Ich finde es aber trotz dieser Gründe einfach nur traurig, dass diese "Spezial"-CPUs nicht einmal im Rahmen von Sondertests mit solchen Workloads betraut werden. Seit dem 5800X3D wird das in Foren und Kommentaren hoch und runtergetrommelt, aber es tut sich nichts. Zu WoW zum Beispiel hatte damals ein kleiner YTer paar halbwegs vernünftige Benchmarks (https://www.youtube.com/watch?app=desktop&v=gOoB3dRcMtk) im Rahmen seiner Möglichkeiten gemacht, aber das war halt Einer unter Vielen und auch das kratzte quasi nur an der Oberfläche (kein Raidszenario z.B.).
Immerhin hatte PCGH letztes Jahr einen kompletten Sondertest für WoW Dragonflight veröffentlicht, dort auch interessanterweise nicht nur mit modernster Hardware, sondern auch mit älteren Teilen wie den kleinen Zen der ersten Generation, GeForce 1050 Ti oder Radeon RX 470.
Ich denke gerade bei WoW ist es schwer, "richtige" Tests durchzuführen, gerade Raidszenarios oder ähnliches, da man diese gar nicht richtig zuverlässig wiederholen kann. Dennoch wäre es interessant, wie gut die Zen 4 3D Prozessoren dort abschneiden, der 5800X3D war wie für das Spiel gemacht und zeigte einen deutlichen Vorsprung gegenüber z.B. einem 7700X oder 5700X. Für mich hat der der Umstieg 3900X -> 5800X3D alleine wegen WoW gelohnt, der Performanceunterschied in schwierigen Situationen wie z.B. Weltbossen ist gewaltig, es ist tatsächlich beinahe wie Diashow zu recht flüssig.
dargo
2023-02-28, 16:58:21
Daher hab ich mir gesagt: Wenn ich schon die 7900XTX aussitze, werde ich das mal auch mit der 7000er Serie tun. Sollte die nächste Generation +100% auf den 5800X3D hinlegen, auch ggf. für einen gewissen Aufpreis, wäre ich nicht abgeneigt. Aber für +25% haue ich doch nicht 1200€ auf den Tisch (CPU, Board, DDR5). Nope, never.
:lol:
Träum weiter. :) Mit viel Glück die über/über nächste Generation. ;)
Complicated
2023-02-28, 16:59:12
Die Bild der YT-Channel? ... ich empfehle einfach mal die Video-Titel zu lesen - reicht m.E. völlig aus um diesen Channel zu klassifizieren: https://www.youtube.com/@KreativEcke/videos
Zitat Videoersteller:
Auf B660 laufen die natürlich nicht! BITTE nicht ausprobieren! xD Sorry ich war total durch, weil ich seit Freitag teste und wenig geschlafen habe! Video ist last minute fertig geworden! :D
Tja warum er wohl Probleme bei manchen Boards hatte.
user77
2023-02-28, 17:03:19
Das Video von Kreativ ist höchst peinlich, ich verstehe nicht, warum man sich überhaupt darüber unterhalten sollte.
mimimi, ich kann eine CPU tauschen, aber Chipsatztreiber installieren und einen CMD Befehl auszuführen ist zuviel :freak: und oh nein, man braucht ein BIOS Update für eine CPU, die es so noch nie gegeben hat. (1xccd mit 3dvc und 1ccd stock)
MD_Enigma
2023-02-28, 18:49:14
Auf den Mainboards sind aktuell 70 Euro Gewinn, den man nachlässt. Siehe Mindfactory. Dazu gibts bestimmt rund 40 Euro erlös, wenn man das Gratis-Spiel monitarisiert. Find ich jetzt net soooo verkehrt, wenn man einen neuen Prozessor braucht. Tu ich aber nicht ;)
Inquisitor
2023-02-28, 19:08:17
So, Papa war shoppen :biggrin:
dargo
2023-02-28, 19:41:59
Du hast dir ein ASUS Brett gekauft? :eek: Laut HOT ist das doch alles Müll bei AMD. ;)
Inquisitor
2023-02-28, 19:48:05
Ist das so? :o war mir neu... ... ...
dargo
2023-02-28, 19:49:47
Ist das so?
Vergiss es, ist völliger bullshit.
Ex3cut3r
2023-02-28, 20:44:34
AM5 ist schon nicht übel insgesamt. Das gute ist, da kommen noch einige Generation an CPUs. Es ist wenigstens beim Kauf nicht direkt tot, so wie bei Intel. X-D
Mein Kauf hat aber noch Zeit. Ich schaue mal wie die Sache bei Ryzen 8000 aussieht. DDR5 und die Boards sind mir noch zu teuer.
Beim AM4 bin auch erst mit Ryzen 3000 eingestiegen.
dargo
2023-02-28, 20:47:35
AM5 ist schon nicht übel insgesamt. Das gute ist, da kommen noch einige Generation an CPUs.
Welche einige Generationen? Afaik kommt nur noch Zen5 für AM5, das wars dann wieder.
Complicated
2023-02-28, 21:00:58
Afaik kommt nur noch Zen5 für AM5, das wars dann wieder.Wie kommst Du da drauf?
https://www.anandtech.com/show/17192/ces-2022-amds-nextgen-am5-platform-to-have-long-term-support
Dr. Su stated that AM4 ‘has been good for the community and … it’s been good for us as well’. She confirmed that a change was required with the new standards, but on strategy it was put that ‘I don’t have an exact number of years but I would say that you should expect that AM5 will be a long-lived platform as AM4 has been’. Dr. Su also stated that even with the introduction of AM5, the company expects AM4 to stay in the marketplace for some years, with overlap between the two depending on the market.
For users wondering how far AM5 can go before it needs to change again, it’s worth looking at roadmaps for the two usual elements that cause socket updates: memory and PCIe. We’re only just on the transition to DDR5, and DDR6 is a long way away – in a recent Samsung presentation, for example, it listed DDR6 as a 2028 technology.
Konami
2023-02-28, 21:05:55
Ryzen 9 7950X3D in Extremtests: Geköpft und übertaktet
https://www.pcgameshardware.de/CPU-CPU-154106/News/Ryzen-9-7950X3D-in-Extremtests-Gekoepft-und-uebertaktet-1414409/
Da hast du mir Hoffnung gemacht, aber hinter der tollen Headline verbirgt sich ja eher "geköpft oder übertaktet". ;( Hoffe mal, da kommt bald ein followup von der8auer.
Ich hatte eigentlich auch fix vor, das Ding zu köpfen, aber bei der guten Effizienz und niedrigen thermischen Dichte (120W auf 2 CCDs verteilt) kommt's mir plötzlich gar nicht mehr so notwendig vor.
00-Schneider
2023-02-28, 21:28:20
Gibts schon Amateur-Tests von 7900X3D?
dargo
2023-02-28, 21:32:39
Wie kommst Du da drauf?
https://www.anandtech.com/show/17192/ces-2022-amds-nextgen-am5-platform-to-have-long-term-support
Hatte ich irgendwo im Netz aufgeschnappt, könnte natürlich auch Blödsinn gewesen sein. Wenn AM5 noch Zen6 miterlebt umso besser. =)
DeadMeat
2023-02-28, 21:57:54
Vergiss es, ist völliger bullshit.
Na die ersten Bios updates waren echt nicht sonderlich gut, erst ab dem 1.0.0.4 agesa beta Bios ging es dann deutlich besser.
Aber die Beta wurde von Asus zurückgezogen, wärend andere Hersteller Final Version brachten hing man noch deutlich länger im alten fest welches wirklich viel Probleme beim Ram produzierte. Wir reden hier von (unterstützten) 4800er Ram der nichtmal im Dual Channel startete oder der PC machte keine Reboots/Kaltstarts mit und musste quasi 2 x gestartet werden.
Erst am Wochenende kam ein Final 1.0.0.5 Bios heraus man übersprang die 4er.
Die neue Version startet zwar etwas langsamer als die Beta, aber insgesamt deutlich schneller als die alten und mein (gammel) Ram läuft nun in jedem der xmp/expo setting stabil.
TLDR: Bios Releases waren/sind etwas langsamer was starke Ram Probleme verursachte, mittlerweile alles deutlich verbessert. Ich bin zufrieden.
MD_Enigma
2023-02-28, 22:34:34
So, Papa war shoppen :biggrin:
I got igored!
Rolsch
2023-03-01, 00:32:54
I got igored!
... kann man heilen.
Crazy_Chris
2023-03-01, 09:04:31
So, Papa war shoppen :biggrin:
Und wie schauts aus? Läufts? :biggrin:
MSABK
2023-03-01, 09:12:19
Der 7900X 3d scheint nicht soo viel langsamer zu sein.
https://tweakers.net/reviews/10906/17/ryzen-9-7950x3d-vs-core-i9-13900ks-heeft-amd-of-intel-de-snelste-gaming-cpu-stroomverbruik-en-efficientie.html
dargo
2023-03-01, 09:30:35
Na die ersten Bios updates waren echt nicht sonderlich gut, erst ab dem 1.0.0.4 agesa beta Bios ging es dann deutlich besser.
Wie immer... kein Mitleid mit Early Adopters. Bei neuen Chipsätzen steige ich eher frühestens 6 Monate nach Release ein.
Matrix316
2023-03-01, 09:37:45
Der 7900X 3d scheint nicht soo viel langsamer zu sein.
https://tweakers.net/reviews/10906/17/ryzen-9-7950x3d-vs-core-i9-13900ks-heeft-amd-of-intel-de-snelste-gaming-cpu-stroomverbruik-en-efficientie.html
Lustigerweise ein 5800X3D auch nicht im Vergleich. :freak:
https://tweakers.net/reviews/10906/13/ryzen-9-7950x3d-vs-core-i9-13900ks-heeft-amd-of-intel-de-snelste-gaming-cpu-games-red-dead-redemption-2.html
Ich würde ja fast behaupten ein 3800X3D wäre ähnlich schnell oder ein 2700X3D. Wie weit kann man das Spiel treiben? Ich dachte jetzt die 7er müssten eigentlich deutlich noch mal schneller sein... :uponder:
Crazy_Chris
2023-03-01, 09:48:33
Wie immer... kein Mitleid mit Early Adopters. Bei neuen Chipsätzen steige ich eher frühestens 6 Monate nach Release ein.
Ja diese Lektion hatte ich beim AM4 Release wieder mal auch gelernt. :redface:
Soweit ich aber mitbekommen hatte ist AM5 da doch deutlich ausgereifter auf den Markt gekommen. Oder es liegt daran das die Verbreitungen noch so gering ist. :confused:
Naja Preis/Leistungssieger ist mit Abstand noch immer die 5800X3D unter den aktuellen 3D Cache Chips. Der 7800X3D dürfte daran so schnell auch nichts ändern. Der müsste im Durchschnitt über 30% schneller sein um den Aufpreis zu rechtfertigen.
Cherubim
2023-03-01, 10:01:26
Soweit ich aber mitbekommen hatte ist AM5 da doch deutlich ausgereifter auf den Markt gekommen.
Ja, soweit keine Probleme bis jetzt, trotz launchday kauf. Da waren andere Plattformen problematischer.
Na ja, immerhin lief es ja von Anfang an auf AM5, wenn auch oft deutlich langsamer als geplant ;).
dildo4u
2023-03-01, 14:34:55
IGP Boost durch V-cache.
https://wccftech.com/amd-3d-v-cache-boosts-rdna-2-igpu-on-ryzen-9-7950x3d-by-over-4x-versus-7950x-cpu/
robbitop
2023-03-01, 14:42:30
Merkwürdig:
1.) kaum zu glauben dass diese kleine igp bandbreitenlimitiert ist
2.) kein Zugriff auf den L3 Cache
Einen indirekten Vorteil würde ich erwarten weil der große L3 sicherlich den Bandbreitenbedarf der CPU reduziert und entsprechend mehr für die IGP übrig bleibt.
Ber Faktor 4? da ist irgendwas komisch/kaputt
M4xw0lf
2023-03-01, 14:53:57
Merkwürdig:
1.) kaum zu glauben dass diese kleine igp bandbreitenlimitiert ist
2.) kein Zugriff auf den L3 Cache
Einen indirekten Vorteil würde ich erwarten weil der große L3 sicherlich den Bandbreitenbedarf der CPU reduziert und entsprechend mehr für die IGP übrig bleibt.
Ber Faktor 4? da ist irgendwas komisch/kaputt
Treiberversionen pre-Zen4-Launch zu jetzt? :upara:
dildo4u
2023-03-01, 14:57:12
Ich finds nicht so erstaunlich Intel ist dort ca auf dem Level und diese IGP sind uralt das ist alles Pre ARC Hardware.
Der_Korken
2023-03-01, 15:08:37
IGP Boost durch V-cache.
https://wccftech.com/amd-3d-v-cache-boosts-rdna-2-igpu-on-ryzen-9-7950x3d-by-over-4x-versus-7950x-cpu/
Ich rieche Bullshit. Die iGPU hat keinen Zugriff auf den L3-Cache. Und selbst wenn, müsste bereits jeder andere Ryzen 7000 seine 32MB dafür hergeben können, sodass der Sprung von 32 auf 96MB nicht mehr 4x Performance bringen kann. Und zweitens ist die Bandbreite vom Cache-CCD zum IOD (also die Leserichtung der iGPU) nicht größer als die zum DRAM, sondern kleiner. Da misst jemand Mist.
OpenVMSwartoll
2023-03-01, 16:38:34
Wurde doch von den Niederländern getestet:
https://tweakers.net/reviews/10906/9/ryzen-9-7950x3d-vs-core-i9-13900ks-heeft-amd-of-intel-de-snelste-gaming-cpu-games-geintegreerde-gpu.html
Ergebnis: WTFTech schreiben Unsinn.
Hatstick
2023-03-01, 17:27:39
Mal aus dem Bauch raus gefragt, warum wird der 7950X3D nicht auf allen 16 Kernen mit dem 3D Cache ausgestattet?
Technisch nicht möglich oder zu teuer oder "überflüssig"?
user77
2023-03-01, 17:38:35
Ich denke mal im Gaming bringt es nichts und in Anwendungen wird er Overall langsamer, da das CCD dann niedriger taktet.
DSD512
2023-03-01, 17:49:01
Die Leistungsaufnahme in Teillast\Leerlauf is ja mal ... meh.
Wo wird, Videoschnitt etc. mal außen vor, der PC immer zu 100% ausgelastet?
Muss man CB schon lassen, dass sie das genau testen.
https://www.computerbase.de/2023-02/amd-ryzen-9-7950x3d-test/3/#abschnitt_leistungsaufnahme_in_anwendungen
Laut dem Hersteller reicht es nach Markteinführung, BIOS- und Chipsatztreiber zu aktualisieren,
Windows Update bezüglich der Windows Game Bar seinen Job machen zu lassen und dann ein paar Boot- und Idle-Zyklen abzuwarten, um die optimale Geschwindigkeit zu erhalten –
was absolut normal ist. Zu hoffen bleibt, dass dem dann auch so ist ;D.
Wird der Chipsatztreiber zu früh installiert, wird beim Wechsel von einer normalen CPU, die für ein BIOS-Update notwendig war, auf den X3D ein Teil nicht erkannt und auch nicht automatisch nachträglich hinzugefügt. Die Installation des Treibers ist also definitiv nach dem CPU-Wechsel vorzunehmen. Dieser Treiber ist ein Must-have für den Ryzen 9 X3D, der kleinere Ryzen 7 später braucht ihn nicht – mit nur einem CCD muss nichts priorisiert werden. Dort ändert der Treiber genauso wenig, wie er einen Einfluss auf reguläre Ryzen 7000 hat.
LOL ... Wieder so ein rumgepople. Ich sehe schon die gefluteten Foren an Noobs, mit ihren B650 Boards & 7950X3D, wo die CPU nicht erkannt wird und völlig überfordert sind bzw. nix checken.
Da können AMD\Mainboard-Hersteller gleich mal ein paar Support-MA mehr einstellen. Ticketflut und .... Rücksendungen wie "CPU wird nicht erkannt" ist angesagt.
Wenn dann wieder eine AGESA Update bei den Mainboard Herstellern ansteht, dann wird eine Baustelle dichtgemacht und dafür 2 Löcher wieder aufgerissen.
Hat mir beim 5950x schon gereicht.
DeadMeat
2023-03-01, 18:12:09
Mal aus dem Bauch raus gefragt, warum wird der 7950X3D nicht auf allen 16 Kernen mit dem 3D Cache ausgestattet?
Technisch nicht möglich oder zu teuer oder "überflüssig"?
Ich denke mal im Gaming bringt es nichts und in Anwendungen wird er Overall langsamer, da das CCD dann niedriger taktet.
Genau das war zumindest AMDs Offizielle Aussage dazu.
Der 2. Chiplet hat die Gamingperformance nicht nennenswert verbessert aber die allgemeine Produktivanwendung deutlich verlangsamt wegen weniger Takt.
Linmoum
2023-03-01, 18:21:31
Können die endlich mal ein paar 7950X3D nachschieben? Ist ja furchtbar, wie viele 7900X3D es da draußen verfügbar gibt. Will nur niemand.
Savay
2023-03-01, 18:52:33
Muss man CB schon lassen, dass sie das genau testen.
Inwiefern ist CB R20 1T ein genauer Test für "Teillast"?
Leerlauf hängt davon abgesehen wie immer wohl sehr am Mainboard.
Linmoum
2023-03-01, 19:10:46
Deswegen sind Einzelmessungen nur mit einem einzigen Mainboard auch immer Quatsch. Da bräuchte man eher 3-4 Mainboards, um aussagekräftig irgendwelche Rückschlüsse ziehen zu können.
Siehe die Verbrauchsmessungen von tweakers und den Unterschied zwischen CPU+MB und nur CPU. Bei ersterem zieht die Kombi mit einem 7950X3D +20W gegenüber dem 13900K, ohne MB und nur die CPU betrachtend liegt der Unterschied bei nur noch +2W im Idle. Deswegen ist es schlicht unseriös, einzelne Verbrauchsmessungen mit einer Platine als Argument dafür anzuführen, dass "die CPU" xy Watt und damit zu viel zieht. Es ist einfach nicht die CPU.
Hammer des Thor
2023-03-01, 19:21:04
Hallo, weiß jetzt ob die Eco-Modi über Ryzen-Master erlauben?
Lehdro
2023-03-01, 21:25:49
Laut dem Hersteller reicht es nach Markteinführung, BIOS- und Chipsatztreiber zu aktualisieren,
Windows Update bezüglich der Windows Game Bar seinen Job machen zu lassen und dann ein paar Boot- und Idle-Zyklen abzuwarten, um die optimale Geschwindigkeit zu erhalten –
was absolut normal ist. Zu hoffen bleibt, dass dem dann auch so ist ;D.
Wird der Chipsatztreiber zu früh installiert, wird beim Wechsel von einer normalen CPU, die für ein BIOS-Update notwendig war, auf den X3D ein Teil nicht erkannt und auch nicht automatisch nachträglich hinzugefügt. Die Installation des Treibers ist also definitiv nach dem CPU-Wechsel vorzunehmen. Dieser Treiber ist ein Must-have für den Ryzen 9 X3D, der kleinere Ryzen 7 später braucht ihn nicht – mit nur einem CCD muss nichts priorisiert werden. Dort ändert der Treiber genauso wenig, wie er einen Einfluss auf reguläre Ryzen 7000 hat.
LOL ... Wieder so ein rumgepople. Ich sehe schon die gefluteten Foren an Noobs, mit ihren B650 Boards & 7950X3D, wo die CPU nicht erkannt wird und völlig überfordert sind bzw. nix checken.
Da können AMD\Mainboard-Hersteller gleich mal ein paar Support-MA mehr einstellen. Ticketflut und .... Rücksendungen wie "CPU wird nicht erkannt" ist angesagt.
Wenn dann wieder eine AGESA Update bei den Mainboard Herstellern ansteht, dann wird eine Baustelle dichtgemacht und dafür 2 Löcher wieder aufgerissen.
Hat mir beim 5950x schon gereicht.
1. Die CPU wird auch ohne UEFI Update "genug" erkannt um ins UEFI zu kommen
2. Alle AM5 Boards bieten zur Not UEFI Flashback OHNE CPU
3. Welcher Vollidiot installiert Treiber vor der Hardware? Machst du das bei GPUs auch?
Hammer des Thor
2023-03-01, 22:44:11
1. Die CPU wird auch ohne UEFI Update "genug" erkannt um ins UEFI zu kommen
2. Alle AM5 Boards bieten zur Not UEFI Flashback OHNE CPU
3. Welcher Vollidiot installiert Treiber vor der Hardware? Machst du das bei GPUs auch?
#
Ich habe mein Asus ROG B650E F-Gaming schon im Januar gekauft wegen dem Asus-Cash-Back und wollte das Bios per USB-Stick flashen damit die neue CPU läuft. Bin ich da ein "Vollidiot"?
DeadMeat
2023-03-01, 22:55:40
#
Ich habe mein Asus ROG B650E F-Gaming schon im Januar gekauft wegen dem Asus-Cash-Back und wollte das Bios per USB-Stick flashen damit die neue CPU läuft. Bin ich da ein "Vollidiot"?
Dein vorgehen hat aber mit seinem Punkt nichts zu tun. Man installiert halt keine Treiber für neue Hardware vor dem Einbau der neuen Hardware.
PS: denk dran den usb stick beim Asus Flashback auf mbr zu formatieren, wird oft übersehen weils nirgendwo steht.
Hammer des Thor
2023-03-01, 23:29:49
Dein vorgehen hat aber mit seinem Punkt nichts zu tun. Man installiert halt keine Treiber für neue Hardware vor dem Einbau der neuen Hardware.
PS: denk dran den usb stick beim Asus Flashback auf mbr zu formatieren, wird oft übersehen weils nirgendwo steht.
Im Handbuch steht Fat 32 glaube ich, aber Danke wenn es so ist.
DeadMeat
2023-03-02, 00:48:34
Im Handbuch steht Fat 32 glaube ich, aber Danke wenn es so ist.
Ja fat32 und MBR als Tabelle statt GPT. Musst per Diskpart vorher notfalls nachsehen und auf mbr wechseln und dann mit f32 formatieren.
Sardaukar.nsn
2023-03-02, 07:15:16
Scheinbar hat der 3D Cache wohl großen Einfluss auf die integrierte Grafikleistung. Finde ich interessant.
AMD Ryzen 9 7950X3D CPU was an impressive 62 fps compared to the AMD Ryzen 9 7950X's 19 fps. Which is playable, with the Ryzen 9 7950X3D also hitting 33 fps in 1080p.
Read more: https://www.tweaktown.com/news/90565/3d-cache-brings-massive-gains-to-the-ryzen-9-7950x3ds-integrated-graphics/index.html
Oranje7
2023-03-02, 07:25:00
Hatten wir schon auf der letzten Seite, ist unfug
Post 1473+1474
Sardaukar.nsn
2023-03-02, 07:42:00
Danke, fand ich auch etwas kurios.
dildo4u
2023-03-02, 09:15:37
Wie erwartet Worst of all Worlds. Programme laufen wenns gut läuft auf 13700k Level, Gameing schwankt massiv.
PA1LvwZYxCM
00-Schneider
2023-03-02, 09:21:23
Wie erwartet Worst of all Worlds. Programme laufen wenns gut läuft auf 13700k Level, Gameing schwankt massiv.
https://youtu.be/PA1LvwZYxCM
tl;dw: "not worth buying"
Linmoum
2023-03-02, 09:25:05
Den 7900X3D will auch niemand. Keine Ahnung, warum es so viele davon im Handel gibt. Den 7950X3D würden die Leute hingegen AMD aus den Händen reißen.
00-Schneider
2023-03-02, 09:31:44
Den 7900X3D will auch niemand. Keine Ahnung, warum es so viele davon im Handel gibt. Den 7950X3D würden die Leute hingegen AMD aus den Händen reißen.
Ist wahrscheinlich nur das Abfallprodukt vom großen Bruder. Bevor AMD diese verschrottet, werden sie halt verkauft.
Spätestens zu Release der 7800er wird der Preis des 7900er massiv sinken müssen, um überhaupt welche zu verkaufen.
dargo
2023-03-02, 09:47:52
Den 7900X3D will auch niemand.
Schon klar. :freak:
https://www.mindfactory.de/product_info.php/AMD-Ryzen-9-7900X3D-12x-4-40GHz-So-AM5-WOF_1481121.html
Eigentlich schon verwunderlich, dass da >330 Exemplare in so kurzer Zeit bei diesem Preis verkauft wurden. :ulol: Sind übrigens 100 Stück mehr als beim 7900 non X. ;D
Cubitus
2023-03-02, 09:51:33
Der 7900X3D ist weder Fisch noch Fleisch und kostet zu viel.
Mal schauen was der 7800X3D so kann :D
dargo
2023-03-02, 09:54:36
Der 7900X3D ist weder Fisch noch Fleisch und kostet zu viel.
Das von jemanden zu lesen der sich ne RTX 4090 geholt hat hat schon was von Comedy Qualität. X-D
Linmoum
2023-03-02, 09:59:38
Warum? Trifft doch beides gerade nicht zu.
Die 4090 ist die aktuell beste erhältliche GPU (aka Halo-Produkt, ergo Alleinstellungsmerkmal und ein logischerweise dementsprechender Preis), der 7900X3D nicht.
Die 4090 bietet kompromisslos beste Leistung, der 7900X3D nicht.
Der 7900X3D ist zudem preislich viel zu nah am 7950X3D, kein Wunder, dass viele Leute aus diesem Grund lieber letzteren wollen.
dildo4u
2023-03-02, 10:01:57
Die 4090 ist auch keine Wundertüte 7900X3D ist dort manchmal nur auf Level mit 7700X/5800x3D die die Hälfte kosten.
dargo
2023-03-02, 10:08:48
Die 4090 ist die aktuell beste erhältliche GPU (aka Halo-Produkt, ergo Alleinstellungsmerkmal und ein logischerweise dementsprechender Preis), der 7900X3D nicht.
Ein überteuertes Hallo-Abfallprodukt, ja. ;D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.