Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7000 (Zen 4) Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
11
12
13
14
Der_Korken
2023-03-25, 15:47:15
Hat HUB doch nachgemessen? Das ist keine Behauptung. Die Intel reagieren recht wenig auf die RAM-Timings und -Subtimings.
https://youtu.be/RTmbYak_8gE
Buildzoids Rant über den Intel Controller:
https://youtu.be/5R8en_FtA80
Ihm bleibt ja nichts übrig als den Intel zu maximieren, weil die AMDs meist nicht über 6200, keinesfalls aber über 6666 gehen.
Der Rant bezieht sich aber nicht auf die Performance, sondern auf die Stabilität bzw. Reproduzierbarkeit von OC-Ergebnissen. Das erinnert mich ein wenig an meine Versuche Dualranked DDR4 mit >3200Mhz auf einem Zen+ zum laufen zu bekommen. Egal was ich eingestellt habe, nichts lief auf Dauer stabil und wann der Fehler kam, war ziemlich random.
Allerdings ging es mir darum, dass die Performance bei Raptor Lake weniger stark am Speicher hängt und das implizieren diese Ergebnisse:
https://www.youtube.com/watch?v=qLjAs_zoL7g#t=9m
Bei 6000Mhz sind es 4,5% Vorsprung des 13900K auf den 7700X, bei 5200 und 4800Mhz sind es eher so 15-20%. Wie gesagt, unter der Voraussetzung das bei den Subtimings nicht gepfuscht wurde.
Mit den 3D-Modellen wurde das ganze nachgetestet: https://www.youtube.com/watch?v=XW2rubC5oCY#t=7m6s
Wenig überraschend profitiert der 7950X3D deutlich weniger vom RAM als der 7700X und auch weniger als der 13900K. Der Punkt hier ist aber: Cache-technisch ist der 13900K deutlich näher am 7700X dran (2MB L2, 36MB L3 vs 1MB L2, 32MB L3), aber bei der Speicherskalierung ist das Verhalten näher am 7950X3D dran: 4800 -> 6000 gibt 20,2% beim 7700X, 8,7% beim 13900K und 6,8% beim 7950X3D.
Im Anno 1800-Bench von PCGH lagen die 7000er Ryzen alle auf Niveau eines i5 13500, welcher nur 1,25MB L2 pro Kern hat und 24MB L3, also L2 ähnlich wie Zen 4, aber L3 ne gute Ecke kleiner. Natürlich steht die Performance eines Titels nicht für die gesamte Performance, aber dieser Bench zeigt, dass die bessere Performance des Speichersystems auch bei kleineren Cache-Größen als die von Zen 4 bereits sichtbar ist.
basix
2023-03-25, 20:07:01
Intel hat hier definitiv Vorteile beim Speichersubsystem. Ich würde einen grossen Teil aber auch eher beim Core (Load/Store/Prefetching/ILP/...) verordnen. Bei Ryzen ist es zudem so, dass der Penalty L3$ <-> DRAM deutlich höher als bei Intel ist (Bandbreite, Latenzunterschied). So wird sich RAM-Tuning automatisch stärker auswirken.
BlacKi
2023-03-27, 12:54:42
da ist ja a620. hat alles was man so braucht. für 125$? X-D
https://videocardz.com/newz/first-entry-level-amd-a620-motherboard-has-been-pictured
dildo4u
2023-03-27, 12:58:04
Die 125$ waren für B650M.
https://www.anandtech.com/show/18762/amd-am5-mobos-finally-reach-125-mark-asrock-b650m-hdv-m2
MSABK
2023-03-27, 13:04:01
da ist ja a620. hat alles was man so braucht. für 125$? X-D
https://videocardz.com/newz/first-entry-level-amd-a620-motherboard-has-been-pictured
Ohje, der wird hier dann wahrscheinlich um die 140€ kosten. Lächerlich, sieht eher wie ein 69€ Board aus.
da ist ja a620. hat alles was man so braucht. für 125$? X-D
https://videocardz.com/newz/first-entry-level-amd-a620-motherboard-has-been-pictured
Mach dich nur darüber lustig, aber bei Intel gibts genau 1 (!) lieferbares H610 mit DDR5, das kostet auch 116€. Vielleicht sollte man das dämliche bashing mal einstellen. B660 fangen ab 150€ an. DDR5 ist nunmal echt teuer für Einstiegshardware. Die günstigen Sachen sind alle DDR4!
Mordekai2009
2023-03-27, 13:37:00
da ist ja a620. hat alles was man so braucht. für 125$? X-D
https://videocardz.com/newz/first-entry-level-amd-a620-motherboard-has-been-pictured
Komm runter. Ich tippe eher 80-90 USD für diesen Mainboard. Wir kennen den offiziellen Preis nicht.
EDIT: 13:37:00? Volltreffer!
Er spricht mir aus der SEELE. Mobo makers, get back to reality, now!
https://youtu.be/bEjH775UeNg
Dr. Lloyd
2023-03-29, 05:01:15
Das erste sehr kritische Review zum 7950X3D von einem der reichweitenstärksten Tech-Tuber:
https://youtu.be/RYf2ykaUlvc
FrameChasers hat in seinem heutigen Twitch-Livestream Linus' Video bereits kommentiert und ihm in fast allen Punkten zugestimmt. FrameChasers war einer der ersten, der das mangelhafte Scheduling des 7950X3D bekannt gemacht hat. Nachfolgend das Twitch-Video, solange es noch online ist. Es startet bereits am richtigen Zeitpunkt (1h5m40s).
https://www.twitch.tv/videos/1778534236?t=1h5m40s
dildo4u
2023-03-29, 06:57:04
Bundles scheinen zu Helfen 7700x/7600x erstmal über 5800x3D.
https://www.mindfactory.de/Hardware.html
M4xw0lf
2023-03-29, 07:56:11
Das erste sehr kritische Review zum 7950X3D von einem der reichweitenstärksten Tech-Tuber:
https://youtu.be/RYf2ykaUlvc
FrameChasers hat in seinem heutigen Twitch-Livestream Linus' Video bereits kommentiert und ihm in fast allen Punkten zugestimmt. FrameChasers war einer der ersten, der das mangelhafte Scheduling des 7950X3D bekannt gemacht hat. Nachfolgend das Twitch-Video, solange es noch online ist. Es startet bereits am richtigen Zeitpunkt (1h5m40s).
https://www.twitch.tv/videos/1778534236?t=1h5m40s
:ulol:
LTT schaut man doch (wenn überhaupt) schon seit Ewigkeiten nicht wegen der Qualität der Benchmarks oder sonstiger technischer Analysen. Und Framechasers... hör mir auf ;D
r3ptil3
2023-03-29, 11:45:06
Wann fällt voraussichtlich das NDA für den 7800X3D?
Wäre schön wenn die Tester sich nun nicht mehr an die Standard-Reviews ausrichten würden, da man ja schon einiges aus den simulierten Tests des 7950X3D@7800X3D sehen konnte, sondern sich vielmehr Curve Optimizer und RAM Tuning widmet.
Lediglich die sehr schwache Anwendungsperformance spricht wohl gegen einen 7800X3D.
Exxtreme
2023-03-29, 11:55:03
Lediglich die sehr schwache Anwendungsperformance spricht wohl gegen einen 7800X3D.
Also ich bezweifle, dass die Anwendungsperformance sehr schwach sein wird. ;) Eventuell nicht top aber für Platz 3 oder 4 dürfte das reichen.
r3ptil3
2023-03-29, 12:01:17
Also ich bezweifle, dass die Anwendungsperformance sehr schwach sein wird. ;) Eventuell nicht top aber für Platz 3 oder 4 dürfte das reichen.
Schau mal ganz unten:
https://i.ibb.co/bNTPLvP/image.png
Und das ist immer noch ein sehr hoch getakteter 7700X.
Der 7800X3D wird ja tiefer takten.
Schau mal ganz unten:
https://i.ibb.co/bNTPLvP/image.png
Und das ist immer noch ein sehr hoch getakteter 7700X.
Der 7800X3D wird ja tiefer takten.
War nicht Single-Core das Maß aller Dinge?
Exxtreme
2023-03-29, 12:36:53
Schau mal ganz unten:
https://i.ibb.co/bNTPLvP/image.png
Und das ist immer noch ein sehr hoch getakteter 7700X.
Der 7800X3D wird ja tiefer takten.
Schade, dass der Ryzen 7 5800X3D nicht auf der Liste ist. ;) Wäre interessant zu wissen wie der abgeht. Ach ja, im Multithreading-Benchmarks wird ein 8-Kerner immer Nachteile ggü. CPUs mit mehr Kernen haben. Und die meisten Anwendungen nutzen sowieso viel weniger Kerne denn 8.
Complicated
2023-03-29, 12:40:22
War nicht Single-Core das Maß aller Dinge?
Jetzt doch nicht mehr. Das ist doch immer wieder zu sehen wie die Torpfosten verschoben werden und was gestern noch der Grund war mehr Geld auszugeben umgedreht wird. Mal mit dem Verbrauch, mal Frequenz, mal was völlig anderes. Ist ja kaum mehr ernst zu nehmen, wie Balken-Hörig manche unterwegs sind.
BlacKi
2023-03-29, 12:45:41
War nicht Single-Core das Maß aller Dinge?sieht das dort besser aus?:confused:
r3ptil3
2023-03-29, 13:06:51
Schade, dass der Ryzen 7 5800X3D nicht auf der Liste ist. ;) Wäre interessant zu wissen wie der abgeht. Ach ja, im Multithreading-Benchmarks wird ein 8-Kerner immer Nachteile ggü. CPUs mit mehr Kernen haben. Und die meisten Anwendungen nutzen sowieso viel weniger Kerne denn 8.
Ist drin im Zen4-Test:
https://i.ibb.co/LrFXg5h/image.png
Wie gesagt, ich habe lediglich erwähnt, dass die Anwendungsleistung beim 7800X3D ein negativer Punkt ist, nicht mehr und nicht weniger. :)
Für Gaming würde ich auch den 7800X3D vorziehen.
Der_Korken
2023-03-29, 13:51:51
Bei der Anwendungsleistung sehe ich den 7800X3D auf Niveau des 7700X. Der geringere Boost-Takt ist ja nur ein Cap, weil die Spannung nicht höher geht bzw. soll. Über den MT-Takt sagt das überhaupt nichts aus. Wenn Temps oder PPT nicht limitieren, spräche nichts dagegen, dass bei MT-Last einfach alle Kerne des 7800X3D mit max Boost laufen - schätzungsweise 5,15Ghz. Mehr schafft ein 7700X in Anwendungen auch nicht.
Dass die Single-CCD-Modelle gegen die Raptor Lakes etwas schwachbrüstig in Anwendungen wirken, ist halt die andere Sache. Wobei das all die Jahre, wo Intel nur 8 (10) vs 16 Kerne stellen konnte, auch nie jemanden groß gestört hat.
r3ptil3
2023-03-29, 14:32:05
Wenn Temps oder PPT nicht limitieren, spräche nichts dagegen, dass bei MT-Last einfach alle Kerne des 7800X3D mit max Boost laufen - schätzungsweise 5,15Ghz. Mehr schafft ein 7700X in Anwendungen auch nicht.
.
Der 7700X taktet schon höher:
https://tpucdn.com/review/amd-ryzen-7-7700x/images/boost-clock-analysis.png
Tarkin
2023-03-29, 16:20:23
Wann fällt voraussichtlich das NDA für den 7800X3D?
https://www.youtube.com/watch?v=ew9eC26hlHo offenbar am 05.04. um 15h
Der_Korken
2023-03-29, 16:26:18
Hast Recht, hatte die Taktraten vom 7950X im Kopf und die sind "nur" 5,0-5,1Ghz.
Mordekai2009
2023-03-30, 17:50:15
AMD Ryzen 9 7900 review von TechPowerUp:
https://www.techpowerup.com/review/amd-ryzen-9-7900/
Ab Werk von 170W TDP auf 65W TDP und geringere Taktraten gegenüber Ryzen 9 7900X.
Hikaru
2023-03-31, 10:55:54
Kurze Zwischenfrage: Was wäre der optimale RAM speed für einen 7700X? OCed wird nicht. Es werden 2x16GB und muss ich da was wegen ein- oder zweiseitig bestückten Modulen beachten?
dildo4u
2023-03-31, 11:30:26
Kurze Zwischenfrage: Was wäre der optimale RAM speed für einen 7700X? OCed wird nicht. Es werden 2x16GB und muss ich da was wegen ein- oder zweiseitig bestückten Modulen beachten?
Verschiedene Timings mit 5200/5600/6000.
https://youtu.be/MOatIQuQo3s?t=489
Gigabyte will seine A620 Boards bis 6400 getestet haben
https://videocardz.com/press-release/gigabyte-announces-amd-a620-motherboard-series
Hikaru
2023-03-31, 13:49:35
Danke.
Mordekai2009
2023-03-31, 21:51:38
Jetzt kommen die Mainboards mit A620-Chipsatz. Erste Mainboard mit nur 1x PCIe 4.0 x16 slot und 3x M.2 slots (und 4x SATA). Ungewöhnlich.
EDIT:
ASRock A620M Pro RS
-> https://asrock.com/mb/AMD/A620M%20Pro%20RS/index.de.asp
blackbox
2023-03-31, 22:45:11
Sind doch 4x SATA, 2 wären auch zu wenig.
Mordekai2009
2023-03-31, 23:00:30
Oh! Stimmt!
Windi
2023-03-31, 23:27:59
Würde mich mal interssieren, ob AMD für den A620 einen neuen Chipsatz aufgelegt hat oder ob sie nur einen Alten umgelabelt haben.
Der_Korken
2023-04-01, 00:54:27
ASRock A620M Pro RS
-> https://asrock.com/mb/AMD/A620M%20Pro%20RS/index.de.asp
Bis auf den ALC897 könnte ich mich mit sowas sogar anfreunden. Wobei selbst die 300€-Bretter oft noch den Lowend-Sound haben, d.h. wenn man hier <150€ unterwegs ist, bekommt man allein für diese Preisdifferenz eine gescheite externe Lösung.
PCIe 5.0 ist ziemlicher Luxus, den die wenigsten brauchen. Bei SSDs werden 4.0er Modelle gerade erst erschwinglich und in den meisten Anwendungen limitiert nicht der Bus-Durchsatz, sondern die SSD selbst. Für sequenzielle Leseraten sieht PCIe 5.0 natürlich geil aus, aber in diversen Tests sieht man, dass bei realen Datentransfers nicht mal die 4GB/s von PCIe 3.0 ausgereizt werden, auch von den Highend-Modellen nicht. Bei den GPUs muss man es mal so sehen: Weder AMD noch Nvidia haben es für ihre Flaggschiffe für nötig erachtet, d.h. PCIe 5.0 braucht man nur für Modelle oberhalb von 7900XTX und RTX4090, also nichts was der Midrange-Läufer in den nächsten 3-4 Jahre für <1000€ bekommen wird. Und wer sich ne 8900XTX oder RTX5090 kauft, der wird auch Geld für ein B650E über haben.
Was ein bisschen doof ist, ist dass der dritte M2-Slot nur über zwei 3.0er Lanes angebunden ist. Aber selbst da muss man sagen: Was hat man auf der dritten SSD drauf? Datengrab um SATA-Kabel zu sparen? Ist eine Limiterung auf ~1,8GB/s da wirklich ein Problem? Sofern man überhaupt so viele M2-SSDs hat.
Mich würde interessieren, ob der Idle-Verbrauch bei solchen Boards mal besser ist als bei den großen X670-Schluckspechten.
blackbox
2023-04-01, 01:02:41
Mich würde interessieren, ob der Idle-Verbrauch bei solchen Boards mal besser ist als bei den großen X670-Schluckspechten.
Darauf bin ich auch gespannt.
Denniss
2023-04-01, 02:30:21
A620 basiert anfangs aus den gleichen Chips die auch bei B650/X670 genutzt werden (ein wenig abgespeckt AKA teildeaktiviert). Später dies Jahr dann eine Umstellung auf einen eigenen Chip
Windi
2023-04-01, 07:04:10
A620 basiert anfangs aus den gleichen Chips die auch bei B650/X670 genutzt werden (ein wenig abgespeckt AKA teildeaktiviert). Später dies Jahr dann eine Umstellung auf einen eigenen Chip
Es gibt ja das Gerücht, das die Variante mit den teildeaktivierten B650/X670 Chipsätzen entfällt und man direkt auf den eigenen A620 Chip setzt. Deshalb dann auch die Verspätung bei den A620 Boards. (Alles nur Gerüchte)
Es ist aber möglich, das der "neue" eigene A620 Chip einfach auf einen anderen alten Chipsatz basiert. Zum Beispiel der vom A520. So spart man sich die Neuentwicklung. Natürlich muss AMD dafür den Treiber/Bios anpassen und die OEMs neue Mainboards designen. Das kostet Zeit, geht aber wahrscheinlich schneller, als einen komplett neuen Chipsatz zu designen.
MSABK
2023-04-01, 16:35:51
Endlich kommt da mal Bewegung in den Markt.
dildo4u
2023-04-04, 13:40:46
Kommt Recht gut weg verträgt 170 TDP.
ekeTA1rds1s
Jo fand ich auch. Mal sehen, für welchen Preis man das Ding jetzt wirklich bekommt. Das DS3H ist bei uns auch überteuert.
Windi
gibt kein extra A620-Variante. Es gibt einen Promontory 21, das ist der X670 und B650 und es gibt davon ne neue Rev., den Promontory 22. Der soll jetzt bei den A620 zum Einsatz kommen und einfacher (also billiger) zu implementieren sein, als die 21er Version und ja, das wird der Grund für die Verschiebung sein, da AMD offenbar zuerst als Promontory 21 für den A620 freigeben wollte. Das ist offensichtlich jetzt aber anders gekommen. Es ist aber nur ne Frage der Zeit, bis Promontory 22 auch für die größeren Boards Verwendung findet - und in den günstigeren Varianten davon, beispielsweise das Gigabyte UD X670, wenn es denn mal kommt. Dass bei den Gigabyte X670/B650 die UD-Serie fehlt ist mMn von Anfang an sehr auffällig gewesen.
Ich hoffe auch stark, dass man jetzt bei mehreren Herstellern, nicht nur bei Asrock, dazu übergeht, nur noch 2 DIMM-Sockel zu verbauen. Das verbilligt die Boards massiv und für die meisten User, vor allem in dem Bereich, ist das Upgrade auf 4 Module eigentlich irrelevant.
aceCrasher
2023-04-05, 14:28:00
Hey, weiß hier zufällig Jemand wann heute das Embargo für die 7800X3D Review fällt?
rentex
2023-04-05, 14:29:55
15 Uhr
Cubitus
2023-04-05, 14:51:25
Joa gleich ist es soweit :freak:
mein Kollege hat den Verdacht/Glauben/Vermutung, dass die Leute die 7800X3D exzessiv kaufen werden
#1 weil er fast so gut sein soll wie die 7950 X3D (simulierte Ergebnisse in den 7950X3D Tests)
#2 weil es die 7950 X3D kaum zu kaufen gibt
ich vermute, beide Modelle werden erst mittelfristig gut zu erwerben sein. Aber ich freu mich eh auf die Reviews :D (y)
Phoronix: https://www.phoronix.com/review/amd-ryzen-7-7800x3d-linux
aufkrawall
2023-04-05, 15:08:26
Netter Boost bei den 1% low bei CB Fortnite gegenüber dem Zen 3D, der da für seine Preisklasse völlig failt (was ich auch so bestätigen kann).
Linmoum
2023-04-05, 15:20:10
Mal wieder interessant, wie unterschiedlich die Ergebnisse sind. Bei CB ist der 7800X3D ganze 26% schneller als der 5800X3D, bei PCGH sind es nur 13% (beides mit einer 4090). Die Resultate von TPU (ebenfalls 4090) passen auch eher zu denen von CB.
Bei PCGH sind mir auch ein paar Ungereimtheiten im Vergleich zu den vormals "simulierten" Ergebnissen aufgefallen, die man damals mit dem 7950X3D und nur CCD0 gemacht hatte. Da stimmt was nicht so ganz.
Effizienz noch beeindruckender, als ohnehin schon und das, obwohl man ja damals beim 5800X3D schon sehr gestaunt hat, was der Cache bewirkt. Naja, ich hab morgen zum Glüch Urlaub. Hätte ja eigentlich gerne den 7950X3D gehabt, aber der ist ja quasi nie verfügbar. Und morgen dürfte man um 14:55 Uhr bei Mindfactory vermutlich wie immer Glück haben. ;D
die Leute werden die 7800X3D so dermaßen kaufen. Die Stromersparnis ist echt nett für die Framerate.
Leonidas
2023-04-05, 15:25:49
Listen der Launch-Reviews:
3DCenter (https://www.3dcenter.org/news/amd-ryzen-7-7800x3d-die-launch-reviews-gehen-online) & VideoCardz (https://videocardz.com/153244/amd-ryzen-7-7800x3d-desktop-cpu-review-roundup)
Exxtreme
2023-04-05, 15:26:26
Wie ich es schrieb: der 7900X3D ist im Schnitt auch in Spielen schneller als der 7800X3D. Obwohl da nur 6 Kerne vom Zusatzcache abgedeckt werden. Für Spieler ist der 7900X3D also auch keine schlechte Wahl.
Edit: Das Ganze laut PCGH. Andere Quellen sehen den 7800X3D wiederum vorne. Hmmm ...
Cubitus
2023-04-05, 15:28:08
die Leute werden die 7800X3D so dermaßen kaufen. Die Stromersparnis ist echt nett für die Framerate.
Die CPU ist gut ja und sehr effizient, aber auch teuer.
Dazu kommt noch bei komplettem Neukauf die teuren AM5 Boards.
Mortalvision
2023-04-05, 15:28:56
Das sieht Linus anders.
Lehdro
2023-04-05, 15:29:34
Mal wieder interessant, wie unterschiedlich die Ergebnisse sind. Bei CB ist der 7800X3D ganze 26% schneller als der 5800X3D, bei PCGH sind es nur 13% (beides mit einer 4090). Die Resultate von TPU (ebenfalls 4090) passen auch eher zu denen von CB.
Bei PCGH sind mir auch ein paar Ungereimtheiten im Vergleich zu den vormals "simulierten" Ergebnissen aufgefallen, die man damals mit dem 7950X3D und nur CCD0 gemacht hatte. Da stimmt was nicht so ganz.
Man schaue sich mal CP2077 bei PCGH vs CB an: Bei PCGH sind 5800X3D und 7800X3D gleichschnell (https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Tests/vs-7900X3D-Benchmark-Review-Release-Preis-1416589/2/), bei CB gibts einen Generationensprung mit >25% (https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_spiele_in_720p_ganzer_parcours_weniger_cpus). TPU bestätigt das auch wiederum. (https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/18.html)
Der 7800X3D schneidet bei PCGH ziemlich schlecht ab, woanders halt sehr gut. Bin schon gespannt auf Leonidas Auswertung...
Linmoum
2023-04-05, 15:30:54
Wie ich es schrieb: der 7900X3D ist im Schnitt auch in Spielen schneller als der 7800X3D. Obwohl da nur 6 Kerne vom Zusatzcache abgedeckt werden. Für Spieler ist der 7900X3D also auch keine schlechte Wahl.Der 7900X3D ist überall langsamer. Sowohl bei CB, als auch TPU und HWUB ist der 7800X3D davon ab rund 25-30% schneller als der 5800X3D, bei PCGH sind es nur +13%. Alle haben mit einer 4090 gebencht, an GeForce/Radeon liegt's also nicht.
PCGH hat sich offensichtlich irgendeinen Murks zusammengebencht. Müsste man noch mal verifizieren.
Die CPU ist gut ja und sehr effizient, aber auch teuer.
Dazu kommt noch bei komplettem Neukauf die teuren AM5 Boards.
die sind nimmer so teuer
Is The New Cheapest B650 Board Any Good? Asrock B650M-HDV/M.2 Review
https://www.youtube.com/watch?v=ekeTA1rds1s
Und HWUB sagt auch, dass man problemlos Geld sparen kann, wenn man kein teures Board kauft.
https://youtu.be/78lp1TGFvKc?t=1206
Crazy_Chris
2023-04-05, 15:32:29
Jetzt nicht so beeindruckend. Zumindest wenn man schon einen 5800X3D besitzt. :wink:
Mortalvision
2023-04-05, 15:36:08
Warum schreiben die bei pcgh nicht, in welcher Auflösung sie gebencht haben?
Exxtreme
2023-04-05, 15:38:51
Die CPU ist gut ja und sehr effizient, aber auch teuer.
Dazu kommt noch bei komplettem Neukauf die teuren AM5 Boards.
B650-Boards gehen sogar. Teurer wird es wenn man unbedingt PCIe5 für die Grafikkarte haben will.
Lehdro
2023-04-05, 15:39:03
PCGH hat sich offensichtlich irgendeinen Murks zusammengebencht. Müsste man noch mal verifizieren.
Ich tippe auf den Core Parking Fail der bei TPU beschrieben wird (https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/28.html).
00-Schneider
2023-04-05, 15:39:12
Sehr mystisch, dass der 7800X3D in manchen Spielen schneller als der 7950X3D ist. Kann ja dann nur an der falschen Chiplet-Priorisierung beim 7950X3D liegen.
Warum schreiben die bei pcgh nicht, in welcher Auflösung sie gebencht haben?
"CPU-Tests in 1.280 × 720 sind falsch!" (https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/)
Verstehen und nie wieder fragen. =) Die einzige Frage, welche mittlerweile Sinn ergibt: Welche Grafikkarte wurde verwendet?
MfG
Raff
BlacKi
2023-04-05, 15:42:03
B650-Boards gehen sogar. Teurer wird es wenn man unbedingt PCIe5 für die Grafikkarte haben will.aber auch diese boards sind am fallen.
wenn man 2025 eine neue cpu reinschmeißen will und bis 2028-2030 das board mit aktuellster grafikkartengeneration betreiben will, dann würde ich die +90€ aber ausgeben.
alternativ halt ein neues am5 board kaufen, kurz bevor am6 kommt..
Cubitus
2023-04-05, 15:43:29
die sind nimmer so teuer
Is The New Cheapest B650 Board Any Good? Asrock B650M-HDV/M.2 Review
https://www.youtube.com/watch?v=ekeTA1rds1s
Und HWUB sagt auch, dass man problemlos Geld sparen kann, wenn man kein teures Board kauft.
https://youtu.be/78lp1TGFvKc?t=1206
So billig sind die Boards trotzdem nicht.
Ab 150 Euro gehts los und das Board ist wirklich billig von den Features her.
https://geizhals.de/?cat=mbam5&sort=p&xf=317_B650
nairune
2023-04-05, 15:43:32
Jetzt nicht so beeindruckend. Zumindest wenn man schon einen 5800X3D besitzt. :wink:
Für eine Gen ist das Plus doch ok. D.h. 1-2 Generationen weiter könnte ein Upgrade in Frage kommen.
Linmoum
2023-04-05, 15:45:05
Ich tippe auf den Core Parking Fail der bei TPU beschrieben wird (https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/28.html).Das ergibt tatsächlich Sinn und passt auch dazu, dass die Ergebnisse einzig bei PCGH derart abweichend sind.
M4xw0lf
2023-04-05, 15:47:48
Sehr mystisch, dass der 7800X3D in manchen Spielen schneller als der 7950X3D ist. Kann ja dann nur an der falschen Chiplet-Priorisierung beim 7950X3D liegen.
Es sind allerdings doch anscheinend viel weniger Fälle als im Vorfeld gemutmaßt, was dafür spricht dass die Zuordnung doch in sehr vielen Fällen sehr gut funktioniert.
Exxtreme
2023-04-05, 15:52:42
Ich tippe auf den Core Parking Fail der bei TPU beschrieben wird (https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/28.html).
Also laut Artikel haben sie Windows neu installiert um nicht in diese Problematik reinzulaufen.
Linmoum
2023-04-05, 15:54:13
Vielleicht hat das trotzdem aus irgendeinem Grund dazwischen gefunkt. Der Unterschied zwischen CB, TPU und HWUB einerseits und PCGH andererseits ist einfach zu groß. Das ist nicht die klassiche Messtoleranz (oder einfach nur einem anderen Parcours geschuldet) und es gibt eben nur einen deutlichen Ausreißer in diesem Fall. Die drei werden also nicht allesamt zu gut und PCGH normal gebencht haben.
maximus_hertus
2023-04-05, 16:07:03
Wie erwartet, der neue Gaming King.
499 Euro ist da natürlich nicht ganz billig, gerade wenn es den 5800X3D für 299 Euro gibt und die AM4 Plattform deutlich günstiger ist (oder gar schon vorhanden).
Auf der anderen Seite - wenn man das Beste haben wollte, war es immer schon etwas teurer.
Ich bin gespannt, wie schlecht die CPU verfügbar sein wird. Ich habe da leider ein ganz mieses Gefühl.
Aber vielleicht gibt es ja eine Überraschung (positiv)?
Ich freue mich auch auf die Analyse von Leonidas. Dann gibt es wieder schön übersichtlich alle Zahlen, einfach perfekt :)
Für mich ist der 7800X3D weniger interessant, da ich erst Ende 2022 auf den 5800X3D gewechselt bin und dieser noch (hoffentlich) lange reichen wird / gut genug sein wird. Evtl. (die Hoffnung stirbst zuletzt) bis zum AM6 in 2026 (so AM6 da schon kommen würde).
Exxtreme
2023-04-05, 16:08:39
Was auch noch viel anders ist, ist die Spieleauswahl. Bei der PCGH wurden Spiele getestet, die offenbar sehr anspruchsvoll sind und da ist man öfter < 100 fps. Die anderen Seiten haben sehr oft Spiele mit 200 fps und viel mehr.
Könnte sein, dass das auch ein Faktor ist. Aber sonst ... kein Plan was der Grund sein könnte. :freak:
Raytracing könnte ein Grund sein, verwendet PCGH in vielen Spielen. Das erhöht die Last noch mal krass auf eine andere Ebene und kann für andere Werte sorgen. Aber eigentlich kann man die Werte von verschiedenen Tests nicht einfach so miteinander vergleichen. Bei PCGH ist die CPU in den Top 4 bei der Leistung Gesamt, sieht für mich jetzt nicht so aus, als wäre die CPU zu langsam getestet worden??
Linmoum
2023-04-05, 16:23:45
Bei PCGH passen die Werte halt auch nicht ganz zu dem vorher getesteten "7800X3D", den sie ja mit CCD0 des 7950X3D simuliert hatten. Da gibt's Abweichungen von teilweise fast 10%.
maximus_hertus
2023-04-05, 16:31:13
Ich gehe mal davon aus, dass es bei der PCGH primär der Parcours / Settings / RT on/off sein werden.
Falls es sich herausstellen sollte, dass sie die einzigen wären, bei der eine CPU eine andere Performance liefert, wird die PCGH sicher das ganze nochmal kontrollieren bzw. sich das genauer angucken.
Daher gibt es die Analyse von Leo, wo dann einfach viele Reviews zusammengefasst werden und man so einen guten Durchschnitt bekommt, was einem erwartet wird. Extreme in die eine und andere Richtung werden so "gerade gebogen".
MojoMC
2023-04-05, 16:35:44
die sind nimmer so teuer
Is The New Cheapest B650 Board Any Good? Asrock B650M-HDV/M.2 Review
https://www.youtube.com/watch?v=ekeTA1rds1s
Sogar dieses Board liegt noch bei 160€ momentan. Das ist absurd für einen kleinen Chipsatz mit Minimalausstattung.
Das Z97-"Gaming"-Board, auf dem ich noch rumgurke, war für ca. 140€ im Markt. Mit Inflation würde man heute nur bei den Preisen für B650-Boards landen.
Schnelleres USB? Geschenkt, das ist der normale, eingepreiste technische Fortschritt, der ja Grund für neue Anschaffungen ist.
Woher kommt also der massive Preisanstieg, wenn die Inflation als Erklärung nicht ausreichend ist?
Die Geräteklassen sind einfach ein paar Preisgruppen höher gestiegen, wie bei den Grafikkarten. Da gibt es Einsteiger- bzw. Midrangekarten eben erst ab 600€...
Bei PCGH passen die Werte halt auch nicht ganz zu dem vorher getesteten "7800X3D", den sie ja mit CCD0 des 7950X3D simuliert hatten. Da gibt's Abweichungen von teilweise fast 10%.
Ja, aber nach oben, der echte 7800X3D ist schneller. Finde ich jetzt legitim, keiner weiß genau was bei dem 7950X3D passiert wenn da Kerne abgeschaltet werden.
Lehdro
2023-04-05, 16:42:07
Falls es sich herausstellen sollte, dass sie die einzigen wären, bei der eine CPU eine andere Performance liefert, wird die PCGH sicher das ganze nochmal kontrollieren bzw. sich das genauer angucken.
Schaut es euch doch an meinem Beispiel mit Cyberpunk 2077 an (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13274914&postcount=1802). Die Unterschiede sind gigantisch. Bei PCGH gibts trotz RT einen Boost von lächerlichen 2%, bei CB >25% und bei TPU sind es sogar 30%+ - gegenüber einem 5800X3D wohlgemerkt. Das kann so nicht stimmen, das hat nichts mit der Szene zu tun, das ist ein fundamentales Problem bei PCGH in dem Spiel.
Dasselbe Problem hatten sie übrigens schon damals bei der Simulation des 7800X3D (https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Specials/7600X3D-vs-5800X3D-Benchmark-Simulation-1414806/) - da ist definitiv der Wurm drin. Unabhängig von den CP2077-Eigenheiten (Scheduling bei >8C/16T CPUs etc) kann das so einfach nicht hinhauen wenn alle anderen Reviewer (HWUB, CB, TPU, THG, TT, GN, LTT...) dicke Gewinne mit verschiedensten Settings & Szenen (RT on/off, Ultra, Medium...) verbuchen.
maximus_hertus
2023-04-05, 16:43:57
Woher kommt also der massive Preisanstieg, wenn die Inflation als Erklärung nicht ausreichend ist?
Die Geräteklassen sind einfach ein paar Preisgruppen höher gestiegen, wie bei den Grafikkarten. Da gibt es Einsteiger- bzw. Midrangekarten eben erst ab 600€...
Corona - die Boardhersteller haben festgestellt, dass man die Boards für deutlich mehr verkaufen kann. Dazu ist AMD nicht mehr der krasse Aussenseiter wie beim AM4 Start.
Da AM5 zudem langlebig ist (AM5 Nutzer werden wohl eher seltener nach 2-3 Jahren ein neues Board kaufen) gibt es hier sicherlich nochmal einen Preisaufschlag.
Cubitus
2023-04-05, 16:45:26
Bei Techpower Up stand das man nach dem Wechsel vom 7950X3D das Windows frisch installieren musste.
Weil AMD Treiber undzo :freak:
https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/28.html
Exxtreme
2023-04-05, 16:46:35
Bei Techpower Up stand das man nach dem Wechsel vom 7950X3D das Windows frisch installieren musste.
Weil AMD Treiber undzo :freak:
https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/28.html
Hat PCGH ja auch gemacht. Steht auf der ersten Seite des Artikels im letzten Abschnitt:
https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Tests/vs-7900X3D-Benchmark-Review-Release-Preis-1416589/
maximus_hertus
2023-04-05, 16:52:44
Bei PCGH gibts trotz RT einen Boost von lächerlichen 2%, bei CB >25% und bei TPU sind es sogar 30%+ - gegenüber einem 5800X3D wohlgemerkt. Das kann so nicht stimmen, das hat nichts mit der Szene zu tun, das ist ein fundamentales Problem bei PCGH in dem Spiel.
Was man immer beachten muss: Der 5800X3D skaliert oberhalb vom 3200er RAM quasi nicht mehr. Beim 7000er sieht es ausgehend vom 5200er anders aus. Zum 6000er DDR5 RAM gibt es nochmals einen guten Boost. Nicht dramatisch, aber durchaus spürbar (je nach Game).
Da muss man dann bei den Reviews genau drauf achten, wer (alle) CPUs mit "Stpck" RAM Takt (Ryzen 5200, Core i-13000K mit 5600er RAM) testet und wer bei beiden z.B. 6000+ RAM nutzt.
Zu einzelnen Spielen kann ich nichts sagen. Gibt es beider PCGH eigentlich noch die Savegames zum Download, die für die Benchmarks genutzt werden (früher gab es das)? Dann sollte es sich ja leicht nachbenchen lassen?
Am Ende ist für mich die LAunch Analyse von LEo sehr relevant. Hier hat man dann einfach alle Zahlen bzw. viel mehr Zahlen als nur bei einem Review und bekommt einen guten Mittelwert, der Extreme (positive wie negative) gut "ausgleicht".
Evil Ash
2023-04-05, 16:53:10
Sicher?
"Wir haben aus Zeitgründen auf eine Neuinstallation verzichtet ..."
MSABK
2023-04-05, 16:55:45
Bei golem ist der 16 Kerner schon deutlich schneller.
Exxtreme
2023-04-05, 16:56:50
Sicher?
"Wir haben aus Zeitgründen auf eine Neuinstallation verzichtet ..."
Hups ... hast recht, das habe ich überlesen. Dann könnte das wirklich der Grund sein. :freak: Von daher sollte man das PCGH-Review erstmal ignorieren.
Linmoum
2023-04-05, 16:57:09
Sicher?
"Wir haben aus Zeitgründen auf eine Neuinstallation verzichtet ..."Auch geil, obwohl AMD ja explizit darauf hinweist. :D Da war die Stichprobe zur Performance ja scheinbar auch nur so semi-gelungen, wenn man die restliche Presse sieht, die stimmige(re) Ergebnisse hat.
CB nutzt iirc grundsätzlich immer ein frisches Windows. TPU hat's auch gemacht. Bei HWUB keine Ahnung, würde ich aber auch mal vermuten.
7900X3D bzw. 7950X3D scheinen ja auch auf dem Cache-CCD @Default 100-200MHz höher zu takten. Aber dadurch kommen keine 5-10% Abweichungen zustande. Für Reviewer ist sowas am Ende natürlich immer total blöd, weil man (eigentlich) alles noch mal neu benchen und gegentesten sollte bzw. muss. Was unglaublich viel Aufwand ist. Aber beim nächsten Mal sollte man vielleicht auch auf den Hersteller hören und eine frische Windows-Installation nehmen, wenn der das schon empfiehlt. :D Würde ich aus Gründen der Vergleichbarkeit sowieso grundsätzlich immer machen.
dargo
2023-04-05, 17:23:19
Kann mir einer sagen warum der 7800X3D wieder mehr säuft als der 5800X3D?
5800X3D = 142W PPT
7800X3D = 120W PPT
:uconf2:
Edit:
Hat sich aufgeklärt. 7800X3D = 120W TDP, 162W PPT.
https://www.anandtech.com/show/18795/the-amd-ryzen-7-7800x3d-review-a-simpler-slice-of-v-cache-for-gaming
ich sehe hier PPT 162W für die 7800X3D, wobei interessanterweise LTT in seiner Grafik mitteilte, dass die 7800X3D weniger Strom an sich verbraucht in Tests ... https://youtu.be/nj4gn7od0jY?t=609
Ich muss hier die 7800X3D erstmal als effizienter sehen
dargo
2023-04-05, 17:31:29
https://www.anandtech.com/show/18795/the-amd-ryzen-7-7800x3d-review-a-simpler-slice-of-v-cache-for-gaming
ich sehe hier PPT 162W für die 7800X3D
WTF? Ich dachte die X3D AM5 CPUs wurden mit 120W PPT beworben? Oder ich verwechsle gerade was und es waren 120W TDP. Dann ist natürlich klar, dass der 7800X3D durstiger wird.
Crazy_Chris
2023-04-05, 17:35:57
Er ist doch durch die Bank in der Praxis sparsamer in Spiele als ein 5800X3D: :comfort:
https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_leistungsaufnahme_in_spielen
ja, TDP 120W/PPT 162W für die 7800X3D (y)
dargo
2023-04-05, 17:39:48
Er ist doch durch die Bank in der Praxis sparsamer in Spiele als ein 5800X3D: :comfort:
https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_leistungsaufnahme_in_spielen
Kann nur Blödsinn sein. Wenn die PPT höher ist kann die CPU nicht sparsamer sein. Viel eher vermute ich hier, dass CB mit dem 7800X3D schon leicht in ein GPU-Limit rutscht weil die CPU allgemein schneller ist.
Siehst du auch hier bei HWU in Blender.
https://youtu.be/78lp1TGFvKc?t=357
Und den Games.
https://youtu.be/78lp1TGFvKc?t=470
Bezogen auf das gesamte System. Bei HWU verbraucht kein einziges Game mit dem 7800X3D weniger beim Gesamtsystem als mit dem 5800X3D. Ganz im Gegenteil.
zumindest stellt LTT dasselbe fest.
dargo
2023-04-05, 17:50:05
zumindest stellt LTT dasselbe fest.
Dann misst der auch bullshit. Oder du erklärst mir bitte wie eine 162W CPU weniger verbrauchen kann als eine 142W CPU. :freak: Wie gesagt... mir fallen spontan mittlerweile zwei Szenarien ein.
1. Einer misst nicht im vollständigen CPU-Limit.
2. 7800X3D läuft in ein thermisches Limit bevor er seine 162W erreicht und erst dort dicht macht.
Crazy_Chris
2023-04-05, 17:54:52
Hast du den Computerbase Artikel gelesen? Da wurde auch Prime95, Cinebench und Co für die Leistungsaufnahme verwendet und auch dort ist sie sparsamer als ein 5800X3D.
Linmoum
2023-04-05, 17:59:00
zumindest stellt LTT dasselbe fest.TPU ebenfalls:
https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/power-games.png
https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/power-applications-compare-vs-5800x3d.png
https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/power-games-compare-vs-5800x3d.png
Nightspider
2023-04-05, 18:00:58
Bin ja echt schwer am überlegen vom 5800X3D auf den 7800X3D zu wechseln.
Wenn man nur wüsste wann Zen5 erscheint. *seufz*
lt. CT ist die CPU niedriger getacktet bei Multicore-Anwendungen bei dieser CPU
Auch in Anwendungen besticht der AMD Ryzen 7 7800X3D durch einen geringen Verbrauch. Doch das ist in diesem Fall nicht auf den 3D V-Cache zurückzuführen, der in Anwendungen kaum Vorteile bringt, sondern auf die sehr niedrig angesetzte maximale Turbo-Taktrate von 5.000 MHz, die die CPU unter Volllast selbst mit 120 Watt TDP respektive 162 Watt PPT in der Hinterhand nicht halten kann.
In Multi-Core-Anwendungen liegen oft nur 4,8 GHz und damit weniger als bei einem AMD Ryzen 7 7700 an, der offiziell lediglich mit 65 Watt TDP und 88 Watt PPT eingestuft ist, diese Obergrenzen aber konsequent ausnutzt, während der 7800X3D nur selten über 80 Watt von den erlaubten 162 Watt aufnimmt. Wie weiter oben bereits gezeigt, verhält sich der Cache-CCD des 7800X3D unter Volllast quasi wie der Cache-CCD des 7950X3D.
MSABK
2023-04-05, 18:06:43
Bin ja echt schwer am überlegen vom 5800X3D auf den 7800X3D zu wechseln.
Wenn man nur wüsste wann Zen5 erscheint. *seufz*
Anfang 2024 kommt Zen5 laut Gerüchten.
Bin ja echt schwer am überlegen vom 5800X3D auf den 7800X3D zu wechseln.
Wenn man nur wüsste wann Zen5 erscheint. *seufz*
Das Ding dürfte eh nur mit Voodoo Level 9000 zu bekommen sein. Wenn überhaupt :frown:
Nightspider
2023-04-05, 18:10:06
Die Gerüchte kenne ich. Zen4 sollte auch Anfang 2022 erscheinen, anfangs war sogar mal von Ende 2021 die Rede. :ugly:
In Wirklichkeit erschienen die CPUs dann erst 3-4 Quartale später.
Und die nächste Frage wäre ja, ob es wieder einen V-Cache Aufbau bei Zen5 geben wird und wie viele Monate diese nach Zen5 erscheinen.
BlacKi
2023-04-05, 18:11:23
Anfang 2024 kommt Zen5 laut Gerüchten.meinst du zen5 wird 25-30% schneller als zen4? wenn nicht direkt zum start der v cache verbaut wird, dann glaub ich das auf keinen fall und billiger wohl auch nicht.
das schlimme ist eigentlich, das die nächsten monate die cpu ziemlich ausverkauft sein wird und für die verkäufer dicke margen entstehen. er wird wohl selten unter 600€ zu bekommen sein. vl bei drops im amd shop?
ashantus
2023-04-05, 18:11:28
Bin ja echt schwer am überlegen vom 5800X3D auf den 7800X3D zu wechseln.
Wenn man nur wüsste wann Zen5 erscheint. *seufz*
Ende des Jahres, wohl kurz vor Weihnachten nach den neuesten Gerüchten.
Andernfalls erst im Jan / Februar danach.
Aber das werden ja auch erstmal die normalen ohne 3D Cache.
Sprich, die nächste 3D Cache Generation kommt in einem Jahr. Lohnt sich nicht zu warten.
als Spieler würde ich nur noch auf 3D-Cache setzen. Selbst Niedrigkerner (8C) zeigen mir persönlich eine sehr gute Leistung. Man kann nur hoffen, dass es AMD gebacken kriegt, die 7950X3D in den limitierenden Spielen irgendwie aus dem Abgrund zu ziehen.
Linmoum
2023-04-05, 18:15:01
Das Ding dürfte eh nur mit Voodoo Level 9000 zu bekommen sein. Wenn überhaupt :frown:Wenn man einen will, muss man morgen vermutlich 5-10 Minuten vor 15 Uhr bei Mindfactory F5 spamen. Normalerweise hat man in dem Fall immer gute Chancen, da der Großteil erst um Punkt 15 Uhr nachschaut. :D
MSABK
2023-04-05, 18:15:13
meinst du zen5 wird 25-30% schneller als zen4? wenn nicht direkt zum start der v cache verbaut wird, dann glaub ich das auf keinen fall und billiger wohl auch nicht.
Ich persönlich denke Zen5 wird so schnell wie Zen4 3d. Glaskugel und so.;)
aufkrawall
2023-04-05, 18:18:13
als Spieler würde ich nur noch auf 3D-Cache setzen.
Ist jetzt nicht so, dass ein 7600X mit getuntem RAM langsam wäre. Zen 4 3D performant gleichmäßiger als der Vorgänger, was den Preis schon mal akzeptabler erscheinen lässt. Ist aber auch nicht so, dass ohne Cache ansonsten die Leistung ständig schlecht wäre.
Ich tune halt nicht, ich übertakte und undervolte nicht. Mein Maximum ist es, meinen krankhaft niedriger getakteten RAM (1 Chip hat Problemchen) mit niedrigeren Timings einen Hauch auszugleichen, da muss ich aber nicht an Voltages ran.
Am Ende entscheidet für mich der Preis einfach, wobei du natürlich recht hast(da man (wie im Pareto Prinzip) für 20% mehr Power 80% mehr Geld bezahlt).
dargo
2023-04-05, 18:30:42
Hast du den Computerbase Artikel gelesen? Da wurde auch Prime95, Cinebench und Co für die Leistungsaufnahme verwendet und auch dort ist sie sparsamer als ein 5800X3D.
Dann haben die alle die Physik ausgehebelt? Respekt.
Dino-Fossil
2023-04-05, 18:33:40
Dann haben die alle die Physik ausgehebelt? Respekt.
Wenn z.B. die maximale Frequenz begrenzt ist und erreicht wird, bevor die tdp ausgeschöpft wird, ist das doch durchaus möglich?
kenn ich doch schon von meinem ollen 3600 bei Cinebench. Da wird schon gedrosselt über Zeit.
BlacKi
2023-04-05, 18:35:17
Dann haben die alle die Physik ausgehebelt? Respekt.wieso glaubst du nicht, das eine 5nm chip mit minimal mehr takt nicht sparsamer sein kann als ein 7nm chip?
je nachdem welche voltage anliegt kann das sehr wohl sein.
dargo
2023-04-05, 18:36:34
Zen 4 3D performant gleichmäßiger als der Vorgänger, was den Preis schon mal akzeptabler erscheinen lässt.
Bis zum Zen5 non 3D. :lol:
Marodeur
2023-04-05, 18:37:39
Wenn ich mir das so ansehe und sage das Budget ist derzeit etwas begrenzt erscheint mir ein Upgrade vom 3700x auf einen 5800X3D um einiges sinniger als komplett alles zu ersetzen. So extrem scheint der Vorsprung jetzt nicht zu sein. Der 5800er kostet ja jetzt etwas über 300 € ....
dargo
2023-04-05, 18:37:56
Wenn z.B. die maximale Frequenz begrenzt ist und erreicht wird, bevor die tdp ausgeschöpft wird, ist das doch durchaus möglich?
In einem Prime95 wird die PPT nicht ausgeschöpft? :uconf2: Welche CPU soll das schaffen?
Nightspider
2023-04-05, 18:40:00
Günstige 32GB DDR5 kriegt man jetzt schon ab 95 Euro und ein 5600er 64GB Kit für 210 Euro.
DDR5 ist quasi gar kein Nachteil mehr, bei einer V-Cache CPU.
dargo
2023-04-05, 18:43:03
lt. CT ist die CPU niedriger getacktet bei Multicore-Anwendungen bei dieser CPU
Das wird jetzt aber wirklich strange. Warum zum Teufel spezifiziert AMD diese CPU mit max. PPT 162W wenn dann eh nur 80W voll gemacht werden bei Multicore-Apps. :freak: Jetzt würde ich eine etwas verwirrende Spezifikation dieser CPU in den Raum werfen wenn das auch wirklich so ist. Das erklärt aber immer noch nicht warum bei HWU der 7800X3D überall mehr verbraucht.
Wenn ich mir das so ansehe und sage das Budget ist derzeit etwas begrenzt erscheint mir ein Upgrade vom 3700x auf einen 5800X3D um einiges sinniger als komplett alles zu ersetzen. So extrem scheint der Vorsprung jetzt nicht zu sein. Der 5800er kostet ja jetzt etwas über 300 € ....
sehe ich aktuell auch so. LTTs Vergleich zeigte 12% max an in den abstrakten Zusammenfassungen, das wäre 307€ (aktuell bei Mindfactory) vs. $449+VAT (unter optimalen Umständen ^^). Also für mich lohnt sich die 5800X3D erstmal mehr.
Das wird jetzt aber wirklich strange. Warum zum Teufel spezifiziert AMD diese CPU mit max. PPT 162W wenn dann eh nur 80W voll gemacht werden.
Das sehe ich auch so. Ist für mich nicht wirklich nachvollziehbar. Man könnte theoretisch meinen, die 162W werden unter extremen Bedingungen nur verlangt (SingleCore-Max?).
Marodeur
2023-04-05, 18:46:58
Denke ich werde auch erst einmal mit das Maximum aus der alten Plattform holen und dann nächstes Jahr nochmal gucken. :)
dargo
2023-04-05, 18:48:29
Wenn ich mir das so ansehe und sage das Budget ist derzeit etwas begrenzt erscheint mir ein Upgrade vom 3700x auf einen 5800X3D um einiges sinniger als komplett alles zu ersetzen. So extrem scheint der Vorsprung jetzt nicht zu sein. Der 5800er kostet ja jetzt etwas über 300 € ....
Ein 7800X3D lohnt sich für niemanden der schon eine AM4 Plattform hat. Bei einer kompletten Neuanschaffung ausgehend von Null kann man sich das dann mal überlegen. Die Nerds die eh immer das schnellste haben wollen/müssen juckt sowas natürlich nicht. Die werden eh immer das schnellste verteidigen, egal was es kostet. ;) Du kennst das doch... ab morgen ist mit einem 5800X3D nichts mehr spielbar weil etwas schnelleres erscheint. ;D
Crazy_Chris
2023-04-05, 18:50:00
Die wollten halt schlicht das alle Zen4 3D Chips auf dem Papier die gleichen TDP/PPT Werte haben. Halt eine Klasse von CPUs. Die Zahl ist doch eh nur für OEMs, Boardhersteller interessant. :freak:
dargo
2023-04-05, 18:51:04
Das sehe ich auch so. Ist für mich nicht wirklich nachvollziehbar. Man könnte theoretisch meinen, die 162W werden unter extremen Bedingungen nur verlangt (SingleCore-Max?).
Nee... also SingleCore säuft nie im Leben so viel. :D So langsam habe ich die Vermutung AMD hat einfach blind alle 7000-er X3D CPUs mit 120W TDP spezifiziert. Egal ob 7800X3D, 7900X3D oder 7950X3D. :freak:
naja, mein Kollege wird sicher trotzdem auf die 7950X3D hinarbeiten, auch wenn er nur spielt. Der kauft alle 7 Jahre das beste auf dem Markt.
So langsam habe ich die Vermutung AMD hat einfach blind alle 7000-er X3D CPUs mit 120W TDP spezifiziert. Egal ob 7800X3D, 7900X3D oder 7950X3D.
Naja, die 5800X3D wurde ja auch als "heizt sich sehr schnell auf" trotz "nur 105W TDP" bewertet.
dargo
2023-04-05, 18:55:53
Naja, die 5800X3D wurde ja auch als "heizt sich sehr schnell auf" trotz "nur 105W TDP" bewertet.
Den Zusammenhang verstehe ich jetzt nicht. :tongue:
Worum es mir geht... einen 5800X3D kriegst du in ein 142W Limit mit CB23 sofern er nicht vorher in ein thermisches Limit läuft. Und wenn ich dann lese beim 7800X3D sollen dort nur 80W voll gemacht werden dann macht die Spezifikation für mich irgendwie keinen Sinn was sich AMD da ausgedacht hat. Wenn das Teil überall bei den üblichen Apps unter 88W bleibt dann ist das eine 65W TDP CPU für mich. :freak:
^^ ich bin nur Dilettant in solchen Sachen, aber für mich gilt immer: geringerer TDP -> heizt weniger auf. Klingt blöd, man hat aber Hoffnung, dass es stimmt :|
ich schaue mir gerade das GamersNexus Video an und dort wird schon gesagt, dass AMD mit dem 7800X3D auf ca. 4,8 GHz läuft bei Blender, während die 7700X mit 5,2Ghz läuft ...
https://youtu.be/B31PwSpClk8?t=380
dargo
2023-04-05, 19:10:53
ich schaue mir gerade das GamersNexus Video an und dort wird schon gesagt, dass AMD mit dem 7800X3D auf ca. 4,8 GHz läuft bei Blender, während die 7700X mit 5,2Ghz läuft ...
Das verstehe ich wiederum. Der 7700X hat auch einen höheren SC-Boost und bei MT-Apps ist der Boost immer geringer als der SC-Boost, PBO2 halt.
Langlay
2023-04-05, 19:15:03
ja, TDP 120W/PPT 162W für die 7800X3D (y)
Wobei wenn ich Igor richtig verstanden hab zumindest sein Board stock nicht mehr als 90W auf die CPU gegeben hat.
Nightspider
2023-04-05, 19:15:25
Hier hat einer 5,4 Ghz mit OC aus seinem 7800X3D herausgeholt:
90UBUq1mLGY
Keine Ahnung ob man dafür so ein 600 Euro Mainboard braucht. :usad:
ja, die Reviews, die ich konsumiert habe, zeigen zwischen 80 und 86 Watt an während der Tests
Matrix316
2023-04-05, 19:19:07
Ich überleg schon ob ich mit meinem 13900K umsteigen soll... :uponder: ...neeee... oder? :uponder: Wäre halt mehr ein Sidegrade, aber ich würde die Upgrade Option wieder bekommen... :uponder: Wobei 500 Euro - oder was der jetzt kosten soll, doch irgendwie etwas viel wären. Für 350 oder so... könnte ich sogar bei der CPU zumindest Gewinn machen. :D ;)
dargo
2023-04-05, 19:21:49
Wobei wenn ich Igor richtig verstanden hab zumindest sein Board stock nicht mehr als 90W auf die CPU gegeben hat.
Lol... deshalb also diese maximale Verwirrung mit den Verbräuchen. ;D Fehlerhafte Biose. :ulol:
Komposti
2023-04-05, 19:27:49
Das wird jetzt aber wirklich strange. Warum zum Teufel spezifiziert AMD diese CPU mit max. PPT 162W wenn dann eh nur 80W voll gemacht werden bei Multicore-Apps. :freak: Jetzt würde ich eine etwas verwirrende Spezifikation dieser CPU in den Raum werfen wenn das auch wirklich so ist. Das erklärt aber immer noch nicht warum bei HWU der 7800X3D überall mehr verbraucht.
Tut er auch nicht, HWU misst nur den Verbrauch des Gesamtsystems. Eine schnelle CPU sorgt auch für eine höhere Auslastung der GPU, wodurch der Gesamtverbrauch steigen kann. Der Anteil der CPU am Gesamtverbrauch kann dennoch geringer sein.
dargo
2023-04-05, 19:29:55
Wird in Blender die GPU auch stark beansprucht? Bei um die ~200W gesamt würde ich schätzen eher nicht so.
DeadMeat
2023-04-05, 19:40:58
Wird in Blender die GPU auch stark beansprucht? Bei um die ~200W gesamt würde ich schätzen eher nicht so.
Kommt sehr stark drauf an was du machst.
TobiWahnKenobi
2023-04-05, 19:41:00
Ich überleg schon ob ich mit meinem 13900K umsteigen soll... :uponder: ...neeee... oder? :uponder: Wäre halt mehr ein Sidegrade, aber ich würde die Upgrade Option wieder bekommen... :uponder: Wobei 500 Euro - oder was der jetzt kosten soll, doch irgendwie etwas viel wären. Für 350 oder so... könnte ich sogar bei der CPU zumindest Gewinn machen. :D ;)
mach mal. 66% weniger cores und 40% und weniger strom. wenn du über sowas nachdenkst, dann brauchst du den 13900 eh nicht.
(..)
mfg
tobi
M4xw0lf
2023-04-05, 19:53:12
In einem Prime95 wird die PPT nicht ausgeschöpft? :uconf2: Welche CPU soll das schaffen?
Immer wenn eins oder mehrere dieser Kriterien greifen:
- Single Core
- Thermisches Limit
- Taktlimit
Kein Hexenwerk.
dargo
2023-04-05, 19:54:17
Wer testet Prime95 mit Singlecore? :uconf3: Thermisches Limit hatte ich angesprochen.
- Thermisches Limit
Gamers Nexus sagt auch: das Thermische Limit der 7800X3D ist deutlich niedriger angesetzt als sagen wir bei der 7700X https://youtu.be/B31PwSpClk8?t=1357
Komposti
2023-04-05, 19:59:23
Ist das überhaupt relevant was die CPU in Workloads verbraucht, die sie vermutlich so gut wie nie zu Gesicht bekommt? Das Ding ist, wie der Vorgänger auch, ne CPU mit Inselbegabung. Fürs Gaming toll, sonst besser was anderes kaufen.
dargo
2023-04-05, 20:00:44
@Lyka
Puh... 75°C ist aber schon ganz schön niedrig. 3D Cache thermisch weniger belastbar als beim 5800X3D?
Ähm... moment mal. Spricht der da vom thermischen Limit (also wann Takt drosselt) oder von der generellen Temperatur? :freak:
Nightspider
2023-04-05, 20:08:56
mach mal. 66% weniger cores und 40% und weniger strom. wenn du über sowas nachdenkst, dann brauchst du den 13900 eh nicht.
(..)
mfg
tobi
In Games nützen dir die ganzen Cores eh nix.
TobiWahnKenobi
2023-04-05, 20:12:16
darum braucht er den intel ja auch nicht.
(..)
mfg
tobi
aufkrawall
2023-04-05, 20:25:35
In Games nützen dir die ganzen Cores eh nix.
Gerade The Last of Us auf einem 13700K gesehen: Ich behaupte das Gegenteil, läuft um Dimensionen besser als auf dem getunten 5700X. Locker Faktor >2x bei den 1% low fps.
iamthebear
2023-04-05, 22:15:44
Mit steigender Verbreitung von DX12 Spielen wird das Thema "Shader compilieren" immer wichtiger und und grundsätzlich finde ich die Idee von TLOU gar nicht so blöd: Entweder im Menü alle Shader vorcompilieren lassen oder wenn man trotzdem rein will machen das freie Kerne (z.B. e Cores) im Hintergrund. Nur an der Umsetzung hakt es noch etwas.
aufkrawall
2023-04-05, 22:57:11
Das ist auch ein Punkt, aber ein völlig anderer. TLOU erzeugt auch mit komplett vorkompilierten Shadern massive CPU-Last und die E-Cores entlasten die P-Cores abartigst. Das war schon so ähnlich in Miles Morales mit ausgemaxtem RT, aber in TLOU ist es mit den Auswirkungen auf die Frame Times nochmal zigfach extremer. Keine Ahnung, was diese Sony-Stümper machen, aber das Ergebnis ist so. Weshalb ich der Meinung bin, dass der 7800X 3D dringend noch vier weitere Kerne ohne den Cache benötigt hätte, wenn der Preis schon so abartig hoch ist.
Complicated
2023-04-05, 23:01:29
Der nennt sich dann 7900X. Marktsegmentierung ist natürlich ein Fremdwort, wenn es um die eigene, ganz persönliche, eierlegende Wollmilchsau zum kleinsten Preis geht.
aufkrawall
2023-04-05, 23:02:36
Wär mir neu, dass ein 13700K nur 6 P-Cores hätte. Womit zu dem Blödsinn alles gesagt ist.
Dann misst der auch bullshit. Oder du erklärst mir bitte wie eine 162W CPU weniger verbrauchen kann als eine 142W CPU. :freak: Wie gesagt... mir fallen spontan mittlerweile zwei Szenarien ein.
Och Leude, wie kann man sich nur so von Zahlen blenden lassen. Das ist die MAXIMALE PPT ab Werk. Das sagt überhaupt gar nichts über den eigentlichen Verbrauch aus sondern nur wie viel die CPU unter Last MAXIMAL verbrauchen darf. Der 78er ist sparsamer als der 58er, akzeptier es einfach.
Matrix316
2023-04-06, 00:01:39
Das ist auch ein Punkt, aber ein völlig anderer. TLOU erzeugt auch mit komplett vorkompilierten Shadern massive CPU-Last und die E-Cores entlasten die P-Cores abartigst. Das war schon so ähnlich in Miles Morales mit ausgemaxtem RT, aber in TLOU ist es mit den Auswirkungen auf die Frame Times nochmal zigfach extremer. Keine Ahnung, was diese Sony-Stümper machen, aber das Ergebnis ist so. Weshalb ich der Meinung bin, dass der 7800X 3D dringend noch vier weitere Kerne ohne den Cache benötigt hätte, wenn der Preis schon so abartig hoch ist.
Naja, dann bist du ja auch nicht mehr weit vom 7850X3D entfernt. Der ist ja quasi ein 7800X3D mit mehr Kernen ohne Cache. Eine 8+4 Kombi wäre natürlich billiger, aber noch besser wären 12 Kerne mit 3DCache und nicht 6 mit und 6 ohne.
rentex
2023-04-06, 05:10:14
Wann soll die CPU verfügbar sein?
dildo4u
2023-04-06, 07:26:36
15 uhr wie das Test NDA Gestern.
00-Schneider
2023-04-06, 08:01:37
15 uhr wie das Test NDA Gestern.
Gerne mal schon 30 Minuten vorher auf den entsprechenden Seiten lauern.
Den 7950X3D gabs afair auch schon ~15 Minuten eher zu kaufen.
Complicated
2023-04-06, 08:17:51
Eines zeigen die Reviews nun deutlich. Die Singelcore-Performance, die so gerne in Cinebench ermittelt wurde, zeigt nicht mehr welche CPU in Games vermutlich mehr FPS bringen wird.
Auch ist es nicht mehr am Takt fest zu machen, da mit den 3D Cache die IPC vor allem in Games deutlich höher ist als in Anwendungen, die weniger vom 3D-Cache profitieren.
Es wird zunächst auf absehbare Zeit keine CPU mehr geben, die sowohl in Games als auch in Anwendungen die Leistungskrone an der Spitze der Liste haben wird. Und jedes einzelne Game verhält sich ebenfalls anders, je nach Cache-Größe. Der unterschiedliche Bedarf an Kernen, Takt oder Cache um bessere Performance zu erzielen, ist von Spiel zu Spiel verschieden.
Das macht es möglicherweise momentan schwerer das richtige für seinen eigenen Usecase zu wählen, doch es zeigt die derzeitig unterschiedlichen Ansätze der Hersteller, die in 2-3 Generationen (spätestens wenn die GAA Fertigung anläuft) aus unterschiedlichen Ansätzen heraus auf der Hardwareseite wieder konvergieren werden. Beide werden versuchen dort aufzuholen wo der andere vorne ist in der Architektur und die eigenen Stärken noch weiter auszubauen. Wir als Hardware-Fans können derzeit auf innovative und spannende Jahre vorausschauen bei der CPU-Entwicklung. Ich bin gespannt wie die Techredktionen auf diese neue Situation reagieren werden in Ihren Testaufbauten - da sind dringend Reformen nötig und die richtigen Perspektiven für Kaufentscheidungen der Leser.
dargo
2023-04-06, 08:27:02
Och Leude, wie kann man sich nur so von Zahlen blenden lassen. Das ist die MAXIMALE PPT ab Werk. Das sagt überhaupt gar nichts über den eigentlichen Verbrauch aus sondern nur wie viel die CPU unter Last MAXIMAL verbrauchen darf. Der 78er ist sparsamer als der 58er, akzeptier es einfach.
Ich akzeptiere noch gar nichts wenn ich lesen muss, dass manche Bretter nur max. 90W bzw. nicht die vollen PPT dem 7800X3D freigeben. Wie kann man nur so blind jeder Messung jedem Review vertrauen ohne die Basics dahinter penibel zu überprüfen bleibt mir ein Rätsel. Typische Hypeblindheit bei neuer Hardware.
Edit:
Hier spricht es Igor an.
https://youtu.be/dYtUFi4PUWg?t=120
Das kann natürlich dennoch im Gaming reichen, in MT-Apps die starkes Multithreading betreiben verfälscht sowas aber Einiges.
The_Invisible
2023-04-06, 08:39:02
Naja AMD müsste halt auf native 16 Kern CCDs (+3d cache) umsteigen bzw Intel 16 P-Cores bieten, wäre ich sofort dafür zu haben.
Gibt zwar jetzt die 16x Variante von Intel via HEDT aber viel zu teuer dafür bzw. bei Games wegen niedrigen Takt nicht interessant. Anscheinend gehen ja aber alle zu e-Cores & Co hin, wird ja noch lustig mit den ganzen verschiedenen nötigen Schedulingvarianten
dargo
2023-04-06, 09:03:56
Weiß eigentlich einer welche Games Igor für seine CPU-Tests verwendet? Also das was er da beim 5800X3D misst ist einfach nur noch albern.
https://youtu.be/dYtUFi4PUWg?t=1690
Das können eigentlich nur Games sein die vielleicht 4 Cores beanspruchen. Anders kann ich mir seine extrem niedrigen Werte nicht erklären. Und das gilt dann auch automatisch für die anderen CPUs, die Werte dort sind viel zu niedrig. In einem SotTR bsw. zieht der 5800X3D hier @Stock >90W.
https://www.youtube.com/watch?v=Cajdu7ZyS8M
Ist jetzt weniger als 720p, das dürfte hier aber keine nennenswerte Rolle für den Verbrauch spielen. Zumal eine RTX 4090 deutlich schneller als eine RX 6800XT ist.
dildo4u
2023-04-06, 09:07:24
Weiß eigentlich einer welche Games Igor für seine CPU-Tests verwendet? Also das was er da beim 5800X3D misst ist einfach nur noch albern.
https://youtu.be/dYtUFi4PUWg?t=1690
Das können eigentlich nur Games sein die vielleicht 4 Cores beanspruchen. Anders kann ich mir seine extrem niedrigen Werte nicht erklären. Und das gilt dann auch automatisch für die anderen CPUs, die Werte dort sind viel zu niedrig. In einem SotTR bsw. zieht der 5800X3D hier @Stock >90W.
https://www.youtube.com/watch?v=Cajdu7ZyS8M
Ist jetzt weniger als 720p, das dürfte hier aber keine nennenswerte Rolle für den Verbrauch spielen. Zumal eine RTX 4090 deutlich schneller als eine RX 6800XT ist.
Anno 1800,Cyberpunk,Far Cry 6,Tomb Raider 2018,Total War Troy, Watch Dogs 3.
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/3/
Cubitus
2023-04-06, 09:20:59
Das ist auch ein Punkt, aber ein völlig anderer. TLOU erzeugt auch mit komplett vorkompilierten Shadern massive CPU-Last und die E-Cores entlasten die P-Cores abartigst. Das war schon so ähnlich in Miles Morales mit ausgemaxtem RT, aber in TLOU ist es mit den Auswirkungen auf die Frame Times nochmal zigfach extremer. Keine Ahnung, was diese Sony-Stümper machen, aber das Ergebnis ist so. Weshalb ich der Meinung bin, dass der 7800X 3D dringend noch vier weitere Kerne ohne den Cache benötigt hätte, wenn der Preis schon so abartig hoch ist.
Das die CPU beim Kompilieren der Shader sehr beansprucht wird, stellte ich auch fest. So etwas sah ich sonst nur im Prime-Benchmark. Alle P und E Cores stellenweise auf 100 Prozent, war aber im Spiel kein Problem die Shader im Hintergrund erstellen zu lassen, bekam trotzdem die 100 FPS. Der 13600K hält sich da sehr gut.
The_Invisible
2023-04-06, 09:23:40
Das die CPU beim Kompilieren der Shader sehr beansprucht wird, stellte ich auch fest. So etwas sah ich sonst nur im Prime-Benchmark. Alle P und E Cores stellenweise auf 100 Prozent, war aber im Spiel kein Problem die Shader im Hintergrund erstellen zu lassen, bekam trotzdem die 100 FPS. Der 13600K hält sich da sehr gut.
Mein 5950x hatte auch kein Problem. Die Shaderkompiliererei wird auch sicher nicht weniger werden, daher würde ich gut überlegen heutzutage neu noch einen "nur" 8Kerner zu kaufen.
dargo
2023-04-06, 09:30:17
Anno 1800,Cyberpunk,Far Cry 6,Tomb Raider 2018,Total War Troy, Watch Dogs 3.
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/3/
Ach du Schreck. :eek:
Hat hier jemand gute Beziehungen zu Igor? Dann bitte dringend ihn benachrichtigen, dass er in seinen Berechnungsformeln irgendwo einen dicken Fehler drin hat! Sonst wird das wirklich sehr peinlich.
Ich habe mir jetzt die einzelnen Messungen von ihm rausgefischt.
https://abload.de/thumb/anno-1800-avwattcpu_dyqi02.png (https://abload.de/image.php?img=anno-1800-avwattcpu_dyqi02.png) https://abload.de/thumb/cyberpunk-2077-avwatte6e29.png (https://abload.de/image.php?img=cyberpunk-2077-avwatte6e29.png) https://abload.de/thumb/far-cry-6-avwattcpu_dahczb.png (https://abload.de/image.php?img=far-cry-6-avwattcpu_dahczb.png) https://abload.de/thumb/shadow-of-the-tomb-razteak.png (https://abload.de/image.php?img=shadow-of-the-tomb-razteak.png) https://abload.de/thumb/total-war-saga-troy-a8wf91.png (https://abload.de/image.php?img=total-war-saga-troy-a8wf91.png) https://abload.de/thumb/watch-dogs-legion-avw6vdqi.png (https://abload.de/image.php?img=watch-dogs-legion-avw6vdqi.png)
Der Schnitt vom 5800X3D über seine 6 getesteten Spiele beträgt hier nach meiner Rechnung 74,47W sofern die Einzelmessungen korrekt sind und keine 43,5W in 720p! Auch sehe ich bei ihm in SotTR 84,6W mit dem 5800X3D. Das bedeutet er hat eine Testszene erwischt die nicht ganz so durstig ist wie meine Testszene mit ~95W. Diesen Hinweis allerdings bitte mit Vorsicht genießen! Ich bin mir gerade nicht ganz sicher ob das Recording nicht eventuell etwas zum höheren Verbrauch beiträgt. Das müsste ich gegenprüfen.
Danke dildo für den Link!
Das die CPU beim Kompilieren der Shader sehr beansprucht wird, stellte ich auch fest. So etwas sah ich sonst nur im Prime-Benchmark.
Ist doch völlig normal... kommen irgendwann Spiele die stärkeres Multithreading als heute üblich machen wirst du auch Ingame diesen hohen Verbrauch sehen. ;)
Cubitus
2023-04-06, 09:35:13
Mein 5950x hatte auch kein Problem. Die Shaderkompiliererei wird auch sicher nicht weniger werden, daher würde ich gut überlegen heutzutage neu noch einen "nur" 8Kerner zu kaufen.
Jein, der 13600K hat zwar nur 6 P-Cores, aber die 8 E-Cores davon werden jetzt am Beispiel Shader schon nützlich.
Leider fehlt der CPU ein 3D Cache. Wiederum ist der I5 im Vergleich zu den großen Brüdern sehr effizient.
Und schlägt sich im Gaming meist gleichwertig gegen die stromfressenden Raptoren.
Legt man wieder selbst Hand an, bessere Ram-Timings und etwas UV+OC dann ist der I5 im Spiel immer schneller als ein Stock 13900K und verbraucht ca. die Hälfte an Strom.
Andererseits hat AMD mit dem erweiterten 3D Cache im Gaming Bereich wirklich ins Schwarze getroffen.
Eine ideale Gaming CPU wäre wohl ein Konzept aus Big-Little + 3D Cache. Dann kannst du ruhig 8 Kerne haben, die dann aber von 8 kleinen Kernen unterstützt werden.
Ist doch völlig normal... kommen irgendwann Spiele die stärkeres Multithreading als heute üblich machen wirst du auch Ingame diesen hohen Verbrauch sehen. ;)
Ich befürworte auch den Einsatz von Multikernen. In der Vergangenheit wurde das Silizium im Bereich Gaming viel zu wenig genutzt und war quasi totes Kapital mit Nachteilen im Leerlauf.
Exxtreme
2023-04-06, 09:44:43
Mein 5950x hatte auch kein Problem. Die Shaderkompiliererei wird auch sicher nicht weniger werden, daher würde ich gut überlegen heutzutage neu noch einen "nur" 8Kerner zu kaufen.
Also zumindest die AMD Treiber können die kompilierten Shader auf die Platte speichern, so dass das erneute Kompilieren sehr oft entfällt. Nur Treiberupdates können das Neukompilieren triggern. Und mit vorkompilierten Shadern sind auch die 8 Kerne nicht mehr so das Problem.
G3cko
2023-04-06, 09:45:15
Ich muss sagen, die CPU ist gut, aber aufgrund des Preises von 500-550€ nicht überragend. Ein 13700k kostet nur 450€ und
ist 10% langsamer in Spielen, hat dafür 50-60% mehr Multithreading-Leistung.
Die Leistungsaufnahme unter Teillast ist beim 13700k 10% höher. Im Idle dafür um den selben Betrag niedriger. Natürlich ist die Leistungsaufnahme unter Vollast deutlich höher, aber dafür hat der 13700k auch deutlich mehr Leistung in MT Szenarien.
Die Leistung des 13700k ist zudem konsistenter. Bei den 3DX CPUs muss man sehr genau hinschauen ob das eigene Lieblingsspiel auch dabei ist wovon die CPU profitiert.
Wahrscheinlich müsste der Testparkour sinnvoll gefiltert werden. Eine veraltete Engine ala Dota2 mit 300fps ist wenig sinnvoll. Wie soll man so abschätzen wie sich die CPU in 4-6 Jahren in zukünftigen spielen im CPU Limit schlägt, wenn so veraltete spiele den Schnitt massiv mit +45% verfälschen, wenn modernere Spiele dies gar nicht wiederspiegeln.
M4xw0lf
2023-04-06, 09:50:16
Es sind genauso topaktuelle Spiele wie ältere, hat nichts mit veralteten Engines zu tun.
dargo
2023-04-06, 09:50:48
Ich muss sagen, die CPU ist gut, aber aufgrund des Preises von 500-550€ nicht überragend. Ein 13700k kostet nur 450€ und
ist 10% langsamer in Spielen, hat dafür 50-60% mehr Multithreading-Leistung.
Das ist nur eine Momentaufnahme weil CPU A neu und CPU B schon lange auf dem Markt ist wo sich der Preis eingependelt hat. Schon vergessen was der 5800X3D beim Release gekostet hat und was er heute kostet? Lass einige Monate vergehen dann wird ein 7800X3D auch keine 500-550€ kosten. Ein 13700k hat innerhalb von 6 Monaten auch rund 100€ nachgelassen. Das ist das schöne an Konkurrenz. Jedes mal kommt der eine dann wieder der andere mit etwas schnellerem um die Ecke und so purzeln die Preise beim Vorgänger. ;)
dildo4u
2023-04-06, 09:53:58
Ich muss sagen, die CPU ist gut, aber aufgrund des Preises von 500-550€ nicht überragend. Ein 13700k kostet nur 450€ und
ist 10% langsamer in Spielen, hat dafür 50-60% mehr Multithreading-Leistung.
AMD hat Probleme das 800€ Modell im Lager zu halten geringere Preise machen vermutlich bis zum Herbst kein Sinn.
dargo
2023-04-06, 09:55:35
Die Leistung des 13700k ist zudem konsistenter. Bei den 3DX CPUs muss man sehr genau hinschauen ob das eigene Lieblingsspiel auch dabei ist wovon die CPU profitiert.
Ich finde diese Argumente immer noch putzig. ;D
Schau dir an was von der Mehrleistung in 720p bei einer typischen Gamingauflösung @1440p übrig bleibt. Geschweige denn wenn jemand in nativ 4k spielt. Zudem beziehen sich die Messergebnisse nur auf eine RTX 4090. Hat jemand eine langsamere Grafikkarte hat der noch weniger von der neuen CPU bis gar nichts je nach Speed der Grafikkarte und den eigenen Spielsettings.
Ach du Schreck. :eek:
Hat hier jemand gute Beziehungen zu Igor? Dann bitte dringend ihn benachrichtigen, dass er in seinen Berechnungsformeln irgendwo einen dicken Fehler drin hat! Sonst wird das wirklich sehr peinlich.
Ich habe mir jetzt die einzelnen Messungen von ihm rausgefischt.
https://abload.de/thumb/anno-1800-avwattcpu_dyqi02.png (https://abload.de/image.php?img=anno-1800-avwattcpu_dyqi02.png) https://abload.de/thumb/cyberpunk-2077-avwatte6e29.png (https://abload.de/image.php?img=cyberpunk-2077-avwatte6e29.png) https://abload.de/thumb/far-cry-6-avwattcpu_dahczb.png (https://abload.de/image.php?img=far-cry-6-avwattcpu_dahczb.png) https://abload.de/thumb/shadow-of-the-tomb-razteak.png (https://abload.de/image.php?img=shadow-of-the-tomb-razteak.png) https://abload.de/thumb/total-war-saga-troy-a8wf91.png (https://abload.de/image.php?img=total-war-saga-troy-a8wf91.png) https://abload.de/thumb/watch-dogs-legion-avw6vdqi.png (https://abload.de/image.php?img=watch-dogs-legion-avw6vdqi.png)
Der Schnitt vom 5800X3D über seine 6 getesteten Spiele beträgt hier nach meiner Rechnung 74,47W sofern die Einzelmessungen korrekt sind und keine 43,5W in 720p! Auch sehe ich bei ihm in SotTR 84,6W mit dem 5800X3D. Das bedeutet er hat eine Testszene erwischt die nicht ganz so durstig ist wie meine Testszene mit ~95W. Diesen Hinweis allerdings bitte mit Vorsicht genießen! Ich bin mir gerade nicht ganz sicher ob das Recording nicht eventuell etwas zum höheren Verbrauch beiträgt. Das müsste ich gegenprüfen.
Danke dildo für den Link!
Ist doch völlig normal... kommen irgendwann Spiele die stärkeres Multithreading als heute üblich machen wirst du auch Ingame diesen hohen Verbrauch sehen. ;)
Ähm, Igor nimmt die Messungen aufwendig auf dem Mainboard ab und mißt ausschließlich die CPU! Andere messen nur den EPS-Stecker, da wird also die Plattform mitgemessen. Bei Igor sind AMD und Intel vergleichbar, bei Messungen über den EPS nicht, sondern nur untereinander in den Plattformen. 40W braucht die CPU ohne alles, 74W braucht CPU+Mobo zusammen.
Ich finde diese Argumente immer noch putzig. ;D
Schau dir an was von der Mehrleistung in 720p bei einer typischen Gamingauflösung @1440p übrig bleibt. Geschweige denn wenn jemand in nativ 4k spielt. Zudem beziehen sich die Messergebnisse nur auf eine RTX 4090. Hat jemand eine langsamere Grafikkarte hat der noch weniger von der neuen CPU bis gar nichts je nach Speed der Grafikkarte und den eigenen Spielsettings.
Es kauft halt nicht jeder so kurzsichtig.
dargo
2023-04-06, 10:12:35
Ähm, Igor nimmt die Messungen aufwendig auf dem Mainboard ab und mißt ausschließlich die CPU! Andere messen nur den EPS-Stecker, da wird also die Plattform mitgemessen. Bei Igor sind AMD und Intel vergleichbar, bei Messungen über den EPS nicht, sondern nur untereinander in den Plattformen. 40W braucht die CPU ohne alles, 74W braucht CPU+Mobo zusammen.
Hä? Schau dir die Einzelmessungen von Igor an, summiere das und teile es durch 6. Hast du überhaupt verstanden wovon ich spreche? Zudem sehe ich hier bei mir selbst was ein 5800X3D säuft. Ich habe zwar nur HWiNFO64 und kein professionelles Messequipment, um +/-1W gehts dabei aber auch nicht. Eine direkte Messung an der Hardware wird natürlich genauer sein.
btw.
Das richtig geile dabei ist... keine seiner Einzelmessung liegt bei 40+W, nicht mal in der Nähe. Aber im Schnitt sind es 43,5W. ;D Der sparsamste Kandidat in seinem Testparcour ist Anno 1800 mit 55,8W und der durstigste Total War Saga: Troy mit 92,2W.
G3cko
2023-04-06, 10:23:14
Es sind genauso topaktuelle Spiele wie ältere, hat nichts mit veralteten Engines zu tun.
Doch, das ist sehr wohl entscheidend. Die höhere Multithreading-Leistung wird eher in neueren Spielen sich auswirken.
Mich erinnert der 78003DX an den 6600k. Zu Release tolle Gamingleistung und hoch gelobt und ein paar Monate später an der fehlenden Multithreading-Leistung in BF1 verhungert. Gut das muss nicht so kommen, der 6600k hatte kein SMT und die Konsolen haben nach wie vor 8C+8T. Gerade letztes hat sich bisher nicht geändert, aber man kann jetzt schon sagen, dass die CPU zwar Cache aber keine Leistungsreserven hat. Und ein veraltetes Spiel/Engine, welches das Gesamtergebnis so verzerrt ist nicht sinnvoll.
In der Vergangenheit war es so, dass im CPU-Limit schnellerer RAM mehr zum tragen kam. Genauso wie das auch beim Cache der Fall ist.
Multithreading-Leistung, was auch zu einem späteren Limit führen kann ist aber etwas, was die Tester hier vollkommen ausblenden.
Ich finde diese Argumente immer noch putzig. ;D
Schau dir an was von der Mehrleistung in 720p bei einer typischen Gamingauflösung @1440p übrig bleibt...
Wie lange bist du nun hier dabei? Dir muss man doch nicht erklären was ein CPU- und ein GPU-Limit ist. 4k Benchmarks sind Grafikkarten-Benchmarks. Das ist wie Autorennen mit Geschwindigkeitsbegrenzung im Stadtverkehr. Aussagekraft 0.
dildo4u
2023-04-06, 10:26:43
Doch, das ist sehr wohl entscheidend. Die höhere Multithreading-Leistung wird eher in neueren Spielen sich auswirken.
Mich erinnert der 78003DX an den 6600k. Zu Release tolle Gamingleistung und hoch gelobt und ein paar Monate später an der fehlenden Multithreading-Leistung in BF1 verhungert. Gut das muss nicht so kommen, der 6600k hatte kein SMT und die Konsolen haben nach wie vor 8C+8T. Gerade letztes hat sich bisher nicht geändert, aber man kann jetzt schon sagen, dass die CPU zwar Cache aber keine Leistungsreserven hat. Und ein veraltetes Spiel/Engine, welches das Gesamtergebnis so verzerrt ist nicht sinnvoll.
In der Vergangenheit war es so, dass im CPU-Limit schnellerer RAM mehr zum tragen kam. Genauso wie das auch beim Cache der Fall ist.
Multithreading-Leistung, was auch zu einem späteren Limit führen kann ist aber etwas, was die Tester hier vollkommen ausblenden.
Der 6600k kackte ab da die PS4 8 Kerne hatte, ein 7800X3D hat die selben Cores/Threads wie die neuen Konsolen.
Kaum einer programmiert extra für den PC wenn Games immer teurer werden und überall Geld machen müssen.
dargo
2023-04-06, 10:29:21
Der 6600k kackte ab da die PS4 8 Kerne hatte, ein 7800X3D hat die selben Cores/Threads wie die neuen Konsolen.
Nein, er hat mehr. Die Konsolen haben keine 8C/16T zur Verfügung in Games fürs Rendering.
dildo4u
2023-04-06, 10:30:36
Das OS läuft auch auf dem PC im Hintergrund ich tippe mal drauf das es zumindest bei Sony schlanker ist.
G3cko
2023-04-06, 10:32:58
Der 6600k kackte ab da die PS4 8 Kerne hatte, ein 7800X3D hat die selben Cores/Threads wie die neuen Konsolen.
Kaum einer programmiert extra für den PC wenn Games immer teurer werden und überall Geld machen müssen.
Das habe ich doch auch geschrieben. Ich nutze aber HW häufig sehr lange. Und ich glaube das der Nachfolger mit 16C und Extracache kommen wird.
dargo
2023-04-06, 10:34:23
Wie lange bist du nun hier dabei? Dir muss man doch nicht erklären was ein CPU- und ein GPU-Limit ist. 4k Benchmarks sind Grafikkarten-Benchmarks. Das ist wie Autorennen mit Geschwindigkeitsbegrenzung im Stadtverkehr. Aussagekraft 0.
Wo habe ich was anderes behauptet? Das eine sind theoretische Benchmarks (künstlich erzeugte Limits). Das andere praxisrelevante Messungen. Wenn du deine Hardware nach theoretischen Benchmarks kaufst kann ich nur mit dem Kopf schütteln. Aber soll jeder kaufen was ihn glücklich macht. Der Glaube ist manchmal stärker als die Realität. :tongue:
btw.
Oh cool... Autovergleiche wieder. ;D
Dann will ich auch mal... im Stadverkehr oder auf der Landstraße und Autobahn mit Speedlimit kommst du mit einem Ferrari auch nicht schneller voran als mit einem VW-Golf sofern du deinen Lappen behalten willst. Die gleichen Abhängigkeiten hast du beim Rendering von Games in der Praxis. ;) Es ist immer eine Zusammenarbeit mehrerer Komponenten die sich je nach Szenario und Settings gegenseitig limitieren.
Das OS läuft auch auf dem PC im Hintergrund ich tippe mal drauf das es zumindest bei Sony schlanker ist.
Es geht nicht um das OS, das spielt eh kaum eine Rolle. Bei der PS5 ist ein Core für andere Aufgaben reserviert. Das ist eine Multimediakonsole. Wenn mich nicht alles täuscht waren bei der PS4 sogar 2 Cores für andere Aufgaben reserviert. Dort gabs aber noch kein SMT.
robbitop
2023-04-06, 10:54:44
meinst du zen5 wird 25-30% schneller als zen4? wenn nicht direkt zum start der v cache verbaut wird, dann glaub ich das auf keinen fall und billiger wohl auch nicht.
VCache normiert (also beide Modelle entweder kein VCache oder mit VCache) sollte das schon drin sein. Es ist das erste Mal seit Zen 1, dass AMD das Design verbreitert. Da kann man schon was erwarten. Zen 3 hat aus high level Sicht kaum Änderungen gegenüber Zen 2 gehabt (aus low level Sicht sind es viele Kleine Änderungen, die in Summe signifkant waren) und erreichte im Median eine IPC Steigerung von 18%. Da sollten 25-30 % für ein major overhaul nicht unrealistisch sein. Aber ja wenn man Zen 5 ohne VCache vs Zen 4 X3D vergleicht, wird sich sicherlich eine ähnliche Situation ergeben wie Zen 4 vs Zen 3 X3D. Der speedbump in Spielen durch VCache macht fast 1x Gen aus bei AMD.
dargo
2023-04-06, 10:56:53
VCache normiert (also beide Modelle entweder kein VCache oder mit VCache) sollte das schon drin sein. Es ist das erste Mal seit Zen 1, dass AMD das Design verbreitert. Da kann man schon was erwarten. Zen 3 hat aus high level Sicht kaum Änderungen gegenüber Zen 2 gehabt (aus low level Sicht sind es viele Kleine Änderungen, die in Summe signifkant waren) und erreichte im Median eine IPC Steigerung von 18%. Da sollten 25-30 % für ein major overhaul nicht unrealistisch sein. Aber ja wenn man Zen 5 ohne VCache vs Zen 4 X3D vergleicht, wird sich sicherlich eine ähnliche Situation ergeben wie Zen 4 vs Zen 3 X3D. Der speedbump in Spielen durch VCache macht fast 1x Gen aus bei AMD.
Unterschreibe ich absolut so. :)
btw.
Erfreulich finde ich beim 7800X3D, dass der sowohl schneller als auch sparsamer als der Vorgänger ist sofern die Einzelmessungen von Igor jetzt korrekt sind (wovon ich mal ausgehe, diese erscheinen mir zumindest realistisch). Endlich mal eine positive Entwicklung im Gegensatz zu dem Mist bei Grafikkarten am oberen Ende. :down:
G3cko
2023-04-06, 11:03:32
Wo habe ich was anderes behauptet? Das eine sind theoretische Benchmarks (künstlich erzeugte Limits). Das andere praxisrelevante Messungen. Wenn du deine Hardware nach theoretischen Benchmarks kaufst kann ich nur mit dem Kopf schütteln. Aber soll jeder kaufen was ihn glücklich macht. Der Glaube ist manchmal stärker als die Realität. :tongue:
Das sind doch praxisrelevante Messungen. In einem Spiel sind nun mal CPU und GPU relevant. Es macht absolut keinen Sinn eine CPU mit einer HighEnd Grafikkarte zu testen, welche eh kaum jemand besitzt, nur um sagen zu können, wir messen in 4k. Die Aussagen, welche daraus abgeleitet werden können, beziehen sich nur auf die getestete Grafikkarte. Es gibt aber 1mio verschiedene Karten.
Wenn alle Balken gleich lang sind, also die Grafikkarte limitiert, weiß man am Ende immer noch nicht, welches das bessere Produkt ist.
Die einzige Aussage die man daraus ableiten kann ist: Die Leistung der Prozessoren reicht um die getestete Grafikkarte in Anwendung x voll auszulasten.
Mit dem Argument "reicht doch" haben damals die Bulldozer-Fanboys ihr Produkt verteidigt, obwohl jeder bei Release bereits sehen konnte, dass die Leistung im hier und jetzt zwar reicht, aber im Vergleich zur Konkurrenz man früher wird aufrüsten müssen.
Solche Kunden würde ich mir wünschen. "Reicht doch" und alle kaufen. Wie sie wollen mit ihrem Trabi später 180 auf der Autobahn fahren? Bleiben sie doch in der Stadt bei 50. Reicht doch. Wie sie wollen 600km am Stück mit ihrem Elektroauto und dabei 160 fahren. Bleiben sie doch bei 100 auf der Landstraße reicht doch. ;)
Ich nutze mein Hardware sehr lange und versuche abzuleiten, wohin sich der Markt entwickelt. Das klappte anhand der Konsolen bisher sehr gut. Darauf haben aber damals noch nicht soviele geachtet.
Meine aktuelle Plattform ist 9 Jahre alt. 5820k@4,5Ghz. Mein Q6600 mit ebenfalls 50% OC auch sehr lange gehalten.
Ich kaufe das Produkt neu, das limitiert. Und aktuell ist das die CPU, welche demnächst getauscht wird. Und dann wieder die Grafikkarte, sollte diese limitieren. Und dort wähle ich nicht nach reicht doch sondern nach Weitsicht und Preis Leistung.
Exxtreme
2023-04-06, 11:30:42
Und zurück zum Thema!
G3cko
2023-04-06, 11:52:53
Lässt sich die CPU übertakten und gibt es bereits erste Ergebnisse unter LuKü/WaKü?
Linmoum
2023-04-06, 12:17:03
Mindfactory hatte vorhin kurz den 7800X3D schon drin. Konnten auch welche bestellen. Hoffentlich kommt da nachher trotzdem noch was. ;D
Buddy Casino
2023-04-06, 12:18:59
Ich muss sagen, die CPU ist gut, aber aufgrund des Preises von 500-550€ nicht überragend. Ein 13700k kostet nur 450€ und ist 10% langsamer in Spielen, hat dafür 50-60% mehr Multithreading-Leistung.
Die Leistungsaufnahme unter Teillast ist beim 13700k 10% höher. Im Idle dafür um den selben Betrag niedriger. Natürlich ist die Leistungsaufnahme unter Vollast deutlich höher, aber dafür hat der 13700k auch deutlich mehr Leistung in MT Szenarien.
Die Leistung des 13700k ist zudem konsistenter. Bei den 3DX CPUs muss man sehr genau hinschauen ob das eigene Lieblingsspiel auch dabei ist wovon die CPU profitiert.
Sehe ich ähnlich - wer in der Leistungsaufnahme nicht limitiert ist, der hat auch andere gute Optionen. Für ITX builds wie den FormD T1 ist es aber die perfekte CPU, denn hier kommt es weniger auf Preis/Leistung an, sondern eher auf Leistung/Watt. Wenn nur die AM5 ITX Boards nicht so teuer wären...
M4xw0lf
2023-04-06, 12:33:20
Lässt sich die CPU übertakten und gibt es bereits erste Ergebnisse unter LuKü/WaKü?
OC ist seit Jahren sinnlos bei Ryzen CPUs. Undervolting bringt was, oft ein paar Prozent in ST und mehr in MT, und spart natürlich generell Leistungsaufnahme/Abwärme.
dildo4u
2023-04-06, 12:38:25
Lässt sich die CPU übertakten und gibt es bereits erste Ergebnisse unter LuKü/WaKü?
Hab das gefunden keine Plan wie Alltagstauglich das ist.
Macht vermutlich kein Sinn wenn das Board dadurch instabil läuft.( Clock Generator muss erhöht werden)
https://videocardz.com/newz/amd-ryzen-7-7800x3d-has-been-overclocked-to-5-4-ghz
dargo
2023-04-06, 12:59:37
OC ist seit Jahren sinnlos bei Ryzen CPUs. Undervolting bringt was, oft ein paar Prozent in ST und mehr in MT, und spart natürlich generell Leistungsaufnahme/Abwärme.
Richtig... mit negativen CO bekommt man eventuell wieder die vollen 5Ghz sofern AMD diese Option ins AGESA für X3D gießt, das wars dann auch schon.
G3cko
2023-04-06, 13:08:51
Hab das gefunden keine Plan wie Alltagstauglich das ist.
Macht vermutlich kein Sinn wenn das Board dadurch instabil läuft.( Clock Generator muss erhöht werden)
https://videocardz.com/newz/amd-ryzen-7-7800x3d-has-been-overclocked-to-5-4-ghz
Danke, genau den Test habe ich gesucht. Ja, da stimme ich dir zu. Für max 5-10% Performancegewinn die Instabilitäten, macht keinen Sinn.
ist bei Cyberport schon/noch bestellbar (499 EUR Versand/547 EUR im Store Berlin)
https://www.cyberport.de/pc-und-zubehoer/komponenten/prozessoren-cpu/amd/pdp/2001-730/amd-ryzen-7-8x-4-4-ghz-104mb-cache-sockel-am5-cpu-box.html
Linmoum
2023-04-06, 14:59:34
Klingt mir bei Cyberport wieder nach Systemfehler, der ist schon viel zu lange "verfügbar". Nicht zum ersten Mal bei denen.
Mindfactory ausverkauft, die haben tatsächlich wohl schon heute Mittag ihr Kontingent rausgehauen, als er kurz bestellbar war. ;D Saftladen.
Cubitus
2023-04-06, 15:00:24
Hab bestellt, wenn ich den bekommen sollte dürfen die AMD-Jünger bei mir eine Audienz erbitten ;D
Kollege hat bei Cyberport bestellt, Bestellbestätigung ist auch schon drin, Versand wird vorbereitet.
Buddy Casino
2023-04-06, 15:02:06
Mindfactory ausverkauft, die haben tatsächlich wohl schon heute Mittag ihr Kontingent rausgehauen, als er kurz bestellbar war.
Hab grade um 14:57 noch einen ergattert, war aber sofort danach wieder weg.
Linmoum
2023-04-06, 15:02:20
Kollege hat bei Cyberport bestellt, Bestellbestätigung ist auch schon drin, Versand wird vorbereitet.Bestellbestätigung != Auftragsbestätigung. Wenn er letztere hat, dann kann er froh sein. ;)
Edit: Gerade einen bei MF ergattert. Viel Spaß noch an den Rest. :D
MF ist verfügbar
https://www.mindfactory.de/product_info.php/AMD-Ryzen-7-7800X3D-8x-4-20GHz-So-AM5-WOF_1481120.html
Exxtreme
2023-04-06, 15:06:45
https://www.ebay-kleinanzeigen.de/s-amd-ryzen-7-7800x3d/k0
Und die ersten Möchtegern-Scalper. X-D Wenn AMD aber liefern kann dann bleiben die drauf sitzen.
Buddy Casino
2023-04-06, 15:07:43
Edit: Gerade einen bei MF ergattert. Viel Spaß noch an den Rest. :D
Scheint die geben immer nur alle paar Minuten kleine Kontingente frei. Freunde, es ist noch nicht Schicht im Schacht!
Linmoum
2023-04-06, 15:09:51
Cyberport angeblich immer noch verfügbar. Ich sag ja, sowas ziehen die öfters ab. Erstmal schön kassieren und dann plötzlich zugeben müssen, dass die Ware gar nicht erst verfügbar war. Ist mir damals auch bei meinem 3700X dort passiert.
Edit: Mindfactory hat schon 590 (!!) Stück verkauft. ;D
dildo4u
2023-04-06, 15:21:28
MF zeigt schon 590 verkauft an man kann übrigenz zwei kaufen aber nur ein 5800x3D da der im Angebot ist. :lol:
00-Schneider
2023-04-06, 15:22:52
Edit: Mindfactory hat schon 590 (!!) Stück verkauft. ;D
Erachte ich jetzt nicht als viel. :confused:
PC-Gaming is dead.
Disco_STFU
2023-04-06, 15:23:34
Erachte ich jetzt nicht als viel. :confused:
PC-Gaming is dead.
Nach 23 Minuten? :confused::freak::eek::biggrin:
Linmoum
2023-04-06, 15:24:49
7900X3D in über 5 Wochen: 710 Stück
7800X3D in ~25 Minuten: 590 Stück
:freak:
Ich kann mir immer noch nicht vorstellen, dass es derart viel Ausschuss gibt. Das sind ja zwei Chiplets mit jeweils nur 6C für den 7900X3D. Sie hätten einfach alles in den 7800X3D stecken sollen, wie krass der weggeht, sieht man jetzt.
Buddy Casino
2023-04-06, 15:27:01
Nach 23 Minuten? :confused::freak::eek::biggrin:
Man fragt sich mit was er die 300.000€ in ein paar Minuten vergleicht, mittelgroßer Kokain-Deal?
00-Schneider
2023-04-06, 15:27:21
Nach 23 Minuten? :confused::freak::eek::biggrin:
Man fragt sich mit was er die 300.000€ in ein paar Minuten vergleicht, mittelgroßer Kokain-Deal?
U no PS5?
7900X3D in über 5 Wochen: 710 Stück
7800X3D in ~25 Minuten: 590 Stück
Ja, ich kauf mir doch keinen (in Spielen) langsameren Prozessor für mehr Geld. Das macht ja überhaupt keinen Sinn.
Disco_STFU
2023-04-06, 15:28:44
Ich wundere mich echt über die gute Verfügbarkeit... Hat Mindfactory da echt hunderte von im Lager liegen :confused::freak:
Linmoum
2023-04-06, 15:31:44
Im Lager haben die wohl noch nichts, wird ja mit "2-3 Tage Zulauf" angegeben. Wahrscheinlich kriegen die das ganze Kontingent durch die Feiertage erst nach Ostern rein, Alternate gibt ja für den 7800X3D und 7950X3D auch "5 Tage" an. Da scheint nächste Woche eine größere Menge zu kommen.
dildo4u
2023-04-06, 15:31:59
AMD hat doch extra gewartet da konnte sich mehr Ansammeln und er Taktet wie eine Krücke man kann also schlechtere Die als bei den High-End Modellen nutzen.
Mordekai2009
2023-04-06, 15:32:33
Über 590 Stück bei Mindfactory verkauft nach circa 30 Minuten? Krass!
Linmoum
2023-04-06, 15:34:25
AMD hat doch extra gewartet da konnte sich mehr Ansammeln und er Taktet wie eine Krücke man kann also schlechtere Die als bei den High-End Modellen nutzen.Max. Takt beim 7800X3D sind 5050MHz, bei den beiden größeren 5250MHz. Das ist nichts weiter als eine künstliche Limitierung, damit der 7950X3D noch 1-2% vorne ist.
dildo4u
2023-04-06, 15:36:13
7900x3D Boost ist 5.6Ghz vs 5Ghz beim 7800x3D oder lügt AMD?
5Ghz sind Abfall Die unter dem 7700 Modell.
Langsamer als 7600 im SC.
https://abload.de/img/cbhzpe6k.png
dargo
2023-04-06, 15:51:19
AMD hat doch extra gewartet da konnte sich mehr Ansammeln und er Taktet wie eine Krücke man kann also schlechtere Die als bei den High-End Modellen nutzen.
Komisch, dass diese Krücke vor einer bis zwei Seiten noch in deinem eigenen Link über Umwege mit 5,4Ghz lief.
dildo4u
2023-04-06, 15:53:17
Qualität Schwankt halt er kam nicht mal auf AMDs Vorgabe.
https://youtu.be/sif_bKgVLEA?t=453
dargo
2023-04-06, 15:57:59
Wovon fantasierst du da wieder? Wo wird da die AMD-Vorgabe nicht eingehalten? Kann es sein, dass du PBO2 auch nicht verstehst? Im übrigen sind die 4,8+Ghz in CB23 bei "nur" 96W sehr sparsam vs. 7nm. Hier macht sich wieder schön ein besser gewählter Betriebspunkt von AMD bemerkbar. Diese CPUs ohne X3D werden bei der Frequenz bis zur Kotzgrenze innerhalb der Spannungskurve geprügelt.
dildo4u
2023-04-06, 16:02:19
Ich weiß das du es schwer mit dem English hast aber AMD hat ihm gesagt das Ding schafft über 18K im Cinebench und das hat sein Chip nicht gepackt.
Man sollte meinen AMD gibt dort was an was alle Die schaffen.
Linmoum
2023-04-06, 16:02:30
7900x3D Boost ist 5.6Ghz vs 5Ghz beim 7800x3D oder lügt AMD?
Non-Cache-CCD vs. Cache-CCD. Bitte.
Das Cache-CCD beim 7900X3D und 7950X3D taktet bis maximal 5250MHz, beim 7800X3D hat AMD das auf 5050MHz abgeriegelt.
The 7800X3D is artificially capped to a maximum frequency of 5050 MHz on each core, probably to protect the higher-end X3D CPUs, which are allowed to boost higher. For example, the 7950X3D will boost up to 5250 MHz easily with light loads on it's 3D VCache chiplet. https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/26.html
Ich weiß das du es schwer mit dem English hast aber AMD hat ihm gesagt das Ding schafft über 18K im Cinebench und das hat sein Chip nicht gepackt.
Man sollte meinen AMD gibt dort was an was alle Die schaffen.
Können sie nicht, weil sie nicht mit jedem MB testen und auch die können Einfluss auf die Performance haben.
4825MHz sind im Übrigen offenbar Standard für MC-Last, auch CB gibt das im Test an.
dildo4u
2023-04-06, 16:06:04
Ja also brauchen sie für den 8 Core nur Die die 5 GHz schaffen was so ziemlich jeder sein sollte.
Pseudo23
2023-04-06, 16:11:59
Nachdem jetzt ja einige (ich auch) aus dem Forum einen 7800X3D gekauft haben, werden wir ja bald sehen, was bzw. ob es diese Performanceschwankungen bzw. Good/Bad Chips gibt.
Linmoum
2023-04-06, 16:26:21
Mindfactory mittlerweile bei 1210 (!!!) verkauften 7800X3D und immer noch bestellbar. Wo hat AMD plötzlich die ganzen CPUs her? ;D
dargo
2023-04-06, 16:31:43
Ich weiß das du es schwer mit dem English hast aber AMD hat ihm gesagt das Ding schafft über 18K im Cinebench und das hat sein Chip nicht gepackt.
Du weißt aber schon, dass CB23 auch auf Speicher reagiert bzw. mit Speichertuning skaliert? :freak: Hat der Typ im Video also exakt die gleiche Speicherfrequenz mit exakt den gleichen (Sub)timings verwendet wie das Testsystem von AMD?
Exxtreme
2023-04-06, 16:32:36
Nachdem jetzt ja einige (ich auch) aus dem Forum einen 7800X3D gekauft haben, werden wir ja bald sehen, was bzw. ob es diese Performanceschwankungen bzw. Good/Bad Chips gibt.
Wobei das möglicherweise keine Good/Bad Chips sind sondern eher der Core parking bug.
https://www.3dcenter.org/news/news-des-5-april-2023
Da steht auch dran wie man den behebt. :)
Mindfactory mittlerweile bei 1210 (!!!) verkauften 7800X3D und immer noch bestellbar. Wo hat AMD plötzlich die ganzen CPUs her? ;D
Kranker Scheiss! Da bin ich auf die Quartalszahlen gespannt. ;D
Linmoum
2023-04-06, 16:36:34
Wenn die X3D schon damals zum AM5-Launch verfügbar gewesen wären, hätte sich AM5 da bereits deutlich besser verkauft. Klar, DDR5-Preise und MB-Preise sind zuletzt auch ein gutes Stück gesunken, aber für eine Neuanschaffung ist das ja immer noch (auch aus P/L-Sicht) teurer, als ein günstiges AM4-System mit 5800X3D.
Dass das einen gewissen Run auf AM5 auslösen würde, ja. Aber in der Form finde ich das schon krass, dass hier mal eben in über einer Stunde locker flockig eine vierstellige Anzahl von einer einzigen CPU verkauft werden. Und das nur bei einem einzigen Händler.
BlacKi
2023-04-06, 16:43:36
ich finde es ebenfalls erstaunlich, das die cpu immernoch 2h später bestellbar ist.
Exxtreme
2023-04-06, 16:44:54
MF hat bestimmt paar Schiffscontainer bestellt. ;D Kann gut sein, dass die heute die 3k Marke knacken.
Buddy Casino
2023-04-06, 16:45:03
ich finde es ebenfalls erstaunlich, das die cpu immernoch 2h später bestellbar ist.
Die Skalper gehen schonmal in die Garage und werfen den Motor an.
Linmoum
2023-04-06, 16:47:24
Gab ja bei EKA schon wieder Spezialisten, die ihre Bestellbestätigung gepostet und ihn für 600€+ angeboten haben. Würde deren Gesichter gerne mal sehen.
dildo4u
2023-04-06, 16:49:07
AMD wusste das die Nachfrage Absurd ist der 5800x3D war Monate an der Spitze natürlich auch weil es billige Boards gab, was AMD mit dem A620 für AM5 lösen will.
ASRock hat zumindest welche bei Newegg.
https://www.newegg.com/p/pl?N=100007625%20601406716&Order=1
dargo
2023-04-06, 16:52:20
Mindfactory mittlerweile bei 1210 (!!!) verkauften 7800X3D und immer noch bestellbar. Wo hat AMD plötzlich die ganzen CPUs her? ;D
Ich vermute deswegen wollte AMD den 7800X3D später auf die Meute loslassen. Um den ersten Ansturm besser bedienen zu können. Immerhin hatte AMD dadurch ~6 Wochen mehr Zeit zu produzieren.
MF hat bestimmt paar Schiffscontainer bestellt. ;D
Ach komm... so viel Platz nimmt so ein boxed 7800X3D auch nicht ein. Vom Gewicht her ist das alles auch sehr harmlos. ;)
btw.
CU hat noch welche auf Lager.
https://www.computeruniverse.net/de/p/90921811?utm_channel=psm&utm_source=geizhals&utm_campaign=sofort-lieferbar&utm_medium=katalog&utm_content=artikel&agt=288
Jetzt alle wech.
Ich finde die TDP-Klassifizierung seitens AMD vom 7800X3D aber wirklich maximal verwirrend. Wenn das Ding in CB23 96W säuft dann hätten hier 95W TDP besser gepasst. Von mir aus auch 105W TDP. Die 162W PPT werden doch nirgends ausgeschöpft. Außer in einem Powervirus wie Prime95 vielleicht.
Buddy Casino
2023-04-06, 19:57:26
ich finde es ebenfalls erstaunlich, das die cpu immernoch 2h später bestellbar ist.
Und immer noch verfügbar, MF Verkaufszahlen steigen nur noch langsam. Schätze jeder der heute einen wollte hat einen bekommen. Wer hätte das gedacht? Und ich sitze kurz vor drei vor dem Rechner, schwitze Spaghetti und drücke F5.
ja, Kollege hatte heute auch um die 6 Anbieter gleichzeitig offen, Paypal ebenso, alte Passwörter und Benutzerkonten reaktiviert, weil er einen Ansturm erwartete (gerade bei der mangelnden Verfügbarkeit der 7950X3D, die immer nur kurzfristig aufgelöst wurde).
Linmoum
2023-04-06, 20:05:03
Bin auch ganz irritiert, wobei ich die Minuten gegen 15 Uhr trotzdem immer unglaublich spannend finde. ;D
Weiß man ja vorher nicht, ob es genug gibt und wie schnell die Dinger weg sind. War im Endeffekt richtig langweilige heute. :D
ChaosTM
2023-04-06, 20:18:43
nj4gn7od0jY
das schöne daran ist, dass mein alter 5800X3D immer noch gut mithält bei Spielen.
Intel ist Punkto Strom/Performance einfach nur mehr grauslich
Christopher_Blair
2023-04-06, 20:44:47
Wie sieht es mit DDR5 6000er CL30 Speicher aus, reicht es für diesen AMD Expo zu aktivieren, oder muss man noch per Hand CPU Spannungen (SoC, Memory Controller etc.) erhöhen? (Und dann wieder tagelang CoreCycler laufen lassen).
Dann würde ich zu 5200 Speicher greifen, alleine schon wegem dem Mehrverbrauch.
MSABK
2023-04-06, 21:05:15
Wie sieht es mit DDR5 6000er CL30 Speicher aus, reicht es für diesen AMD Expo zu aktivieren, oder muss man noch per Hand CPU Spannungen (SoC, Memory Controller etc.) erhöhen? (Und dann wieder tagelang CoreCycler laufen lassen).
Dann würde ich zu 5200 Speicher greifen, alleine schon wegem dem Mehrverbrauch.
Afaik nur expo aktivieren und rest wird automatisch erledigt. Frage ist halt wie viel der 3d noch von dem schnelleren Ram profitiert.
Slipknot79
2023-04-06, 21:08:35
Mein PC ist gerade ein Cockblock.
Meine Libido nen 7800X3D zu bestellen ist nicht gerade hoch, einfach weil der PC schon zu Tode konfiguriert ist und ich keinen Bock habe hier alles noi aufzusetzen und vorallem so zu konfigurieren wie vor einer Install. :mad:
Ist bekannt ob nen Plattformwechsel von Intel auf AMD das OS schrotten can, was ne Noinstall zur Folge hätte?
r3ptil3
2023-04-06, 21:15:48
Die Effizienz im Gaming ist wirklich exzellent. Anwendungsperformance ist aber schwach.
Multithreadload (Guru3d):
7800X3D: ca. 179W
13600K: ca. 255W
Dafür dass der 13600K aber auch etwa 30% mehr leistet in Anwendungen, ist das jetzt nicht so überzeugend.
Hat jemand einen Test gesehen wie der Gesamtverbrauch des Systems während dem Gaming aussieht? Ich sehe nur Verbrauchswerte für die CPU selber und darin ist der 7800X3D überragend, dürfte aber beim Gesamtverbrauch nochmals ganz anders aussehen.
dargo
2023-04-06, 21:19:48
HWU hat das gemessen. War aber nur 1080p mit der RTX 4090.
https://youtu.be/78lp1TGFvKc
Linmoum
2023-04-06, 21:20:50
Wie sieht es mit DDR5 6000er CL30 Speicher aus, reicht es für diesen AMD Expo zu aktivieren, oder muss man noch per Hand CPU Spannungen (SoC, Memory Controller etc.) erhöhen? (Und dann wieder tagelang CoreCycler laufen lassen).
Dann würde ich zu 5200 Speicher greifen, alleine schon wegem dem Mehrverbrauch.EXPO laden reicht völlig aus.
Würde einfach zu dem "Standard EXPO-Kit" von G.Skill greifen mit Hynix M-Dies. Kostet mittlerweile für 32GiB auch keine 150€ mehr.
https://geizhals.de/g-skill-trident-z5-neo-schwarz-dimm-kit-32gb-f5-6000j3038f16gx2-tz5n-a2815884.html
Christopher_Blair
2023-04-06, 21:32:12
EXPO laden reicht völlig aus.
Würde einfach zu dem "Standard EXPO-Kit" von G.Skill greifen mit Hynix M-Dies. Kostet mittlerweile für 32GiB auch keine 150€ mehr.
https://geizhals.de/g-skill-trident-z5-neo-schwarz-dimm-kit-32gb-f5-6000j3038f16gx2-tz5n-a2815884.html
Genau die hatte ich mir schon ausgesucht, bzw. die 64 GB Version davon.
Die DDR5 Preise sind in den letzten 6 Monaten krass gesunken :eek:
Lehdro
2023-04-06, 22:12:13
Multithreadload (Guru3d):
7800X3D: ca. 179W
13600K: ca. 255W
Dafür dass der 13600K aber auch etwa 30% mehr leistet in Anwendungen, ist das jetzt nicht so überzeugend.
Wie soll der 7800X3D 179W im MT verbrauchen wenn er doch auf ~90W gecapped ist :confused:
Hat jemand einen Test gesehen wie der Gesamtverbrauch des Systems während dem Gaming aussieht? Ich sehe nur Verbrauchswerte für die CPU selber und darin ist der 7800X3D überragend, dürfte aber beim Gesamtverbrauch nochmals ganz anders aussehen.
Schau mal bei Igor rein. (https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/3/) Intel ist am Arsch was die Effizienz angeht. Vor allem wenn man mal bedenkt dass die 4090 mehr gefordert wird umso schneller die CPU im Vergleich ist.
Wie soll der 7800X3D 179W im MT verbrauchen wenn er doch auf ~90W gecapped ist
ich gehe eher vom Gesamtsystem aus. Guru3D auch
The energy consumption of the entire PC, including its motherboard, processor, graphics card, memory, and SSD, is displayed. The specific amount of energy used will vary depending on the motherboard's additional ICs, controllers, Wi-Fi, and Bluetooth, as well as the PSU's efficiency. It should be noted that our measurement covers the entire PC and not just the processor's power usage. Adding optical drives, HDDs, and sound cards to your average PC may cause the energy consumption to deviate from our reported numbers. Additionally, the inclusion of RGB components such as a lit motherboard, keyboard, liquid cooler, and mouse can add between 10 and 15 Watts to the power consumption.
https://www.guru3d.com/articles_pages/ryzen_7_7800x3d_processor_review,5.html
Slipknot79
2023-04-06, 22:22:57
Welcher der Reviewer hat MSFS2020 getestet? Habe auf gut Glück und die Schnelle keinen gefunden? :mad:
Finde erstmal nur das
https://youtu.be/Jp6ByGI0O64?t=463
Ich kenne "Paul’s Hardware"-YT-Channel nicht, kann also nichts zur Korrektheit sagen
Toms HW auch
https://www.tomshardware.com/reviews/amd-ryzen-7-7800x3d-cpu-review/4
-> https://cdn.mos.cms.futurecdn.net/fA7dfKkNSGrFAEJTXzKHue.png
Linmoum
2023-04-06, 22:27:04
PCGH, die sind allerdings gerade noch am verifizieren, ob deren Werte überhaupt so passen oder ob denen durch den Wechsel vom 7950X3D auf den 7800X3D nicht das Core Parking die Performance in irgendeiner Form verhauen hat. In dem Fall einfach am ~7950X3D orientieren.
https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Tests/vs-7900X3D-Benchmark-Review-Release-Preis-1416589/2/
Lehdro
2023-04-06, 22:34:28
ich gehe eher vom Gesamtsystem aus. Guru3D auch
https://www.guru3d.com/articles_pages/ryzen_7_7800x3d_processor_review,5.html
Das ist krass viel irgendwie. 90W nur für den Klimbim drumherum...
naja, die Idle-Consumption des Systems ist ja auch ... interessant. Ich vermute hier, die haben das mit GPU gemessen, die GPU-Werte dann einfach abgezogen. ^^
das ist übrigens die HW, die genutzt wurde
Mainboard and processor
MSI X670E Tomahawk
AMD Ryzen 7 7800X3D
Graphics Cards
GeForce RTX 4090 (founder edition)
Memory
2x16 GB DDR5 6000 MHz (G.Skill Trident Z5)
Power Supply Unit
1200 Watt Platinum Certified Corsair AX1200i
Monitor
Dell 3007WFP - QHD up to 2560x1600
ASUS PQ321 native 4K UHD Monitor at 3840 x 2160
Mordekai2009
2023-04-06, 22:37:52
Das entspricht ja 65W TDP (88W PPT).
bisher las ich nie von mehr als 90W+ Prozessorverbrauch in Benchmarks :D
Mordekai2009
2023-04-06, 22:41:13
Bis zu 83 Watt in Anwendungen bei TechPowerUp. 79 Watt in Cinebench 23 MT.
Bis zu 60 Watt in Spielen und das war Battlefield 5. Der Prozessor ist einfach zu sparsam. :D
Slipknot79
2023-04-06, 22:44:25
Finde erstmal nur das
https://youtu.be/Jp6ByGI0O64?t=463
Ich kenne "Paul’s Hardware"-YT-Channel nicht, kann also nichts zur Korrektheit sagen
Toms HW auch
https://www.tomshardware.com/reviews/amd-ryzen-7-7800x3d-cpu-review/4
-> https://cdn.mos.cms.futurecdn.net/fA7dfKkNSGrFAEJTXzKHue.png
E high 5 thx.
Christopher_Blair
2023-04-06, 22:45:50
Welcher der Reviewer hat MSFS2020 getestet? Habe auf gut Glück und die Schnelle keinen gefunden? :mad:
Golem ( mit 6000 cl30 Ram) und pcgh z.b.
ChaosTM
2023-04-06, 22:53:18
https://www.tomshardware.com/reviews/best-cpus,3986.html
siehe Fs2020 ;)
mein 5080er X3D kommt gar nicht so schlecht weg
Pseudo23
2023-04-06, 23:05:07
Genau die hatte ich mir schon ausgesucht, bzw. die 64 GB Version davon.
Die DDR5 Preise sind in den letzten 6 Monaten krass gesunken :eek:
Ich hab mich für die bei MF unwesentlich teureren 6400er entschieden.
https://geizhals.de/g-skill-trident-z5-schwarz-dimm-kit-32gb-f5-6400j3239g16gx2-tz5k-a2670975.html
dargo
2023-04-06, 23:12:18
79 Watt in Cinebench 23 MT.
Wo kommen die her? Ich hatte im Video welches dildo verlinkt hatte dort 96W gesehen.
Thomas Gräf
2023-04-07, 00:17:18
Mal ne Frage, Ihr kauft 6000'er RAM, der Speicherkontroller kann aber nur 5200'er RAM.
Gibts da ein Trick ;)
Vor allem wie siehts denn mit FCLK und UCLK aus?
Läuft das gleich beim Ryzen 7000?
Also MCLK-FCLK-UCLK alles synchro bei 6000'er RAM?
Mein 5800'er schaffte synchron die 1900, also realer DDR3800 der mal nich billig war.
Mein 5800'er x3D schafft das nicht mehr! FCLK sind 1800 und UCLK sind 950, veränder ich da nun was muss ich danach die BIOS Batterie für 10 Minuten raus nehmen...
Wie macht Ihr das?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.