Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7000 (Zen 4) Review-Thread
Seiten :
1
2
3
4
5
6
7
8
9
10
11
[
12]
13
14
eratte
2023-05-25, 23:00:53
Das Kit mit 2 x 32 GB DDR5 6000/CL32 läuft mit 1,4v Speicherspannung, die VSOC ist mit dem aktuellen BIOS (AGESA 1.0.0.7a) auf dem ASUS Hero schon bei Auto nur 1.25. Niedriger muss ich noch testen. Mit den neusten BIOS Version geht da bei keinem Hersteller mehr als 1,3v VSOC - die Speicherspannung von meist 1,35 oder 1,4v hat da mit erst mal nichts zu tun.
Pseudo23
2023-05-28, 17:18:20
Nach Urlaub und Wasserschaden hatte ich etwas Zeit die Curve zu optimieren. Das ist der aktuelle Stand:
Core 0 -31
Core 1 -22
Core 2 -31
Core 3 -22
Core 4 -22
Core 5 -17
Core 6 -22
Core 7 -22
Zwei Cores booten zwar mit -50, aber dann gibt es Reboots im idle. Die meisten Cores booten aber mit -40 schon nicht mehr. Oder es stürzt beim Benchen direkt ab.
Als BIOS nutze ich das 1616 mit AGESA 1.0.0.7.a und finde es bisher stabiler als die Vorgängerversion mit DDR6000, IF 2000 und VSoc 1,12 und 28-36-36-50-86-480.
robbitop
2023-05-28, 18:02:33
Geht CO nicht eigentlich nur bis -30?
Nach jeder Reduktion am besten mit Cinebench MT validieren ob die Performance stimmt. IIRC gibt es bei AMD clockstretching wenn es nicht passt und man weiss dann ggf nicht, dass es Performancedegradation gab.
Pseudo23
2023-05-28, 18:25:54
Mittlerweile bis -50, wie auch einige Post vorher schon von anderen erwähnt. :D
Das mit der Performance kann ich bestätigen. Wenn es nicht läuft, sinkt oft die Performance.
r3ptil3
2023-05-28, 19:24:51
Curve Optimizer sieht mit dem 7800X3D hier wie folgt aus:
- 50
- 45
- 50
- 35
- 40
- 50
- 50
- 50
Läuft seit Mittag fehlerfrei (Core Cycler).
Über eine Woche später und keinen einzigen Reboot im IDLE oder sonst was.
Die CPU (7800X3D) ist einfach traumhaft. :love2:
Ingame (WQHD): CPU bei 50W (5050 Mhz durchgehend) und GPU (4090) bei max. 250W (eher stark drunter) und das ganze praktisch unhörbar.
Schade, dass AMD bei den GPUs nicht ganz auf dem Level ihrer CPUs ist. Hätte da gerne noch eine AMD Karte reingepackt.
Eine RTX 4070 Ti wäre in meinem Anwendungsfall vielleicht sogar sinnvoller. Mit UV wäre die dann wohl unter 150W.
EXPO 2 ist aber geringer getaktet mit 2800 MHZ statt 3000 und Spannung 1,25 Volt statt 1,35
Was ein Blödsinn :freak:
:cool:Über eine Woche später und keinen einzigen Reboot im IDLE oder sonst was.
Die CPU (7800X3D) ist einfach traumhaft. :love2:
Ingame (WQHD): CPU bei 50W (5050 Mhz durchgehend) und GPU (4090) bei max. 250W (eher stark drunter) und das ganze praktisch unhörbar.
Schade, dass AMD bei den GPUs nicht ganz auf dem Level ihrer CPUs ist. Hätte da gerne noch eine AMD Karte reingepackt.
Eine RTX 4070 Ti wäre in meinem Anwendungsfall vielleicht sogar sinnvoller. Mit UV wäre die dann wohl unter 150W.
Habe hier nun einen 7950x3d am laufen. 64 GB Gskill cl30 (4 Riegel). Im Gegensatz zum 7900x läuft nur expo1 fehlerfrei. Ansonsten läuft hier allerdings einiges aus dem Ruder. Sprich meine Performance ist unter aller Kanone.
r3ptil3
2023-05-30, 22:32:38
:cool:
Habe hier nun einen 7950x3d am laufen. 64 GB Gskill cl30 (4 Riegel). Im Gegensatz zum 7900x läuft nur expo1 fehlerfrei. Ansonsten läuft hier allerdings einiges aus dem Ruder. Sprich meine Performance ist unter aller Kanone.
Führ mal weiter aus was genau nicht passt?
Mortalvision
2023-05-31, 21:31:40
Ich klopps mal hier rein: Linus stellt Noctuas Bastellösung vor, ebenso deren Delidding Konzept für 7000er Ryzens:
LuVpwB1s8iU
rentex
2023-05-31, 22:05:10
Ich klopps mal hier rein: Linus stellt Noctuas Bastellösung vor, ebenso deren Delidding Konzept für 7000er Ryzens:
https://youtu.be/LuVpwB1s8iU
Linus is mt ein Fehlgriff...kann man gar nicht zuhören.
r3ptil3
2023-05-31, 22:40:15
Der Delid-Mod für Ryzen7000 würde mich mega reizen mit dem 7800X3D.
Dann könnte ich den 7800X3D bei 700 RPM für den CPU-Kühler, weit unter 70° in jeder Situation halten.
Aber die Aussage mit Flüssigmetall (-15k tiefer) und herkömmliche Wärmeleitpaste (nur 3-4K tiefer) macht mich etwas stutzig.
Nach ausgiebigen Erfahrungen mit Flüssigmetall, kommt das für mich nicht mehr in Frage.
rentex
2023-06-01, 05:45:51
https://www.tomshardware.com/news/gigabyte-motherboards-come-with-a-firmware-backdoor
Toll, betrifft alle GB MBs.
dildo4u
2023-06-01, 07:29:37
5Rwc5_tDyAg
Asrock hat das X570 Unify kopiert ;).
DSD512
2023-06-01, 23:01:07
Der Delid-Mod für Ryzen7000 würde mich mega reizen mit dem 7800X3D.
Dann könnte ich den 7800X3D bei 700 RPM für den CPU-Kühler, weit unter 70° in jeder Situation halten.
Aber die Aussage mit Flüssigmetall (-15k tiefer) und herkömmliche Wärmeleitpaste (nur 3-4K tiefer) macht mich etwas stutzig.
Nach ausgiebigen Erfahrungen mit Flüssigmetall, kommt das für mich nicht mehr in Frage.
Deliden macht nur Sinn mit Wakü & Direkt Die Cooler + 7950 oder RL.
Aber für ein 7800x3d ...?
Mit einer anständigen Wakü (Mo-RA 420 Pro/4xNoctua NF-A20/Cuplex Kryos Next, IcemanCooler 2-Dimm, D5, 160 l/h) und hierzu zählt ne gammlige AIO sowieso nicht, bleibt mein 7800X3D beim Gamen unter 70 Grad.
r3ptil3
2023-06-01, 23:30:17
Deliden macht nur Sinn mit Wakü & Direkt Die Cooler + 7950 oder RL.
Aber für ein 7800x3d ...?
Mit einer anständigen Wakü (Mo-RA 420 Pro/4xNoctua NF-A20/Cuplex Kryos Next, IcemanCooler 2-Dimm, D5, 160 l/h) und hierzu zählt ne gammlige AIO sowieso nicht, bleibt mein 7800X3D beim Gamen unter 70 Grad.
Mit der gammeligen AIO bleibt mein 7800X3D beim gamen sogar oft unter 65°.
Wenn ich "unter 70°" lese, frage ich mich was eine solche Wakü bringt.
Achja, meine Arctic Liquid 280 dreht nie über max. 800-900 RPM.
Es geht mir um die seltenen Fälle, wo die CPU "spiked". Gaming ist keine Herausforderung.
robbitop
2023-06-02, 08:35:00
Warum ist die Temperatur relevant, solange sie in Spec ist und der Verbrauch, die Lautstärker und der Takt passt (und nicht gethrottelt wird)?
Für's Übertakten (was ja beim X3D nicht geht) könnte ich es verstehen wenn man mehr Takt erreichen kann.
Die Aussage mit den 3-4K für direct die mit herkömmlicher WLP und bis zu 18-19K mit Liquid Metal und Direct die würde doch im Umkehrschluss bedeuten, dass Liquid Metal OHNE Direct Die den Großteil des Vorteils bergen sollte, oder?
Pseudo23
2023-06-02, 10:51:28
[...]
Die Aussage mit den 3-4K für direct die mit herkömmlicher WLP und bis zu 18-19K mit Liquid Metal und Direct die würde doch im Umkehrschluss bedeuten, dass Liquid Metal OHNE Direct Die den Großteil des Vorteils bergen sollte, oder?
Ich glaube der Umkehrschluss ist so nicht zulässig. Nicht ohne Grund wurden die Böden der Wasserkühler immer dünner, als auf die "Finnendesigns" umgestellt wurde. Die dicke des HS dürfte daher auch bei Liquid Metal WLP ein Problem darstellen.
Geringe Temperaturen dürften auch beim X3D zu mehr Leistung im Multicorebetrieb durch höheren Boost führen. Klar, das sind keine Welten.
Hinzukommt natürlich (je nach Person) die innere Zufriedenheit über niedrigere Temperaturen. :)
r3ptil3
2023-06-02, 12:22:29
Richtig, es sind nur kleine Unterschiede, trotzdem will man es.
Beispiel: Intel 13600KF hier und es spielt keine Rolle, ob 60, 70, 80 oder 90° - die Leistung bleibt identisch.
Bei einem 7800X3D hingegen erreicht man die maximale Leistung, wenn man die CPU unter 70° halten kann. Merke ich nur schon wenn ich den CPU Kühler auf 100% laufen lasse: Sämtliche CPU-Benchmarks bringen höhere Scores (wegen der tieferen Temp und entsprechend höherer Takt, bspw. in Cinebench etc.). Von den 89° bin ich weit weg. Die CPU kommt in Cinebench auf maximal 78-79°.
Mordekai2009
2023-06-02, 19:20:44
AMD Ryzen 7 7800X3D bestellt samt Mainboard, Arbeitsspeicher usw. Kommt frühestens nächste Woche Dienstag. Ich freue mich drauf. ^^
Denniss
2023-06-03, 00:36:42
Intel fahren mit Vollgas ins Templimit, AMDs fangen ab ~75 Grad an mit leichten Senkungen vom Boosttakt.
BlacKi
2023-06-03, 00:51:04
Intel fahren mit Vollgas ins Templimit, AMDs fangen ab ~75 Grad an mit leichten Senkungen vom Boosttakt.
naja, kannst du einstellen. ein intel musst du sogar manuell boosten, während du bei amd nichtmehr viel optimieren kannst.
6ghz bekommst du bei intel auch nicht mit 100° temp limit hin. die 6ghz sind 1-2thread limitiert und da liegt kein temp limit an.
dildo4u
2023-06-03, 08:53:58
System Shock Remake mit UE 4 FX-8370 bis 7800x3D
https://www.pcgameshardware.de/System-Shock-Spiel-36361/Specials/Remake-Review-Benchmarks-Test-Release-1420994/2/
r3ptil3
2023-06-03, 11:18:19
System Shock Remake mit UE 4 FX-8370 bis 7800x3D
https://www.pcgameshardware.de/System-Shock-Spiel-36361/Specials/Remake-Review-Benchmarks-Test-Release-1420994/2/
In welcher Auflösung werden die CPU-Benchmarks gemacht?
Mordekai2009
2023-06-03, 12:23:45
Immer 1280x720. :)
EDIT: Der Unterschied zwischen i5-4670K und R7 7800X3D ist gewaltig...
EDIT: Oops. Korrigiert. Sollte i5-4670K heißen.
r3ptil3
2023-06-03, 12:40:01
Immer 1280x720. :)
EDIT: Der Unterschied zwischen i7-4670K und R7 7800X3D ist gewaltig...
Danke - die immer wieder gestellte Frage, finde ich halt schon berechtigt: Man will doch eigentlich sehen, wo die CPUs in den genutzten Auflösungen liegen und nicht in einer Auflösung von 2006.
Lehdro
2023-06-05, 14:53:10
Danke - die immer wieder gestellte Frage, finde ich halt schon berechtigt: Man will doch eigentlich sehen, wo die CPUs in den genutzten Auflösungen liegen und nicht in einer Auflösung von 2006.
Wie immer: Die FPS die die CPUs theoretisch erzeugen, wird nicht von der Auflösung (andere Bildformate als 16:9 mal ausgeklammert) beeinflusst, sind immer gleich. Wohl aber von der GPU Power, deswegen die Sparauflösung - damit die GPU nicht die CPU FPS beeinträchtigt.
r3ptil3
2023-06-05, 15:07:57
Wie immer: Die FPS die die CPUs theoretisch erzeugen, wird nicht von der Auflösung (andere Bildformate als 16:9 mal ausgeklammert) beeinflusst, sind immer gleich. Wohl aber von der GPU Power, deswegen die Sparauflösung - damit die GPU nicht die CPU FPS beeinträchtigt.
Gerade bei den 3D-Cache CPUs war es aber so, dass genau dieses Verhältnis in höheren Auflösungen anders wurde. Sprich in tiefen Auflösungen war bspw. eine Intel CPU sehr nahe dran oder vorne, hingegen in höheren Auflösungen wurden die 3D-Cache Modelle plötzlich besser. Besser im Sinne von grösserer prozentualer Abstand zu den Intel- bzw. Non-3D-Cache-Modellen.
Lehdro
2023-06-05, 15:30:32
Gerade bei den 3D-Cache CPUs war es aber so, dass genau dieses Verhältnis in höheren Auflösungen anders wurde. Sprich in tiefen Auflösungen war bspw. eine Intel CPU sehr nahe dran oder vorne, hingegen in höheren Auflösungen wurden die 3D-Cache Modelle plötzlich besser. Besser im Sinne von grösserer prozentualer Abstand zu den Intel- bzw. Non-3D-Cache-Modellen.
Hast sicherlich paar Links dazu parat. Ansonsten werfe ich mal noch Treiberoverhead in den Raum.
Complicated
2023-06-05, 16:23:46
Wie immer: Die FPS die die CPUs theoretisch erzeugen, wird nicht von der Auflösung (andere Bildformate als 16:9 mal ausgeklammert) beeinflusst, sind immer gleich.
Dass dies nicht zutrifft, wurde schon klar bewiesen und es gibt immer noch welche, die diese Mär verbreiten, weil es so bequem ist. Vergleiche zwischen DX11->Mantle->DX12/Vulkan belegen es. Und die Draw Call Limits bei Nvidias DX11 auf dem einen CPU-Thread haben die Abhängigkeit von der Singlecoreleistung gezeigt. Hier gibt es ein Nadelöhr in den Treibern/Software, die eben nicht mit niedrigen Auflösungen vollständig weg sind.
Der_Korken
2023-06-05, 17:18:24
Dass dies nicht zutrifft, wurde schon klar bewiesen und es gibt immer noch welche, die diese Mär verbreiten, weil es so bequem ist. Vergleiche zwischen DX11->Mantle->DX12/Vulkan belegen es. Und die Draw Call Limits bei Nvidias DX11 auf dem einen CPU-Thread haben die Abhängigkeit von der Singlecoreleistung gezeigt. Hier gibt es ein Nadelöhr in den Treibern/Software, die eben nicht mit niedrigen Auflösungen vollständig weg sind.
Dennoch würde ich als Informationsgrundlage einen 720p-Test immer einem 4K-Test vorziehen, wenn ich mir nur eins von beiden angucken darf.
Complicated
2023-06-05, 21:28:42
Sicherlich. Es macht die Aussage allerdings nicht wahr.
Lehdro
2023-06-06, 13:35:32
Ich würde halt nicht Äpfel mit Birnen vergleichen. Also kein Quervergleich von DX11/12/Vulkan, wenn es doch rein um die CPU Leistung bei einem gegebenem Szenario (inkl. API logischerweise) geht und warum man da niedrigere Auflösungen verwendet. Das was du da ansprichst ist halt etwas komplett anderes, als das was hier das Thema war.
Es ging um CPU Benchmarks in Briefmarkenauflösung vs. gängige Auflösungen. Und bei solch einem Test ändert man immer genau eine Variable, nicht gleich mehrere mit einmal. Und der beste Weg möglichst viele Limits aus dem Weg zu räumen ist nun einmal eine möglichst kleine Auflösung, wenn alles andere beibehalten wird. Den Quervergleich von AMD/Intel/NV kann ich dann aufgrund dieser Datenlage jeweils pro API ziehen, zusätzlich für Intel und AMD CPUs. Das sind dann schon potenziell 3x3x2 = 18x Datensätze. Aber solche Sachen wie "Intel + Intel 1440p Vulkan" und "AMD + NV 720p DX11" für einen direkten CPU-Limit Vergleich untereinander heranziehen zu wollen halte ich für komplett abstrus, sorry. Du tust fast so als wäre die Auflösung nicht der wichtigsten Parameter beim CPU Test - denk mal nach: Selbst WENN die API bremst, so kannst du trotzdem nur über die Auflösung halbwegs sicherstellen dass die GPU nicht bremst. Völlig unabhängig was danach passiert.
r3ptil3
2023-06-06, 16:03:49
Ich kann im BIOS (MSI B650) Boost Override bis +200Mhz einstellen mit dem 7800X3D, bleibt aber weiterhin bei 5050 Mhz.
Funktioniert das bei irgendwem? Nicht oder?
eratte
2023-06-06, 17:49:57
Nein der ist auf 5050 festgenagelt - das zeigt das ASUS UEFI bei mir auch so an bei den Optionen.
Höher ginge nur mit externen Clock Generator was aber nur wenige Boards haben.
eratte
2023-06-06, 20:27:33
Passend dazu:
Ryzen 7000 ECLK overclocking: a 5.3GHz boost overclock on the 7800X3D (https://www.youtube.com/watch?v=pUjUKKXRiFk)
dildo4u
2023-06-07, 13:10:38
Evj1tX8yFUU
r3ptil3
2023-06-07, 19:05:27
Genial, selbst in 4K bringt der 7800X3D teilweise noch eine erhebliche Steigerung zum 5800X3D.
Für mich ist die Kombi aus 7800X3D + RTX 4090 etwas vom besten was ich je hatte.
CPU liegt bei 50W und die RTX 4090 läuft oft bei weit unter 200W im Gaming (WQHD).
Wobei der 5800X3D selbst mit der nächsten Gen noch gut mitkommen könnte (Gaming).
ChaosTM
2023-06-07, 19:11:22
Sehr nett!
Werden 5800X3D trotzdem noch ziemlich lange behalten.
BlacKi
2023-06-08, 12:02:44
Passend dazu:
Ryzen 7000 ECLK overclocking: a 5.3GHz boost overclock on the 7800X3D (https://www.youtube.com/watch?v=pUjUKKXRiFk)manuelles oc lässt nur 0,9v zu? warum macht man sowas? warum lässt man nicht 1,35v zu? weil er dann schneller als der 16 kerner ist?
dildo4u
2023-06-08, 12:20:12
Der 8 Core ist doch eh schon besser da die Games immer auf Kernen mit X3D Landen.
Der einzige Vorteil könnte ich beim Laden oder Shader Compiling sehen aber nie im Gameplay.
Diablo 4 Benchmarks mit Zen3/4 X3D.
https://www.computerbase.de/2023-06/diablo-iv-benchmark-test/3/#abschnitt_cpubenchmarks_mit_insgesamt_14_prozessoren_update
BlacKi
2023-06-08, 12:46:27
ob er schneller ist oder nicht ist eigentlich nicht relevant, sondern ob amd denkt er wäre sonst schneller. da der 16k schon mehr boost fährt, um schneller sein zu können will man das wohl einfach nicht gefärden.
vl kommt ja asus noch auf die idee einen vcore override zu integrieren, dann wären allcore bestimmt mehr als 5ghz möglich.
r3ptil3
2023-06-08, 13:15:47
Nutzt hier eigentlich jemand "Hybgrid Graphics"?
Gerade gelesen, dass man sowohl die die dedizierte GPU als auch die integrierte GPU nutzen kann. Bspw. IGPU für Desktop, dGPU für Gaming.
Soll den IDLE Verbrauch verringern.
Edit:
Im BIOS aktiviert, DP-Kabel umgesteckt von der dGPU auf das Mainboard, Adrenalin installiert - funktioniert:
https://i.ibb.co/4SWG2t3/image.png
Im Desktop übernimmt die IGPU, im Gaming wird automatisch auf die dGPU umgeschaltet.
Leider aber säuft die RTX 4090 ohne Nutzung weiterhin ca. 24W im Desktop.
Complicated
2023-06-08, 14:12:16
Hier ein Test vom März bei P3D:
https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/
Verbauch in verschiedenen Szenarien bei 6700, Vega, 7900 und RTX 4090.
Dort sind auch Tipps zu den Einstellungen im System um den Verbrauch der dGPU zu senken.
Funktioniert auch mit AM4 APUs und Intel.
Nutzt hier eigentlich jemand "Hybgrid Graphics"?
Gerade gelesen, dass man sowohl die die dedizierte GPU als auch die integrierte GPU nutzen kann. Bspw. IGPU für Desktop, dGPU für Gaming.
Soll den IDLE Verbrauch verringern.
Edit:
Im BIOS aktiviert, DP-Kabel umgesteckt von der dGPU auf das Mainboard, Adrenalin installiert - funktioniert:
https://i.ibb.co/4SWG2t3/image.png
Im Desktop übernimmt die IGPU, im Gaming wird automatisch auf die dGPU umgeschaltet.
Leider aber säuft die RTX 4090 ohne Nutzung weiterhin ca. 24W im Desktop.
Ja ich, seit gestern. Im IDLE, YT whatever verbleibt meine 7900XTX zwischen 5 und 9w. Kostet allerdings etwas Leistung, spart allerdings enorm unter Last. Selbst voll aufgedreht (bis 463w), hat die Graka nie mehr als 320W gezogen.
r3ptil3
2023-06-08, 18:18:57
@gedi
Das verstehe ich jetzt nicht: Wieso verbraucht die dGPU unter Last jetzt weniger?
vinacis_vivids
2023-06-08, 18:44:32
140W Einsparung bei Nutzung der iGPU mit der 7900XTX? Von 463W auf 320W sind ja 140W weniger.
Das ist sensationell !
Complicated
2023-06-08, 19:29:13
@bardh
Selbst voll aufgedreht (bis 463w), hat die Graka nie mehr als 320W gezogen.Hier werden doch nicht zwei Verbrauchswerte vorher-nachher verglichen. Ich interpretiere es als PL das voll aufgedreht ist. Der Verbrauch der diskreten GPU direkt angebunden geht daraus nicht hervor.
Der Test bei P3D hat eigentlich den selben Verbrauch gezeigt + wenige Watt mehr für die iGPU-Schleife bei Vollast. Wo es zu Einsparungen kommt ist im Idle und Teillast.
Mordekai2009
2023-06-08, 20:06:56
Die Leistungssteigerung in Guild Wars 2 ist einfach nur... krank! Ging von 22 FPS auf die 95-105 FPS in The Grove. Mittlere Ebene. Die Grafikeinstellungen sind alles auf maximum (Effekt LOD deaktiviert).
Der_Korken
2023-06-08, 20:23:52
Hier ein Test vom März bei P3D:
https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/
Verbauch in verschiedenen Szenarien bei 6700, Vega, 7900 und RTX 4090.
Dort sind auch Tipps zu den Einstellungen im System um den Verbrauch der dGPU zu senken.
Funktioniert auch mit AM4 APUs und Intel.
Interessant, ich habe mich die ganze Zeit gefragt, warum man AMD sowas nicht macht. Das würde alle Idle-Verbrauchsprobleme für 90% der User lösen. Leider scheint RDNA3 bei dem Feature noch zu zicken und es wurde leider nicht getestet, ob die Leistung darunter leidet. Der nicht gesunkene Verbrauch deutet zwar an, dass die dGPU normal läuft, aber es wäre trotzdem gut zu wissen, ob die Frametimes darunter leiden oder sich die Latenz bemerkbar macht. Bei letzterem ist mir nicht klar, ob das nur die Latenz über den PCIe-Bus ist oder ob in der iGPU noch ein oder mehrere Frames zwischengelagert werden müssen. Ersteres dürfte völlig egal sein, letzteres wäre dagegen wohl für die meisten ein Dealbreaker.
r3ptil3
2023-06-10, 09:49:06
Ich hab jetzt das X670E Gene in mehreren Shops mit extremen Preissenkungen gesehen (280.-). War mal 700.-.
Weiss jemand wieso?
dildo4u
2023-06-10, 09:58:33
Wegen der schlechten Presse mit den abgerauchten CPU?
Wobei ich es nur für 500€ finde.
https://www.proshop.de/Mainboard/ASUS-ROG-CROSSHAIR-X670E-GENE-Mainboard-AMD-X670-AMD-AM5-socket-DDR5-RAM-Micro-ATX/3103227?utm_source=google&utm_medium=cpc&utm_campaign=searchengine&srsltid=AR57-fCh1bnov9OOnIeuiGSE-ra_c6tDEAam33NZ7shhB6izPmkrILbeHYc
r3ptil3
2023-06-10, 10:28:41
https://i.ibb.co/VBLqYdn/image.png
Die Preise waren eh schon stark gefallen, aber 280.- ist crazy.
Fliwatut
2023-06-10, 10:44:14
Das Ding kostet in D 480 EUR :freak: Die Marge - und Gier - scheint gewaltig zu sein.
Exxtreme
2023-06-10, 11:50:07
Man sollte sich auch fragen ob es wirklich ein X670E-Chipsatz sein muss. Ein B560E wird es in den meisten Fällen auch tun und die Boards sind viel billiger und fressen weniger Strom.
Hammer des Thor
2023-06-10, 12:10:30
Man sollte sich auch fragen ob es wirklich ein X670E-Chipsatz sein muss. Ein B560E wird es in den meisten Fällen auch tun und die Boards sind viel billiger und fressen weniger Strom.
Vor allem haben die mehr PCIe Steckplätze, ich verstehe nicht warum die 670er alle mit 4 M.2 vollgeballert sein müssen und wenn man eine TB Karte oder Netzwerkkarte steckt oft nicht mal mehr ne Souindkarte einbauen kann weil es ausser im Falle von 2 Graka-Slots nur noch 1 PCIe slot gibt. Wer unbedingt mehr als 3 m.2 haben will kann das über ne Adapter-Karte machen in einen weiteren PCI4 X4-Slot. Mehr noch: Es gibt sogar m.2 Karten die über einen switch bis zu 4 weitere m.2 anbinden können!
P.S. Mein Asus cashback für mein Rog B650E-F ist immer noch nicht da muss mal ne Beschwerde Mail Adresse raussuchen!
r3ptil3
2023-06-10, 12:37:13
Vor allem haben die mehr PCIe Steckplätze, ich verstehe nicht warum die 670er alle mit 4 M.2 vollgeballert sein müssen und wenn man eine TB Karte oder Netzwerkkarte steckt oft nicht mal mehr ne Souindkarte einbauen kann weil es ausser im Falle von 2 Graka-Slots nur noch 1 PCIe slot gibt. Wer unbedingt mehr als 3 m.2 haben will kann das über ne Adapter-Karte machen in einen weiteren PCI4 X4-Slot. Mehr noch: Es gibt sogar m.2 Karten die über einen switch bis zu 4 weitere m.2 anbinden können!
P.S. Mein Asus cashback für mein Rog B650E-F ist immer noch nicht da muss mal ne Beschwerde Mail Adresse raussuchen!
PCIe 5.0 für GPU und M.2, USB 4.0 - ist gerade interessant wenn man eh beabsichtigt, dass Board mit den nächsten CPU-Generationen von AMD zu nutzen.
Ich werde mein MSI B650M Mortar durch das ASUS X670E GENE ersetzen, zahle keine 80 Euro drauf. Was mich sowieso extrem gestört hat, war, dass der CMOS Reset so platziert ist, dass ich die dGPU ausbauen muss.
Über die Sache mit dem Verbrauch habe ich intensiv nachgedacht. Seltsamerweise gibt's einfach keine richtigen Tests dazu, immer noch nicht.
Ich vermute aber, dass mit AGESA 1.0.0.7 der Verbrauch zwischen B650 und X670E mit gleicher Bestückung (GPU, SSD, RAM) praktisch gleich ist.
Hikaru
2023-06-11, 06:05:43
Man sollte sich auch fragen ob es wirklich ein X670E-Chipsatz sein muss. Ein B560E wird es in den meisten Fällen auch tun und die Boards sind viel billiger und fressen weniger Strom.
ASRock Riptide B650 für 250 (Finger weg!)
Asus TUF X670 für 300
Viel billiger? Dafür bekomme ich ein sehr umfangreiches BIOS, potente VRMs *und* ich kann eine zweite NVME and die CPU klemmen.
Was ich bis vor kurzem nicht wusste wie lahm der Chipatz an die CPU angebunden ist. PCIe Gen4x4. Really? Eine potente NVME kann das schon ausreizen. Ganz zu schweigen wenn man weitere and den Chipsatz hängt.
Nene, ich bin froh auf X670 umgestiegen zu sein:)
Exxtreme
2023-06-11, 11:56:24
ASRock Riptide B650 für 250 (Finger weg!)
Asus TUF X670 für 300
Viel billiger? Dafür bekomme ich ein sehr umfangreiches BIOS, potente VRMs *und* ich kann eine zweite NVME and die CPU klemmen.
Also ich habe mit dem ASRock Riptide B650E keine Probleme. Und ob das BIOS bei ASUS umfangreicher ist kann ich nicht sagen. Es ist halt so: ich verbringe nicht jeden Tag Stunden im BIOS und deshalb ist das für mich kein Kriterium. Und alles, was ich einstellen will das kann ich einstellen. Das ASRock-BIOS ist aber sehr unübersichtlich, ja.
Und zwei NVMe-Geräte direkt an die CPU kann sicherlich ein Vorteil sein. Ich wette aber, 98% der Leute interessiert das nicht so wirklich da sie keinerlei Vorteile daraus ziehen. Und 50 EUR gespart sind 50 EUR gespart. :) Dafür gibt es mehr RAM oder so.
Hammer des Thor
2023-06-11, 22:18:16
PCIe 5.0 für GPU und M.2, USB 4.0 - ist gerade interessant wenn man eh beabsichtigt, dass Board mit den nächsten CPU-Generationen von AMD zu nutzen.
Geht doch mit einen B650E wie ich es z.B. habe! USB4.0 haben nur die ganz teuren, OK da brauch man keine TB-Karte dann mehr.
Mordekai2009
2023-06-17, 19:41:35
Wenigstens hat mein Mainboard ein Thunderbolt-header falls man da was braucht.
MSABK
2023-06-18, 14:53:41
Ist bekannt warum es von Gigabyte keine mini itx AM5 boards gibt?
Tangletingle
2023-06-18, 15:34:23
Weil die Nische einfach nicht lohnt.
BlacKi
2023-06-18, 15:51:24
mag sein, dass das für gigabyte zutrifft, aber nicht generell. asrock ist ebenfalls im small form factor sektor sehr aktiv. würde sich das nicht lohnen, würden sie nicht so viel kleines raushauen.
Langlay
2023-06-18, 16:00:41
mag sein, dass das für gigabyte zutrifft, aber nicht generell. asrock ist ebenfalls im small form factor sektor sehr aktiv. würde sich das nicht lohnen, würden sie nicht so viel kleines raushauen.
Das AM5 ITX Angebot ist eh überschaubar, es gibt ganze 4 Boards und das ASRock Board ist zwar brauchbar, kostet aber nochmal 50€ mehr als das ASUS B650E-I Board und kann quasi nichts besser.
Aber so richtig rund ist keins der Boards. Aber gut das hält meine Motivation auf AM5 zu wechseln auch gut im Zaum.
r3ptil3
2023-06-18, 17:55:19
Ist bekannt warum es von Gigabyte keine mini itx AM5 boards gibt?
Gibt's schon:
B650I AORUS ULTRA (https://www.gigabyte.com/Motherboard/B650I-AORUS-ULTRA-rev-10#kf)
Hab übrigens das X670E Gene tatsächlich zu dem Preis erhalten. Dachte da kommt bestimmt noch eine Storno-Mail wegen Fehler.
Funktioniert alles wunderbar, kein Spulenfiepen oder sonst was.
Hikaru
2023-06-20, 22:49:03
Also ich habe mit dem ASRock Riptide B650E keine Probleme. Und ob das BIOS bei ASUS umfangreicher ist kann ich nicht sagen. Es ist halt so: ich verbringe nicht jeden Tag Stunden im BIOS und deshalb ist das für mich kein Kriterium. Und alles, was ich einstellen will das kann ich einstellen. Das ASRock-BIOS ist aber sehr unübersichtlich, ja.
Und zwei NVMe-Geräte direkt an die CPU kann sicherlich ein Vorteil sein. Ich wette aber, 98% der Leute interessiert das nicht so wirklich da sie keinerlei Vorteile daraus ziehen. Und 50 EUR gespart sind 50 EUR gespart. :) Dafür gibt es mehr RAM oder so.
Nun der Defekt war einfach "Pech/Glück". Dafür kann das Modell ja nichts.
Es geht auch ja nicht darum das ich im Bios meine Zeit verbringen möchte. Einmal alles einstellen reicht. Vielleicht nochmals wenn sich am System was ändert. Und jup, das Asus Bios is wirklich zu gebrauchen wenn einem danach ist wie z.B. mir selbst. In meinem Fall wären die 50 Tacken nicht gespart sondern eher hinderlich gewesen. Ausserdem habe ich komplett alles neu gekauft, bis aufs Gehäüse. Da jucken mich 50 Euro auch nicht mehr.
Ich finde Verallgemeinerungen wie "98% brauchen das nicht" nicht sehr hilfreich. Und selbst wenn das zustimmt muss das für ein Individuum nicht zutreffen. Den jucken nämlich die restlichen 98% nicht;)
Kommend von Sandy und nun auf 7700X unterwegs (ich liebe diese CPU) wollte ich dann doch keine halben Sachen machen. Das defekte ASRock war ein Wink mit dem Zaunpfahl.
Und das beste, ich habe an anderer Stelle gewaltig eingespart. Meine 1070er darf nun ungebremst arbeiten mit ca. 25% fps boost was genau die 60er/120er Marke in entsprechenden Spielen knackt, in 1080p was momentan völlig ausreicht.
Was die zweite CPU angebundene NVME betrifft, war das für mich ein sehr ausschlaggebender Punkt. Selbst wenn ich der einzige auf dem Planeten wäre, ändert nichts an der Vorfreude eine zweite dicke NVME dranne zu klemmen.
Mag sein das 98% der Leute bestimmte Funktionen in deren Setting nicht jucken und ein 50er sinnvoll gespart wäre. Ich gehöre aber in meinem Falle (und nur das zählt für mich) nicht dazu.
Und überhaupt, hier fliegen 4090er fröhlich durch die Gegend (hast du nicht auch eine?) während klein Hikaru ein für sich ganz knuffiges komplett durchdachtes System aufgebaut hat was sogar 120% meiner Träume erfüllt, und wird hier angezweifelt:anonym:
Ich habe mich schon im Monitor Thread detailiert geäussert wie falsch man mit Projektionen bzw. Verallgemeinerungen bishin zu Unverständniss liegen kann.
Exxtreme
2023-06-24, 21:19:36
Hardware Unboxed hat ein Riesenreview mit 35 B650(E)-Mainboards:
https://www.youtube.com/watch?v=ZtHOOyWYiic
r3ptil3
2023-06-24, 21:39:21
Hardware Unboxed hat ein Riesenreview mit 35 B650(E)-Mainboards:
https://www.youtube.com/watch?v=ZtHOOyWYiic
Verrückt, ziehe ich mir mal demnächst noch rein. :D
Exxtreme
2023-06-24, 21:43:38
Wobei das eher eine Übersicht ist. Das sind doch keine Reviews.
So, Leude, Budder bei die Fische: Cyberpunk 2077, die AMD-Akte: Ryzen-Prozessoren liefern zu wenig Fps - machen Sie mit beim Community-Benchmark! (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Ryzen-SMT-Fix-Performance-1422710/)
Das Feedback geht (erneut) direkt an CD Projekt, damit das Problem endlich zufriedenstellend beseitigt wird. :up:
MfG
Raff
dildo4u
2023-06-26, 10:32:08
Ich vermute mal das wird nicht mehr gefixt Zen 4 ist Konkurrenzfähig und ab 1440p hat man eh massive GPU Limits.
7800X3D bessere Frametimes als 13700k
https://youtu.be/7gEVy3aW-_s?t=350
Bis September ist ja noch ein bisschen hin, ich hab Hoffnung, dass da beim Druck den PCGH da macht schon noch was passiert. Genauso hätt ich gern aber von AMD optimierte RT-Shader, damit das Elend nicht mehr so Elend ist, aber AMD wird das wohl mal wieder verpennen.
vinacis_vivids
2023-06-26, 12:16:07
RT-shading wird bei CP2077 mit fp32 gemacht , obwohl RDNA2 doppelte RT-shading mit fp16 ausführen kann.
Ich glaube nicht, dass AMD den Game-Code von CP2077 bei RT-shading auf fp16 umschreiben wird und das Studio wird auch den Code nicht mehr auf fp16-Nutzung optimieren.
Das ist das offene Geheimnis und auch der Grund wieso es so langsam läuft wie ein Sack Nüsse bei RDNA 1/ 2 /3 inkl. RT.
Exxtreme
2023-06-26, 12:26:41
RT-shading wird bei CP2077 mit fp32 gemacht , obwohl RDNA2 doppelte RT-shading mit fp16 ausführen kann.
Wenn FP16 nicht reicht dann muss man FP32 nehmen.
Ich bin mir nicht sicher, ob das nicht schon hässliche Rundungsfehler brächte. FP32 wird nicht umsonst verwendet. Vinacis, warst du nicht der, welcher ständig auf angeblich mangelnder Präzision von DLSS und "Nvidia-HDR" herumgeritten ist? ;)
MfG
Raff
Exxtreme
2023-06-26, 12:31:48
Schon FP32 (float) ist nicht sehr genau. Und da gibt es schon Rundungsfehler ohne Ende. Erst FP64 (double) kann man für sehr viele Dinge bedenkenlos nehmen. Aber auch nicht alle Dinge. Nur wird FP64 nicht wie Sack Nüsse laufen sondern wie ein Containerschiff Nüsse.
Dr@gonXP
2023-06-26, 19:42:41
Nutzt hier eigentlich jemand "Hybgrid Graphics"?
Gerade gelesen, dass man sowohl die die dedizierte GPU als auch die integrierte GPU nutzen kann. Bspw. IGPU für Desktop, dGPU für Gaming.
Soll den IDLE Verbrauch verringern.
Edit:
Im BIOS aktiviert, DP-Kabel umgesteckt von der dGPU auf das Mainboard, Adrenalin installiert - funktioniert:
https://i.ibb.co/4SWG2t3/image.png
Im Desktop übernimmt die IGPU, im Gaming wird automatisch auf die dGPU umgeschaltet.
Leider aber säuft die RTX 4090 ohne Nutzung weiterhin ca. 24W im Desktop.
Hab es mal aktiviert, nur sieht es so aus, als ob die iGPU mehr verbraucht:
https://abload.de/img/hg51iph.jpg
Mit der dGPU (Radeon 6800) stehen bei GPU Power Draw so 7-10 Watt).
Oder verstehe ich etwas falsch?
vinacis_vivids
2023-06-26, 20:22:59
Ich bin mir nicht sicher, ob das nicht schon hässliche Rundungsfehler brächte. FP32 wird nicht umsonst verwendet. Vinacis, warst du nicht der, welcher ständig auf angeblich mangelnder Präzision von DLSS und "Nvidia-HDR" herumgeritten ist? ;)
MfG
Raff
Das nennt sich u.a. Artefakte. Und die sind vorhanden bei RT und DLSS / FSR in CP2077.
Natives Rasterizing ist weitgehend frei von Artefakten und da ist RDNA3 (fast) gleichauf mit Ada.
Nur bei Zuschaltung von RT-shading kackt RDNA 2/3 ab, weil eben fp32 verwendet wird statt fp16. Für RT-shading reicht fp16 aus, aber die Engine ist eben veraltet und schlecht optimiert.
Anyway, zurück zu Ryzen 7000:
RPCS3 4K - The Last of Us.
ax8yznV7Epw
Den Test halte ich übrigens ausgezeichnet für ne Gaming-CPU. Die Fähigkeiten einer CPU sollten auch da standardmäßig mit getestet werden, auch weil RPCS3 aktiv optimiert wird.
Das "CPU-Rendering" ist eine Liga für sich was 3D-Darstellungsqualität angeht (für ein 10 Jahre altes Game).
Savay
2023-06-27, 16:50:16
Oder verstehe ich etwas falsch?
GPU Power entspricht bei den APUs meines Wissens im wesentlichen immer dem APU PPT/STAPM
Da ist also der Rest (CPU, SoC etc.) immer mit drin.
Wie hoch der wirkliche "GPU" Anteil ist sieht man also nicht direkt.
Zumindest haben meine Ryzen APUs das bisher alle so angezeigt, auch der 6800U.
Nehme an bei den 7000er wird das deshalb ähnlich sein.
rot = GPU ASIC Power
grau = CPU Package Power
84399
Dr@gonXP
2023-06-27, 17:02:57
Danke Dir für die Info.
Die ersten Phoenix Geräte, die nicht von Asus kommen, treffen ein. Razer Blade 14 und HP EliteBook, die erstmals Phoenix-U anbieten. Das EliteBook kommt ohne dGPU aus. Allerdings läuft das mit 1x16GB im Singlechannel.
dildo4u
2023-06-28, 10:51:21
Ist Single Channel bei DDR5 immer noch ein Nachteil ich dachte das wurde verbessert.
MSABK
2023-06-28, 11:02:43
Die ersten Phoenix Geräte, die nicht von Asus kommen, treffen ein. Razer Blade 14 und HP EliteBook, die erstmals Phoenix-U anbieten. Das EliteBook kommt ohne dGPU aus. Allerdings läuft das mit 1x16GB im Singlechannel.
Das Razer ist ja mal sowas von abgehoben vom Preis. Mir fehlt das Lenovo Ideapad Pro 5 14 Gen8. Wirde im Januar angekündigt und sollte im Mai erscheinen. Noch nicht da.
Gipsel
2023-06-28, 17:49:49
Ist Single Channel bei DDR5 immer noch ein Nachteil ich dachte das wurde verbessert.Insbesondere bei einem Notebook ohne dGPU nimmt die iGPU die doppelte Bandbreite sicher gerne mit. ;)
Im Webbrowser oder in Office sind die Vorteile von Dualchannel sicher deutlich geringer (aber vermutlich immer noch meßbar).
Platos
2023-06-28, 23:02:56
Ich grätsche mal kurz rein:
Ist eig. was bekannt bezüglich Zen 4 und Desktop APU ? Also so ne Art 7700G ?
Ist diese Sparte komplett tot?
mczak
2023-06-30, 16:50:11
Ich grätsche mal kurz rein:
Ist eig. was bekannt bezüglich Zen 4 und Desktop APU ? Also so ne Art 7700G ?
Ist diese Sparte komplett tot?
Phoenix auf AM5 soll noch kommen, aber nichts genaues weiss man nicht. Bei Rembrandt dache man letztes Jahr auch der kommt irgendwann auf AM5 war aber eben zumindest bis jetzt nicht der Fall (und letztes Jahr hätte das wohl wenig Sinn ergeben weil die Plattform zu teuer war).
Das hier ist wohl der letzte Stand, sowohl Rembrandt wie Phoenix werden da erwähnt: https://www.pcgameshardware.de/CPU-CPU-154106/News/APUs-fuer-AM5-Renoir-und-Phoenix-als-Einstieg-und-Oberklasse-1415630/
Der Zeitplan ist aber völlig unklar.
Platos
2023-07-01, 11:09:47
Ja, schade.
Dann auch noch Rembrandt. Ich hätte gehofft, dass das dann einfach ausgelassen wird, denn das noch zu launchen ist ja langsam etwas absurd m.M.n.
Selbst Phönix ist eigentlich jetzt schon veraltet.
Irgendwann hat AMD mal noch gesagt, sie wollen mit den APUs zeitlich nicht mehr so spät kommen.
Jetzt ist ja schon fast Zen5 in greifbarer Nähe. Falls in ein paar Monaten Phönix auf Desktop kommt, ist Zen5 auch nur noch ein halbes Jahr oder so entfernt. AMD muss endlich mal anfangen die Desktop APUs zeitgleich mmit den anderen zu Launchen.
Naja, wäre AMD nicht immer so verspätet mit den APUs, hätte ich jetzt ne Zen4 Desktop Apu anstatt Alderlake. So kann man sich eben Kunden entgehen lassen xD
Regt mich aber trotzdem auf...
dildo4u
2023-07-01, 11:16:47
Man sieht an den Notebooks das sie nicht genug 5nm Chips haben daher wird die Masse der 2023 Modelle Zen3+ nutzen.
Desktop steht da deutlich hinten an da AMD die besten Chips gegen Meteor Lake braucht.
Complicated
2023-07-01, 11:19:06
Irgendwann hat AMD mal noch gesagt, sie wollen mit den APUs zeitlich nicht mehr so spät kommen.
Jetzt ist ja schon fast Zen5 in greifbarer Nähe. Falls in ein paar Monaten Phönix auf Desktop kommt, ist Zen5 auch nur noch ein halbes Jahr oder so entfernt. AMD muss endlich mal anfangen die Desktop APUs zeitgleich mmit den anderen zu Launchen.
Deine ständigen unfundierten Forderungen sind wirklich schwer zu ertragen. Du schreibst unqualifiziert und verbreitest nur negatives. Wenn man so wenig Ahnung von der Branche und Unternehmertum hat sollte man einfach mal die Klappe halten. Vor allem immer wieder deine frei erfundenen Aussagen, die AMD gemacht haben soll.
Platos
2023-07-01, 23:06:31
Man sieht an den Notebooks das sie nicht genug 5nm Chips haben daher wird die Masse der 2023 Modelle Zen3+ nutzen.
Desktop steht da deutlich hinten an da AMD die besten Chips gegen Meteor Lake braucht.
Ja ok, das macht natürlich Sinn.
Woher kommt denn dieser Kapazitätsmangel? Liegt das an Misskalkulation oder kriegen die einfach nicht mehr? Gibts da irgendwelche Information dazu?
Weil AMD ist bei Notebooks ja immer noch sehr stark untervertreten (allgemein gesprochen). Das ist zwar mittlerweile viel besser, aber halt immer noch nicht gut. Also was ich damit sagen will: Das muss ja ziemlich wenig Kapazität sein, die die da gebucht/gekriegt haben.
Gibts eig. Info, ob Zen 5 Dekstop-APUs kommen? Oder gibts die gar nicht, weil jetzt alle Desktop-CPUs iGPUs haben ?
BlacKi
2023-07-01, 23:14:59
apus sind schon da. die haben alle schon integrated gpus. dir gefallen diese natürlich nicht, denn hier steht sparkurs hoch. alle apus mit hoher igpu power würden hier alles untergraben. daher fehlt das meiner schlussfolgerung nach.
sry for speaking truth, ich wäre begeistert von pheonix auf billig am5. scheinbar aber einfach nicht gewollt.
Platos
2023-07-02, 01:28:37
Ja, Zen4 sind natürlich alles APUs. Aber du weisst ja, was ich meine.
Und ja, ist schon gut möglich, dass AMD diese Sparte nicht mehr ganz so wichtig nimmt (also eig. haben sie das ja nie).
Aber laut dem Link ein paar Posts weiter oben soll ja immerhin noch mindestens Zen3+ und Zen4 als Desktop-APU kommen (ab Ryzen 7 soll es angeblich Zen4 sein, darunter Zen3+).
Ich habe ja sowieso nicht (mehr) vor so schnell aufzurüsten. Habe erst gerade und von daher habe ich die n$chsten ~6 Jahre auch kein Interesse daran. Aber ich würde mich trotzdem darüber freuen, wenn man diese Sparte (sehr niedriger Teillastverbrauch) weiterführt, aber in Zukunft nicht so spät launcht.
Daraus wird aber eher nichts, aber hoffen kann man ja :freak:
Phoronix mit einem 7840U/Phoenix-Test https://www.phoronix.com/review/amd-ryzen7-7840u
Complicated
2023-07-07, 12:16:00
Das ist schon eine Hausnummer.
Making the 23% boost to generational performance even more impressive was the CPU power metrics. Across the 268 benchmarks, the Ryzen 7 7840U in the Acer Swift Edge 16 has a 16.8 Watt average power draw and a peak of 30 Watts. The Ryzen 7 PRO 6850U meanwhile had a 16.3 Watt average and 28 Watt peak. For most workloads the Ryzen 7 7840U power use wasn't any higher at all than the 6850U. These real-world power results also align with the AMD's 7840U power rating of a 28 Watt TDP and up to 30 Watt cTDP value -- it wasn't exceeded like is commonly found with Intel laptop processor power ratings.
fondness
2023-07-16, 10:00:15
Mit nur 15W TDP macht der Z1 selbst Apple nass:
https://www.pcgameshardware.de/CPU-CPU-154106/News/Ryzen-Z1-Extreme-Cinebench-Apple-M1-i5-10600K-1424522/
CPU Singlecore Multicore
Intel Core i9-13900KS 2.364 36.938
AMD Ryzen 9 7950X3D 2.029 35.700
AMD Ryzen 7 7800X3D 1.782 18.417
AMD Ryzen Z1 Extreme 1.676 10.818
Apple M2 Max (Macbook Pro) 1.620 14.797
Apple M1 (Mac Mini) 1.522 7.833
Intel Core i5-10600K 1.380 10.386
Intel Core i9-9900K 1.277 10.476
Zum Vergleich: Ein M2 Max hat eine TDP von 79W!
Mayhem
2023-07-16, 10:34:52
Das ist schon eine Hausnummer.
Dazu muss man sagen, dass Phoenix halt 4nm vs 6nm Rembrandt ist und das viele Ergebnisse von AVX512 und Tensor überproportional profitieren. Aber ja, die Ansätze sind gut und Rembrandt ist/war schon eine super ausbalancierte APU.
Definitiv sind sie damit, trotz generischem x86-Unterbau, in der Performanceklasse von Apples SoCs, dabei aber wesentlich günstiger und flexibler. Eine top Leistung von AMD.
Nightspider
2023-07-16, 10:39:49
Wenn RDNA3 besser gewesen wäre, wären alle noch viel mehr begeistert gewesen von Phoenix.
Zen4 ist halt wirklich genial was die Effizienz betrifft und Zen5 wird da nächstes Jahr schon nachlegen.
Bin mal gespannt ob die BigAPUs auch ihren Weg in hardcore Handhelds finden werden.
Die würden dann aber definitiv mindestens bei 999 Euro landen und bräuchten einen größeren Akku. ^^
fondness
2023-07-16, 10:44:15
Lächerlich ist vorallem, dass das Ding Intel sowas von vernichtet bei gleicher TDP und die Hersteller trotzdem mit wenigen Ausnahmen alle Intel verbauen.
Nightspider
2023-07-16, 10:45:33
So wie ich das wahrnehme liefert AMD halt zu wenig APUs.
Rembrandt ist auch viel zu schwach vertreten bei den Händlern, selbst am Ende seines Produktzykluses.
Ich kann es mir nur so erklären das AMD die ganzen Kapazitäten für EPYC benötigt hat.
Selbst mit gesenkten Preisen im Consumer Segment macht AMD ja noch mehr Gewinn mit Ryzen CPUs als mit einer monolithischen APU für Mobile, meiner Einschätzung nach.
2024 wird extrem spannend was AMD betrifft.
fondness
2023-07-16, 11:04:05
AMD hat mit TSMC mehr als genug Kapazitäten. Das liegt schon an der Nachfrage, dass es da nicht mehr gibt.
Lächerlich ist vorallem, dass das Ding Intel sowas von vernichtet bei gleicher TDP und die Hersteller trotzdem mit wenigen Ausnahmen alle Intel verbauen.
Sie müssen fast immer Intel verbauen, weil AMD nichts liefern kann. Unter der Hand sind die OEMs sehr verärgert darüber. Schau dir doch mal an, wie lange es überhaupt gedauert hat, bis erste non Asus Geräte verfügbar waren.
Jetzt gibt es noch Geräte von HP und überteuerte Razer, das war es dann schon. Das Framework Notebook wartet immer noch auf Chips, erst im Q4 werden wird mit einer Lieferung gerechnet.
dildo4u
2023-07-16, 11:16:47
AMD hat mit TSMC mehr als genug Kapazitäten. Das liegt schon an der Nachfrage, dass es da nicht mehr gibt.
Wenn genug Kapazität da wäre würde man die Masse der 7000 APU nicht mit 6nm Refreshes neu auflegen.
Beispiel ein 7950X bringt AMD z.b 600€ und kann dort zwei kleine Die statt einer 180mm² nutzen, da macht es Sinn das es keine Mainstream Notebooks mit Phönix geben wird.
MSABK
2023-07-16, 20:03:08
Man kann eigentlich schon sagen, dass AMD im Notebook tot ist. Da werden nur noch Reste verkauft wie es aussieht. Neues kommt sehr wenig und wenn, dann zu sehr hohen Preisen, also sehr wenige Geräte.
Mayhem
2023-07-16, 21:00:55
Man kann eigentlich schon sagen, dass AMD im Notebook tot ist. Da werden nur noch Reste verkauft wie es aussieht. Neues kommt sehr wenig und wenn, dann zu sehr hohen Preisen, also sehr wenige Geräte.
Wenn man den Filter bei Geizhals auf "ab 2023" einstellt dann ergibt sich ein Verhältnis von 3:1 für Intel. Aber jo, die neueren Phoenix APUs sind sehr selten. Könnte sein, dass AMD einfach noch eine Menge Cezanne,Barcelo(-r) und Re(m)brandt rumfliegen hat und die Hersteller damit glücklich sind, wenn sie sich die Entwicklungskosten sparen und einfach neue Prozessornummer drauf drucken.
Dadurch hätte AMD vermutlich auch gegenüber TSMC was in der Hand um die Preise der neueren Prozesse wieder zu drücken.
dildo4u
2023-07-17, 09:12:08
AMD selber spricht von High-End Systeme für Phoenix und erklärt die Verzögerungen.
AM5 APU Delays
It seems that Phoenix is lagging a bit behind schedule? Could you comment on the challenges you're encountering during the rollout?
We're seeing our first Phoenix notebooks coming to market now. I think in our demo room we have a Razer system, an HP system that are both coming out. I think the reality is that it's very true that with Phoenix we targeted specifically the premium consumer space. Those are very high-touch platforms and the bar for what experience those OEMs want to deliver with those systems has led to a longer development time than even we anticipated on some of those platforms. We're very happy to see some of them hitting the market now, but when it comes to getting into some of those really high-end premium consumer systems, making sure that that experience is right over being fast in time to market is certainly the priority. We've been aligned with our OEM customers on that prioritization. You'll be seeing a rapid rollout of a number of systems. You'll start to see that very quickly.
Was it more software or hardware that made things challenging?
You know a lot of it is the tuning of all those things together. With Phoenix one of the innovations that came into the platform is something that we call our power management framework or "PMF." It's beyond the SMU, which does processor-level control, but what we really worked on in the Phoenix generation is an extension of the concept of the SMU to the system-level. More OS interaction, more hints between the OS and the processor to make sure that we are running at the right power level. Many of these premium systems, what our customers are looking for is silent computing. If you are doing things like Office applications or Teams or web browsing, you don't want the fan to ever turn on. You want it to be absolutely silent. Many applications aren't written in way where the processor can easily understand what the real-time demand is for what the user is trying to do. So we built this framework in tying together operating system, user intent and SMU behavior to really achieve that vision of silent computing on many of these systems. That interaction has been one of those things that we have been working on most.
https://www.techpowerup.com/review/amd-ryzen-interview-ai-zen-4-strategy/3.html
Mayhem
2023-07-17, 09:43:11
Naja, das ist, für meinen Geschmack, eine geschönte Erklärung: "Wir zielen auf Premium-Segment!" Das sind hohe Margen und geringe Stückzahlen. Was vllt Bilanztechnisch gut ausschaut, hilft aber absolut null bei der Rückgewinnung im Notebook-Markt.
Eigentlich wartet doch jeder auf ein 800-1000€ Notebook mit 300nits, 100%RGB, 32GB (min 16GB) und 8c-Phoenix. Also ein Windows MacBook Air.
Complicated
2023-07-17, 09:52:28
Klar 800-1000 für "MacBook Air"-Klasse. Als ob da die CPU/APU der Kostentreiber wäre.
dildo4u
2023-07-17, 10:15:54
Versucht Intel deshalb nicht Mobile CPU zu degagieren damit man die neuste Fertigung nicht für alles im Chip nutzen muss.
Ich erwarte natürlich nicht das Intel AMD unterbietet aber es könnte auf selbe Rauskommen.
Mayhem
2023-07-17, 12:17:39
Klar 800-1000 für "MacBook Air"-Klasse. Als ob da die CPU/APU der Kostentreiber wäre.
Bin mir nicht ganz sicher was Du damit sagen willst :confused:
Complicated
2023-07-17, 19:23:04
Nur weil alle auf etwas warten ist es nicht realistisch. Und es hängt nicht von den CPUs ab, ob 300 nits für 800,- € im Handel auftauchen. Eine Konkurrenz mit dem Mac Book Air, für weniger als 1.000-, finde ich auch nur geträumt.
Mayhem
2023-07-17, 19:43:34
Nur weil alle auf etwas warten ist es nicht realistisch. Und es hängt nicht von den CPUs ab, ob 300 nits für 800,- € im Handel auftauchen. Eine Konkurrenz mit dem Mac Book Air, für weniger als 1.000-, finde ich auch nur geträumt.
Also 300nits würde ich für 800€ schon erwarten.
Lenovo IdeaPad 5 Pro
16", 2560x1600, 189ppi, 120Hz, non-glare, IPS, 350cd/m², 100% sRGB
16GB Ram, 1TB SSD
6800er
https://www.notebooksbilliger.de/lenovo+ideapad+5+pro+82sn007tge+780638
930€
Was ist da geträumt?
Tangletingle
2023-07-17, 19:53:46
Selbst mein dunkles 3 Jahre altes ThinkPad hat 300nits. Hat damals 700€ gekostet.
Complicated
2023-07-17, 20:24:57
Mac Book Air Klasse war die Grundlage. Wenn der Parameter euch alleine ausreicht, bitte sehr.
Und es hängt nicht von den CPUs ab, ob 300 nits für 800,- € im Handel auftauchen.
Was ihr ja dann bestätigt habt.
Mayhem
2023-07-17, 20:33:46
Häh? Ich versteh' nur Bahnhof...
Idee war: Macbook Air (M1) Konkurrent auf Windows/x86 Basis mit Phoenix für vergleichbaren Preis.
Complicated
2023-07-17, 20:49:49
Ein Konkurrent muss ja mal zumindest die anderen Spezifikationen erfüllen um einer zu sein. Bauhöhe, Gewicht, Material, Akku... was verstehst du da nicht?
Ein 16 Zoll IdeaPad mit Phönix APU wird das wohl kaum sein.
Und ein vergleichbarer Preis ist ja nicht 800-1.000,- €.
Eher 1.100-1.400,- € wird für das MacBook Air aufgerufen für das 2022 Modell mit M2.
Mayhem
2023-07-17, 20:51:35
Boah mach nicht alles so complicated...
Complicated
2023-07-17, 20:52:46
Phantasiere halt nix zusammen
- das ist recht simple und nennt sich Realitätsprüfung.
Mayhem
2023-07-17, 20:58:33
Die Phoenix werden halt oft mit M1/M2 verglichen. Wo fantasiere ich da?
Complicated
2023-07-17, 23:15:56
Das habe ich erklärt. Lies es halt nochmal.
Mayhem
2023-07-17, 23:36:06
Du schreibst zu kryptisch...
EDIT: Scheinbar hast Du ein Problem mit meinen MacBook Air Vergleich/Verlangen? Hab ich das richtig verstanden? Oder über was diskutieren wir grade?
EDIT2: Oder komm wir lassen's. Glaub Du hast auch keine Bock drauf...
Hübie
2023-07-18, 10:57:53
AMD selber spricht von High-End Systeme für Phoenix und erklärt die Verzögerungen.
AM5 APU Delays
It seems that Phoenix is lagging a bit behind schedule? Could you comment on the challenges you're encountering during the rollout?
Was it more software or hardware that made things challenging?
https://www.techpowerup.com/review/amd-ryzen-interview-ai-zen-4-strategy/3.html
Der untere Teil spricht mir aus der Seele. Ich habe ein i7 1067G im Arbeitslaptop und der Lüfter säuselt ständig mit hoher Frequenz vor sich hin, weil diese Schrottgurke ständig an die 100°C Marke kratzt. Ich habe ellenlange E-Mail-Diskussionen mit unserer IT Leitung gehabt, weil die mir verargumentieren sollten, warum es unbedingt Intel sein muss. Natürlich konnten die das nicht, aber ich bin an deren bescheuerte Richtlinien gebunden. Sonst wäre es ein schicker Ryzen für weniger Kosten und weniger Nerven geworden.
dildo4u
2023-07-19, 07:41:35
Laut ASRock sind auf X670E Taichi mit neuem Bios 7200 Expo möglich.
https://www.reddit.com/r/ASRock/comments/152ruc7/asrock_x670e_taichi_bios_128as01_enables_7200/?utm_source=share&utm_medium=android_app&utm_name=androidcss&utm_term=3&utm_content=1
Exxtreme
2023-07-19, 08:19:25
Schafft halt keine CPU. Bei den allermeisten ist bei 6000 Schluss.
Exxtreme
2023-07-19, 09:50:52
Bei Zen 4 sehe ich da wenig Chancen, dass das nennenswert nach oben geht. Das Ding ist ja für 5200 spezifiziert. Ja, es gibt einige Zen 4, die auch 6400 stabil schaffen. Aber das sind absolute Ausnahmen. 7200 dürfte eher was für Zen 5 sein.
BZ scheint erstmal auch recht angetan davon zu sein:
https://pbs.twimg.com/media/F1W5kX5agAESDfg?format=jpg&name=large
Ryzen 7000. Running DDR5-8000. On a sub 300USD 8 layer daisy chain motherboard. This new BIOS is completely insanen. I might get DDR5-8000 stable on Ryzen before I ever get it stable on intel LOL.
https://twitter.com/Buildzoid1/status/1681454391252094976
Mehr Hintergrundinfo gibts auch in den Kommentaren von
https://www.reddit.com/user/sampsonjackson/
einer der Entwickler der wohl die letzten 8-10 Wochen an diesem Update verbracht hat.
Außerdem wird sich MCR on+PD off=BSOD wohl auch mal angesehen.
dildo4u
2023-07-19, 10:12:02
16 Zoll Framework Laptop mit Ryzen 7000/Radeon 7700s.
Leider alles ausverkauft bis 2024.
https://www.theverge.com/22665800/framework-laptop-16-hands-on-preview-modular-gaming-laptop
Nightspider
2023-07-19, 13:37:44
Wenn Ryzen 7000 Silizium grundsätzlich in der Lage ist DDR5 7000-8000 zu fahren muss ich das in meiner nächsten Kaufentscheidung berücksichtigen.
Werde mir wohl zeitnah eine AM5 Plattform aufbauen wo der RAM und möglichst auch das Mainboard ready für RAM OC und Zen5 sein sollen.
Im Moment dürften wir grob die Talsohle bei DDR5 Arbeitsspeicher erreicht haben, wie es aussieht.
Die Frage ist dann ob 48GB Zukunftssicher sind oder 64GB.
So schnell wie sich der CPU Markt aber entwickelt will man spätestens bei Zen6 oder Zen7 wieder aufrüsten als in 3 oder 5 Jahren, vielleicht gibts dann eh schon wieder einen neuen RAM Standard, also reichen 48GB vielleicht erstmal die nächsten 3-5 Jahre, auch für Kaliber wie Star Citizen.
BlacKi
2023-07-19, 15:32:26
wo sind denn 32gb kritisch?
DozerDave
2023-07-19, 16:28:12
Der untere Teil spricht mir aus der Seele. Ich habe ein i7 1067G im Arbeitslaptop und der Lüfter säuselt ständig mit hoher Frequenz vor sich hin, weil diese Schrottgurke ständig an die 100°C Marke kratzt. Ich habe ellenlange E-Mail-Diskussionen mit unserer IT Leitung gehabt, weil die mir verargumentieren sollten, warum es unbedingt Intel sein muss. Natürlich konnten die das nicht, aber ich bin an deren bescheuerte Richtlinien gebunden. Sonst wäre es ein schicker Ryzen für weniger Kosten und weniger Nerven geworden.
Wenn es geht, lass dir ein MacBook Air geben. Lüfterlos und schnell.
vinacis_vivids
2023-07-19, 18:37:56
Sehr gute Nachrichten für AM5 mit 7200er bis 8000er RAM. Da überlege ich mir vllt. doch noch dieses Jahr von AM4 auf AM5 umzusteigen. 128GB DDR5 6000 würde meinen Ansprüchen reichen. 64GB DDR5 7200er wäre die alternative Gaming-Lösung.
Hübie
2023-07-19, 20:44:06
Wenn es geht, lass dir ein MacBook Air geben. Lüfterlos uns schnell.
Wir "dürfen" nur Lenovo mit Intel aussuchen. :crazy::uroll: Völlig behämmert. Vor allem da jeder Mitarbeiter ein iPhone bekommt. Ich komme mit dem iPhone auch überhaupt nicht zurecht, da ich schon zu lange Androidnutzer bin.
OgrEGT
2023-07-19, 21:10:32
Wir "dürfen" nur Lenovo mit Intel aussuchen. :crazy::uroll: Völlig behämmert. Vor allem da jeder Mitarbeiter ein iPhone bekommt. Ich komme mit dem iPhone auch überhaupt nicht zurecht, da ich schon zu lange Androidnutzer bin.
Ist bei uns leider genauso... noch hab ich einen Ryzen 3700U... die gabs mal übergangsweise in kleiner Stückzahl als Intel schlecht lieferbar war... jetzt nur noch Intel... aber ja ein iPad und iPhone könnt ich auch noch haben... will aber nicht :D
Exxtreme
2023-07-19, 21:18:25
Wenn es geht, lass dir ein MacBook Air geben. Lüfterlos uns schnell.
Nicht wenn du Teams benutzt. Da wird die CPU erstmal drosseln müssen und den Rechner für 10 Minuten ausbremsen. X-D
AM5 rocked! DDR8000 scheint mit XMP(!) Timings absolut stabil zu sein. Dann noch der Hybrid-Modus für die GPU! Love it!
vinacis_vivids
2023-07-19, 22:04:30
AM5 rocked! DDR8000 scheint mit XMP(!) Timings absolut stabil zu sein. Dann noch der Hybrid-Modus für die GPU! Love it!
Welches MB? DDR8000 reizt mich bei AM5 :tongue:
Vermutlich wirds bei mir der 7950X3D
Und was bringt der Hybrid-Modus bei AM5?
Hammer des Thor
2023-07-19, 23:27:51
wo sind denn 32gb kritisch?
Bei star citizen in gewissen Situationen und Tiere sind noch gar nicht drin!
BlacKi
2023-07-19, 23:57:46
Bei star citizen in gewissen Situationen und Tiere sind noch gar nicht drin!und selbst mit 24gb kommt man locker klar. nutzt nur niemand.
Fusion_Power
2023-07-20, 00:21:37
16 Zoll Framework Laptop mit Ryzen 7000/Radeon 7700s.
Leider alles ausverkauft bis 2024.
https://www.theverge.com/22665800/framework-laptop-16-hands-on-preview-modular-gaming-laptop
Hab mich so drauf gefreut... aber der Preis! :usad:
ANgeblich können die ihre Produktionskapazitäten erhöhen, hab mal ein Linus Tech Tipps Video aus der Frameworkfabrik gesehen. Aber so wie sich die Auslieferungstermine der vielen Vorbesteller jetzt schon nach hinten verschieben, hab ich da auch wenig Hoffnung. gerade dieser Laptop wäre eigentlich so wichtig aber keine Chance im Vergleich mit den großen Volumenherstellern.
Neulich war ein 16" Lenovo IdeaPad 5 Pro 16 (https://geizhals.de/lenovo-ideapad-5-pro-16arh7-cloud-grey-82sn007tge-a2871065.html?hloc=at&hloc=de) mit Ryzen 7 6800HS im Angebot für um die 720€, das muss man sich mal vorstellen. Ich bereue es gerade, da nicht zugeschlagen zu haben... hoffte aber halt auf den Framework 16" Laptop. ^^"
Hammer des Thor
2023-07-20, 14:04:04
und selbst mit 24gb kommt man locker klar. nutzt nur niemand.
Wenn man mehr RAM Hat nutzt SC aber mehr offenbar passt sich das OCS da an die RAM-Grösse an. Wer 64 GB drin hat da werden die 32 GB ab und zu erreicht!
rentex
2023-07-20, 19:55:05
SC ist ja wohl Worst Case Scenario und nicht mal fertig.
grandmasterB
2023-07-20, 20:55:14
Und was bringt der Hybrid-Modus bei AM5?
Gute Frage. Würde mich auch interessieren.
Beim Notebook muss man doch unbedingt darauf achten, dass ein MUX-Switch verbaut ist, weil das Bild sonst über den PCIe-Bus an an die iGPU weitergereicht wird bevor es an das Display ausgegeben wird.
Das kostet massiv Leistung (siehe https://www.computerbase.de/2022-03/mux-switch-gaming-notebook-test/
Wie läuft das beim Desktop? Wenn ich den Monitor direkt an die Ausgänge am Motherboard anschließe, habe ich doch das gleiche Problem. Das Bild muss von der dGPU erst über PCIe an die iGPU bevor es ausgegeben werden kann und man verliert Leistung.
Oder wie ist das technisch umgesetzt, wenn ich mich täusche?
vinacis_vivids
2023-07-20, 21:48:44
Theoretisch dürfte man keine Leistung verlieren, wenn das Signal ungestört bleibt. DP 2.1 hat ja 80 Gbit/s wie USB-4. Es ginge auch 4 X UHD @ 240hz Monitore. PCIe-4.0 bei RDNA3 macht ja bei 16 Lanes 31,5 Gbyte/s (=252 Gbit/s).
Man müsste noch bessere Kabel bauen (ohne Stromschlag für Laien), um die 200-250 Gbit/s auszureizen. Das erlaubt dann auch 8K@120-180hz Auflösung?
grandmasterB
2023-07-20, 22:29:49
Klar, PCIe hat mehr Bandbreite als DisplayPort.
Aber es muss ja nicht nur die Bildausgabe über PCIe geschickt werden.
Die eigentliche Kernaufgabe ist es doch, dass über PCIe die ganzen Daten geschickt werden, die die dGPU fürs Rendering benötigt, sprich die ganzen Texturen laden, Kommunikation mit der CPU etc.
Das Monitorbild über PCIe von der dGPU zur iGPU zu schicken kommt ja dann noch als zusätzliche Aufgabe oben drauf. Und meine Befürchtung ist dann, dass das ersteres ausbremsen könnte.
Beim Notebook tut es das ja nachweislich auch.
Aber im CB-Artikel läuft die Anbindung der dGPU auch nur über PCIe 4.0 x8.
Meinst du mit einer x16 Anbindung sollte genügend Spielraum vorhanden, um größere Leistungseinbußen zu vermeiden oder hast du widerum was ganz anderes gemeint. Hab dich leider nicht ganz verstanden.
rentex
2023-07-21, 05:52:17
https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/
DozerDave
2023-07-21, 10:06:59
Nicht wenn du Teams benutzt. Da wird die CPU erstmal drosseln müssen und den Rechner für 10 Minuten ausbremsen. X-D
MS Software eben, aber Teams nutze ich auch. Ist lahmer Spaghetti-Code.
Hacki_P3D
2023-07-21, 12:01:38
MS Software eben, aber Teams nutze ich auch. Ist lahmer Spaghetti-Code.
Teams 2.0 steht ja schon in den Startlöchern :)
Exxtreme
2023-07-21, 12:23:38
Teams 2.0 steht ja schon in den Startlöchern :)
Und verbraucht 900 MB RAM anstatt 300? X-D
Ich kann es immer noch nicht verstehen wie man ein Chatprogramm so fett machen kann.
dildo4u
2023-07-21, 13:07:37
16 Zoll Framework Laptop mit Ryzen 7000/Radeon 7700s.
Leider alles ausverkauft bis 2024.
https://www.theverge.com/22665800/framework-laptop-16-hands-on-preview-modular-gaming-laptop
Erste Werte zur 7700S.
Zy5MWFrb0Y8
vinacis_vivids
2023-07-21, 17:20:26
AM5 drückt aufs Gaspedal :eek:
https://videocardz.com/newz/overclocker-hits-ddr5-9058-memory-oc-on-amd-am5-platform-with-new-firmware
DDR5 - 9058Mhz auf einem 650E Mainboard.
Nightspider
2023-07-21, 17:28:33
Ob es Performance bringt ist eine andere Frage.
Einer aus dem Luxx meinte das er dadurch nicht mehr fps hatte.
vinacis_vivids
2023-07-21, 18:15:12
auf die 0,1% muss er schauen und nicht auf avg.
BlacKi
2023-07-21, 19:57:16
Ob es Performance bringt ist eine andere Frage.
Einer aus dem Luxx meinte das er dadurch nicht mehr fps hatte.
würde mich nicht groß wundern, wenn IF schon vor dem speicher limitiert.
robert hallok hat damals gemeint, das fclk bei 6000er ramspeed schon bei 2000mhz liegt.
@nightspider, den post meintest du:
https://www.hardwareluxx.de/community/threads/ryzen-ddr5-ram-oc-thread.1324121/page-41#post-30003297
ja, hier limitiert wohl der fclk takt für mehr performance.
im prinzip ja nichts neues. hat ja schon bei am4 chiplet cpus limitiert, nicht der memory controller.
rentex
2023-07-21, 20:05:47
Wie sich alle im HWLuxx und PCGH an den 8000 MHz aufgeilen...wie die 14 Jährigen ;-D
Aber Vollbestückung mit vernünftigen Werten nicht möglich...
Nightspider
2023-07-21, 21:35:41
Wozu gibts überhaupt die Möglichkeit den Takt zu hoch zu prügeln wenn der 2:1 Modus verwendet werden muss und damit die Performance wieder sinkt?
Das ist doch nur für Anwendungen sinnvoll die viel Bandbreite zum RAM benötigen und bei denen die Latenz unkritisch ist. Bei die Anwender, die solche Anwendungen nutzen werden doch nie und nimmer extra so viel Aufwand betreiben um den RAM hoch zu treiben.
DSD512
2023-07-22, 00:41:20
https://quasarzone.com/bbs/qc_plan/views/32665
7200 CL34 vs 6200 CL30
Bringt bei den 1% Low ... nix
Wobei 7200 nix besonders ist.
Da muss man schon mit 8000 ran.
7600 Ram ist schon mal geordert und wird mit dem 670E Gene getestet.
Der_Korken
2023-07-22, 00:48:05
Selbst <6000Mhz waren bei Zen 4 die Subtimings der eigentliche Gamechanger. Mehr RAM-Takt hat es dagegen kaum gerissen. Wenn >6000Mhz der IF-Takt nicht mehr mitsteigt und die RAM-Latenzen mehr oder weniger proportional mit hoch gehen, dann wird die effektive Latenz auch nicht mehr besser. Anwendungen, die am RAM-Durchsatz hängen, würden schneller werden, aber das ist bei Spielen nicht der Fall.
grandmasterB
2023-07-22, 01:58:41
https://www.planet3dnow.de/cms/67740-sockel-am5-hybrid-graphics-ausprobiert/
Im Artikel wird nur auf die Energieeinsparung eingegangen.
Benchmarks die Hybrid-Graphics dem Betrieb des Monitors an der dGPU gegenüberstellen finden sich darin leider nicht.
Es wird auf eine leicht erhöhte Latenz hingewiesen.
Trotzdem Danke. Scheint zumindest (inzwischen) gut zu funktionieren.
Matrix316
2023-07-22, 11:21:31
Gibt es denn Ergebnisse auch für 7000er GPUs? Ich überleg wie ich meine 13900K/7900XTX Kombi etwas stromsparender bekomme. Eine Option wäre ein Umstieg auf Ryzen 7000. (Andere Ideen wären entweder wieder zu Nvidia oder ein extra Mini PC oder ein neues Notebook...)
OgrEGT
2023-07-22, 12:25:04
Ob es Performance bringt ist eine andere Frage.
Einer aus dem Luxx meinte das er dadurch nicht mehr fps hatte.
This!
... und ewiges Gefrickel an den Subtimings bis das dann wirklich stabil läuft...
BlacKi
2023-07-22, 12:50:06
Gibt es denn Ergebnisse auch für 7000er GPUs? Ich überleg wie ich meine 13900K/7900XTX Kombi etwas stromsparender bekomme. Eine Option wäre ein Umstieg auf Ryzen 7000. (Andere Ideen wären entweder wieder zu Nvidia oder ein extra Mini PC oder ein neues Notebook...)ich verstehe nicht, wie man einen 13900k kauft und dann ans stromsparen denkt. ein 13700k mit powerlimit z.b. 100w kommt wohl auf dieselbe performance wie ein 13900k. bei der gpu war auch klar, das nv vorne liegt beim verbrauch. aber wenn man aus prinzip die amd karte gekauft hat, dann kann man immer noch die karte hart undervolten, mit geringen performance verlusten.
die effizienz der notebooks schwirrt mir auch hin und wieder im kopf rum. aber die lüfter sind zu laut und die preise einfach zu hoch.
Der_Korken
2023-07-22, 13:45:02
ich verstehe nicht, wie man einen 13900k kauft und dann ans stromsparen denkt. ein 13700k mit powerlimit z.b. 100w kommt wohl auf dieselbe performance wie ein 13900k. bei der gpu war auch klar, das nv vorne liegt beim verbrauch. aber wenn man aus prinzip die amd karte gekauft hat, dann kann man immer noch die karte hart undervolten, mit geringen performance verlusten.
Ich glaube es ging um den Idle-Verbrauch. Wenn der Rechner jeden Tag 8h+ im Idle läuft, z.B. wegen Home Office o.ä., dann kommt da übers Jahr durchaus was zusammen. Wobei sich für den Betrag trotzdem nie ein Sidegrade lohnen würde, für dass man ne dreistellige Summe draufzahlen muss.
Matrix316
2023-07-22, 14:30:23
Ja gerade im Idle oder auch Youtube ist auch ein 13900K ziemlich sparsam. (Wahrscheinlich sogar sparsamer als ein kleiner Ryzen 7000! :ugly: https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_leistungsaufnahme_im_leerlauf_idle ) Nur die 7900XTX zieht da halt mehr als z.B. eine 4080. Ideal wäre es, wenn es bei Intel auch diesen Hybrid Graphics Modus geben würde. Theoretisch kann ich sogar die IGPU gleichzeitig mit einer externen Karte nutzen, nur geht's ja darum eben die externe in Windows zu deaktivieren und dann nur für Games zu nutzen zum Beispiel.
Wenn ich z.B. auf einen 7800X3D umsteige, würde ich in Games nicht viel FPS verlieren, aber ich könnte dann in Windows mit Hybrid Graphics ein paar Watt sparen. Preislich würde ich halt wahrscheinlich 300+ Euro draufzahlen. Das gleiche wenn ich von der 7900XTX wieder zur 4080 wechseln würde. Ich könnte natürlich im Sommer die 7900XTX deaktivieren, aber die iGPU ist in Games auch nicht gerade so toll. ;)
Ich meine ich könnte mein Lenovo Ryzen 4700U Notebook zum Browsen und Youtube nehmen, aber das hat Performance Probleme mit einem externen 4K Monitor und wenn man mehr als einen Stream aufhat... :uponder:
r3ptil3
2023-07-22, 15:05:28
Ich habe das Strom sparen im IDLE mittlerweile für den Desktop-PC aufgegeben.
Habe hier einen Mini-PC mit einem 5800H und der genehmigt sich im IDLE 8-9W. Die 80-90W eines Zen4/X670 Systems sind dagegen Steinzeit.
Ich tendiere mit dem Gedanken in Zukunft folgendes System zu bauen:
- ITX BGA Board mit einem 7945HX
https://i.ibb.co/JCKW3Xp/image.png
- dazu noch eine RTX 4070 oder RTX 4090
Damit käme man auf einen IDLE Verbrauch von ca. 15-20W.
BlacKi
2023-07-22, 15:46:05
Ich meine ich könnte mein Lenovo Ryzen 4700U Notebook zum Browsen und Youtube nehmen, aber das hat Performance Probleme mit einem externen 4K Monitor und wenn man mehr als einen Stream aufhat... :uponder:
sry, nicht aufgepasst das es ums idlen geht. wieso hat das probleme beim streamen auf ext. 4k monitor? fehlender hw codec support? ansonsten ist der zweit pc imho der richtige ansatz. das problem mit den doppelten eingabegeräten habe ich mit usb magnet kupplungen und usb hubs gelöst. das geht super schnell und einfach zu switchen. dann brauchst du nur einen satz eingabegeräte auf dem tisch.
alternativ hab ich bei meinem passiven gaming pc vor einem jahr die grafikkarte vom strom getrennt wenn ich nicht gezockt habe. idle verbrauch 27w dank integrierter igpu. die dgpu zieht dann nichts, nichtmal über den pcie. nachteil, du musst den rechner runterfahren zum switchen und die adapter selbst anzufertigen ist bastelarbeit und nicht zu kaufen. aber ein zweit pc ist eben nochmals sparsamer im idle oder youtube.
Ich habe das Strom sparen im IDLE mittlerweile für den Desktop-PC aufgegeben.
Habe hier einen Mini-PC mit einem 5800H und der genehmigt sich im IDLE 8-9W. Die 80-90W eines Zen4/X670 Systems sind dagegen Steinzeit.
Ich tendiere mit dem Gedanken in Zukunft folgendes System zu bauen:
- ITX BGA Board mit einem 7945HX
https://i.ibb.co/JCKW3Xp/image.png
- dazu noch eine RTX 4070 oder RTX 4090
Damit käme man auf einen IDLE Verbrauch von ca. 15-20W.
pcie lanes? das ist halt immer der knack punkt. ich hatte auch schon den gedanken. einfach auf die 4090 montieren^^
€dit: ja, hat sogar pcie 5.0 16x gpu support.
Matrix316
2023-07-22, 17:15:56
sry, nicht aufgepasst das es ums idlen geht. wieso hat das probleme beim streamen auf ext. 4k monitor? fehlender hw codec support? ansonsten ist der zweit pc imho der richtige ansatz. das problem mit den doppelten eingabegeräten habe ich mit usb magnet kupplungen und usb hubs gelöst. das geht super schnell und einfach zu switchen. dann brauchst du nur einen satz eingabegeräte auf dem tisch.
[...]
Keine Ahnung. Es fängt an zu ruckeln, wenn ich zwei Youtube Videos oder ein Youtube Video und noch einen z.B. Netflix Stream oder ARD Stream oder so ansehe. Es läuft net so rund. Ist ein Thinkpad E14 mit 16 GB RAM und 512 GB SSD. Monitor war direkt über HDMI angeschlossen. USB-C ginge auch, aber da wird das Notebook nicht geladen. Da reicht die Power vom Monitor nicht...
Der_Korken
2023-07-22, 19:25:52
Ich tendiere mit dem Gedanken in Zukunft folgendes System zu bauen:
- ITX BGA Board mit einem 7945HX
https://i.ibb.co/JCKW3Xp/image.png
- dazu noch eine RTX 4070 oder RTX 4090
Damit käme man auf einen IDLE Verbrauch von ca. 15-20W.
Der 7945HX setzt auch auf Raphael, d.h. wenn der dürfte eigentlich im Idle nicht sparsamer sein als ein 7950X. Es sei denn, AMD hat irgendwas an der Firmware gedreht, dass der SOC stärker powergated und nicht für jeden Furz komplett durchboostet. Das würde ich dann aber auch gerne für die normalen 7000er sehen.
BlacKi
2023-07-22, 19:40:22
Der 7945HX setzt auch auf Raphael, d.h. wenn der dürfte eigentlich im Idle nicht sparsamer sein als ein 7950X. Es sei denn, AMD hat irgendwas an der Firmware gedreht, dass der SOC stärker powergated und nicht für jeden Furz komplett durchboostet. Das würde ich dann aber auch gerne für die normalen 7000er sehen.
Idle Power Consumption
We also checked the CPU Package Power while idling with identical power settings on both systems. Intel's Core i9-13900HX (https://www.notebookcheck.net/Intel-Core-i9-13900HX-Processor-Benchmarks-and-Specs.671451.0.html) is better in this regard with an average consumption of 5.8 Watts, while the AMD Ryzen 9 7945HX (https://www.notebookcheck.net/AMD-Ryzen-9-7945HX-Processor-Benchmarks-and-Specs.679953.0.html) consumes 42 % more at ~8.3 Watts. Our two reviews of the Zen4 notebooks also showed short battery runtime in practical scenarios.
https://www.notebookcheck.net/AMD-Ryzen-9-7945HX-Analysis-Zen4-Dragon-Range-is-faster-and-more-efficient-than-Intel-Raptor-Lake-HX.705034.0.html
was am desktop immernoch um welten besser ist als was man jetzt auf am5 bekommt.
Der_Korken
2023-07-22, 19:58:21
https://www.notebookcheck.net/AMD-Ryzen-9-7945HX-Analysis-Zen4-Dragon-Range-is-faster-and-more-efficient-than-Intel-Raptor-Lake-HX.705034.0.html
was am desktop immernoch um welten besser ist als was man jetzt auf am5 bekommt.
Ach, das hatte ich sogar selber mal verlinkt aber wieder verdrängt. Da stellt sich trotzdem die Frage, warum man das nicht bei den Desktopmodellen haben kann. Fühlt sich der 7945HX im Alltag träger an, weil er mehr Teile schlafen legt und diese länger zum Aufwachen brauchen? Oder muss man Krüppel-RAM verbauen, wo das IF zusätzlich noch im 1:4-Modus läuft (z.B. 1200Mhz bei DDR5-4800)?
r3ptil3
2023-07-22, 20:20:04
Mein 5800H (egal ob auf 15W oder 54W begrenzt), reagiert auf dem Desktop identisch wie mein Desktop-System mit Zen4+Samsung 990 Pro.
Aufpassen muss man halt bei der Latenz des RAMs. Notebookcheck weist da gut nach, dass sich eine hohe Latenz (150ns und höher) tatsächlich bemerkbar macht beim öffnen und schliessen von Dateien und Apps auf dem Desktop. Reagiert einfach alles etwas träger.
Dass die Mobile-Komponenten so viel weniger verbrauchen, hängt halt auch damit zusammen, dass die Akku-Laufzeit davon abhängt, also nicht vernachlässigbar ist. Beim Desktop schert sich da wohl keine Sau. Da laufen wohl einige Verbindungen und Komponenten praktisch auf 100%, welche alleine kaum was verbrauchen, in der Summe aber dann doch.
Der_Korken
2023-07-22, 21:53:47
Mein 5800H (egal ob auf 15W oder 54W begrenzt), reagiert auf dem Desktop identisch wie mein Desktop-System mit Zen4+Samsung 990 Pro.
Das Powerlimit dürfte egal sein, solange es nicht kleiner ist als der Verbrauch des Chips unter ST-Last. Aber gut zu wissen, dass es da nicht hakt.
Dass die Mobile-Komponenten so viel weniger verbrauchen, hängt halt auch damit zusammen, dass die Akku-Laufzeit davon abhängt, also nicht vernachlässigbar ist. Beim Desktop schert sich da wohl keine Sau. Da laufen wohl einige Verbindungen und Komponenten praktisch auf 100%, welche alleine kaum was verbrauchen, in der Summe aber dann doch.
Wegen ersterem war ich sehr überrascht, als AMD damals Dragon Range angekündigt hat. Es war ja bekannt, dass die 2CCD-Desktop-Modelle irgendwie bei um die 18-20W liegen und dass das für ein Notebook absolut inakzeptabel wäre - Akku nach 3h Idle leer und Lüfter durchgehend an. Jetzt haben sie den 2CCD-ler immerhin auf 8,4W runtergedrückt. Das wirkt so, als wären all die Stromsparmechanismen, die mal für Zen 4 beworben wurden, erst bei Dragon Range umgesetzt worden. Zum Beispiel, dass es jetzt zwei (halb so breite) IF-Links pro CCD gibt, von denen man einen zum Energiesparen abschalten kann (ohne dass die Latenz zu schlecht wird, wenn man stattdessen den IF-Takt halbieren würde).
Ich würde gerne mal einen direkten Vergleich zwischen 7950X und 7945HX sehen was Teillastverbräuche angeht. Es ist halt so wie du sagst: Einige Sachen scheinen da ständig unnötigerweise auf 100% zu laufen. Bei Zen 3 war es noch so, dass man bei 2CCDs im Idle so auf ca. 18W kommt, wenn absolut gar nichts läuft. Sobald irgendein Hintergrundprozess oder -dienst läuft, der ein Epsilon an Last erzeugt (Hersteller-Tools wie z.B. von Razer reichen da schon), geht der Idle-Verbrauch auf 30W hoch. Falls man den IF-Takt >1600Mhz gesetzt hat, ist man automatisch immer in diesem 30W-Modus, auch wenn gar nichts im Hintergrund läuft - das scheint einfach so hardgecoded zu sein. Vor allem sind diese Verbräuchte nicht zuordbar, weil 2W Core-Power + 7W SoC-Power != 18W. Wo der Rest verschwindet, weiß man nicht. Da sich bei Zen 4 trotz 6nm IOD kaum was getan hat, dürften das dort wohl die selben Probleme sein.
Die waren immer auf 8,x W im idle, nur die Messung war nicht korrekt, den Idle-Verbrauch konnte ausschließlich Ryzen Master korrekt auslesen.
dildo4u
2023-07-23, 12:38:30
7500f kommt angeblich als Weltweites Produkt.
https://videocardz.com/newz/amd-ryzen-5-7500f-reviews-are-out-cpu-to-launch-globally-at-179
OgrEGT
2023-07-23, 13:27:37
Ich habe das Strom sparen im IDLE mittlerweile für den Desktop-PC aufgegeben.
Habe hier einen Mini-PC mit einem 5800H und der genehmigt sich im IDLE 8-9W. Die 80-90W eines Zen4/X670 Systems sind dagegen Steinzeit.
Ich tendiere mit dem Gedanken in Zukunft folgendes System zu bauen:
- ITX BGA Board mit einem 7945HX
https://i.ibb.co/JCKW3Xp/image.png
- dazu noch eine RTX 4070 oder RTX 4090
Damit käme man auf einen IDLE Verbrauch von ca. 15-20W.
Ist das das Minisforum ITX Board?
Ist das separat erhätlich als Retail (also ggf. mit SpaWa Kühlung)?
Gibts da unterschiedliche Varianten mit unterschiedlichen APUs drauf? Bspw. 7840HS?
BlacKi
2023-07-23, 13:47:45
ja, ist es. nur das board alleine wurde bisher nie angeboten. der 7950hx wird noch in keinem modell angeboten, den hs kann man im barebone schon für 585€ kaufen.
https://store.minisforum.de/collections/alle-produkte-1/products/minisforum-um790-pro
r3ptil3
2023-07-23, 13:51:41
Board kommt wohl irgendwann in den nächsten Monaten.
Es gibt auf Aliexpress übrigens ITX B660 Boards mit einem 12900H inkl. passendem Kit für einen Sockel 1700 Kühler.
r3ptil3
2023-07-24, 12:28:26
Gerade weil die Mobile-CPUs hier im Gespräch waren:
Mögliche Gerüchte um einen 7945HX3D und weitere Modelle:
AMD Ryzen 9 7945HX3D CPU Spotted: Zen 4 Cores & 128 MB 3D V-Cache For Enthusiast Laptops (https://wccftech.com/amd-ryzen-9-7945hx3d-cpu-spotted-zen-4-cores-128-mb-3d-v-cache-enthusiast-laptops/)
There will be more SKUs including the 8-core and 12-core Ryzen 7 7745HX3D & the Ryzen 9 7845HX3D.
Dann wäre ein 7745HX3D fast wieder interessanter mit einem CCD.
MSABK
2023-07-24, 12:38:06
Finde ich logisch, dass dir kommen.
Matrix316
2023-07-24, 13:44:06
Ich habe das Strom sparen im IDLE mittlerweile für den Desktop-PC aufgegeben.
Habe hier einen Mini-PC mit einem 5800H und der genehmigt sich im IDLE 8-9W. Die 80-90W eines Zen4/X670 Systems sind dagegen Steinzeit.
Ich tendiere mit dem Gedanken in Zukunft folgendes System zu bauen:
- ITX BGA Board mit einem 7945HX
https://i.ibb.co/JCKW3Xp/image.png
- dazu noch eine RTX 4070 oder RTX 4090
Damit käme man auf einen IDLE Verbrauch von ca. 15-20W.
Die Frage ist halt: Lohnt sich das 500~600 Euro für einen Stromspar PC zu investieren? Mit dem Geld könnte man halt auch den Mehrverbrauch des Hauptrechners bezahlen - für viele Jahre glaube ich.
fondness
2023-07-24, 13:56:59
Ich halte es längst für absurd, sich einen Desktop-PC mit dezidierter GPU anzuschaffen. Habe ein Notebook mit einem 6800HS & LPDDR5 RAM. Betreibe den Chip mit 25W für den gesamten SoC(!) und kann damit selbst die meisten modernen Spiele spielen. Das Gerät ist praktisch lautlos und kann überall mitgenommen werden. Die Perf/Watt ist konkurrenzlos, meinen alten & lauten "Heizkörper" unter dem Tisch vermisse ich null. Am Desktop brauche ich 2-3W für den gesamten SoC mit allem möglichen angeschlossenen I/O.
viele Leute im Forum nutzen Multi-Monitor-Setups, spielen die neusten Spiele in maximaler Auflösung. Draußen, im Non-Enthu...Fan-Kreisen nutzt man oft Laptops und für die Spiele eine Konsole.
Allerdings wird dort kaum jemand Cyberpunk 2077 in 1920x1080 mit maximaler Grafik spielen, ohne auf Frames zu verzichten.
Matrix316
2023-07-24, 14:05:16
Ich halte es längst für absurd, sich einen Desktop-PC mit dezidierter GPU anzuschaffen. Habe ein Notebook mit einem 6800HS & LPDDR5 RAM. Betreibe den Chip mit 25W für den gesamten SoC(!) und kann damit selbst die meisten modernen Spiele spielen. Das Gerät ist praktisch lautlos und kann überall mitgenommen werden. Die Perf/Watt ist konkurrenzlos, meinen alten & lauten "Heizkörper" unter dem Tisch vermisse ich null. Am Desktop brauche ich 2-3W für den gesamten SoC mit allem möglichen angeschlossenen I/O.
Dann spiel mal Cyberpunk oder Hogwarts in 4K (eventuell externer Monitor) und allen Details. :freak: Damit das geht, braucht dein Notebook auch eine dedizierte GPU.
fondness
2023-07-24, 14:12:14
Dann spiel mal Cyberpunk oder Hogwarts in 4K (eventuell externer Monitor) und allen Details. :freak: Damit das geht, braucht dein Notebook auch eine dedizierte GPU.
Schon klar. Aber irgendwann kommt man an den Punkt wo man einsieht, dass nicht die Grafik den primären Spielspaß ausmacht. Neuere Spiele spiele ich meist in 1080p und mittleren Details, bei älteren geht auch mehr. Externen Monitor habe ich natürlich. Einen 27" 4K Monitor mit 144 Hz & FreeSync, interpoliert die 1080p nahezu perfekt.
Der_Korken
2023-07-24, 14:16:27
Ich halte es längst für absurd, sich einen Desktop-PC mit dezidierter GPU anzuschaffen. Habe ein Notebook mit einem 6800HS & LPDDR5 RAM. Betreibe den Chip mit 25W für den gesamten SoC(!) und kann damit selbst die meisten modernen Spiele spielen. Das Gerät ist praktisch lautlos und kann überall mitgenommen werden. Die Perf/Watt ist konkurrenzlos, meinen alten & lauten "Heizkörper" unter dem Tisch vermisse ich null. Am Desktop brauche ich 2-3W für den gesamten SoC mit allem möglichen angeschlossenen I/O.
Für viele Aufgaben stimmt das, aber manchmal ist eben doch das ein oder andere Game dabei, das ich dann gerne in 1440p mit ordentlicher Framerate genießen möchte. Zwei Systeme anzuschaffen (eins für Gaming, eins für Rest) ist mir viel zu umständlich, da ich oft zwischen Aktivitäten wechsle und ich nicht jedes Mal den PC dafür wechseln will. Vor allem sind mehr Systeme auch mehr Maintainance und ständiges syncen von Dateien Browserverläufen, etc. weil man irgendwas an dem einen Sys mal offen hatte, aber jetzt leider am anderen sitzt.
Außerdem würde mir privat das ständige Lüfterrauschen meines Arbeitslaptops (altes Thinkpad mit Kaby Lake U) auf den Sack gehen. Ein Task mit CPU-Last und das Teil hängt bei 75°C und der Lüfter läuft permanent hörbar. Dagegen ist ein selbst gebauter Desktop mit gescheiten Lüftern und Lüfterkurve eine Wohltat. Neidisch bin ich dagegen auf die 3W Package Power. Würde es APUs für AM5 mit >=32MB L3-Cache und zu vertretbaren Preisen geben, ich würde direkt ein neues ITX-System draus bauen.
Matrix316
2023-07-24, 14:21:37
Ein Desktop ist auch am Ende viel nachhaltiger, wenn man nicht zum Aufrüsten den ganzen Computer wegwerfen muss. :)
Wären wir alle hier im Forum, wenn es immer nur Notebooks und Spielekonsolen gegeben hätte?
fondness
2023-07-24, 14:24:17
Für viele Aufgaben stimmt das, aber manchmal ist eben doch das ein oder andere Game dabei, das ich dann gerne in 1440p mit ordentlicher Framerate genießen möchte.
Verstehe ich natürlich, irgendeinen Kompromiss hat man immer. Nur deswegen den Kompromiss Desktop-PC einzugehen war es mir eben nicht wert.
Zwei Systeme anzuschaffen (eins für Gaming, eins für Rest) ist mir viel zu umständlich, da ich oft zwischen Aktivitäten wechsle und ich nicht jedes Mal den PC dafür wechseln will. Vor allem sind mehr Systeme auch mehr Maintainance und ständiges syncen von Dateien Browserverläufen, etc. weil man irgendwas an dem einen Sys mal offen hatte, aber jetzt leider am anderen sitzt.
Das sehe ich auch so, hab ich mal probiert, völlig unpraktikabel. Deshalb auch das Notebook, das kann ich selbst auf Auslandreisen mitnehmen und habe so immer den selben PC.
Außerdem würde mir privat das ständige Lüfterrauschen meines Arbeitslaptops (altes Thinkpad mit Kaby Lake U) auf den Sack gehen. Ein Task mit CPU-Last und das Teil hängt bei 75°C und der Lüfter läuft permanent hörbar. Dagegen ist ein selbst gebauter Desktop mit gescheiten Lüftern und Lüfterkurve eine Wohltat. Neidisch bin ich dagegen auf die 3W Package Power. Würde es APUs für AM5 mit >=32MB L3-Cache und zu vertretbaren Preisen geben, ich würde direkt ein neues ITX-System draus bauen.
Wer Intel kauft ist selbst Schuld :D. Mein Notebook ist am Desktop völlig lautlos, selbst beim spielen praktisch unhörbar.
Ein Desktop ist auch am Ende viel nachhaltiger, wenn man nicht zum Aufrüsten den ganzen Computer wegwerfen muss. :)
Das ist das einfachste der Welt, altes Notebook verkaufen, neues kaufen, fertig. Meine Daten habe ich alle im NAS.
Der_Korken
2023-07-24, 14:31:32
Nicht ich habe Intel nicht gekauft, sondern mein Arbeitgeber :D. Damals gab es aber auch nichts besseres, das war lange vor Renoir und co.
Ganon
2023-07-24, 15:19:28
Ein Desktop ist auch am Ende viel nachhaltiger, wenn man nicht zum Aufrüsten den ganzen Computer wegwerfen muss. :)
Wären wir alle hier im Forum, wenn es immer nur Notebooks und Spielekonsolen gegeben hätte?
Wenn der Idle-Verbrauch eines Desktop-Systems nicht so hoch wäre. Die AM5 Desktop-Plattform (also der Chipsatz) hat einen ziemlich hohen Idle-Verbrauch. So ein Notebook verbraucht im Idle inkl. Bildschirm nur ein Bruchteil davon.
Dazu kommt, dass die neueren RDNA-APUs von AMD schon ziemlich potent sind. Sowas gab es damals auch noch nicht in dem Umfang. Heute spielt eine APU auch die allermeisten aktuellen Spiele spielbar ab.
Damals kam man um einen Desktop-PC nicht großartig drum herum, wenn man aktuelle PC-Spiele spielen wollte. Heute gibt's dort wesentlich mehr Optionen. Und das die Preise der PC-Plattform so explodiert sind, hilft der Plattform auch nicht.
Matrix316
2023-07-24, 16:02:00
Wenn der Idle-Verbrauch eines Desktop-Systems nicht so hoch wäre. Die AM5 Desktop-Plattform (also der Chipsatz) hat einen ziemlich hohen Idle-Verbrauch. So ein Notebook verbraucht im Idle inkl. Bildschirm nur ein Bruchteil davon.
Dazu kommt, dass die neueren RDNA-APUs von AMD schon ziemlich potent sind. Sowas gab es damals auch noch nicht in dem Umfang. Heute spielt eine APU auch die allermeisten aktuellen Spiele spielbar ab.
Damals kam man um einen Desktop-PC nicht großartig drum herum, wenn man aktuelle PC-Spiele spielen wollte. Heute gibt's dort wesentlich mehr Optionen. Und das die Preise der PC-Plattform so explodiert sind, hilft der Plattform auch nicht.
Warum ein Laptop? Man kann auch fast alles auf einem Handheld heute spielen oder aufm Smartphone. Es gibt immer was, was kleiner ist und weniger Strom verbraucht. Aber die beste Qualität gibt es halt vor allem am PC mit der besten Hardware.
Nur der Idle Verbrauch bzw. Youtube/Streaming allgemein könnte halt etwas besser sein.
Ganon
2023-07-24, 16:22:32
Warum ein Laptop? Man kann auch fast alles auf einem Handheld heute spielen oder aufm Smartphone. Es gibt immer was, was kleiner ist und weniger Strom verbraucht. Aber die beste Qualität gibt es halt vor allem am PC mit der besten Hardware.
Handheld/Laptop sehe ich persönlich als eine Kategorie. "Mobiles All-in-One PC-System". Ein Smartphone spielt halt keine PC-Spiele ab, fällt damit raus.
Und klar, ich streite nicht ab, dass ein entsprechender PC mehr Auflösung, mehr Bildqualität, mehr FPS erlaubt. Aber das kommt halt eben auch mit Kompromissen. Stromverbrauch, Platzverbrauch, Hitzeentwicklung. Aber wir haben halt einen Punkt erreicht, wo selbst ein Notebook/Handheld ohne dGPU Spiele in akzeptabler Qualität abspielt.
Nicht jeder braucht >=4K@>=60fps@Alle Regler auf Anschlag um glücklich zu sein. Andere erfreuen sich mehr an einem leisen, kleinen und stromsparenden System, welches die Spiele trotzdem akzeptabel abspielt. Und genau das wird mittlerweile geboten. Ziemlich gut sogar.
Matrix316
2023-07-24, 17:11:17
Handheld/Laptop sehe ich persönlich als eine Kategorie. "Mobiles All-in-One PC-System". Ein Smartphone spielt halt keine PC-Spiele ab, fällt damit raus.
Und klar, ich streite nicht ab, dass ein entsprechender PC mehr Auflösung, mehr Bildqualität, mehr FPS erlaubt. Aber das kommt halt eben auch mit Kompromissen. Stromverbrauch, Platzverbrauch, Hitzeentwicklung. Aber wir haben halt einen Punkt erreicht, wo selbst ein Notebook/Handheld ohne dGPU Spiele in akzeptabler Qualität abspielt.
Nicht jeder braucht >=4K@>=60fps@Alle Regler auf Anschlag um glücklich zu sein. Andere erfreuen sich mehr an einem leisen, kleinen und stromsparenden System, welches die Spiele trotzdem akzeptabel abspielt. Und genau das wird mittlerweile geboten. Ziemlich gut sogar.
Ja aber normalerweise will man ja ungern downgraden was Grafikqualität betrifft.
Ganon
2023-07-24, 17:21:12
Ja aber normalerweise will man ja ungern downgraden was Grafikqualität betrifft.
Wenn du keine >1000€ GPU im System stecken hast, musst du das so oder so. Die Frage ist halt nur "wie weit".
Langlay
2023-07-24, 17:34:14
Wenn du keine >1000€ GPU im System stecken hast, musst du das so oder so. Die Frage ist halt nur "wie weit".
Naja zwischen 1080p Low bis Midsetting(APU) und 4K mit alle Regler rechts(1000€+ GPU) ist ziemlich viel Luft.
Ganon
2023-07-24, 17:45:50
Naja zwischen 1080p Low bis Midsetting(APU) und 4K mit alle Regler rechts(1000+ GPU) ist ziemlich viel Luft.
720p@High gibt es auch noch. edit: Allgemein ist die Argumentation, dass man alles nur auf Low bis Medium spielen kann halt nicht korrekt. Tatsächlich ist es eher Medium bis High. Und je nach Spiel sucht man die Unterschiede dort schon mit einer Lupe.
Fusion_Power
2023-07-24, 18:17:22
Ich halte es längst für absurd, sich einen Desktop-PC mit dezidierter GPU anzuschaffen. Habe ein Notebook mit einem 6800HS & LPDDR5 RAM. Betreibe den Chip mit 25W für den gesamten SoC(!) und kann damit selbst die meisten modernen Spiele spielen. Das Gerät ist praktisch lautlos und kann überall mitgenommen werden. Die Perf/Watt ist konkurrenzlos, meinen alten & lauten "Heizkörper" unter dem Tisch vermisse ich null. Am Desktop brauche ich 2-3W für den gesamten SoC mit allem möglichen angeschlossenen I/O.
Lenovo IdeaPad 5 Pro 16 zufällig? :uponder: Hatte ich zufällig schon mal aufm Kieker, war vor kurzem für um die 720€ zu haben, ebenfalls mit Ryzen 7 6800HS & LPDDR5 RAM. Hätt ich nur zugeschlagen. :usad:
Ein Desktop ist auch am Ende viel nachhaltiger, wenn man nicht zum Aufrüsten den ganzen Computer wegwerfen muss. :)
Wären wir alle hier im Forum, wenn es immer nur Notebooks und Spielekonsolen gegeben hätte?
Kommt aufs Notebook an (https://frame.work/products/laptop16-diy-amd-7040)...
https://static.frame.work/i9cek06kyewaol50nyuu41p7938t
Warum ein Laptop? Man kann auch fast alles auf einem Handheld heute spielen oder aufm Smartphone. Es gibt immer was, was kleiner ist und weniger Strom verbraucht. Aber die beste Qualität gibt es halt vor allem am PC mit der besten Hardware.
Nur der Idle Verbrauch bzw. Youtube/Streaming allgemein könnte halt etwas besser sein.
Dank diverser Mini-PCs mit Mobile APUs sind heutzutage zum Glück auch Desktop Systeme wirklich stromsparend hinzubekommen, ich finde die Entwicklung gut, gerade mit den aktuellen AMD APUs samt RDNA3 Grafik. :)
Ja aber normalerweise will man ja ungern downgraden was Grafikqualität betrifft.
Mehr Grafik gibts mittlerweile auch zum dran stecken und in kompakt. (https://www.indiegogo.com/projects/gpd-g1-the-smallest-graphics-card-expansion-dock#/)
KuKKc66wrsc
Platos
2023-07-24, 19:24:49
Ja, nur sind das alles Fertig-PCs. Als Selbst-Bastler wird das sehr schwierig mit AMD APUs, ultra Stromsparend (inkl. mainboard usw) und modern im gleichem Atemzug. Und die eGPU ist ja auch ein Fertig-Produkt. Ich kann mir nicht ne Desktop-GPU kaufen und sie dann irgendwie so anschliessen ohne Perfomanceverluste.
Und die verwendete GPU ist nicht low-end, aber High-End eben auch nicht. Und wie sieht es mit diesen ansteckbaren GPUs aus mittlerweile? Sind die mittlerweile ohne grosse Perfomanceverluste ? Also ich meine die frei im Handel kaufbaren Modelle. z.B RTX 4070Ti oder so. Weil so eine "Fertig-Produkt" Grafikkarte wird immer ein Sonderpreis haben. Genau so wie Mini-PCs und andere Fertig-PCs. Gerade wenn man viel RAM und co haben will. Aber auch sonst.
DSD512
2023-07-25, 00:05:20
Gene 670E
Bios 1516
AGESA AM5 PI 1.0.0.7b
Nitro Enabled
DDR5-6600 mit UCLK=MEMCLOCK 1:1
Für den Anfang ganz nice.
War vorher definitiv nicht möglich.
Mal schauen, was noch so geht.
https://abload.de/img/unbenanntv5dns.png (https://abload.de/image.php?img=unbenanntv5dns.png)
Fusion_Power
2023-07-25, 00:45:30
Ja, nur sind das alles Fertig-PCs. Als Selbst-Bastler wird das sehr schwierig mit AMD APUs, ultra Stromsparend (inkl. mainboard usw) und modern im gleichem Atemzug. Und die eGPU ist ja auch ein Fertig-Produkt. Ich kann mir nicht ne Desktop-GPU kaufen und sie dann irgendwie so anschliessen ohne Perfomanceverluste.
Und die verwendete GPU ist nicht low-end, aber High-End eben auch nicht. Und wie sieht es mit diesen ansteckbaren GPUs aus mittlerweile? Sind die mittlerweile ohne grosse Perfomanceverluste ? Also ich meine die frei im Handel kaufbaren Modelle. z.B RTX 4070Ti oder so. Weil so eine "Fertig-Produkt" Grafikkarte wird immer ein Sonderpreis haben. Genau so wie Mini-PCs und andere Fertig-PCs. Gerade wenn man viel RAM und co haben will. Aber auch sonst.
Befriedigt es deinen Basteldrang wenn du immerhin noch RAM und HDD rein stecken kannst? :D
Es gibt wohl leider keine Mobile APUs zum selber rein stecken oder gar entsprechende Mainboards fürn normalen Desktop PC. Wäre natürlich cool.
Die eGPU schließt du in dem Fall über die Oculink Schnittstelle an, sofern der PC das bietet. Gibt aber auch Adapter für. Führt halt PCIe raus und ist viel schneller als Thunderbolt oder USB. ETA Prime hat dazu auch schon Videos gemacht. Kann man auch mehr wenn es keine fertige e-GPU sein soll sondern ne normale die man vllt. noch zu Hause rum liegen hat. Hier mal was wildes:
ZMASet1yLzg
Ist das genug gebastel? :D
Matrix316
2023-07-25, 10:27:47
Die Mini PCs sind ja net schlecht, wobei die Range von billig bis ultra teuer auch ziemlich groß ist. Aber ich glaube das wäre ein Thema für den Kaufberatungsbereich.
Aber der 13900K ist glaube ich nicht das Stromproblem unter Windows. Das ist eher die 7900XTX. Was würde es da bringen auf einen 7800X3D umzusteigen im Idle bzw. Youtube, wenn ich Hybrid Graphics nutzen würde?
(Ich meine, wenn Geld keine Rolle spielen würde, würde ich mir als zweit PC einen Mac Studio hinstellen, aber das wäre dann für Surfen und Youtube schauen doch etwas dekadent glaube ich :D )
Ganon
2023-07-25, 10:45:15
Aber der 13900K ist glaube ich nicht das Stromproblem unter Windows. Das ist eher die 7900XTX. Was würde es da bringen auf einen 7800X3D umzusteigen im Idle bzw. Youtube, wenn ich Hybrid Graphics nutzen würde?
Wenn ich Google Berichten trauen kann, idled der 13900K mit ~22W vor sich hin, eine 7900XTX mit ~24W, sofern sie nur an einen Bildschirm angeschlossen ist. Ansonsten mehr. Dazu dann noch das Board mit Chipsatz. Bist am Ende dann so bei 50-60W im Idle.
Gut 3 mal so viel wie mein Ryzen 5800H Notebook mit Bildschirm, Lautsprecher und Co. Da die AM5 Plattform auch viel schluckt, sparst du am Ende vll. 10-15W idle.
eratte
2023-07-25, 13:15:48
eine 7900XTX mit ~24W, sofern sie nur an einen Bildschirm angeschlossen ist.
Mit minimierten Browser auf dem Desktop mit dem 23.7.1 sind es 7 bis 9w laut Treiber oder HW Info an einem 1440p Monitor mit 144hz. Nitro+ XTX.
Matrix316
2023-07-25, 13:24:56
Ich hab zwei Monitore, einmal FullHD und einmal UltraHD mit jeweils 60Hz und wenn ich YT schaue, braucht die 7900XTX so ~45W und manchmal steigt die Last auch kurz an auf 60/90 (warum auch immer). Müsste ich aber noch mal genau checken.
aufkrawall
2023-07-25, 13:28:55
Wenn ich Google Berichten trauen kann, idled der 13900K mit ~22W vor sich hin, eine 7900XTX mit ~24W, sofern sie nur an einen Bildschirm angeschlossen ist.
13700K Package ist 3W und 7900 XTX TGP 8W, wenn man den Software-Sensoren trauen darf.
Ganon
2023-07-25, 13:33:23
Hängt halt einfach mal ein Strommessgerät hinter eure PCs. Letztendlich ist das der ausschlaggebende Punkt. Da habt ihr dann alles mit drin und nicht nur irgend eine Wattzahl, die irgend ein Sensor an irgend einer Stelle ausgibt.
edit:
Um mal etwas zum "Zen 4 Review" zurück zukommen. Ein Z1 Extreme System im ROG Ally mit Bildschirm auf 80% Helligkeit, WLAN/Bluetooth an auf dem Desktop idled mit ~6W vor sich hin, ab Steckdose. Gerade nur fix getestet.
aufkrawall
2023-07-25, 13:46:59
Schon klar. Merkt trotzdem niemand in der Geldbörse.
Ganon
2023-07-25, 13:58:55
Schon klar. Merkt trotzdem niemand in der Geldbörse.
Kommt drauf an. Einmal geht's erst mal darum, dass einige Leute gerne effiziente Systeme haben wollen. Wie ich ja schon sagte: Effizient und trotzdem kann man damit zocken.
Und man merkt sowas schon in der Geldbörse, je nachdem wie du das System verwendest. Es macht schon einen Unterschied, auch in der Stromrechnung, ob du den quasi ganzen Tag ein System laufen hast, was >60W ein Großteil der Zeit nimmt, oder was mit <20W auskommt. Das sind je nachdem wie viel deine kWh kostet gerne mal ~10€ im Monat Strom.
aufkrawall
2023-07-25, 14:05:23
In deiner Rechnung fehlen Arbeit, Schlafen, sonstiges Leben, Suspend-Phasen und das eigentliche Zocken.
Ansonsten kannst du auch fast alles mit dem Smartphone machen, braucht noch weniger Strom...
Langlay
2023-07-25, 14:08:50
Es macht schon einen Unterschied, auch in der Stromrechnung, ob du den quasi ganzen Tag ein System laufen hast, was >60W ein Großteil der Zeit nimmt, oder was mit <20W auskommt. Das sind je nachdem wie viel deine kWh kostet gerne mal ~10€ im Monat Strom.
Sagen wir 50W mehr, macht 1KWh mehr alle 20h. Der Monat hat 720h macht 36 KWh im Monat. Also selbst wenn du 40ct pro KWh zahlst macht das 14,40€ und der Rechner rennt 24/7.
Ich kann klein und leise ja verstehen, aber der Stromverbrauch ist doch als Kostenfaktor quasi vernachlässigbar. Die Wärmeentwicklung find ich allgemein problematischer besonders im Sommer. Aber das kann halt auch meine Bubble sein.
720p@High gibt es auch noch. edit: Allgemein ist die Argumentation, dass man alles nur auf Low bis Medium spielen kann halt nicht korrekt. Tatsächlich ist es eher Medium bis High. Und je nach Spiel sucht man die Unterschiede dort schon mit einer Lupe.
Ja, das sind dann aber auch meist Spiele wo bei meiner Graka der Lüfter nicht angeht. Wenn man nur LoL, Hearthstone und co spielt, kannste mit na APU schon was anfangen. Wenn du auch mal ein AAA Titel oder einen Onlineshooter spielen willst, dann gewinnste halt mit der APU keinen Blumentopf mehr.
Ganon
2023-07-25, 14:15:45
In deiner Rechnung fehlen Arbeit, Schlafen, sonstiges Leben, Suspend-Phasen und das eigentliche Zocken.
Nö, ist nicht auf 24h gerechnet. Dann wären es mehr. In Zockerphasen ist der Unterschied dann noch mal krasser, da dann so ein effizientes System auf vllt. 40W hoch geht, aber der Desktop-PC auf 400W oder mehr. Ich hab letztes WE alleine gut 22h gezockt :ugly: Aber auf der Switch.
Ansonsten kannst du auch fast alles mit dem Smartphone machen, braucht noch weniger Strom...
Ein Smartphone spielt aber immer noch keine PC-Spiele ab.
Die Wärmeentwicklung find ich allgemein problematischer besonders im Sommer.
Ich sagte ja "auch". Ich mag effiziente System auch, weil sie auch nicht so viel Hitze erzeugen und eben auch nicht so viel Platz brauchen.
edit:
Und nur zur Vorsicht: Wer die Meinung nicht teilt, auch OK. Ich will hier niemanden überzeugen seinen Desktop PC wegzuwerfen. Ich erläutere nur meine Meinung dazu.
aufkrawall
2023-07-25, 14:27:45
Ein Smartphone spielt aber immer noch keine PC-Spiele ab.
Schafft ein ULP-PC auch nur mit Ach und Krach, also mit Klötzchengrafik und Dauergeruckel. Also voll fairer Vergleich...
Langlay
2023-07-25, 14:29:19
Ich sagte ja "auch". Ich mag effiziente System auch, weil sie auch nicht so viel Hitze erzeugen und eben auch nicht so viel Platz brauchen.
.
Bin ich ja auch voll bei dir. Ich hab einen ITX PC der so groß ist wie ein Schuhkarton. Der ist auch voll auf Effizienz getrimmt nur der kann halt trotzdem 4K und alle Regler rechts in leise und ist für die Performance auch relativ sparsam (beim Zocken normalerweise unter 400W aus der Dose).
Aber du hast natürlich recht ist halt auch ne Frage was willste mit dem System machen und was ist dein Anspruch. Aber ich persönlich hab seh halt noch nicht das gelobte Land der APUs. Gefühlt hat sich das die letzten 5+ Jahre im Performanceabstand APU <-> Mainstream GPU nicht viel getan. Also mehr Evolution statt Revolution.
Ganon
2023-07-25, 14:36:10
Schafft ein ULP-PC auch nur mit Ach und Krach, also mit Klötzchengrafik und Dauergeruckel. Also voll fairer Vergleich...
Klötzchengrafik und Dauergeruckel kann ich auf dem ROG Ally nicht nachvollziehen.
Langlay
2023-07-25, 14:39:18
Klötzchengrafik und Dauergeruckel kann ich auf dem ROG Ally nicht nachvollziehen.
Das ROG Ally kostet 800€ dafür krieg ich auch einen PC mit na 3060 oder sowas.
Ganon
2023-07-25, 14:46:49
Das ROG Ally kostet 800€ dafür krieg ich auch einen PC mit na 3060 oder sowas.
Der dann wieder mehr Strom verbraucht, mehr Hitze erzeugt, mehr Platz belegt und dann auch kein All-In-One System ist (Bildschirm, WLAN, Tastatur/Gamepad, Lautsprecher), das ich mal einfach so in eine Tasche stecke. edit: Der nachfolgende Kompromiss wäre dann Gaming-Notebook, dann folgt Desktop-PC.
Ich kann es nur wiederholen: Effizientes System mit dem man trotzdem zocken kann. Dass ein Desktop System am Ende das Spiel schneller, schöner, weiter rendert ist mir klar. Hab ich auch bereits erwähnt. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13357269&postcount=2941)
aufkrawall
2023-07-25, 14:51:34
Klötzchengrafik und Dauergeruckel kann ich auf dem ROG Ally nicht nachvollziehen.
Weil ein Handheld ja auch so ein vollwertiger PC für alle möglichen Zwecke ist. :freak:
Das ROG Ally kostet 800€ dafür krieg ich auch einen PC mit na 3060 oder sowas.
Da ist wohl schon einer eine 6700 XT drin, und damit kann ich Fortnite noch mit irgendwie halbwegs ansehnlicher Grafik bei 135fps spielen.
Das ROG Ally liefert mit Lumen vermutlich irgendwas um die 5-10fps ab. So viel zur Tauglichkeit für kommende UE5-Spiele mit modernen Effekten...
Ganon
2023-07-25, 14:53:31
Weil ein Handheld ja auch so ein vollwertiger PC für alle möglichen Zwecke ist. :freak:
Was geht denn nicht?
Ganon
2023-07-25, 15:11:55
Wenn du auch mal ein AAA Titel oder einen Onlineshooter spielen willst, dann gewinnste halt mit der APU keinen Blumentopf mehr.
Kommt auch darauf an. Cyberpunk 2077, Diablo 4 und Red Dead Redemption 2 laufen eigentlich ganz gut auf dem Z1 Extreme und vergleichbar. Natürlich nicht in "4K, Alle Regler Rechts", aber auch nicht "480p alle Regler links".
Aktuell spiele ich Death Stranding in 1080p (FSR2), High bis Very High mit quasi locked 30fps. Diablo 4 läuft mit 1080p (FSR2) auf Hoch (Ultra wegen zu wenig RAM nicht auswählbar) mit 40fps.
Oder was verstehst du sonst unter AAA Titel?
aufkrawall
2023-07-25, 15:21:20
Diablo 4 läuft mit 1080p (FSR2) auf Hoch (Ultra wegen zu wenig RAM nicht auswählbar) mit 40fps.
Und das akzeptiert man auch nur für einen Handheld, weil es an sich schon extrem lahm ist. Bei fps/€ ist dann aber völlig Land unter.
320€ 6700 XT schafft häufig 140-170fps, bei 1440p FSR 2 Q...
Ganon
2023-07-25, 15:23:20
Und das akzeptiert man auch nur für einen Handheld, weil es an sich schon extrem lahm ist.
Na ach, hast du das jetzt etwa auch verstanden? Ich dachte schon ich müsste es noch einmal schreiben :ugly:
aufkrawall
2023-07-25, 15:32:11
Wieso du inhaltlich von einem Desktop-Ersatz wegen des Stromverbrauchs zu einem teuren Handheld für portables Gaming springst, könntest in der Tat noch mal ausführen. Oder dir vielleicht das Aufmachen irrelevanter Fässer einfach sparen.
Langlay
2023-07-25, 15:37:11
Kommt auch darauf an. Cyberpunk 2077, Diablo 4 und Red Dead Redemption 2 laufen eigentlich ganz gut auf dem Z1 Extreme und vergleichbar. Natürlich nicht in "4K, Alle Regler Rechts", aber auch nicht "480p alle Regler links".
Aktuell spiele ich Death Stranding in 1080p (FSR2), High bis Very High mit quasi locked 30fps. Diablo 4 läuft mit 1080p (FSR2) auf Hoch (Ultra wegen zu wenig RAM nicht auswählbar) mit 40fps.
Oder was verstehst du sonst unter AAA Titel?
Grundsätzlich meinte ich eigentlich nicht Handhelds, sondern eher "richtige" PCs ohne dedizierte Graka. Also sowas wie ein Intel NUC, oder andere PCs mit ähnlicher Ausstattung. Und darauf war meine Aussage eigentlich ursprünglich bezogen.
Und ich muss sagen mich persönlich begeistert 1080p mit 30FPS und FSR2 im Gesamtbild nicht wirklich. Für mich wäre das 3x "wenns nicht anders geht" auf einmal. Aber ich bin sicherlich auch nicht die Zielgruppe und wüsste auch garnet wann ich einen Ally nutzen sollte.
Ganon
2023-07-25, 15:38:06
Wieso du inhaltlich von einem Desktop-Ersatz wegen des Stromverbrauchs zu einem teuren Handheld für portables Gaming springst, könntest in der Tat noch mal ausführen. Oder dir vielleicht das Aufmachen irrelevanter Fässer einfach sparen.
Ich rede die ganze Zeit vom Ryzen Z1 / 7040 Serie als APU auch für Gaming. Ob nun Handheld oder Notebook mit entsprechender CPU ist dabei egal. Ist für mich eines, lediglich mit anderen Eingabegeräten verbaut. Wie bereits erwähnt. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13357269&postcount=2941) Man könnte auch das Steam Deck als günstigen und potenten Handheld heranziehen, aber eigentlich sind wir im Ryzen 7000 Zen 4 Review Thread.
Und ich muss sagen mich persönlich begeistert 1080p mit 30FPS und FSR2 im Gesamtbild nicht wirklich. Für mich wäre das 3x "wenns nicht anders geht" auf einmal.
Was auch vollkommen OK ist. Ich will hier ja niemanden überzeugen. Ich sag halt nur wie ich es sehe. Mit einem Desktop-PC spielt es sich z.B. auch sehr schlecht in der Bahn oder als Beifahrer im Auto.
Gipsel
2023-07-25, 17:17:44
Sagen wir 50W mehr, macht 1KWh mehr alle 20h. Der Monat hat 720h macht 36 KWh im Monat. Also selbst wenn du 40ct pro KWh zahlst macht das 14,40€pro Monat. Nicht Alle haben eine Stromrechnung von 100€ im Monat oder mehr. Bei <40€ oder so (was im Single-Haushalt locker machbar ist, selbst bei Strompreisen von 40cents/kWh) ist das nicht vernachlässigbar.
Langlay
2023-07-25, 17:29:59
pro Monat. Nicht Alle haben eine Stromrechnung von 100€ im Monat oder mehr. Bei <40€ oder so (was im Single-Haushalt locker machbar ist, selbst bei Strompreisen von 40cents/kWh) ist das nicht vernachlässigbar.
Dann sollteste dich fragen wieso der Rechner 24/7 laufen muss. Man kann die Teile auschalten wenn man sie nicht braucht.
Ja, wenn man sonst im Kerzenlicht ein Buch gelesen hat, wird man wohl 10-20€ mehr Strom in Monat brauchen. Hobbies kosten Geld, ganz neue Erkenntnis.
Matrix316
2023-07-25, 17:56:17
Wieso du inhaltlich von einem Desktop-Ersatz wegen des Stromverbrauchs zu einem teuren Handheld für portables Gaming springst, könntest in der Tat noch mal ausführen. Oder dir vielleicht das Aufmachen irrelevanter Fässer einfach sparen.
Also so einen Handheld hatte ich auch schon mal überlegt. Immerhin kann man den auch mobil nutzen. Und zu Hause wird er an den Monitor gehängt. Wobei Ultra HD auch für den ROG Ally wohl etwas viel ist. ;)
Ganon
2023-07-25, 17:59:51
Dann sollteste dich fragen wieso der Rechner 24/7 laufen muss. [...] Hobbies kosten Geld, ganz neue Erkenntnis.
Muss man auch gar nicht mal so betrachten. Alleine meine genannte Gaming-Session letztes Wochenende wäre ein Unterschied von 3,50€ vs. 9 Cent gewesen. Nur für diese eine Session.
Klar, Hobbies kosten Geld. Und ich mag es die gleichen Spiele zu spielen, ohne dabei mehrere hundert Watt aus der Steckdose zu lutschen. Egal in welche Richtung man geht, Kompromisse muss man immer eingehen. Die Frage ist dabei immer nur, welche man bereit ist einzugehen und welche nicht.
Platos
2023-07-25, 22:48:51
Befriedigt es deinen Basteldrang wenn du immerhin noch RAM und HDD rein stecken kannst? :D
Es gibt wohl leider keine Mobile APUs zum selber rein stecken oder gar entsprechende Mainboards fürn normalen Desktop PC. Wäre natürlich cool.
Die eGPU schließt du in dem Fall über die Oculink Schnittstelle an, sofern der PC das bietet. Gibt aber auch Adapter für. Führt halt PCIe raus und ist viel schneller als Thunderbolt oder USB. ETA Prime hat dazu auch schon Videos gemacht. Kann man auch mehr wenn es keine fertige e-GPU sein soll sondern ne normale die man vllt. noch zu Hause rum liegen hat. Hier mal was wildes:
https://youtu.be/ZMASet1yLzg
Ist das genug gebastel? :D
Ich habe das mal zum anderen Thread ausgelagert und dort geantwortet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13358197#post13358197
Nazar
2023-07-26, 09:50:25
Um welches Thema geht es hier eigentlich noch gleich? :freak:
Ich habe vor mir einen Sack Reis aus China zu kaufen, der soll aber schon umgefallen sein. Mit welchem Gerät wäre das nicht passiert (Bestellung per Smartphone oder einem Handheld?
Wie viel Geld muss eine Oma stricken, um fliegende Fische mit einem Handy zu filmen, obwohl sie kein Interesse am Autofahren hat?
Und, wenn Elefanten in einem deutschen Zoo, nach dem Verzehr von südafrikanischen Nüssen furzen, gehen in China dann Eisbären mit Haubentauchern Segelfliegen?
Wie viel Watt das wohl verbraucht? :confused:
Matrix316
2023-07-26, 21:49:02
Um welches Thema geht es hier eigentlich noch gleich? :freak:
Ich habe vor mir einen Sack Reis aus China zu kaufen, der soll aber schon umgefallen sein. Mit welchem Gerät wäre das nicht passiert (Bestellung per Smartphone oder einem Handheld?
Wie viel Geld muss eine Oma stricken, um fliegende Fische mit einem Handy zu filmen, obwohl sie kein Interesse am Autofahren hat?
Und, wenn Elefanten in einem deutschen Zoo, nach dem Verzehr von südafrikanischen Nüssen furzen, gehen in China dann Eisbären mit Haubentauchern Segelfliegen?
Wie viel Watt das wohl verbraucht? :confused:
Nee ob sich ein Zen 4 zum Stromsparen durch Hybrid Modus lohnt.
Zum Beispiel ob ein 7800X3D mit IGPU in Youtube weniger Strom verbraucht als ein 13900K+7900XTX ...? :uponder:
r3ptil3
2023-07-27, 15:50:48
BIOS 1516 (ASUS X670E), 6000 CL30 EXPO, Context Restore aktiviert:
https://i.ibb.co/gd8nX5C/image.png
Nicht perfekt, aber mittlerweile durchaus okay.
Nightspider
2023-07-27, 16:24:37
BIOS 1516 (ASUS X670E), 6000 CL30 EXPO, Context Restore aktiviert:
https://i.ibb.co/gd8nX5C/image.png
Nicht perfekt, aber mittlerweile durchaus okay.
Das bedeutet was? :usad:
Gipsel
2023-07-27, 16:47:57
BIOS 1516 (ASUS X670E), 6000 CL30 EXPO, Context Restore aktiviert:
https://i.ibb.co/gd8nX5C/image.png
Nicht perfekt, aber mittlerweile durchaus okay.Das geht bei anderen Boards seit einiger Zeit gar noch schneller. Habe letztens gerade ein 7700X auf einem Asrock B650M-HDV/M.2 mit damals AGESA 1.0.0.7a (also noch nicht das neueste) und 32GB DDR5-6000 CL32 EXPO aufgesetzt. Bei aktiviertem Context Restore (ist default) ist man da ~17s nach Drücken des Powerbuttons schon in Windows. Ist das gleiche Board, bei dem das Hardware Unboxed vor einiger Zeit zuerst aufgefallen ist (https://twitter.com/HardwareUnboxed/status/1640964955754360832?lang=de) (Powerbutton bei ~15s im Video, Login Screen bei ~28s, Windows Desktop ~32s, macht ~17s bis zum Windows Desktop). ;)
r3ptil3
2023-07-27, 16:54:24
Das bedeutet was? :usad:
Bootdauer
Nightspider
2023-07-27, 17:28:53
Dumme Frage:
Machen die RAM Timings einen merkbaren Unterschied bei der Bootdauer?
Ich hatte ja mal mit dem Gedanken gespielt mit ein kleineres (~100GB) Optane Drive für Windoof zu holen. Die sollen ja erst recht abgehen.
Nee ob sich ein Zen 4 zum Stromsparen durch Hybrid Modus lohnt.
Zum Beispiel ob ein 7800X3D mit IGPU in Youtube weniger Strom verbraucht als ein 13900K+7900XTX ...? :uponder:
Definitiv, denn die XTX bleibt bei YT usw. stets bei 4w. Den Verbrauch der iGPU kann man getrost vernachlässigen. Gott sei Dank hat AMD mit dem 23.7.2 auch den Fehler gefixt, dass auf einmal kein Bild mehr vorlag. Hier half die Stecker raus/rein Variante. So funktioniert nun auch Browsen mit aktivierter Hardwareunterstützung!
Gipsel
2023-07-27, 19:07:27
Dumme Frage:
Machen die RAM Timings einen merkbaren Unterschied bei der Bootdauer?Eher nicht. Wichtig ist ein gut funktionierendes "Context Restore" Feature. Das war auf der AM5-Plattform allerdings anfangs nicht gegeben, so daß bei jedem Start insbesondere bei der Verwendung von OC-RAM (z.B. mit XMP- oder EXPO-Profilen) erstmal das DDR5-Memory-Training losging, was in Bootdauern von z.T. mehreren Minuten resultierte. In den letzten Monaten haben aber mehr und mehr Mainboard-Hersteller das Problem angegangen (und oft quasi gelöst).
Mordekai2009
2023-07-27, 21:11:19
16,3 Sek. via TaskManager.
ASRock B650 LiveMixer - UEFI version 1.24 - AGESA 1.0.0.7a (05/23/2023)
mboeller
2023-08-06, 12:37:06
Asus ROG Ally review (https://www.gsmarena.com/asus_rog_ally_review-news-59427.php)
mit vielen Spieletests
Mordekai2009
2023-08-10, 16:04:10
Nach über 2 Monaten im Einsatz. Ich bin mehr als Zufrieden mit meinem Ryzen 7 7800X3D.
dildo4u
2023-08-19, 13:27:27
Neuer Treiber Overhead Test Intel vs AMD mit 7900XTX und 4090.
H9guEsBly0I
aufkrawall
2023-08-19, 13:35:09
Ist ihm aufgefallen, dass Nvidia rBAR wegen CPU-Leistungseinbußen in Hitman/HZD etc. abschaltet, aber nur mit Intel-CPU? Keinen Bock, das ganze Video mit Ton zu schauen.
Ist btw. der zweite Eintrag im Inspector für rBAR, da sieht man das entsprechende gleiche Flag für Hitman, HZD etc.
Lehdro
2023-08-21, 15:03:42
Ist ihm aufgefallen, dass Nvidia rBAR wegen CPU-Leistungseinbußen in Hitman/HZD etc. abschaltet, aber nur mit Intel-CPU? Keinen Bock, das ganze Video mit Ton zu schauen.
Ist btw. der zweite Eintrag im Inspector für rBAR, da sieht man das entsprechende gleiche Flag für Hitman, HZD etc.
rBar wird thematisiert (hatte er damals zu den HZD Tests von RPL Boards schon bemerkt, als dieselbe Intel CPU mit 2 Boards massiv unterschiedliche Leistung hatte), ebenfalls das NV das mittlerweile "gefixt" hat. Ist zwar schon eine Weile her, er erwähnt es aber erneut.
aufkrawall
2023-08-21, 15:27:18
Im Hitman 3-Abschnitt verdächtigt er rBAR potenziell. Er sagt aber auch, dass er das noch nicht näher untersucht hat. Er wird also nicht gescheckt haben, dass der "Fix" ein simples Abschalten ist.
Lehdro
2023-08-21, 16:06:49
Im Hitman 3-Abschnitt verdächtigt er rBAR potenziell. Er sagt aber auch, dass er das noch nicht näher untersucht hat. Er wird also nicht gescheckt haben, dass der "Fix" ein simples Abschalten ist.
Für HZD weiß er es definitiv, das hatte ich schon einmal von ihm gehört. Kann sein das es eins der Q&A Videos war wo es um Intel + rBar ging, müsste man jetzt nachschauen. Auf jeden Fall erwähnte er das es dank eines neuen NV Treibers rBar automatisch für das Game deaktiviert wurde und damit die Leistungsprobleme verschwanden.
Matrix316
2023-08-22, 10:52:10
Skandal! Schnell ein Hate Video machen: Hardware Unboxed ist unseriös! ;)
Was ich nicht verstehe, dass die da sogar unterschiedliche schnellen RAM jeweils nehmen. Wenn ich CPUs vergleiche muss ich doch alles außen Rrum so gleich wie möglich machen. Gleiches Mainboard so gut es geht, gleiche Einstellungen, möglichst gleicher RAM etc. etc..
Complicated
2023-08-22, 12:21:08
alles außen Rum
Der gleiche Rum vor dem Test ist das wichtigste :biggrin: *SCNR*
Nightspider
2023-08-22, 12:39:08
Was ich nicht verstehe, dass die da sogar unterschiedliche schnellen RAM jeweils nehmen. Wenn ich CPUs vergleiche muss ich doch alles außen Rum so gleich wie möglich machen. Gleiches Mainboard so gut es geht, gleiche Einstellungen, möglichst gleicher RAM etc. etc..
Wieso?
Intel CPUs erreichen ihr Leistung erst mit höheren RAM Taktraten die kaum mehr kosten, während AMD CPUs geringere Taktraten aber dafür meist schärfere timings fahren.
Es wäre dämlich beide CPUs mit ddr6000 zu testen
dildo4u
2023-08-24, 13:36:52
7500F Test bei uns ca 200€ als Tray Modell.
https://youtu.be/s4Z5d3eQD0U?si=Y_pyf5rxb9y5tEt4
Matrix316
2023-08-24, 15:57:23
Wieso?
Intel CPUs erreichen ihr Leistung erst mit höheren RAM Taktraten die kaum mehr kosten, während AMD CPUs geringere Taktraten aber dafür meist schärfere timings fahren.
Es wäre dämlich beide CPUs mit ddr6000 zu testen
Ja aber es geht ja nicht um die volle Leistung, sondern um die vergleichbare Leistung, oder? Dann sollte man zumindest auch ein Test dabei machen mit unterschiedlichen RAM Konfigurationen, damit das erklärt wird. Weil ansonsten könnte man die CPUs auch noch übertakten. Dann hätten sie noch mehr Leistung.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.