PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake - Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8

BlacKi
2022-02-11, 17:49:02
schau mal ob du hiervon was übernehmen kannst.
https://abload.de/img/4464jo0.png

aufkrawall
2022-02-11, 17:51:11
Thx. Ich kann leider kaum sinnvolle Benchmarks anstellen, weil Bro auch nur noch eine 3060 hat und in reproduzierbaren Szenarien <100% GPU-Last auch in 240p häufig unmöglich ist. :redface:

latiose88
2022-02-11, 18:47:16
das heißt wer nur in Full HD mit 120 Hertz oder weniger Hertz hat man dann in Games also nicht mehr so große Vorteile oder ab wann hätte man bei CPU noch Vorteile?

aufkrawall
2022-02-11, 19:02:31
Gibt ein paar Spiele wie Anno, oder vielleicht auch schlecht optimierter Indie-Kram wie Tarkov, wo das mehr durchschlägt.
Ansonsten hatte mein 6700K mit D3D12 auch schon ~190fps Minimum in Fortnite in Städten mit vielen Spielern geschafft...

BlacKi
2022-02-11, 19:27:07
das heißt wer nur in Full HD mit 120 Hertz oder weniger Hertz hat man dann in Games also nicht mehr so große Vorteile oder ab wann hätte man bei CPU noch Vorteile?
klar, wenn du 120fps anvisierst und du kannst diese durchgehend halten dann reicht deine cpu.

aber so funktioniert das leider nicht. entweder man kennt nicht die anspruchsvollste stelle, weil man das spiel ja nicht nach anspruchsvollen stellen durchsucht, oder eben weil das spiel noch garnicht erschienen ist. man kauft schließlich cpus nicht nur für aktuelle spiele, sondern auch für zukünftige.

es lassen sich keine exakten daten für die zukunft mit 720p benches, oder noch geringer aufgelöst, ermitteln, aber abschätzungen kann man damit trotzdem machen.

für manche kann daher die cpu zum zeitpunktes des kaufes nicht schnell genug sein, anderen reicht ein gutes performance plus gegenüber der alten hardware als zukunftssicherheit aus, dann reicht zb. auch ein 12400f.

Ex3cut3r
2022-02-11, 19:33:10
AlderLake bzw. die dicken Schlachtschiffe davon sind halt Future Proof, damit kann es IHMO die ganze Konsolen Gen aushallten (wenn man möchte)

Trotzdem finde ich, dass man eher in eine dickere GPU investieren sollte, wenn man nicht grade eine Uralt CPU hat.

Hier reicht schon ein 3600 für die 3080 Ti @ 1440p aus.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12916781&postcount=116

GPU Usage ist ganz oben gleich das erste im OSD unter der FPS Anzeige.

Hier wird auch ständig gefragt ob es sinn machen wurde, von einem 3700X auf den 5800X für eine 6700XT zu wechseln. Dann sage ich immer, lad dir den AB runter und stell dir das OSD auf GPU Usage um, dropt deine GPU auf unter 95% ständig? Ja? Dann go for it. Nein, warum wechseln?

Meistens kommt dann nix mehr, scheint wohl sehr überfordernd zu sein. :freak:

BlacKi
2022-02-11, 20:04:09
dropt deine GPU auf unter 95% ständig? Ja? Dann go for it. Nein, warum wechseln?
weil man versucht das es nicht nur nicht ständig sondern möglichst garnicht passiert. und es gibt spiele die kriegen nicht nur einen r5 3600 ins cpu limit, sondern auch alderlake cpus.

deshalb, zumindest für 120fps+, gibt es keine cpu die wirklich reicht, sondern passt nur zur persönlichen perf/€ anforderung. reichen gibts eigentlich nicht.

aufkrawall
2022-02-11, 20:06:40
Na ja, so schlimm ist in manchen Spielen ein vorübergehendes CPU-Limit auch nicht, wenn die fps hoch genug sind und es sauber genug läuft.
CS:GO spielt man für niedrigsten Lag am besten komplett im CPU-Limit. :freak:
Bräuchte mal Reflex...

Ex3cut3r
2022-02-11, 20:11:21
CPU Limit bin ich bei meinem verlinkten "Liste" in zwei Spielen, aber bei 200PFS+ (Bei RE3 Remake nicht | GPU Limit)
Und es läuft sauber, von daher wirklich egal. Option auf 5K DSR oder 4K DSLR mit 170 FPS avg. und 99% GPU Usage ist dann auch möglich.

Es scheint eher eine Kopfsache zu sein. HISN fand ich hat darauf immer gute Antworten gegeben. Halbwegs moderne CPU vorhanden? -> Go for GPU rather than CPU und Board IHMO.

Troyan
2022-02-11, 20:25:06
Was ist eine "moderne" GPU? Bei Intel is alles vor Rocket-Lake veraltet. Und RL macht im Zuge von AL keinen Sinn mehr.

Mein 12600K ist im CPU-Limit ~40% schneller als mein i9-9900 ohne Limit.

/edit: Hier war mein Vergleich im CPU Limit: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12871981&postcount=881

-=Popeye=-
2022-02-11, 20:29:00
Man "braucht" auch nicht mehr als einen 12400F, 11400F, oder vielleicht auch 10400. Wenn das mit der eingeschränkten Gear 1-Taktbarkeit durch die SA-Spannung für non-Ks stimmt, erscheint mir der 12500 auch weniger attraktiv. Also entweder ganz billig oder in die Vollen gehen, wenn Geld nicht die große Rolle spielt. ADL ist eine gute Arch, aber wird auch schnell wieder überholt sein.

Läuft so bei Bro seit ein paar Tagen stabil:
https://abload.de/thumb/new6mkmf.png (https://abload.de/image.php?img=new6mkmf.png)

Verbesserungsanmerkungen? tREFI 65k sollte safe sein? tFAW ist etwas hoch, allerdings könnte ein Timing-Wert von 22 für Instabilität verantwortlich gewesen sein (oder aber auch ein anderes Timing).

Das Menü-Layout von Asus ist ja mal das reinste Chaos, grauenhaft. Hat auch ein paar kleinere Bugs mit dem Wiederherstellen von einigen Werten aus abgespeicherten Benutzerprofilen. Insgesamt scheint es aber einwandfrei zu laufen.

Diese Subs könnten bei ihm auch laufen.

https://abload.de/thumb/12700k_4000_ram5rjdv.png (https://abload.de/image.php?img=12700k_4000_ram5rjdv.png)

aufkrawall
2022-02-11, 20:36:49
Thx. Sehen allerdings etwas zu scharf für meinen Geschmack aus, er soll in Fortnite ja nicht zwischendrin rausdroppen (und das passiert mit scheinstabilen Werten bei dem Spiel unweigerlich). ;)

Auch witzig, wie schnell (locker >100fps, wenn nicht häufig >150) Battlefield 4 mit nur einem P-Core und sonst nur E-Cores läuft. :eek:
Für Notebooks kann das echt der ganz große Bringer werden.

BlacKi
2022-02-11, 20:36:55
CPU Limit bin ich bei meinem verlinkten "Liste"

richtig, deine liste ist einfach zu klein. aber pauschal zu sagen "reicht" ist praktisch gesehen falsch. jeder hat aber sein persönliches empfinden, oder spieleliste, die die eigentliche anforderung darstellen.

Lurtz
2022-02-11, 22:12:52
Wann kann man denn die ersten Notebooks mit Alder Lake U-Prozessoren etwa erwarten?

latiose88
2022-02-12, 00:42:04
ALso ich habe was mit gerüchten von April/Mai gelesen,aber auch keine sichere Quelle.


Ok wie verhält es sich wenn man freiwillig die FPS reduziert also sprich auf festen 60-75 fps setzt.
Wie sieht es dann bezüglich dem CPU limit aus,kann man das durch sowas aushebeln oder ist dies nicht möglich?

BlacKi
2022-02-12, 00:48:06
Wie sieht es dann bezüglich dem CPU limit aus,kann man das durch sowas aushebeln oder ist dies nicht möglich?


aushebeln verstehe ich nicht. welches ziel soll das haben? strom sparen? ja. temperatur reduzieren? ja.

latiose88
2022-02-12, 00:50:33
ja das nimmt gewiss den CPU limit weg,weil diese ja dann auch weniger ackern muss, so halt die logik.Hat die GPU weniger zu tuen,muss auch die CPU automatisch weniger tun.Langweils sich also die GPU zu tode,was wird wohl dann die CPU machen wenn sie wenig Bearbeiten muss für die GPU.

Ex3cut3r
2022-02-12, 01:15:40
richtig, deine liste ist einfach zu klein.

Vertretbar. Aber, mehr spiele habe ich momentan hier nicht installiert. Das war alles was ich habe. ^^

Ich könnte noch CP77 vorweisen, aber da sind meine Settings so auf GPU getrimmt, das es keinen Sinn macht (4K DLDRS von 1440p ausgehend, RT Ultra + Spiegelungen + DLSS P oder B @ 56-90 FPS)

Jetzt verstehe ich aber Raff, weil er mit Real 4K oder gar 5K spielt. Und seine CPU dafür sogar nur @ 3Ghz betreibt. Es ist einfach erschreckend unnötig da viel Geld zu investieren, wenn man ständig SP Games wie er mit der Downsampling Keule spielt. Und das gleiche Szenario gibt es dann wiederum bei Krawall mit der 3060 wo wahrscheinlich sogar ein 10th Gen i5 reichen wurde. Und die 3060 nun aber den AlderLake selbst @ 240p limitiert.

Ich glaube den nächsten Schub, gibt erst wieder, wenn die PS4 und Xbox One endgültig keine Ports von neuen Spielen abbekommen. Dann könnte es sein, das Zen 2 nicht mehr befriedigend reicht, werde ich ja dann sehen, und notfalls passt ein Zen 3 noch in mein X570 Board.

BlacKi
2022-02-12, 01:41:53
Und die 3060 nun aber den AlderLake selbst @ 240p limitiert.


es reicht nicht um 100% cpu limited zu sein. um eine cpu performance zu benchen sollte die gpu limit im besten fall bei 0% sein. und das klappt mit schnellem ram bei alderlake kaum. es gibt spiele wo das möglich ist. zb. cities skyline. aber sicher auch weitere spiele wo 60fps nicht garantiert sind, selbst mit alderlake.

ja das nimmt gewiss den CPU limit weg,weil diese ja dann auch weniger ackern muss, so halt die logik.Hat die GPU weniger zu tuen,muss auch die CPU automatisch weniger tun.Langweils sich also die GPU zu tode,was wird wohl dann die CPU machen wenn sie wenig Bearbeiten muss für die GPU.

ja, das tun viele, indem sie eben im VRR bereich zu bleiben ihre fps limitieren oder vsync aktivieren. das sollte standard sein. aber es hilft halt nicht im cpu limit.

Wuge
2022-02-12, 12:26:20
Läuft so bei Bro seit ein paar Tagen stabil:
https://abload.de/thumb/new6mkmf.png (https://abload.de/image.php?img=new6mkmf.png)

Verbesserungsanmerkungen? tREFI 65k sollte safe sein? tFAW ist etwas hoch, allerdings könnte ein Timing-Wert von 22 für Instabilität verantwortlich gewesen sein (oder aber auch ein anderes Timing).

tRFC nach ist das B-Die. Also FAW 16, tRRD 4, bei den restlichen Subtimings geht auch noch einigs.tREFI kannste mal verdoppeln. 65535 läuft tatsächlich auch ohne Fehler, finde das krass aber geht.

aufkrawall
2022-02-12, 20:22:23
Haben tRAS, tFAW und tREFI angezogen, vorerst Karhu und memtest86+ stabil. Sollte erstmal reichen, bringt eh nichts mehr im spürbaren Rahmen.
Far Cry 5 hat von CL15 -> 16 leider noch leicht Federn bei den min fps im Benchmark gelassen, aber kann man nicht ändern.

C-State und ASPM sparen vernünftig Strom im Idle, komplettes System 68W mit Höchstleistungs-Profil. Für das fette Board sicherlich nicht schlecht.
So, jetzt muss es sich nur noch als rockstable erweisen. :D

Cubitus
2022-02-12, 23:50:52
del..

Lowkey
2022-02-14, 18:31:05
Wenn es stimmt, dann kommt für DDR5 noch ein Fix.

aufkrawall
2022-02-14, 18:32:21
Wenn es stimmt, dann kommt für DDR5 noch ein Fix.
Gegen die komischen Stabilitätsprobleme (bei hohem RAM-Takt?)?

Lowkey
2022-02-14, 18:47:57
Ich hoffe es doch sehr, denn derselbe Fehler bei verschiedenster Hardware deutet auf Microcode oder Technologiefehler hin.

Lowkey
2022-02-17, 16:59:06
USB 3.2 Gen 2 2x2

Intel vs AMD

1200mb/s vs 800mb/s

Intel ist mal eben 50% vor AMD. Eventuell übersehe ich da eine Einstellung. Denn es sollte der identische Standard sein.

Blediator16
2022-02-17, 17:36:30
Okay. Ohne Quelle ohne Recherche kommst du mit dem Kommentar ganz trocken in den Beitrag rein?

https://www.hardwareluxx.de/index.php/artikel/hardware/mainboards/52204-mit-usb-3-2-gen2x2-test-das-asus-rog-zenith-ii-extreme-alpha-im-kurztest.html?start=2

Keine 10 Sekunden google.

aufkrawall
2022-02-17, 21:52:38
In CyberPunk mit RT ~240p zeigen die E-Core ständig 40-70% Last an. Die Anzeige ist aber quasi Fake, denn wenn man sie abschaltet, tut sich an der Performance im Grunde rein gar nichts und auch ohne die E-Core läuft es mit 8 P-Cores schon sauberer als mit 6C. Ergo sind die E-Cores wie erwartet ziemlich bis völlig wertlos für Gaming. Wer einen 10C Comet Lake hat, kann sich glücklich schätzen. Ist immer noch die beste Gaming-CPU.

Die Spiele-IPC haut mich trotz 4GHz Gear 1 RAM-Takt unterm Strich auch nicht vom Hocker, zumindest nicht vs. Rocket Lake. Schätze, wenn man beide mit ähnlich ausgemaxtem RAM vergleicht, ist der 12400F fast kein Fortschritt gegen den 11400F. Der 5600X ist natürlich trotzdem nur ein Witz für den Preis. Das ist in CyberPunk mit RT nur noch gehobenes Lowend, 6C überschreiten ihren Zenit schon langsam. Völlig bekloppt für den Preis.

-=Popeye=-
2022-02-17, 22:57:27
Die E-Cores sind ja auch nicht dafür gedacht Spiele zubeschleunigen sie dienen eher der Effizienz und der Anwendungsbeschleunigung, wenn man diese abschaltet also das Ding nur mit 8c/16t laufen lässt ist die CPU in Spielen zwar schneller säuft dafür aber auch mehr.

aufkrawall
2022-02-20, 00:41:42
Das ist wirklich so, sogar extrem. In CyberPunk sind es krasse 40W mehr ohne E-Cores. An den fps und Frame Times ändert dabei wirklich rein gar nichts, auch bei Crysis 3 im Gras nicht (heizt aber weniger als CyberPunk mit RT).
Ist schon interessant, das Konzept P + E-Cores ist so durchaus sinnvoll. Leider heißt das aber auch, dass die E-Cores rein gar nichts für die Frame Times bringen. Ich werd das morgen etvtl. mal in CyberPunk mit 6 P-Cores testen.

Speaking of CyberPunk: Da gibt es irgendein seltsames Problem, dass es manchmal nach einem Spielstart nicht mehr läuft (crasht direkt beim Start), bis der Rechner einmal ausgeschaltet war. wtf, Microcode-Bug? :confused:
Kein Unterschied Windows Linux...
Mit RKL hier das Problem noch nie gehabt.

ryan
2022-02-20, 01:00:27
Die E-cores hätten noch viel effizienter sein können, hätten sie eine eigene Vcore rail unabhängig zu den P-cores. Da liegt wirklich noch viel Potenzial drin. Ich meine gelesen zu haben, bei ADL-U wären es 2 rails. Das datasheet zu ADL-U ist leider noch nicht verfügbar.

aufkrawall
2022-02-20, 01:28:25
Noch ein paar negative Anmerkungen zum ASUS ROG Strix Z690-A:
Das verbaute Intel-LAN ist eines der Seuchenmodule, die Übertragungsrate und deren Beständigkeit sind schlicht katastrophal. Nachrüst-Netzwerkkarte ist Pflicht.
Im Grunde lässt sich das auch über den verwendeten Realtek-Audiochip sagen, bei dem diverse Treiberfeatures gegenüber älteren für Kopfhörer-Impedanz etc. offiziell fehlen (gibt ein Sammelsurium an Modtreibern dafür...). Ist über USB angebunden, lähmt ständig den Bootvorgang um 10-30s und währenddessen auch andere USB-Geräte (Tastatureingaben...).
Die VRM-Kühler sind auch relativ dämlich platziert bez. Kompatibilität mit CPU-Kühlern. Für >300€ echt absurd kacke...

Freestaler
2022-02-20, 07:19:04
Kommt der Mehrverbrauch bei deaktivierte Ecores, nicht von dann höheren Ringbus takt usw?. Da gab doch ein Test. Anstatt ECores disablen, binding auf P per Lasso.

Lowkey
2022-02-20, 08:38:41
Okay. Ohne Quelle ohne Recherche kommst du mit dem Kommentar ganz trocken in den Beitrag rein?

https://www.hardwareluxx.de/index.php/artikel/hardware/mainboards/52204-mit-usb-3-2-gen2x2-test-das-asus-rog-zenith-ii-extreme-alpha-im-kurztest.html?start=2

Keine 10 Sekunden google.

Quelle? Ich habe die neue 2000/2000 SSD an sämtlichen USB Ports probiert. Die Benchmarks und Tests sagen nichts aus, wenn man von A nach B kopieren will.

joe kongo
2022-02-20, 09:35:21
Wer einen 10C Comet Lake hat, kann sich glücklich schätzen. Ist immer noch die beste Gaming-CPU.


Wäre diese CPU (i9) sinnvoll für ein komplett neues System, also inkl DDR4 RAM,
bei schon vorhandenener RX6700XT ?
10 gleiche Cores würden mir schon zusagen, TDP ist mit angegebenen 125 W
moderat, und so alt ist diese CPU ja nicht.

dildo4u
2022-02-20, 09:58:52
Nein ideal ist die stärkste 8 Core CPU die du dir leisten kannst, da die neuen Konsolen 8 Core /16 Threads nutzen.

Wichtiger ist das das Ding viel Cache hat daher bringt AMD 5800X3D.

6 Core plus 20MB Cache maxt z.b Cyberpunk.

https://youtu.be/Cbyl4q3QFYA?t=484

Der 10900k ist gut fürs Gameing da Intel dem teuersten Modellen den meisten Cache gibt die 8 oder 6 Core Modelle haben weniger.
AMD gibt schon dem 5600X 32mb daher spielt er so weit oben mit und wird nicht billiger, zerstört hier den 12400: https://youtu.be/1GXb-doKETg?t=416
Der 10900f kostet aktuell mher als 5800X und ist langsamer fürs Zocken.

Troyan
2022-02-20, 10:24:00
Wäre diese CPU (i9) sinnvoll für ein komplett neues System, also inkl DDR4 RAM,
bei schon vorhandenener RX6700XT ?
10 gleiche Cores würden mir schon zusagen, TDP ist mit angegebenen 125 W
moderat, und so alt ist diese CPU ja nicht.

Natürlich nicht. Die Plattform ist veraltet und die CPU säuft wie nichts.
Ich bin von einem i9-9900 mit 145W (4500MHz AllCore) auf einem 12600K umgestiegen und habe 40% mehr Leistung bei 21% weniger Verbrauch.

10 Kerne wären nur relevant, wenn ein Thread nie limitieren würde. Das ist in Spielen vielleicht in sehr wenigen Ausnahmen der Fall. Aber sobald auch nur die Last durch einen Thread limitiert, ist Alder-Lake einfach deutlich besser.

robbitop
2022-02-20, 10:29:04
Also in den reviews ist der 12900k ein gutes Stück vor dem 10900K in games

MartinRiggs
2022-02-20, 10:51:52
Jupp, allein die Plattform von Alder Lake ist eine Macht. Weiß nicht wie man darauf kommt nen Comet Lake kaufen zu wollen

joe kongo
2022-02-20, 11:49:21
Deshalb hab ich ja gefragt. Dann werde ich noch ein wenig warten bis DDR5 leistbar wird, wenn schon denn schon.

Slipknot79
2022-02-20, 12:21:52
Wieso seid ihr alle auf 720p gameplay umgestiegen?

Wuge
2022-02-20, 12:24:28
Die E-cores hätten noch viel effizienter sein können, hätten sie eine eigene Vcore rail unabhängig zu den P-cores. Da liegt wirklich noch viel Potenzial drin. Ich meine gelesen zu haben, bei ADL-U wären es 2 rails. Das datasheet zu ADL-U ist leider noch nicht verfügbar.

Weshalb sie da nicht noch einen FIVR verbaut haben verstehe ich auch nicht.

Monsta
2022-02-20, 12:35:32
Wieso seid ihr alle auf 720p gameplay umgestiegen?


Wie soll man sonst die neue Cpu rechtfertigen :)

BlacKi
2022-02-20, 13:24:25
Wie soll man sonst die neue Cpu rechtfertigen :)cpu limit benchmarkvergleiche kann man auch in cpu limitierte 4k szenarien übernehmen.

aufkrawall
2022-02-20, 18:19:01
Wieso seid ihr alle auf 720p gameplay umgestiegen?
Weil CyberPunk RT (1,5 Jahre alt) dann auch in höherer Auflösung während des Fahrens schon mal auf 80fps mit einem optimierten 12700K ins etwaige CPU-Limit runtergeht. Das sind zwar eher kurze Absacker und nicht avg. Aber komfortable ~100fps (kann man mit DLSS und einer 3080/3090 ja machen) kann man so auch nicht anpeilen, und bald gibts für die wohlhabenden unter uns noch viel schnellere GPUs.

Und ja, natürlich sind in anderen Spielen die Balken von ADL relativ beeindruckend lang. Ist aber schon ziemlich Hit (Anno) & Miss (HZD, trotz 4GHz RAM...). B660 ist jetzt leider auch nicht mehr günstiger geworden.
Gehe davon aus, dass ADL gegen Zen 4 alt aussehen wird, auch ohne 3D Cache. Zumindest, wenn DDR5 für Zen 4 nicht noch ungute Überraschungen parat hält.
Ohne die E-Core saufen 8 P-Cores 4,8GHz 1,25V in CyberPunk btw. stolze 150W. Da dürfte man die E-Core schon nur dafür wirklich nötig haben, damit die Effizienz in Spielen mit hoher MT-Last nicht völlig grottig gegen Zen 4 sein wird. Wahnsinnger technologischer Vorteil durch P- & E-Cores sieht anders aus.

Lurtz
2022-02-21, 13:37:54
Kennt jemand Orte wo man sich ein paar Anhaltspunkte zum Undervolting der kleinen Alder Lakes (ohne E-Cores) holen kann? Macht es Sinn das wie bei Skylake per generellem VCore Offset zu versuchen, oder muss man da mittlerweile tiefer einsteigen?

aufkrawall
2022-02-21, 16:59:20
Funktioniert imho noch genau so wie schon bei Skylake (wenn nicht Haswell oder gar Nehalem :freak: ). Einfach Offset/Adaptive-Vcore (und ggf. Multiplikator) einstellen, fertig.
Wobei fürs Ausloten stabiler Werte eine fixe Vcore auch nützlich sein kann. Allcore-UV dürfte einfacher sein als solches mit aktivem Turbo auf einzelnen Kernen, kann sonst auch mal bei leichteren Workloads mit wenig Threads crashen.

Nightspider
2022-02-21, 17:01:27
Wieso seid ihr alle auf 720p gameplay umgestiegen?

Gibt immernoch Spiele wo ich teilweise im CPU Limit unterwegs bin in hohen Auflösungen.

Und wo es jetzt bald einen 175Hz QD-OLED Gaming Monitor gibt muss man ja auch in Richtung der 175fps kommen. ;)

BlacKi
2022-02-21, 17:14:47
Weil CyberPunk RT (1,5 Jahre alt) dann auch in höherer Auflösung während des Fahrens schon mal auf 80fps mit einem optimierten 12700K ins etwaige CPU-Limit runtergeht. Das sind zwar eher kurze Absacker und nicht avg. Aber komfortable ~100fps (kann man mit DLSS und einer 3080/3090 ja machen) kann man so auch nicht anpeilen, und bald gibts für die wohlhabenden unter uns noch viel schnellere GPUs.

Und ja, natürlich sind in anderen Spielen die Balken von ADL relativ beeindruckend lang. Ist aber schon ziemlich Hit (Anno) & Miss (HZD, trotz 4GHz RAM...). B660 ist jetzt leider auch nicht mehr günstiger geworden.
Gehe davon aus, dass ADL gegen Zen 4 alt aussehen wird, auch ohne 3D Cache. Zumindest, wenn DDR5 für Zen 4 nicht noch ungute Überraschungen parat hält.
Ohne die E-Core saufen 8 P-Cores 4,8GHz 1,25V in CyberPunk btw. stolze 150W. Da dürfte man die E-Core schon nur dafür wirklich nötig haben, damit die Effizienz in Spielen mit hoher MT-Last nicht völlig grottig gegen Zen 4 sein wird. Wahnsinnger technologischer Vorteil durch P- & E-Cores sieht anders aus.wobei sich zen4 eher mit raptor anlegen muss. adl ist zum release von zen4 schon lange am markt. und ddr4 boards wirds mit zen4 nicht geben im gegensatz zu adl und auch raptor. und auch die zen4 boards werden nicht direkt zum release ddr5 7000 laufen.


zen4 und raptor werden in den games ziemlich gleichauf liegen, nur raptor wird günstiger sein, trotz der teuren boards, wegen der ram option auf ddr4.

Pirx
2022-02-21, 18:38:06
die Lottozahlen für Mittwoch bitte noch

aufkrawall
2022-02-21, 18:45:42
Du kannst ja gerne was beitragen, und damit meine ich nicht die PoWi-Müllhalde weiter aufzutürmen. :cool:

aufkrawall
2022-02-23, 19:08:14
Die E-Cores bringen auch mit 6 P-Cores wirklich gar nichts in CyberPunk, außer für den Verbrauch: Frame Times sind schlechter als mit 8P Cores komplett ohne E-Cores. Einfach nur komplett meh für Gaming im Desktop...

lilgefo~
2022-02-23, 19:15:09
Bei ner DDR4 Plattform fehlt wahrscheinlich auch einfach die Bandbreite um die Cores zu füttern. Grad CP profitiert ja stark von DDR5 (https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Specials/Intel-Core-i9-12900K-RAM-Benchmarks-DDR5-vs-DDR4-1382843/). Nutzt du WIn 11 oder 10?

aufkrawall
2022-02-23, 19:21:16
Das will ich stark bezweifeln bei DDR4 4000. Es bringt ja auch nicht nur nicht ein paar wenige Prozent, sondern exakt gar nichts (sofern man nicht im Stromlimit hängt).

Freestaler
2022-02-23, 20:00:40
Bei ner DDR4 Plattform fehlt wahrscheinlich auch einfach die Bandbreite um die Cores zu füttern. Grad CP profitiert ja stark von DDR5 (https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Specials/Intel-Core-i9-12900K-RAM-Benchmarks-DDR5-vs-DDR4-1382843/). Nutzt du WIn 11 oder 10?
...,wenn man im Hintergrund ein Memorytesttool laufen lässt... hust und ddr4 nur mit lahmen 3200.. naja..

Normalfall CP:

Beide DDR5-Lösungen liegen in Front, die Unterschiede halten sich aber in Grenzen. Ein hochwertiges, im Gear Mode 1 optimiertes DDR4-Kit (z. B. DDR4-3600/CL14 oder besser) sollte eine mit der DDR5-6000-Lösung vergleichbare Leistung bieten können.

latiose88
2022-02-23, 20:40:17
ALso mir ist das beim Videoumwandeln ebenso aufgefallen.6 kerne mit E kern waren so schnell wie 8 P kerne ohne E kerne.Naja erwarte daher nicht so viel von den E kernen. Gewiss wird es wenn es das geben würde auch bei 4 P kernen mit E kernen wohl genauso sein wie nur mit 6 P kernen.
Es bringt also nur ab einen gewissen Punkt etwas,ab wann das so ist,kann ich leider auch nicht so genau sagen.

aufkrawall
2022-02-23, 20:55:33
Der Thread Director scheint hart zwischen Spiele- und Anwendungslast zu unterscheiden. Bei CB bringen die E-Cores schon einiges. Kurioserweise laufen die P-Cores sogar angeblich mit ca. 100MHz mehr mit der gleichen Stromlimitierung als ohne E-Cores. Das Konzept ist schon gut, nur sind für Spiele die E-Cores halt in keinsterweise ein Ersatz für auch noch einen weiteren P-Core.

latiose88
2022-02-23, 21:00:03
Und bei mehren gleichen Anwendung gleichzeitig macht diese konzept ebenso probleme.Wo sich beide gleich hohe Lasten und priotäten holen wollen. Dadurch kommt es zu ungünstige Ergebenisse zustande.Das erklärt auch das Ergebnis. Scheinbar bringt das nur was bei Teillast und nicht unter Volllast was.
Bei Teillast waren die neuen Intel CPUS durch sowas schneller gewesen.Aber bei vollast,verloren alle aktuellen Inr volles Potenzial.Ja diese Thread DIrector scheint hier wohl wirklich in der hinisicht Probleme zu machen.

aufkrawall
2022-02-23, 21:03:03
Mehrere Anwendungen gleichzeitig funktionieren auch ohne E-Core sehr schlecht unter Windows, wenn man der weniger bevorzugten Anwendung nicht manuell eine CPU-Priorität <normal zuweist. Der Windows-Scheduler ist dabei seltsam grottenschlecht.

La Junta
2022-02-28, 22:13:06
Mit neuem Beta Bios gehen auch 3900 Gear1 mit 4x8GB locker https://abload.de/thumb/3900gear1weje0.jpg (https://abload.de/image.php?img=3900gear1weje0.jpg) .
Habs nun seid paar Tagen und mehreren Stunden Vanguard und BF5 Stable (+ Karhu und Prime) .
Meine CPU hat laut dem Asus Bios eine 83er SP , wobei die P Cores 93 und die E Cores 57 ....
Ich müsste glaub ich mal die E Cores deaktivieren und schauen was die P Cores machen .

latiose88
2022-02-28, 23:33:11
Mehrere Anwendungen gleichzeitig funktionieren auch ohne E-Core sehr schlecht unter Windows, wenn man der weniger bevorzugten Anwendung nicht manuell eine CPU-Priorität <normal zuweist. Der Windows-Scheduler ist dabei seltsam grottenschlecht.

Also bei meinen Ryzen 9 5950x funktioniert das Prima.Habe zwar da nen extra Programm verwendet gehabt ,also gehen tut es.Du meinst ohne hilfmittel ist es grottenschlecht nicht wahr?

aufkrawall
2022-02-28, 23:38:11
Ja. Der 5950X hat auch schlicht doppelt so viele für Spiele und andere Burst Workloads wertvolle Kerne.

BlacKi
2022-03-02, 10:57:49
ist ddr5 denn wirklich überteuert? sicher ist ddr5 teuer, aber wenn du ddr4 speicher suchst, der performance technisch und der menge suchst, dann zahlt man praktisch fast dasselbe.

und wenn man samsuns b die ausschließt, dann ist der peformance gewinn von ddr5 westenlich größer.

du bekommst heute 32gb ddr5 6000 cl40 für 300€.

ddr4 speicher der dem ähnliche verperformance und speichermenge bietet kostet auch fast 300€. lediglich wenn man mit 16gb zufrieden ist, dann ist ddr4 deutlich billiger


hab ich da was vergessen?

La Junta
2022-03-02, 11:23:12
hab ich da was vergessen?

Samsung B-die gibts zumindest hier in CH für ca. 100-150 Euro gebraucht. Zudem haben schon die meisten die nicht alles neu kaufen schon tendenziell solchen Speicher.
Das mit der mehrperformace ist zudem so ne Sache für sich. Die meisten Reviewer testen RAm mit xmp Profilen und da ist es klar das z. B 6000er DDR5 schneller ist als 3200er DDR4.

BlacKi
2022-03-02, 11:47:57
was kostet denn ein 2x 32gb ddr4 kit das 3800-4000mhz bei cl14-16 schafft?

ddr4 3600 cl16-19-19-39 wird wohl kein b die sein.

und die 3600er cl 16-16-16-16 kosten gleich mal 279€.

WedgeAntilles
2022-03-02, 12:03:10
ist ddr5 denn wirklich überteuert? sicher ist ddr5 teuer, aber wenn du ddr4 speicher suchst, der performance technisch und der menge suchst, dann zahlt man praktisch fast dasselbe.

und wenn man samsuns b die ausschließt, dann ist der peformance gewinn von ddr5 westenlich größer.

du bekommst heute 32gb ddr5 6000 cl40 für 300€.

ddr4 speicher der dem ähnliche verperformance und speichermenge bietet kostet auch fast 300€. lediglich wenn man mit 16gb zufrieden ist, dann ist ddr4 deutlich billiger


hab ich da was vergessen?

Also bei MF kostet der günstigste 32gb DDR5 6000 CL 40 teure 375 Euro.
Bei alternate sogar 420 Euro.

Deine 300 Euro sind also höchstens ein extrem selektiver Deal und in keiner Weise repräsentativ.

Davon abgesehen ist es ja nicht die absolute Geschwindigkeit, weswegen DDR5 problematisch ist - es ist das Preis-Leistungs-Verhältnis.
Daher musst du bei DDR 4 eben nicht den absolut besten Ram nehmen, sondern einen guten, solidgen Ram der ein gutes Preis-Leistungs-Verhältnis hat.
Und da gibt es DDR4 3600 CL 18 schon für 140 Euro (und darunter).
Und DDR4 3600 CL 16 für ca. 180-190 Euro.

Was verlierst du da dann an Leistung? Ja, bei ein paar speziellen (Profi) Anwendungen viel - aber in diesem Bereich ist es ja eh keine Diskussion, da kauft jeder DDR5 weil es den eigenen Workflow massiv verbessert.

Und beim zocken hast du mit dem DDR4 Speicher kaum weniger Frames.

DDR5 kostet einen Aufpreis von über 100% - und bringt dir wieviel? 5% mehr Leistung im Schnitt? 10%?

Das ist eben ein ziemlich schlechter Deal für alle Käufer, die nicht das non-plus-ultra suchen sondern ein rundes Gesamtpaket.

BlacKi
2022-03-02, 12:15:41
https://www.mindfactory.de/product_info.php/32GB-Adata-XPG-Lancer-DDR5-6000MHz--2x16GB--DIMM-288-PIN-PC5-48000--ung_1445783.html

du versuchst dich nur rauszuwinden.

was anderes als samsung b die kommt mir garnicht in meinen ddr4 rechner und das geht einigen so. ich sehe zen4 durch ddr5 nichtmehr als überteuert an.

ich kaufe mit doch keine teure cpu um dann die größten performancesprünge durch schnellen ram liegen zu lassen.

ddr5 systeme haben mittlerweile einen legitimen preis erreicht imho.

WedgeAntilles
2022-03-02, 12:18:16
Hu? Ich bin verwirrt - ich war auf MF, habe DDR5, 6000 ausgewählt, dann 32GB und nach Preis sortiert.

Da bekomme ich diese Sortierung
https://www.mindfactory.de/Hardware/Arbeitsspeicher+(RAM)/DDR5+Module/DDR5-6000+(PC5-48000U).html/31/1156

Den von dir verlinkten Ram finde ich da gar nicht.

Evt. ist bei DDR5 die Einsortierung bei MF noch nicht so ganz korrekt.

Danke für den Hinweis!

La Junta
2022-03-02, 12:37:11
was kostet denn ein 2x 32gb ddr4 kit das 3800-4000mhz bei cl14-16 schafft?

ddr4 3600 cl16-19-19-39 wird wohl kein b die sein.

und die 3600er cl 16-16-16-16 kosten gleich mal 279€.
https://geizhals.de/g-skill-ripjaws-v-schwarz-dimm-kit-32gb-f4-3200c14d-32gvk-a1382377.html ab 217 überall auf Lager und B-Die (kein Deal , oder 1 Stk. nur u.s.w) . Aber eben wie gesagt gibts sowas auch gebraucht .
NIcht falsch vertsehen , wenn ich neu kaufen müsste würde ich eh DDR5 nehmen ., wenn aber der RAM schon da ist machts keinen Sinn .
Hier z.B mal ein Max Oc DDR4 vs. DDR5 https://www.youtube.com/watch?v=HDxDM--Dr-c

latiose88
2022-03-02, 15:42:55
Hm das mit dem des Anwendung vom ram profitieren,ist nur dann der Fall wenn die Anwendung viel Speicher und so frisst weil dann ist es klar. Wenn der aber nur ein wenig Ram verwendet dann ist der Vorteil wiederum geringer. So sehe ich das.

Wuge
2022-03-03, 12:32:39
Hängt vom Zugriffsmuster ab... beim Streamen hat DDR5 natürlich Vorteile, bei so ziemlich allem anderen ist ausoptimierter B-Die schneller oder auf gleichem Niveau. Jedenfalls in alltagstauglichen Setups. DDR5 >6.000 ist ja nun Lotto.

Lowkey
2022-03-04, 14:07:19
Seit grob 2 Wochen ist die Nachfrage nach Alder Lake stark gesunken.

Lurtz
2022-03-04, 15:08:24
Habt ihr (bei euren Spiele-PCs) eigentlich den ganzen Virtualisierungskram im Bios abgeschaltet, damit Windows gar nicht in Versuchung kommt irgendwelche teuren Sicherheitsfeatures zu aktivieren? Oder sind die per default unter Windows 10/11 eh nicht aktiv?

Gibt es sonst irgendwelche besonderen Energiesparmodi oder dergleichen, die man sich mal anschauen sollte?

dildo4u
2022-03-04, 15:14:59
Default glaube ich nur aktiv wenn man alles im bios angeschaltet hat und Win11 frisch installiert wird.


https://docs.microsoft.com/de-de/windows-hardware/design/device-experiences/oem-hvci-enablement

aufkrawall
2022-03-04, 15:17:21
Gibt es sonst irgendwelche besonderen Energiesparmodi oder dergleichen, die man sich mal anschauen sollte?
Zusätzlich Package C-State auf auto und den ASPM-Kram im Bios aktivieren. Alles, was man sonst per Software frickeln kann, bringt ~gar nichts. Da kann man auch gleich das Höchstleistungs-Energieprofil unter Windows nutzen.

Lurtz
2022-03-04, 15:22:56
Default glaube ich nur aktiv wenn man alles im bios angeschaltet hat und Win11 frisch installiert wird.


https://docs.microsoft.com/de-de/windows-hardware/design/device-experiences/oem-hvci-enablement
Hab ich eigentlich gemacht, ist bei mir aber nicht aktiv.

Zusätzlich Package C-State auf auto und den ASPM-Kram im Bios aktivieren. Alles, was man sonst per Software frickeln kann, bringt ~gar nichts. Da kann man auch gleich das Höchstleistungs-Energieprofil unter Windows nutzen.
Ist das immer noch so dass zwischen Ausbalanciert und Höchstleistung CPU-seitig praktisch kein Unterschied besteht? :D

aufkrawall
2022-03-04, 15:27:45
Ist das immer noch so dass zwischen Ausbalanciert und Höchstleistung CPU-seitig praktisch kein Unterschied besteht? :D
Was den Verbrauch im Idle angeht, auf jeden Fall (vielleicht 0,5W, wenn nicht heimliche Stromfresser wie zu aggressives Sensoren-Polling via hwinfo etc. aktiv sind). Evtl. gibts irgendwelche Teillast-Szenarien, wo ausbalanciert das ein oder andere Watt spart. Video im Browser schauen sollte aber schon mal nicht dazu zählen, also wofür Ruckler mit Vsync oder fps-Limiter durch ausbalanciert riskieren.
Das sollte wirklich komplett irrelevant vs. die Einsparungen von Package C-State und ASPM sein.

Lowkey
2022-03-04, 15:47:39
Habt ihr (bei euren Spiele-PCs) eigentlich den ganzen Virtualisierungskram im Bios abgeschaltet, damit Windows gar nicht in Versuchung kommt irgendwelche teuren Sicherheitsfeatures zu aktivieren? Oder sind die per default unter Windows 10/11 eh nicht aktiv?

Gibt es sonst irgendwelche besonderen Energiesparmodi oder dergleichen, die man sich mal anschauen sollte?


Damals gab es mal mit bestimmten Einstellungen im Bios der Virtualisierung einen Leistungsabfall bei AIDA, weshalb es ausgestellt wurde.

Lurtz
2022-03-04, 21:17:10
Hab jetzt noch ASPM aktiviert, an welcher Stelle fällt der Verbrauch an, bei der CPU selbst? Ändern die Windows/Treiberoptionen für PCIe Energieparen dann noch was am Verhalten oder läuft das dann wie bei den C-States praktisch rein auf Bios-Ebene?

aufkrawall
2022-03-04, 21:24:16
Idle Package-Verbrauch sollte <10W sein. Was Einsparungen mit ASPM darüber hinaus geht, siehst du evtl. nur am Wattmeter. Damit dürftest du auch feststellen, dass der ganze Stromsparkram in den Windows-Energieoptionen ~nichts bringt.

Lurtz
2022-03-04, 22:32:12
Ja, der schwankt so zwischen knapp 5 und 7 W im Idle.

Entweder ich habe naiverweise was falsch eingestellt oder es ist mal wieder buggy :ugly: Damit jedenfalls (oder Auto) funktioniert der Ethernet-Controller nicht mehr:
https://abload.de/thumb/screenshot2022-03-042xsjiz.png (https://abload.de/image.php?img=screenshot2022-03-042xsjiz.png)

Und in Elden Ring hatte ich ungewohnt häufige und starke FPS-Einbrüche, die waren nach Neustart des Spiels aber erstmal wieder weg, das müsste ich nochmal beobachten.

latiose88
2022-03-04, 22:49:40
ja gut 10 Watt im Idle ist echt nicht mehr viel.Da geht eh ab einen gewissen Punkt nix mehr. Also naja schade das man die Ryzen nicht auch auf 10 Watt im idle bringen kann.Und naja eine gewisse Spannung braucht halt immer ne CPU wie es scheint.VIelleicht schafft es ja AMD mit ihrer Zen 4 es ja ebenso wer weis.Also ich brauche nen Laptop wo 40 Watt und weniger verbraucht.Hier scheint wohl ne Schallmauer zu sein weil sparsamer wird es kaum noch.Wohlgemerkt 40 Watt unter last auf dem ganzen Laptop ist wirklich nicht mehr viel herauszuholen.Da geht man doch gerne auf ner Onbard GPU runter.Vielleicht gibt es ja irgendwann mal die Option das der ganze Laptop mit den neuen Intel CPUs gesammt 25 Watt verbrauch unter Last möglich ist,wer weis.
Mehr will ich auch nicht mehr schaffen.Mit 40 Watt gegenüber 80 Watt pro Stunde bei meiner Nutzung spare ich im Jahr 65 € ein. Das ist schon ne Menge Geld.Klar dauert es ne gewisse Zeit bis ein 600€ Laptop sich ganz ausgezahlt hat.Wenn es nun nur noch rund 32 Watt wären,dann wären es schon 97 € pro Jahr an Stromersparnis. Damit würde ich viel Strom einsparen. Vielleicht ist dann so endlich möglich das dann am ende nur noch 45 € an Stomkosten pro Jahr haben.Wie man sieht der Pc mit seinen 80 Watt braucht also im Jahr das meiste Strom,wer hätte das gedacht.

Genutzt wird der Pc täglich mit 8 Stunden pro Tag.Habe ausgrechnet das er pro Stunde der gesammte Pc 80 Watt braucht.Bei einem 0,30 cent pro Kilowatt macht es genau diesen Preis pro jahr.
Um es zu schaffen davon runter zu kommen muss es sparsamer werden.Klar könnte ich den 5950x den ich nur ab und zu ne voll Last drauf ist drosseln ob diese allerdings die Stromrechnugn wirklich senkt ist das andere.
Ich hatte mal länger die volle Leistung letzes Jahr gebraucht.Nun ist dies allerdings nicht mehr der fall bei mir,weil das meiste geschafft ist.Habe nun 2 Stunden pro Woche gerechnet wo die CPU unter vollast sich wirklich befindet.
Es scheint nicht zu reichen um von den 142 € was es letztes jahr an kosten verursacht wurde weg zu kommen.

Achja letztes jahr war der 5950x kurzzeitig mal auf 4,2 ghz takt gewesen.Da verbrauchte er 200 Watt pro Stunde.Das ganze 3x8 Stunden pro Woche.Als die meiste Last zu ende war,lief diese CPU wieder auf 3,8 ghz Takt (alles ohne Spannungserhöhung zuvor). Da verbrauchte wieder seine 142 Watt.Das ganze dann nur noch 2x8 Stunden in der Woche.
Seid mehr oder weniger anfang des neuen Jahres dann nur noch 1x8 Stunden in der Woche. Nun nur noch 2 Stunden pro Woche.

Nun brauche ich also kaum noch 16 Kerne,sondern reichen sogar 8 Kerne fast locker aus.
Der 5950x lief also mit voller last 2 Jahre kann man sagen.
Nun steht Stromsparen an.
Bei last von nur 1 Anwendung ist Intel ja im Vorteil.Bei 2 Anwendung ist der 5950x wiederum stärker weil 12 Kerne mindestens auf 100 % laufen.
Nun jedenfalls bin ich gesapannt was man da noch so machen kann.
Sollte Intel es bei Laptop nicht schaffen so sparsam zu werden nehme ich halt den Ryzen 7 5600h der ist sparsam.Wenn meine Anforderung mit 2 Stunden pro woche nicht wären,könnte ich auch nen aktuellen 4 Kerner nehmen. Allerdings ist das eben nicht so.
Aus den 2 Stunden in der Woche würden es wohl 4 Stunden werden.Das treibt gewiss den Stromverbrauch wieder nach oben.Der Spareffekt wäre zunichte.

Nun mal sehen was ich mache.Es gibt neben sparsame Systeme wohl nur noch eines was geht,es ausgeschaltet lassen. Aber das ist keine Option für mich.

aufkrawall
2022-03-04, 23:26:10
Ja, der schwankt so zwischen knapp 5 und 7 W im Idle.

Entweder ich habe naiverweise was falsch eingestellt oder es ist mal wieder buggy :ugly: Damit jedenfalls (oder Auto) funktioniert der Ethernet-Controller nicht mehr:
https://abload.de/thumb/screenshot2022-03-042xsjiz.png (https://abload.de/image.php?img=screenshot2022-03-042xsjiz.png)

Das wär dann imho ein Bios-Bug.


Und in Elden Ring hatte ich ungewohnt häufige und starke FPS-Einbrüche, die waren nach Neustart des Spiels aber erstmal wieder weg, das müsste ich nochmal beobachten.
War das ausbalanciert-Energieprofil an? Damit ist die PCIe ASPM-Steuerung durchs OS standardmäßig aktiv (mittlere Einsparungen), was Ärger machen kann. Bringt, wie gesagt, ~nichts (außer Ärger). Gibt auch extra eine Option dafür im Bios, die man deaktiviert lassen kann (sollte?).

Lurtz
2022-03-05, 10:40:34
Das wär dann imho ein Bios-Bug.

:uup:
Wahrscheinlich könnte ich durch ausprobieren den Port finden, an dem der Ethernet-Controller hängt...

Da war gerade wieder ausbalanciert an, dann lags wohl daran.

Wuge
2022-03-05, 13:25:23
ASPM für PCIe muss im BIOS aktiviert sein UND im Windows Energiesparplan. Ansonsten ist es inaktiv. Ich muss ASPM z.B. auf dem PEG deaktivieren (Z690 TUF mit 3090 FE), da ich ansonsten WHEAs bekomme. Hab ASPM für die restlichen Ports im BIOS aktiviert und in Windows nur im Energiesparmodus aktiv.Gerade mal frisch getestet:

Energiesparplan Höchstleistung (keine Stromsparfunktionen, CPU immer 100% aber C States aktiv): 80W Windows Idle
Energiesparplan Ausbalanciert (ASPM aus, ansonsten mittel, CPU Min 0%, Max. 100%): 75W Windows Idle
Energiesparplan Energiesparen (ASPM maximal, alles andere wie Ausbalanciert, CPU min 0%, Max 72% >2300 Mhz<): 68-72W Windows Idle
.. letzteres mit ASPM deaktiviert: + 1-2W, wobei Verbindungszustand Mittel und Aus keinen Unterschied macht und Maximal eben diese 1-2W einspart. Aber mit Vorsicht zu genießen, es schwankt eh um 2-3W - ich hab jetzt ne Minute lang beobachtet und hin und her geschaltet. Also nicht höchst wissenschaftlich.

Ich lass alles auf energiesparen wenn die Kiste nichts wichtiges macht, zum Zocken nehme ich das Vollgasprofil. Dank PowerPlanSwitcher total easy.

aufkrawall
2022-03-05, 15:21:57
Ich habe es auch am Wattmeter mit ADL getestet und kann deine Werte nicht bestätigen.

C-State und ASPM sparen vernünftig Strom im Idle, komplettes System 68W mit Höchstleistungs-Profil. Für das fette Board sicherlich nicht schlecht.

Und das ist btw. das Strix.
Hast du Package C-State nicht auf auto gesetzt?

ausbalanciert hatte mit mittleren Einsparungen insgesamt ~2-3W vs. Höchstleistung am Wattmeter eingespart. ASPM spart definitiv auch ohne die OS-Einstellung Strom, hab ich schon an einem Skylake Rocket Lake und Alder Lake System zweifelsfrei nachgemessen. Sind ~20W an der Steckdose. Leider aber mit meinem RKL-System nicht stabil.

Lurtz
2022-03-06, 11:50:25
Leider aber mit meinem RKL-System nicht stabil.
Wie äußert sich das?

aufkrawall
2022-03-06, 15:35:17
Zufällige Resets. Ist bei Bro mit 12700K aber nach über zwei Wochen noch nicht passiert.

OgrEGT
2022-03-06, 16:28:32
ONDA H610M+ supports DDR5 and DDR4 memory

https://videocardz.com/newz/onda-releases-first-h610-motherboard-with-support-for-both-ddr4-and-ddr5-memory-technology

Erstes Mainboard für AL welches DDR4 und DDR5 RAM unterstützt (logischerweise nicht gleichzeitig)?

Wäre für andere Mainboards mit mehr Ausstattung auch eine feine Sache...

Lurtz
2022-03-08, 20:43:57
Bei dem hier verschwinden mit ASPM einfach mal Laufwerke unter Windows mit dem neuen Bios-Release:
https://forum-en.msi.com/index.php?threads/mpg-z690-edge-wifi-ddr4-latest-release-bios-7d31v12-seems-incompatible-with-adata-xpg-nvme-drives.373236/#post-2113974

So richtig ausgereift wirkt die ganze Plattform nicht, dafür dass jetzt schon März ist... Wie war das, Intel kaufen wenn man keine Lust auf Bios-Gefrickel hat? ;D

Oder läufts bei anderen Herstellern besser?

aufkrawall
2022-03-08, 20:50:21
Nice! :uup:
Würde mich nicht wundern, wenn das je nach Board und CPU quasi ausgewürfelt wird, ob es gescheit funktioniert oder nicht. Beim X470 Taichi war das aber auch kaputt/nicht vorhanden, CPU Package hatte mit 5600X immer ~28W im Idle gesoffen.

aufkrawall
2022-03-09, 21:42:14
Weiteres Z690 Strix Gespacke:
-USB nach Linux-Boot tot, Cold Boot nötig
-USB zwischendurch während des Flashens von einem Android ROM abgeschmiert
-970 Evo Plus wird nach einem Neustart nicht mehr erkannt (also unbenutzbar, geht in meinem Sys mit RKL)
-RAM stellt sich sporadisch oder nach Laden eines Profils auf 5GHz und bootet entsprechend nicht sonderlich erfolgreich. :freak:

Schlimmer kanns mit einer AMD-CPU auch nicht sein. Was ein Müll Asus ist...

Edit: Noch mal zur Erinnerung: Onboard-Audio und LAN wurden schon ausgetauscht, funktioniert echt erschreckend viel nicht richtig...

-=Popeye=-
2022-03-09, 22:06:09
Welche BIOS Version? Hier noch v0901, v0807 war Müll v1003 und v1304 noch nicht probiert.

Mit Linux kenne ich mich leider nicht aus, will es bei Gelegenheit aber mal probieren bzw mich damit etwas beschäftigen.

Hab hier zwei 970 Evo Plus im System und keinerlei Probleme (Win11).

Wenn man an den RAM Settings rumspielt sollte man vor dem speichern immer auf den Teiler achten (ja der ist manchmal verbugt) und MRC Fast Boot auf Disable stellen.

Wuge
2022-03-10, 08:13:07
Null solche Probleme hier mit dem Z690 TUF. Windows allerdings...

aufkrawall
2022-03-10, 15:39:45
Welche BIOS Version?

Immer das neuste. Immerhin ist damit bei ihm noch nichts nachweislich regressed.

Er hat schon die SSDs an den Ports getauscht, hat nichts gebracht. Die 980 Pro wird normal erkannt.

VooDoo7mx
2022-03-12, 12:37:30
Bei mir läuft weiterhin seit Tag 1 alles problemlos. 12700K+ MSI Z690 A Pro.

- 2x 16GiB DDR4 4000 G1 läuft problemlos
- rBar läuft problemlos (3080Ti)
- bCLK Overclocking läuft problemlos
- Multi over- und underclocking funktioniert problemlos
- offset undervolting funktioniert problemlos
- abschalten aller oder einzelner E Cores läuft problemlos
- 980 pro läuft problemlos
- Das Raid 0 aus 2 Crucial P1 2TB SSDs läuft problemlos.
- USB Geräte laufen problemlos
- integriertes Ethernet läuft problemlos
- iGPU läuft problemlos und lässt sich auch problemlos übertakten
- Windows 11 läuft problemlos

Mal was anderes: in Shadow of the Tombraider wurden bisher nicht die E Cores in Windows 11 genutzt, mittlerweile funktioniert dies aber.

Im 4K DLSS Q GPU Limit habe ich mit aktiven oder deaktivierten E Cores genau die selben fps. Wenn man jedoch die E-Cores aktiviert, sinkt der Stromverbrauch der CPU in meiner Benchszene um ungefähr 17%.
Also in Spielen die gut mit vielen Threads laufen können die E Cores schon beim Stromsparen helfen, da sie die P Cores entlasten. :)

Ex3cut3r
2022-03-12, 13:03:23
Es ist schon erstaunlich wie oft rBar von Nvidia in neuen Spielen einfach nicht aktiviert wird.

Irgendwie scheint Nvidia das Feature nicht wirklich zu interessieren, zum glück, kann man es eigenständig via Inspector für Spiele aktiveren und auch deaktivieren.

r3ptil3
2022-03-15, 23:04:51
Wieso ist eigentlich das ASUS Z690 Apex immer noch so extrem teuer?

Wuge
2022-03-16, 12:22:57
Weshalb sollte es günstiger sein? Die Boardpreise haben sich seit launch nicht wesentlich verändert und ASUS ist und bleibt teuer. Wenn die nächste Plattform kommt wird Z690 dann günstiger xD

Troyan
2022-03-16, 12:27:57
Könnt ihr euch noch errinnern, wie Leute meinten, dass Alder Lake eine Enttäuschung wäre? Ja, Panik-AMD senkt ja bald offiziell massiv die Preise, weil niemand mehr den alten Kram will.
Waren echt tolle Zeiten.

Ansonsten habe ich keine Probleme mehr mit meinem Prime-A Board von Asus. Läuft alles top und die Mehrleistung gegenüber meinem i9-9900 ist echt heftig mit dem 12600K.

Lowkey
2022-03-16, 12:29:35
Asus hat in zwei Schritten in den letzten Jahren die Preise einfach so angehoben. So wie heute die Mineralölindustrie in Europa. Einfach so. Weil sie es können und weil es nur noch Oligopole gibt.

Vor 4 Wochen war noch MSI > Asus. Aber angeblich sind die Mainboards bei Alderlake das Problem. Es gibt zwar keine Rückrufaktion, doch je neuer das Asus MB desto besser läuft es. Ich habe es aktuell nicht mehr weiter verfolgt.

dildo4u
2022-03-16, 12:35:10
War doch das selbe bei AMD X570 kam lange vor dem B550, macht kein Sinn das man mit einem besseren Features Set günstigere Boards bekommt.

r3ptil3
2022-03-16, 12:56:51
Weshalb sollte es günstiger sein? Die Boardpreise haben sich seit launch nicht wesentlich verändert und ASUS ist und bleibt teuer. Wenn die nächste Plattform kommt wird Z690 dann günstiger xD

Das ASUS Z690 ITX bspw. gabs einige Male schon zu deutlich tieferen Preisen als noch bei Release (350), das Apex hingegen ist nach wie vor auf ca. 600 Euro.
Zudem wurden ja auch die günstigeren Chipsätze veröffentlicht, welche in Sachen Leistung absolut gleichwertig sind und keinerlei Nachteile aufweisen, bis auf die OC-Option (aber wer übertaktet einen Alder-Lake K CPU).

Für mich wäre es daher logisch, dass gerade Preise für solche Exoten (Apex) sinken. Die vergleichsweise ähnlichen, wenn nicht sogar besseren Boards von MSI (Unify-X) sind ja ein deutliches Stück günstiger.

aufkrawall
2022-03-16, 14:19:52
Läuft dann alles sechsmal so gut wie mit einem 100€ Board? :freak:
Gut, man muss dann sehen, ob nicht alle zukünftigen Mittelklasse-Chipsätze das Preis-Schicksal von B660 erleiden werden und es somit faktisch gar keine Günstig-Boards mehr gibt. Trotzdem verstehe ich aber den Sinn dieser KaDeWe im Case-Boards nicht...

Kurios: Diablo 2R läuft auf Intel ohne fps-Limiter ziemlich kacke im Vergleich zu Zen 3. Das lief bei Bro mit dem 5600X ziemlich sauber, mit dem 12700K läufts bez. der Frame Times nun ähnlich kacke wie bei mir mit dem 11400F. Wird wohl ein Anwendungs-Fail sein, aber ärgerlich ist das trotzdem.

robbitop
2022-03-16, 15:30:36
Alderlake ist eine hervorragende CPU.
Aber Panik muss man nicht haben:
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/6/#abschnitt_benchmarks_in_720p_hd
6-8% in Spielen ist mess aber nicht spürbar

https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/5/#abschnitt_leistung_in_multicoreanwendungen
In Anwendungen ist es anders herum.

aufkrawall
2022-03-16, 15:44:41
Was ist der Zusammenhang?
Ich würde dir aber widersprechen: ADL ist das absolute Minimum, um bei Highend keine Enttäuschung zu sein. Ohne die komische E-Core Secret Sauce saufen die P-Cores bei hohem Takt trotz 7nm (ich nenn es einfach mal so zwecks Vergleichbarkeit zu TSMC) immer noch relativ abartig. Ansonsten bedeuten vier E-Cores geringfügig kürzere Wartezeiten bei Number Crunching-Tasks, mehr nicht. Es sind nur relativ langweilige acht P-Cores, die in vielen Spielen nur geringfügig schneller sind als ein 5800X sind, mit ein paar wenigen Ausnahmen.

Dann sind da noch die teuren Boards und die miese SA-Spannungsbeschränkung bei non-K Modellen. Das Lineup ist so von ganz oben bis ganz unten einfach nur völliges Mittelmaß. Überhaupt nicht zu vergleichen mit den Fortschritten, die Zen 2/3 gebracht hatten. Und für den unteren Bereich war sogar Rocket Lake mit B560 RAM-OC eine größere Verbesserung für den Kunden...

Wuge
2022-03-16, 16:57:24
Läuft dann alles sechsmal so gut wie mit einem 100€ Board? :freak:

Davon abgesehen, dass es kein 100€ Board gibt ist das halt immer so im Enthusiastenbereich. Die letzten Prozent kosten... ;)

Ansonsten... mir hat die Plattform als erste seit X99 einen derben Performanceuplift gebracht und braucht dazu noch wenig Strom. Hängt natürlich immer vom Usecase ab aber so ein "langweiliger" P Core bei deutlich über 5 Ghz rockt speziell bei Spielen.

BlacKi
2022-03-16, 20:02:18
Davon abgesehen, dass es kein 100€ Board gibt ist das halt immer so im Enthusiastenbereich. Die letzten Prozent kosten... ;)

Ansonsten... mir hat die Plattform als erste seit X99 einen derben Performanceuplift gebracht und braucht dazu noch wenig Strom. Hängt natürlich immer vom Usecase ab aber so ein "langweiliger" P Core bei deutlich über 5 Ghz rockt speziell bei Spielen.naja, laufen tut ein 12900k mit 4,9 ghz gameclock auf einem billigen 107€ b660 board.

Wuge
2022-03-17, 09:57:48
Jooa aber dann noch 10% Kohle drauf gelegt und auch 5-10% mehr Performance.

BlacKi
2022-03-17, 10:13:10
du meinst mit oc? ja, bestimmt.

Troyan
2022-03-17, 12:28:55
Alderlake ist eine hervorragende CPU.
Aber Panik muss man nicht haben:
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/6/#abschnitt_benchmarks_in_720p_hd
6-8% in Spielen ist mess aber nicht spürbar

https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/5/#abschnitt_leistung_in_multicoreanwendungen
In Anwendungen ist es anders herum.

Der 12600K liefert mehr Leistung als ein 5800X bei 100€ weniger im November. Die Spieleleistung wird kaum langsamer als ein 5800X mit Cache sein, der erstmal für 150€ mehr in den Markt kommt.

AMDs Preise crashen seit Monaten und liegen ~25% niedriger als zum Start von Alder-Lake, wohingegen der 12600K stabil geblieben ist. Und der 12600K ist die einzige High-End CPU, den man als Spieler kaufen sollte.

Wie bei GPUs wurde hier von den selben AMD Trollen einfach nur Unsinn geschrieben. Alder Lake und die Plattform ist für Komplettwechsel einfach der einzige Weg bis zum Jahresende. Bessere CPUs, mehr Leistung, mehr Features.

vinacis_vivids
2022-03-17, 12:48:25
AMD verkauft jetzt 7nm 5950X für Consumer ab, damit sich der Normalo auch was leisten kann.
Das ist übrigens eine sehr günstige Kaufgelegenheit für 7nm 16C/32T und ein hervorragendes Preis-Leistungs-Verhältnis vor bzw. während der Sommerflaute.

Im Frühling und Sommer gehen die Leute lieber raus an die Sonne und geben ihr Geld lieber für Fahrrad und Schwimmbad aus statt zu Hause vorm PC hocken.


Die wirklichen Schinkenstücke, also 24h Arbeitstiere sind eher im Preis gestiegen.

Threadripper 3970X - Preisentwicklung
https://abload.de/img/threadripper3970xrwkdd.jpg

aufkrawall
2022-03-17, 14:31:20
Was eine Shitshow hier. ;D

latiose88
2022-03-17, 15:32:13
Wow die threadripper werden also immer teuer. Naja ist ja nun auch kein richtiger Verlust wie ich finde. Die Preise waren auch ohnehin viel zu hoch gewesen. Die Temperatur viel höher und auch der Stromverbrauch höher als die Mittelklasse CPUs. Und joa ein 5950x hat sich echt für mich gelohnt gehabt. Ich habe ihn 1 1/2 Jahre unter Volllast überwiegend gehabt. Hätte ich das mit dem threadripper so gemacht wenn ich einen gehabt hätte ,dann hätte ich ne verdammt Hohe Stromrechnung gehabt. Ein threadripper 3970x mit 4 bis 4,1 GHz und schon geht die Stromrechnung ab.
Der 3970x braucht auch mehr als ein 3960x. Der hat wer geschafft gehabt auf 180 Watt für meine Bedürfnisse hinzukriegen. Der 3970x wird es wohl nur mit geringeren Takt schaffen können.
Und die Kosten vorallem weil es ja für die Plattform keine 120 € mainbaords gibt ,treibt es ja echt ganz schön in die Höhe. Dann wird auch noch 4 RAM Riegel empfohlen. Damit das volle Potenzial ausschöpfen kann. Dann nen stärkeres Netzteil. Weil es reicht ja nicht aus nen normales zu verwenden. Damit da auch nix ausbremsen Tut.
Wenn man das auch noch drosseln würde um Strom zu sparen würde es die höheren Kosten ja nicht rechtfertigen.
Bei Anwendungen treibt es bei Intel auch den Stromverbrauch nach oben. So hatte wer nen 12900k ungedrosselt für michgetestet gehabt. Da waren 250 Watt normal gewesen. Frage mich aber nicht wie die Person das weg kühlen konnte. Sagte ja selbst waren sehr hohe Temperaturen gewesen. Und als ich den 5950x auf 4,2 GHz festen Takt hatte waren 90 Grad normal Zustand gewesen.
Da geht dann auch nix mehr weiter nach oben. Da hilft nur noch ne Fette Wasserkühlung etwas aber nicht mehr so viel.

Naja ich werde den threadripper nicht vermissen. Er bietet einfach zu wenig mehr Leistung und zurzeit die meisten Sachen weg umgewandelt. Würde ich tausenden von Sachen umwandeln müssen ,würde es sich vielleicht lohnen nen threadripper zu kaufen. Also sprich bei 100 000 Aufnahmen würde mir das auch wert sein. Dann lohnt sich auch 2 oder gar 3 Aufnahmen gleichzeitig umzuwandeln. Denn zwischen 250 und 280 Watt sind keine echten Welten mehr dazwischen.

Da dies zum Glück nicht mehr der Fall ist ,plane ich sogar ne Drosselung beim 5950x an. Ich peile Mal sehen 80 Watt unter Last an. Ja ich weiß von 142 Watt auf 80 Watt das werde ich in der Leistung schon merken. Aber auch bei den Intel CPUs merkt man das und erst Recht bei den threadripper CPUs. Wäre wohl spannend wer wohl davon am meisten an Leistung verlieren wird.

mercutio
2022-03-17, 15:40:55
AMD verkauft jetzt 7nm 5950X für Consumer ab, damit sich der Normalo auch was leisten kann.
...
Im Frühling und Sommer gehen die Leute lieber raus an die Sonne und geben ihr Geld lieber für Fahrrad und Schwimmbad aus statt zu Hause vorm PC hocken.


Die wirklichen Schinkenstücke, also 24h Arbeitstiere sind eher im Preis gestiegen.

Threadripper 3970X - Preisentwicklung
https://abload.de/img/threadripper3970xrwkdd.jpg

Dann ist der 7 3800X auch ein Arbeitstier :freak:

Im Sommer 2020 gekauft für € 289,-, NP jetzt € 307,- :eek:

dildo4u
2022-03-18, 11:23:33
12900KS OC Werte.


https://wccftech.com/intel-core-i9-12900ks-5-5-ghz-cpu-tested-in-cinebench-benchmark-wrecks-amd-ryzen-9-5950x/

Ätznatron
2022-03-18, 11:47:59
12900KS OC Werte.


https://wccftech.com/intel-core-i9-12900ks-5-5-ghz-cpu-tested-in-cinebench-benchmark-wrecks-amd-ryzen-9-5950x/

Wow, nur 319 Watt Leistungsaufnahme.

The cooling solution is not told...

Nicht schlecht, der Schluckspecht.

Wuge
2022-03-18, 12:03:33
Bei den Temperaturen wirds keine High End Kühlung gewesen sein. Taktet schon gut das Ding...
100 Mhz, vernüftige Temperaturen und 0,1V weniger und der Verbrauch ist auch im Rahmen.

BlacKi
2022-03-18, 12:06:23
avx. leute avx. das ist cb23

Ätznatron
2022-03-18, 12:20:54
avx. leute avx. das ist cb23

Ja, AVX.

Mittlerweile im Programmcode fast jeden neuen Spieles vorhanden.

Und auch vieler älterer, ich denke da so an Star Citizen.

dildo4u
2022-03-18, 12:49:16
Viel interresanter ist doch ob das jetzt besser oder schlechter als aktuelle 12900k ist?Also ob überhaupt selekiert wird.

Slipknot79
2022-03-18, 12:51:09
Bei den Temperaturen wirds keine High End Kühlung gewesen sein. Taktet schon gut das Ding...
100 Mhz, vernüftige Temperaturen und 0,1V weniger und der Verbrauch ist auch im Rahmen.


Sinnloser Test, reviewer erhalten immer golden samples.

Wuge
2022-03-18, 19:00:27
Viel interresanter ist doch ob das jetzt besser oder schlechter als aktuelle 12900k ist?Also ob überhaupt selekiert wird.

Das bissl was man bisher gesehen hat lässt den Schluss zu, dass die auf dem Niveau der besten 12900K oder etwas drüber liegen. Ein durchschnitts-12900K packt die Taktraten so nicht.

davidzo
2022-03-19, 15:10:55
avx. leute avx. das ist cb23

Was willst du uns damit sagen? AVX ist uralt, die erste Generation Core i hatte das und selbst Bulldozer.
Nee, cb23 ist da nicht wirklich anders als R20. Das liegt neueren Intel Architekturen einfach recht gut, und R15 eher AMD Architekturen.
Ich denke R23 ist grundsätzlich besser, da die Durchlaufzeiten länger sind und somit kurzfristige Boosts und erhöhte TDP weniger ins Gewicht fällt.
Ich denke daher R23 ist schon legit als referenz für moderne MT workloads.
Man muss halt bedenken dass solche workloads eher weniger Latenzgetrieben sind, Zen3 seine Stärke beim Cachesystem also nicht ausspielen kann.

Was nicht ganz legit zu sein schein sind eher die auffällig niedrigen MT-Ergebnisse des 5950x. Normalerweise erziehlt der mit anständigem ram 28K+ und liegt meistens leicht vor dem 12900K, mit PBO sogar 29K +.
25K ist für einen 5950x etwas zu niedrig.

Ich denke der 5950x wird weiterhin die leicht bessere CPU für MT workloads sein. Der 12900KS kommt zwar echt nah dran, aber nur bei absurdem Energieverbrauch und Kühlungsbedarf. Der 5950x erreicht mindestens gleiche Werte von 28-29K bereits Stock und verbraucht dafür 100Watt weniger. Und mit gutem ram und leichtem allcore OC geht der auch über 30K.

Husker-08
2022-03-21, 18:39:53
Ganz wichtige Frage an alle. Die sich mit Gigabyte Boards auskennen.
Kann es sein, dass das Gigagyte Z650 Aorus Ultra im Gegensatz zum Aorus Master/Extreme keine Powerlimit Einstellung hat. Wenn ja, wäre das nicht so toll für so ein teueres Board. Da ich einen 12900K hab, würde ich den gerne auf 125W beschränken, wenn das nicht geht, ist das Board für mich nutzlos. Ist die TDP Einstellung beim Ultra vlt an einer anderen Stelle als beim Aorus Master? Jede Hilfe wäre wirklich gut schön.

Danke schon mal im Voraus.

BlacKi
2022-03-21, 20:30:39
ich hab 2 der billigsten z690 boards besessen und beide konnte man beliebig in tdp begrenzen.

Husker-08
2022-03-21, 22:30:57
Naja. Früher waren mal die Biosfunktionen im Handbuch vermerkt. Heute muss man schon wirklich raten. Was die unterschiedlichen Boards bzw. dessen Biosfunktionen wirklich können. Werde das Gigabyte morgen wieder zurückschicken. Schade eigentlich. Die Frage ist welche billigen Boards Du meinst. Beim Tomahawk Z690 von MSI ist das auch nicht ganz ersichtlich, ob man da die TDP begrenzen kann. Glaub Asus Boards können das auch sogar das Prime -A Z 690 soviel ich weiss. Aber bin vom Asus nicht begeistert. Vlt noch ne andere Idee ?

Megamember
2022-03-21, 22:55:51
Ich hab das Gigabyte Z690 UD ddr4 und unter erweiterte CPU Einstellungen kann ich wenn ich ein wenig runterscrolle bei Turbo Power Limits auf eingeschaltet die Watt Zahl einstellen.

BlacKi
2022-03-22, 08:33:40
Naja. Früher waren mal die Biosfunktionen im Handbuch vermerkt. Heute muss man schon wirklich raten. Was die unterschiedlichen Boards bzw. dessen Biosfunktionen wirklich können. Werde das Gigabyte morgen wieder zurückschicken. Schade eigentlich. Die Frage ist welche billigen Boards Du meinst. Beim Tomahawk Z690 von MSI ist das auch nicht ganz ersichtlich, ob man da die TDP begrenzen kann. Glaub Asus Boards können das auch sogar das Prime -A Z 690 soviel ich weiss. Aber bin vom Asus nicht begeistert. Vlt noch ne andere Idee ?ich hab das hier. kanns auch empfehlen wenn man ein günstiges sucht. ram oc und ram tuning läuft es wirklich gut im gegensatz zum gigabyte board.



https://geizhals.de/msi-pro-z690-p-ddr4-a2625668.html?hloc=at&hloc=de


und dashier hatte ich:


https://geizhals.de/gigabyte-z690-gaming-x-ddr4-a2625098.html?hloc=at&hloc=de


was für ein crap board vom bios her. könnte natürlich sein, das sich beim bios via updates einiges getan hat, aber ich würde derzeit jedes gigabyte meiden.


was die tdp limitierung angeht, das hat wirklich praktisch jedes board.

ich hab gesehen, das es mittlerweile ein 144€ board mit z690 chipsatz gibt. natürlich ein gigabyte, aber könnte für 12600k mit overclocking ganz interessant sein.

mocad_tom
2022-03-23, 11:12:17
Notebooksbilliger hat gerade eine Art Black Week

Der 12400 für 179€ mit Versand 3,99 ist schon günstig.

https://www.notebooksbilliger.de/intel+core+i5+12400+758176/eqsqid/2bbc4d96-57dc-4f23-af0e-ce45d93afafd

Husker-08
2022-03-24, 21:39:32
Danke nochmal an alle für die Vorschläge. Hab mich jetzt für die Klasse höher entschieden. Das Master hat auch noch ein paar andere Vorzüge. Und da weiss ich 100% dass die TDP Einstellung klappt. Aber das Board hat, wie gesagt auch noch andere Vorzüge, wie mehr Anschlüsse, besseres WLan /Lan; Backbplate und 8 Lagen. Da lohnt sich das warten schon. Und freue mich schon auf das Board. Wirkt auch sehr wertig/langlebig. Ist für mich sehr wichtig. Mein letztes Board ist gut 10 Jahre alt und läuft noch wie ne 1. P9X79. von Asus. Und da wäre das Master der perfekte Nachfolger, frei nach dem Motto auf die nächsten 10 Jahre. So meine Hoffnung. Dank trotzddem noch mal für die Vorschläge.:smile:

dildo4u
2022-03-25, 10:17:31
newegg hat den 12900ks auf Lager 799$ kein Plan ob das die Intel Empfehlung ist?

https://www.newegg.com/intel-core-i9-12900ks-core-i9-12th-gen/p/N82E16819118392

Lowkey
2022-03-26, 10:30:45
Im Internet nährt sich der Verdacht, dass Asus still und heimlich alle Mainboards in einer neuen Revision auf den Markt gebracht hat, die das Booten von DDR5 bis zu 8000Mhz erlauben. Offenbar gab es doch ein Hardwareproblem. Auf der Verpackung steht nur ein 2022 als Kennzeichnung der neuen Revison.

r3ptil3
2022-03-26, 10:37:38
Im Internet nährt sich der Verdacht, dass Asus still und heimlich alle Mainboards in einer neuen Revision auf den Markt gebracht hat, die das Booten von DDR5 bis zu 8000Mhz erlauben. Offenbar gab es doch ein Hardwareproblem. Auf der Verpackung steht nur ein 2022 als Kennzeichnung der neuen Revison.

Interessant - hast du einen Link dazu?

Die Plattform reift dann wohl mit den Z790/B760 Chipsätzen zu einer guten Basis.

Lowkey
2022-03-26, 10:58:32
Es kann keinen Link mit klaren Informationen geben, denn dann müsste Asus den Fehler eingestehen und eine RMA starten. Das will man in der aktuellen Zeit verhindern. Vllt greift irgendwer das Thema noch auf und schreibt eine Zusammenfassung.

Nur dann hatte Gskill also recht mit der Aussage, dass es nicht am Speicher liegen würde. Die Frage, ob nun Chips von Samsung oder Hynix besser seien, steht noch im Raume.

aufkrawall
2022-03-29, 21:34:10
Wie im OLED-Thread ja schon mir mir erwähnt, ist Bros Galaxy Book2 Pro mit Alder Lake-H da. Was sich auf dem Desktop schon gezeigt hat, gilt auch fürs NB: ADL ist völlig versoffen (mir brennt das Wort "Schrott" schon wieder unter den Nägeln). Die 4,7GHz sind kompletter Fake, real drosselt er schon in Spielen mit geringer CPU-Last wie Fortnite auf ~2,2GHz und die Frame Times sind entsprechend nur noch Müll. Die vielen CPU-Kerne sind genau so unnützer Ballast. Der Lüfter in dem Ding läuft durchgängig, trotzdem erreichen alle Kerne ohne Drossel-Profil ständig ~95°C und man kann teilweise kaum noch die Tastatur berühren, ohne Schmerzen durch Hitze zu erleiden.

Zen 2 APU wär unendlichfach geiler als dieser Steinzeit-Krempel von Intel. Die sind so unendlich abgehängt. Ich glaube, wir werden es nicht mehr erleben, dass sie bei der Effizienz noch jemals wieder in die Nähe von AMD kommen...

Der_Korken
2022-03-29, 22:59:26
Zen 2 APU wär unendlichfach geiler als dieser Steinzeit-Krempel von Intel. Die sind so unendlich abgehängt. Ich glaube, wir werden es nicht mehr erleben, dass sie bei der Effizienz noch jemals wieder in die Nähe von AMD kommen...

Bei den Big Cores gebe ich dir recht, die Cove-Architektur ist auf Leistung getrimmt, aber effizient wird sie wohl nicht mehr. Bei den Mont-Kernen könnte sich das aber noch in eine andere Richtung entwickeln, wenn man denen noch so zwei Iterationen Zeit lässt. Bei Zen 1 haben schließlich auch viele gesagt das wäre eine Krüppelarchitektur, weil Skylake in ST so weit vorne lag. Für ST-limitierte Anwendungen wird Intel wohl weiterhin ineffiziente Big Cores verwenden, aber die Mont-Kerne könnten sich langfristig als die eigentlichen Stars von Intels Hybridansatz herausstellen.

Geldmann3
2022-03-29, 23:35:24
Dem muss ich widersprechen, bei derselben Leistungsaufnahme habe ich mit dem 12900k durchgehend höhere FPS-Warte in Spielen gemessen, als es mit Zen 3 der Fall war. Unten in Tomb Raider, Watchdogs und Cyberpunk zu sehen.

https://pbs.twimg.com/media/FEv6ZzXXoAgxXFA?format=jpg&name=large (https://pbs.twimg.com/media/FEv6ZzXXoAgxXFA?format=jpg&name=large)

https://i.ibb.co/N3WFL3w/SOTR.png (https://i.ibb.co/N3WFL3w/SOTR.png)

https://i.ibb.co/d4ZmBn3/MSFS.png (https://i.ibb.co/d4ZmBn3/MSFS.png)

https://i.ibb.co/GtffL4V/Watchdogs-Legion.png (https://i.ibb.co/GtffL4V/Watchdogs-Legion.png)

https://i.ibb.co/MsmfyhK/Cyberpunk-2077.png (https://i.ibb.co/MsmfyhK/Cyberpunk-2077.png)

Der 12900K z.b. scheint mir lediglich sehr hochgeprügelt zu sein.

Gerne einen Blick in meine Signatur werfen, wo ich noch wesentlich mehr Tests zum 12900k angestellt habe. :)

Wobei es sein kann, dass Zen im Mobilsegment effizienter ist. Habe schließlich nur die Desktop-Version getestet.

aufkrawall
2022-03-30, 00:02:41
Wieso nimmt die Performance teilweise mit erhöhtem Powerlimit wieder ab? Das ist widersinnig und lässt auf zu starke Messungenauigkeiten schließen.
Außerdem ist der 5600X durch weniger Kerne stärker ausgelastet, halte ich nicht für 100% vergleichbar.
Ist auch deshalb kein fairer Vergleich, weil du das PT für ADL abgesenkt hast, für Zen 3 aber nicht. Schließlich weißt du so nicht, ob der nicht mit 20W weniger immer noch kaum langsamer wäre.

Und ja, Zen 2/3 Mobile verhält sich deutlich anders. Insbesondere bei <25W, gibt da einige Tests zu.

Geldmann3
2022-03-30, 00:15:47
Wieso nimmt die Performance teilweise mit erhöhtem Powerlimit wieder ab? Das ist widersinnig und lässt auf zu starke Messungenauigkeiten schließen.

Hast natürlich Recht, kann sein, doch ich denke, um eine Tendenz zu erkennen genügt es.

Hatte leider nur den 5600X zur Hand und wenn ich anfange mehrere CPUs mit mehreren Energieeinstellungen miteinander zu vergleichen wächst der Benchmarkaufwand exponentiell, der hier bereits bei vielen Stunden lag.

Auf jeden Fall ist Alder-Lake nicht unbedingt ineffizienter als Zen 3.
Das sieht man auch sehr gut Watt für Watt in Multithreading-Lastigen Anwendungen. Alder-Lake liegt hier häufig vor Zen 3. Ab 140 Watt bricht die Effizienz halt langsam ins Bodenlose. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12852240&postcount=530)

Selbst bei 65 Watt ist der 12900K in Singlethreading auf ein paar Kernen noch gute 25% schneller als die schnellste Zen 3 CPU bei voll ausgefahrenem Power-Limit, was Alder Lake selbst bei 65 Watt zu einer Mega-Gaming-Performance verhilft.

Ja, würde auch gerne nochmal andere AMD-CPUs vergleichen, als den 5600X. Doch eins ist klar, der 5600X hat in Gaming aufgrund der geringeren Single-Threading-Performance unter fast keinen Umständen eine Chance gegen Alder-Lake.

latiose88
2022-03-30, 01:34:05
Ok das mag bei spielen der fall sein,aber wie sieht es denn bei Anwendung aus.Wo 65 Watt vs 65 Watt und 125 zu maximales bei der Zen 3 CPU von dir getestet.Dann sieht es wohl anderst aus denke ich mal,das ergebnis.Also zumindest bei Vollast.

Geldmann3
2022-03-30, 08:29:41
Also ich habe es jetzt nicht getestet, da ich auf der Arbeit bin, doch bei 65 Watt habe ich in CPU-Z 7595,8 Punkte mit dem 12900K (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12852240&postcount=530) gemessen.

Laut Datenbank liegt der 5600X hier nur bei ~4784 Punkten.

Doch das ist auch ein unfairer Vergleich, denn es sind 6 gegen 16 Kerne.

Nehmen wir den Single-Core Score des 12900K einfach mal 6, kommen wir etwa auf demselben Niveau heraus. Doch eigentlich müsste man mehr als mal 6 nehmen, da beide CPUs über Hyperthreading verfügen. Doch bei 65 Watt wäre auch lange nicht mehr sichergestellt, dass alle Kerne mit vollem Takt laufen, weshalb es dann wieder weniger wäre.

Nehme ich in der Datenbank den 5950X als Vergleich, scheint die AMD CPU effizienter zu sein. (In Anwendungen)
Kommt auf 11,8k Punkte bei rund 145 Watt. Hier kommt der 12900k nur auf rund 11k Punkte.
Damit wären Alder-Lake und Zen 3 noch immer näher als 10% beieinander.

Der_Korken
2022-03-30, 12:44:15
Ich würde sagen bei hohen Powerlimits steht Intel gut da, weil ihre Kerne oben raus ganz gut mit mehr Verbrauch skalieren. Bei offenem Verbrauchslimit ist Golden Cove klar schneller als Zen 3 und da Spiele nur mäßig viel Last erzeugen, sind bei deren Benches die CPUs eher takt- als verbrauchslimitiert. Ganz anders sieht es bei sehr eingeschränkten PPTs aus und darauf bezog sich aufkrawalls Post ursprünglich: Vergleicht man Zen3+ und Alder Lake bei <35W gewinnt AMD sogar leicht, obwohl sie mit 8 Kernen gegen 6+8 klar das Nachsehen haben. Bei 15W wäre es vermutlich noch extremer, wobei man da schon in den Bereich kommt, wo Zen 2 genauso effizient wie Zen 3 ist, weil Zen 2 einfach absurd wenig verbraucht.

Gegenüber der alten Gen ist Alder Lake aber auch im unteren Bereich ein klarer Fortschritt. Auch wenn die E-Cores nicht so krass viel effizienter sind als die P-Cores, kann Intel aufgrund der geringen Größe einfach über Masse gewinnen. Den Vorteil hatte AMD zuvor, weil sie größentechnisch 8 Zen-2-Kerne gegen 4-Sunny-Cove-Kerne stellen konnten.

aufkrawall
2022-03-30, 14:16:18
Der_Korken versteht mich. :up:
Man bezahlt im Galaxy Book2 Pro 1600€, bekommt stolze 12C und hohen Turbo, und was bleibt davon real übrig? Verbrannte Finger oder Dauer-Geruckel. Für solche Geräte sind mehr als 12W Dauerverbrauch unrealistisch. Der ADL-H 4+8 braucht aber mindestens das Doppelte, eher das Vierfache, um nicht auf einen Bruchteil seiner Leistung gedrosselt zu sein. Ich halte deine Analyse für zutreffend: Das braucht noch ca. zwei Iterationen der littles mit großen Steigerungen, damit man in dem Verbrauchsbereich nicht mehr peinlich ist.

Man schaue sich Van Gogh im Deck an, wieso kann man das nicht in mehr Geräten haben. :frown:

BlacKi
2022-03-30, 14:40:02
ist das nicht eher samsungs problem? was hat jetzt intel damit zu tun? scheinbar ist die kühlung nicht ausreichend, oder die tdp falsch gewählt. mit der richtigen config wäre das anders.

aufkrawall
2022-03-30, 14:59:21
Ah ja, BlacKi würde für Convertibles mit Intel-CPUs einfach das Gewicht des Kühlers verdoppeln. ;D

dildo4u
2022-03-30, 15:05:46
Es scheint noch keine Reviews dazu zu geben bissel früh ein Fazit zu ziehen.
Soweit ich weiß kann Apple M1 bis zu 25 Watt nehmen und ist passiv kühlbar, das Samsung book ist nicht passiv.


https://www.samsungmobilepress.com/feature-stories/a-closer-look-at-the-galaxy-book2-pro-series-from-design-to-enhanced-user-experience/

BlacKi
2022-03-30, 16:00:35
Ah ja, BlacKi würde für Convertibles mit Intel-CPUs einfach das Gewicht des Kühlers verdoppeln. ;Dgenau das hab ich geschrieben und gemeint...not.


ob das steam deck wirklich perf/watt besser ist, wenn man beide auf 15w bremst? ich wäre mir da nicht so sicher. der 1260p darf kurzzeitig 64w zu sich nehmen, was natürlich ein ganz anderes performance lvl ist als van gogh.

aufkrawall
2022-03-30, 16:13:19
ob das steam deck wirklich perf/watt besser ist, wenn man beide auf 15w bremst? ich wäre mir da nicht so sicher.
Was du da wieder für einen völligen Unsinn von dir gibst. ;D
Der Package Verbrauch der CPU ist bei Van Gogh laut Software eher dauerhaft <5W bei Spielen im GPU-Limit/fps-Limit:
https://youtu.be/U2HUKlhVbNg

Wenn du glaubst, dass du das mit ADL-H ohne komplette Müll-Frametimes hinbekommst, ist jede weitere Diskussion zwecklos. Völlig weltfremd.

pilzsammler2002
2022-03-30, 16:16:53
Was du da wieder für einen völligen Unsinn von dir gibst. ;D
Der Package Verbrauch der CPU ist bei Van Gogh laut Software eher dauerhaft <5W bei Spielen im GPU-Limit/fps-Limit:
https://youtu.be/U2HUKlhVbNg


Das kommt stark auf das Game an...
Ja es lohnt sich definitiv mit nem Limiter zu arbeiten bei der steamdeck da es wirklich viel bringt, aber wenn voll gerendert wird und nen bissel CPU last dazu kommt (Elden Ring anyone) dann bist immer so zwischen 10-15w :freak:

aufkrawall
2022-03-30, 16:19:33
Das kommt stark auf das Game an...
Ja es lohnt sich definitiv mit nem Limiter zu arbeiten bei der steamdeck da es wirklich viel bringt, aber wenn voll gerendert wird und nen bissel CPU last dazu kommt (Elden Ring anyone) dann bist immer so zwischen 10-15w :freak:
Ok, aber bei welchen Taktraten?
Ich mach mal CB auf dem ADL-H an, sobald ich dazu komme. Bro meinte, er hätte bei AVX2 Allcore-Last schon <1GHz gesehen. Die Frage ist da wohl noch, bei welchem Verbrauch. ;D

BlacKi
2022-03-30, 16:48:31
Was du da wieder für einen völligen Unsinn von dir gibst. ;D
Der Package Verbrauch der CPU ist bei Van Gogh laut Software eher dauerhaft <5W bei Spielen im GPU-Limit/fps-Limit:
https://youtu.be/U2HUKlhVbNg

Wenn du glaubst, dass du das mit ADL-H ohne komplette Müll-Frametimes hinbekommst, ist jede weitere Diskussion zwecklos. Völlig weltfremd.
ich versteh dich einfach nicht. das sind 2 komplett unterschiedliche cpus. nicht nur in tdp sondern auch massiv in cpu leistung.

ein vergleich bietet sich da garnicht an. wie kommt man auf die idee?

aufkrawall
2022-03-30, 16:54:32
Weil die Leistung real nicht ohne massives Kühlergewicht und laute Lüfter ankommt und so mobile Geräte damit ziemlich makelbehaftet sind? Du willst das gar nicht kapieren, oder? Was ist an verf*ckten 95°C so schwer zu verstehen?

Na ja, nach deinem Gehype des Decks, nur um es dann selber zu verkaufen, hätte ich dich schon längst auf Ignore setzen sollen. Wird hiermit nun nachgeholt. :cool:

r3ptil3
2022-03-30, 19:16:36
Weiss hier zufällig jemand ob BCLK OC auf dem ASUS Strix B660-I (ITX) möglich ist?

BlacKi
2022-03-30, 19:31:06
da unten ist ne liste mit den möglichen boards
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/57957-kann-das-ein-preistip-sein-alder-lake-non-k-oc-ausprobiert.html

ich glaube das macht auch keinen sinn, alle soweit ich weiß sind ddr5 boards. und bei ddr4 boards würde dir die manuelle speicher voltage anhebung fehlen.

latiose88
2022-03-30, 19:54:21
Ja Intel wird zwar mobil besser aber AMD kann das auch. In Zukunft wird ein 16 Kerner im mobilen einziehen. Also 16 Kerne mit smt. Da bin ich ja Mal gespannt. Und gewiss braucht die CPU bei 3 GHz wenig Strom und erzeugt auch wenig Abwärme. Wenn das AMD hinkriegt wird es auch Intel hinbekommen. Das würde ich echt abfeiern diese CPU. Dann noch kräftig aufgebohrt und es geht dann echt richtig ab . Und ich bin mir sicher Intel wird das dann auch so machen. Der Takt spielt eine sehr große Rolle. Ohne avx zu nutzen wird es dann möglich sein so wenig zu brauchen und auch so kühl. Da bin ich ja Mal gespannt wie es sich alles entwickeln wird in Zukunft.

r3ptil3
2022-03-30, 20:21:51
da unten ist ne liste mit den möglichen boards
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/57957-kann-das-ein-preistip-sein-alder-lake-non-k-oc-ausprobiert.html



Da fehlt eben leider dieses ITX Board gänzlich.

DDR5 Speicher muss man sich ja für ZEN4 eh holen, und das B660-I ist einfach 1/3 so teuer wie ein Z690 Hero.

Lowkey
2022-03-30, 21:24:48
Da fehlt eben leider dieses ITX Board gänzlich.

DDR5 Speicher muss man sich ja für ZEN4 eh holen, und das B660-I ist einfach 1/3 so teuer wie ein Z690 Hero.


https://community.hwbot.org/topic/210553-intel-12th-gen-non-k-oc-capable-boards-bios-versions/

Ergo geht nicht. Die Idee hatte ich auch. Das ITX für <150 Euro schnappen und dann ... aber Zen4 soll ja angeblich kein ITX bieten.

Das z690-I als B-Ware gab es auch für um die 260 Euro. Es geht noch ...

w0mbat
2022-03-30, 23:05:37
Ich kann mir nicht vorstellen, dass es keine AM5 ITX Mobos geben wird. Gibt keinen Grund dafür und ITX ist ein Wachstumsmarkt.

r3ptil3
2022-03-30, 23:40:47
Ich kann mir nicht vorstellen, dass es keine AM5 ITX Mobos geben wird. Gibt keinen Grund dafür und ITX ist ein Wachstumsmarkt.

Gemäss einigen "Leaks" soll ITX praktisch unmöglich sein auf der neuen AM5 Plattform.

Aber mal abwarten, ASUS und MSI haben auch bei den Z690 ITX Boards schon mit ein paar interessanten Umsetzungen überrascht.

Lurtz
2022-03-31, 09:09:40
Der_Korken versteht mich. :up:
Man bezahlt im Galaxy Book2 Pro 1600€, bekommt stolze 12C und hohen Turbo, und was bleibt davon real übrig? Verbrannte Finger oder Dauer-Geruckel. Für solche Geräte sind mehr als 12W Dauerverbrauch unrealistisch. Der ADL-H 4+8 braucht aber mindestens das Doppelte, eher das Vierfache, um nicht auf einen Bruchteil seiner Leistung gedrosselt zu sein. Ich halte deine Analyse für zutreffend: Das braucht noch ca. zwei Iterationen der littles mit großen Steigerungen, damit man in dem Verbrauchsbereich nicht mehr peinlich ist.

Das heißt die U-Modelle sollten konkurrenzfähiger sein?

BlacKi
2022-03-31, 09:23:52
Gemäss einigen "Leaks" soll ITX praktisch unmöglich sein auf der neuen AM5 Plattform.

Aber mal abwarten, ASUS und MSI haben auch bei den Z690 ITX Boards schon mit ein paar interessanten Umsetzungen überrascht.
wegen pcie5.0? wegen platzmangel glaub ich eher nicht. da gabs schon andere sockel die wesentlich größer waren. das board war ein einziger sockel^^ und es hatte trotzdem alles was das herz begehrte.
https://www.asrock.com/mb/photo/X99E-ITXac(L2).png

Twodee
2022-03-31, 10:15:29
wegen pcie5.0? wegen platzmangel glaub ich eher nicht. da gabs schon andere sockel die wesentlich größer waren. das board war ein einziger sockel^^ und es hatte trotzdem alles was das herz begehrte.
https://www.asrock.com/mb/photo/X99E-ITXac(L2).png
Das Herz begehrte nicht nach QuadChannel (https://www.hardwareluxx.de/index.php/artikel/hardware/mainboards/35215-asrock-x99e-itxac-im-test.html?start=5)? :rolleyes:

BlacKi
2022-03-31, 10:22:19
für gaming sinnlos, hatte ich ja vorher getestet.

Twodee
2022-03-31, 11:38:29
für gaming sinnlos, hatte ich ja vorher getestet.
alles klar

Ach zum Thema "Board ist ein einziger Sockel"
https://gzhls.at/i/80/00/2478000-n0.jpg
:eek:

aufkrawall
2022-03-31, 19:41:56
Das heißt die U-Modelle sollten konkurrenzfähiger sein?
Da bin ich auch eher skeptisch, ist ja immer noch dieselbe Arch in leicht anderer Config mit leicht abgespecktem I/O.

Bei CB drosselt der SoC nach ein paar Sekunden immer auf 20W, vermutlich weil zu viele Kerne ständig die 95°C knacken (Lüfter auf Maximum...). P- und E-Cores takten beide bei ca. 1,6GHz. Nicht berauschend, oder?

Freestaler
2022-03-31, 21:17:05
Evtl. habt ihr noch eine falsche Erwartung. Die E-Core sind pro Fläche effizienter als die P, nich per Watt. Seht dazu die Test ua. hier im Fourm von Geldmann3 (nick richtig?). P-Core und E-Core auf gleichen Takt und 2:1 ist fläche und nicht an der Kotzgrenze leisten pro Watt ungefähr das gleiche.

Weil der Verbrauch mit zuvor hergeleiteten 21 zu 6 Watt allerdings lediglich 3,5 Mal so hoch liegt, ist der P-Core am Ende kaum ineffizienter unterwegs.
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/2/#abschnitt_wie_effizient_sind_p_und_ecore

aufkrawall
2022-03-31, 21:23:20
Meine Erwartung ist Konkurrenzfähigkeit zu Zen 2/3 Mobile. :confused:
Bei CB kommt bei den defakto 20W die Performance knapp unterm 7700K raus. Richtig schlecht für ein 7/10nm 12C-Design in 2022...

Und der eigentliche Punkt ist ja auch der, dass so in dem schmalen und leichten Gerät ständig bei Alltagsnutzung wie Steam-Downloads etc. die Temperaturen durch die Decke knallen und selbst bei leichten Spiele-Tasks CPU und GPU einen absurden Konkurrenzkampf ums Power-Budget führen...

Freestaler
2022-03-31, 21:27:44
Ja, leider. Ich glaube sogar, das der ECore Little weg eine Sackgase ist, in der Form. Auch noch in 2 oder 3 Gen später. Intel ist im P/W noch nicht den Sprung gelungen mit ADL (PCores) der hätte möglich sein sollen. Nur schon Fertigungseitig mit kleineren Strukturen.

BlacKi
2022-03-31, 21:47:10
naja, wenn man es genau nimmt, ist platz ein teil der gleichung. wenn man die ghz der e cores halbieren würde, dann wären die e cores auch effizienter. zumindest bei multicoreauslastung. aber selbst bei 8+8 wäre das einsparpotential sehr gering. damit kann man den eingesparten platz in gewonnene effizienz umwandeln.

bei 2+8 könnte man wohl mehr prozentual rausholen. was allerdings von intel scheinbar auch nicht umgesetzt wird.

ich müsste mal ein paar tests und rechenbeispiele machen.

latiose88
2022-03-31, 22:39:06
Ja ich sehe es auch,das ab einen gewissen Takt Punkt der Vorteil bei den P Kernen nicht mehr gegeben ist.Nun ja in Zukunft wird es fall noch mehr E Kerne geben.Dann heißt es 8 P und 16 E kerne.Nun wenn das passiert,kann ich mal bis auf ein P Kern alle anderen deaktivieren und dann sehen wie stark die 16 E Kerne wirklich sind und ob die dann auch besser als die Kerne vom Skylake sind also sprich i9 10980xe usw.Da bin ich dann mal gespannt wie es weiter geht.Und es sollen ja im Laptop noch nur E Kerner kommen.Ich habe damit kein Problem weil mir reicht es ja schon bis oben hin weil der i7 4700Hq den ich habe auch nur drosselt.Der zeigt immer 3,3/3,4 ghz an aber in Wirklichkeit sind es nur 3/2,9 ghz an realen Takt.
Machen kann ich nichts dagegen und Leistung wird viel Verloren.Das ging sogar so weit das ich total unzufrieden wurde.Wie von euch beschrieben nur ne kleine Last und schon wird er bei 80-85 Grad warm.Und 105-110 Grad kommen bei ner richtigen Last immer vor.
Ich frage mich was Intel die ganze Zeit macht.So viele Jahre sind Vergangen und dieser Hersteller hat es noch immer nicht verstanden. Immer der selbe Murks wird gemacht.Die werden es nie Lernen.AMD hat es wenigstens verstanden wie man es richtig macht. Der Ryzen 7 5600H z.b verliert dank niedriger Stromverbrauch auch sonst keine weitere Leistung mehr.Das durch Stromverbrauch Limitiert wird ,ist mir tausend mal lieber als Ständig im Temperatur Sumpf zu stecken.
Und 25 Watt CPU finde ich echt sehr Effzient. Leistung ist also noch immer sehr viel vorhanden.
Man muss nicht die höchste Leistung haben um gut zu sein.
Und naja für kleine sachen reicht der Laptop immer dicke.Wer richtige Leistung bei CPU will,geht nicht zu den Laptops sondern zu den Desktops Pcs.
Nun wir werden sehen ob es Intel in Zukunft doch noch verstehen wird,wer weiß.

Freestaler
2022-03-31, 22:39:09
Inwiefern ist die Fläche hier bei Leistung pro Watt wirklich ein Thema? Weder die Wafer maximal grössen sind hier ein Problem, noch die abfuhr der Wärme? Reine Kostenoptimierung für Intel meiner Meinung nach. Wo siehst du Fläche zu Leistung? Gerade im Notebook, Leistung pro Watt doch ein wenn nicht sogar das wichtigste Mass.

BlacKi
2022-03-31, 23:19:03
im multicore steht fläche gegenüber effizienz. je mehr fläche du hast, umso effizienter kannst du takten, weil mehr fläche auch mehr cores bedeuten die du unterbringen kannst. hochtakten spart fläche, kostet aber effizienz.

das problem hierbei ist, du kannst die vcore für die e cores nicht absenken um wirklich effektiv effizienter zu werden.

wäre das möglich, könntest du den flächenvorteil in effizienz durch niedrigeres takten umwandeln. das geht aber nur begrenzt. weil die e cores mit der selben voltage laufen wie die p cores. ich kann das nicht steuern und auch nichtmal einsehen.

man kann also sagen, alderlakes 8 e cores bringen effektiv zwar mehr performance pro fläche, aber können die effizienz nicht ausspielen, wegen desselben vcores. was übrig bleibt ist eben intel spart fläche.

latiose88
2022-04-01, 01:28:58
also auf gut deutsch die CPU wird nicht Kühler sondern hat am ende die selbe Hitzeprobleme wie aktuell.Na dann gut zu wissen,dann kann man Intel schon mal bei Laptops auch in Zukunft vergessen ohne das es drosseln tut.Mir ist bei Laptop Leistung Pro Watt serh wichtig.So das es zu keiner Hitze Probleme kommt.Wenn das nicht gegeben ist,dann ist die Kiste einfach nicht gut Nutzbar oder nicht Produktiv genug.Und es tut das Ziel was der Laptop ursprünglich hat,total verfehlen.Dann richtige ich mich in Zukunft wohl an AMD,weil Intel wird es so niemals auf die Reihe kriegen.Und mir reicht lauter Laptop ,der heiß und das ganz besonders im Sommer schon aus.Ich hätte mich beinahe schon mal verbrannt gehabt.Das brauche ich nicht noch mal.Wenn das Gehäuse trotz Aluminium so heiß ist,dann war das ne totaler Fehlwurf gewesen. Und angenehm ist es ebenso nicht.Und dann das aufheizen im Zimmer beim Sommer wo man dann noch mehr schwitzt,darauf kann ich auch verzichten.
Nun ja die nächste Generation haben sie zeit dazu,dann wird eventuell Entschieden. Und weil ich so auf Stromverbrauch und Temeratur Wert lege,will ich nur die Onbaord GPU verwenden.
Also das beste von beiden entscheidet bei mir sehr stark was es am ende sein wird.

Ich tippe also auf AMD,also zumindest nach aktuellem Stand.Aber das kann sich ja noch ändern,wer weis.

y33H@
2022-04-01, 22:51:54
Review des Core i9-12900KS

https://www.techpowerup.com/review/intel-core-i9-12900ks/

r3ptil3
2022-04-01, 23:05:48
Ich war mir bei dem Verbrauch nicht ganz sicher, ob das evtl. doch ein 1. Aprilscherz ist :freak:

https://i.ibb.co/YPCTcgd/12900ks.jpg

Was aber richtig geil ist, ist der Takt :eek:

https://i.ibb.co/VM3FVRm/clocks.jpg

Wenn man aber bedenkt, dass die im Januar gezeigte Minipräsentation von Halo Infinite von AMD, dort eine Zen4 CPU aber auch bereits schon mit 5Ghz all core lief.

aufkrawall
2022-04-01, 23:42:18
5,1GHz AVX AC-Last. Das sind popelige 6,3% mehr Takt als 4,8GHz, was unter LK quasi das sinnvolle Maximum ist und mit jedem 12700K geht. Überwältigend...

Ex3cut3r
2022-04-02, 00:07:38
Die 442W sind ja abartig. Heiliger Bimbam.

RTX 4090 + 12900KS, bitte nur mit 1200W+ Netzteilen paaren. :biggrin:

-=Popeye=-
2022-04-02, 00:54:58
Der Test ist Müll, stock all Core Boost 5,2 GHz 360W vs OC all Core Boost 5,2 442W. :crazy2:

latiose88
2022-04-02, 01:06:57
ich vermute mal das erste ist der Turbo Boost wo nur kurzfristig anliegt.Das Oc ist der Allcore Takt der immer anliegt also fest ohne zu Boosten.Man wird die CPU ineffzienter als eh schon der fall ist.Da draf kann man es sich auf jedenfall drauf verzichten.

dildo4u
2022-04-02, 09:22:36
AMD und Intel haben sich jetzt wieder angepasst Beide verkaufen um 280€ pro CPU bei MF.12700k geht sher gut bisher

https://imgur.com/a/e7fPFPq

BlacKi
2022-04-02, 10:16:12
@gaming 720p
wenn man sieht wo der schäbige 12600k mit 4,5ghz allcore steht, und noch erhebliches oc potential hat...

oder wie wenig ryzen 5000 von den 12-16 big cores profitiert...

dann wird klar, warum man 3d v cache nur für den 8 kerner bringt.

der ks kommt nochmal für die enthusiasten die keinen bock haben selbst zu binnen. für alle anderen macht der ks keinen sinn.

Lowkey
2022-04-02, 11:13:27
@blacki

Intel binned sehr stark, auch den 12600k. Jeder meiner 12700er hatte ein 60-70er Rating. Die 12900 liegen immer höher. Viel Potential sehe ich da nicht.

Der 5950x wäre immer noch vor dem 12900KS bzw. erwarte ich es bei identischem Powerlimit.

Der 5800x3d hat angeblich zu wenig Platz für den zweiten CCD. Vermutlich gleicht der Cache die fehlenden Kerne aus bzw. kaum ein Game profitiert von 16/32 Kernen.+

Beim KS gebe ich dir recht.



https://www.techpowerup.com/review/intel-core-i9-12900ks/23.html

r3ptil3
2022-04-02, 12:23:57
Viel interessanter finde ich, dass die KF Modelle durchgehend ein bisschen besser takten und minimal weniger Verbrauchen.

Klar kann man jetzt einfach auf die Grafikeinheit legen...

maximus_hertus
2022-04-05, 12:28:51
Volker @ Computerbase (https://www.computerbase.de/forum/threads/amd-ryzen-im-fruehjahr-2022-ryzen-7-5800x3d-kostet-449-usd-und-kommt-in-begleitung.2076246/post-26779373)

=> die KS-Fanboys eher .. 2 Prozent mehr Leistung dank 115 Grad und endlos TDP und 25% Aufpreis.
Das schlimmste Produkt seit Jahren, das man damit sogar 11900K übertrifft hätte ich nicht gedacht.

Autsch. Da bin ich ja auch die Reviews gespannt...

r3ptil3
2022-04-05, 13:00:18
Ist doch schon seit Tagen bekannt, siehe Techpowerup.

360W unter Stress Test Belastung, über 440W mit OC.

Es ist schon etwas fragwürdig wieso Intel sowas macht.

y33H@
2022-04-05, 14:33:21
Das ist die System Leistungsaufnahme, nicht Package Power ... aber die hat's auch in sich ^^

Wuge
2022-04-05, 14:41:58
Stellt sich jetzt nur noch die Frage, ob die Chips 1.5V unter Last und 80W per core / 300W package power auch für eine gewisse Zeit aushalten. Wenn ja, geile Sache und auf die Schleusen :P

dildo4u
2022-04-05, 15:19:51
Die Blender Werte sind lustig zweifacher 5950X Verbrauch aber nicht schneller.


31R8ONg2XEU

aufkrawall
2022-04-05, 15:24:05
Dagegen ist die 3090 Ti ein richtig sinnvolles Produkt.

r3ptil3
2022-04-05, 17:14:00
Hardwareluxx widmet sich beim Test des 12900KS auch dem Thema Undervolting.

Mit 1.2V Spannung scheint die CPU wirklich nutzbar zu sein.

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/58452-intel-holt-wieder-die-brechstange-raus-der-core-i9-12900ks-im-test.html?start=13

Freestaler
2022-04-05, 17:37:50
Dagegen ist die 3090 Ti ein richtig sinnvolles Produkt.

Made my day..

BlacKi
2022-04-05, 17:50:32
haters gonna hate. für die meisten, mich eingeschlossen, kein sinnvolles upgrade, aber jeder wie er will.

r3ptil3
2022-04-13, 11:42:41
Guru3d hat die RAM Skalierung auf Alder Lake getestet (bis DDR5 6400 CL32).

https://www.guru3d.com/articles_pages/g_skill_tridentz5_6400_cl32_ddr5_scaling_review,15.html

Hätte ein super Test werden können, aber wenn man da nur die avg. Werte aufzeigt, ist das ganze leider ziemlich sinnfrei.

Lowkey
2022-04-13, 11:56:29
Ich vermisse ein wenig die Usertests mit stark optimierten Systemen. Gerade von Igor erwarte ich irgendwann einen Optimierungsversuch für den Alder Lake.

r3ptil3
2022-04-13, 12:05:25
Ich vermisse ein wenig die Usertests mit stark optimierten Systemen. Gerade von Igor erwarte ich irgendwann einen Optimierungsversuch für den Alder Lake.

Er macht aber gute RAM-Tests. RAM OC wird da maximal ausgetestet und sogar die Leistung gemessen.

Mit ADATA Kits kam er auf 6800 Mhz, mit Corsair auf 6666 Mhz (alles Hynix M-Die logischerweise).

Hikaru
2022-04-15, 05:37:28
Ich hätte eine Frage bezüglich AVX512. Anfangs schien das ja aktiviert gewesen zu sein, doch wurde es irgenwann deaktiviert "weils niemand braucht" und wahrscheinlich weil dies die CPU sehr heiss werden lassen kann wenn es denn mal genutzt wird.

Nun habe ich mehrfach gelesen das man es wieder aktivieren kann aber die Abschaltung der e-cores Vorraussetzung ist was mir sowieso entgegen kommt da ich vorerst auf Win10 bleiben will und zudem in diesem Modus eh besser läuft.

So wie ich das sehe braucht man speziell dafür vorgesehene MBs, vor allem wenn es um AVX512 Aktivierung geht, richtig?

Keine Lust nach sehr sehr langer Zeit auf Zen3 upzugraden bei den Preisen, ganz zu schweigen vom 3D. Deshalb dachte ich mir 12700KF aber auf einer Z690 DDR4 Platform weil mir anständiger 32GB grosser DDR5 Ram viel zu teuer ist für bisschen(?) Mehrleistung im gaming. MB: https://geizhals.de/asrock-z690-phantom-gaming-4-a2624954.html

Der ganze AVX512 Zirkus ist wegen PS3 Emulation die wirklich CPU hungrig ist. Der Emulator mag Intel sowieso aber mit AVX512 gibt es glatte 20% mehr drauf!

Edit: Wäre es spürbar langsamer die GPU über den chipset PCIe x16 4.0 laufen zu lassen um den 5.0 slot freizumachen? Ist das überhaupt möglich?

Wuge
2022-04-16, 19:54:13
Es wird wohl jedes Board gehn mit einer frühen BIOS-Version oder eben den alten Microcode ins neue BIOS friemeln. Schwer ists nicht...

ChaosTM
2022-04-16, 20:27:57
Der KS ist einfach keine sehr kluge CPU, außer du hast eine PV Anlage mit Speicher im Haus, dann isses wurscht :)

BlacKi
2022-04-16, 22:52:11
ks ist eine gebinnte cpu. mehr nicht. klug oder nicht spielt dabei keine rolle.

Platos
2022-04-17, 15:44:45
Gibt es eig. Tests mit Big.little von Alderlake bezüglich niedriglast (also NICHT Idle) ? Also bezüglich Stromverbrauch bzw. Energieeffizienz.

aufkrawall
2022-04-17, 18:50:17
Ist die SA-Spannung mit non-k wirklich auf 0,92V gelockt? :eek: :freak:
https://linustechtips.com/topic/1406237-intel-allows-memory-overclocking-on-b660-and-h670-but-only-sort-of/
Kann das mit B560 RKL frei einstellen. Schon 1,44V probiert, 3600 Gear 1 gingen aber trotzdem nicht. 0,92V wär ja wirklich abartig dreckig von Intel.

r3ptil3
2022-04-17, 20:30:16
Das ist aber nicht neues. Habe ich hier schon im Februar als kleine Warnung darauf hingewiesen.

3600 Mhz sind das absolute Maximum bei non k CPUs.

aufkrawall
2022-04-17, 20:33:26
Ja, dass es gelockt ist. Aber 0,9xV wäre noch zusätzlich schäbig. Wenn es wenigstens 1,2V o.ä. wären, wenn man XMP einschaltet...

lilgefo~
2022-04-17, 21:21:05
nonK sind halt nicht für OC gedacht weder für die CPU noch für Plattform und das wird auch ganz offen so kommuniziert von Intel
was soll daran nun schäbig sein..

Lurtz
2022-04-17, 21:22:05
Vielleicht hätte ich doch ein Z690-Board und einen 12600k kaufen sollen... :rolleyes: ;D

Lurtz
2022-04-17, 21:23:31
nonK sind halt nicht für OC gedacht weder für die CPU noch für Plattform und das wird auch ganz offen so kommuniziert von Intel
was soll daran nun schäbig sein..
Weil sie explizit Memory Overclocking für B660 und H670 angeben, es effektiv aber verkrüppeln. Und wer kauft eine non-k-CPU für B660 oder H670? Zumal höhere SA-Voltage mit B660 Stand jetzt gehen sollte, aber nicht garantiert wird, laut MSI...

aufkrawall
2022-04-17, 21:36:25
Mit dem zweitbesten H-Chipsatz darf man übrigens auch nicht frei den Multiplikator mit K-Modellen einstellen. ;D
Beim 12700K ist dann bei 4,7GHz AC Schluss.

lilgefo~
2022-04-17, 21:37:41
Weil sie explizit Memory Overclocking für B660 und H670 angeben, es effektiv aber verkrüppeln. Und wer kauft eine non-k-CPU für B660 oder H670? Zumal höhere SA-Voltage mit B660 Stand jetzt gehen sollte, aber nicht garantiert wird, laut MSI...

Nop. Wird nicht angegeben für die genannten Chipsets.

https://www.intel.com/content/www/us/en/products/docs/chipsets/desktop-chipsets/h670-chipset-brief.html?wapkw=h670

Da steht nix von Memory OC.

Für z690 dagegen schon.

https://www.intel.com/content/www/us/en/products/docs/chipsets/desktop-chipsets/z690-chipset-brief.html?wapkw=z690

aufkrawall
2022-04-17, 22:05:09
Erzähl doch nicht so einen Schmarrn...
https://www.intel.com/content/www/us/en/products/compare.html?productIds=218829,218833,218832,218831

BlacKi
2022-04-17, 22:05:10
es ist halt fakt, es ging vorher und jetzt nichtmehr. allerdings kann man nach wie vor die dram mit voltage pushen. also mit samsung b die sind dann 3600 cl12/13 drin, was natürlich nicht an 4000 cl 16 rankommt, aber besser ist als 3600cl16.


der multi war bei den b und h chipsätzen schon immer gesperrt, das ist ja nichts neues.

r3ptil3
2022-04-17, 23:03:18
3600 CL12? Crazy...
Das wäre definitiv besser als 4000 CL16.


Hast du denn selber 3600 CL12 hingekriegt??

aufkrawall
2022-04-17, 23:15:41
Bei 0,92V SA kann man froh sein, wenn überhaupt 3466 gehen.
Edit: In Gear 1 natürlich.

BlacKi
2022-04-17, 23:44:37
3600 CL12? Crazy...
Das wäre definitiv besser als 4000 CL16.


Hast du denn selber 3600 CL12 hingekriegt??es fehlt aber an imc takt. es dreht sich nicht alles um speicher.

Lurtz
2022-04-17, 23:46:27
Das gilt auch für XMP Profile, verstehe ich das richtig? Also alles oberhalb von 3200 MHz RAM ist für non k Alder Lakes grundsätzlich sinnlos?

BlacKi
2022-04-18, 00:29:18
warum? bis 3600 könnte es gehen. sinnlos? garantiert ist es nicht.

ich hab hier zumindest mal, 3600 cl13 am laufen. cl12 geht mit den viper hier nicht, aber meine trident z gingen besser mit latenz. ich probier mal morgen cl12 mit den trident z.
https://abload.de/thumb/123123190jsn.png (https://abload.de/image.php?img=123123190jsn.png)
die sind aber eben immer noch nicht besser als 4000cl16. auch 3600cl12 wären nicht besser. die niedrigeren latenzen können ein bischen ausgleichen, aber nicht ganz. takt zieht halt immer am besten die absoluten latenzen nach unten.

ich lese im netzt von leuten die SA voltage von 0.94 bis 0.98. eben die 3600.

lilgefo~
2022-04-18, 01:31:37
Erzähl doch nicht so einen Schmarrn...
https://www.intel.com/content/www/us/en/products/compare.html?productIds=218829,218833,218832,218831

Und nu? Das es unterstützt wird hat ja keiner bestritten und das hast du ja auch schon rausgefunden. Es werden aber weder nonK CPUs noch die niederen Chipsätze als OC Plattform beworben. Dementsprechend ist da nix schäbig.

Hikaru
2022-04-18, 05:29:21
Es wird wohl jedes Board gehn mit einer frühen BIOS-Version oder eben den alten Microcode ins neue BIOS friemeln. Schwer ists nicht...

Es sollte aber das Phantom 4 board sein. Da jetzt eine entsprechende BIOS Version herauszusuchen. Dazu kommt noch das neuere Alder Lakes AVX512 wohl physisch(?) abgeschaltet haben?

Aber das wohl grösste Problem scheint zu sein das ein Sicherheitsrisiko besteht wenn man nicht offiziellen microcode benutzt. Auf eventuelle microcode security updates muss ich dann auch verzichten.

Viel zu viel tamtam.

Wuge
2022-04-18, 11:00:18
Bei 0,92V SA kann man froh sein, wenn überhaupt 3466 gehen.
Edit: In Gear 1 natürlich.

Meiner macht damit auch 3733 :P

Lurtz
2022-04-18, 12:53:10
Vielleicht läuft das unter Z690 ja dennoch besser. Auf meinem B660 geht nicht viel hinsichtlich RAM-OC in Gear 1.

BlacKi
2022-04-18, 13:37:03
also, ich hab den 12400f jetzt verbaut, den 12900k verkauf ich sowieso.

damit läuft jetzt komischer weiße xmp der trident z 3600 cl17 nicht out of the box.

aber manuell geht hier schonmal 3700cl14.
EDIT: pustekuchen, es schleicht sich gear 2 ein, obwohl gear 1 im bios ausgewählt ist.
3600 ist noch gear1.
standard geht sa voltage wohl nur bis 0.91-0.92. wenn ich sa voltage anhebe, dann geht das auf 0.97v, aber nicht darüber. ob das am z board liegt? keine ahnung.

ich hab hier auch mehr das gefühl, gegen bios bugs zu kämpfen, als das die hardware schuld daran wäre.

latiose88
2022-04-18, 14:11:55
Hi wundert mich das du beschlossen hast den 12900k zu verkaufen weil der ja im Multicore einigermaßen gute Leistung bei viel zu hohem Stromverbrauch abliefert.Aber naja so langsam merken die Menschen wie Stromhungrig die CPU wirklich ist bei Volldampf und bei reinem zocken ist der 12900k zu überdimensioniert. Merkt ja wie gut geschlagen der wird von so mancher CPU.
Wäre die CPU gut,würden einige da bleiben.Man merkt also ist nicht immer gut.

dildo4u
2022-04-18, 14:25:17
Das Ding muss weg wenn er nicht massiv an Wert verlieren will, AMD ist jetzt bei 500€ für 16 dicke Kerne.Die Nachfrage nach den High-End Modellen scheint allgemein gerade massiv zu fallen.

r3ptil3
2022-04-18, 14:26:45
@Blacki

Angenehm ein so leicht zu kühlende CPU im Einsatz zu haben, nicht?
Dürftest wohl kaum merken, ob nun die CPU auf 1% oder 100% Auslastung liegt, da lediglich eine Temperaturdifferenz von ca. 10K vorliegt.

Das regt mich die letzten Tage so auf beim 5900X, von 36° plötzlich auf 65°+ rauf, wegen 6-7% Auslastung auf einem einzigen Kern (das ist auch das Problem).

Mit 3600 Gear1 wäre ich halbwegs zufrieden beim 12400f, sofern die Timings passen.

Vielleicht überlege ich mir doch noch auf einen 12400f umzusteigen inkl. Noctua NH-P1 oder den U12A. Mir kribbelt es schon in den Fingern, um von dem AIO Zeug wegzukommen.

latiose88
2022-04-18, 14:56:38
Das Ding muss weg wenn er nicht massiv an Wert verlieren will, AMD ist jetzt bei 500€ für 16 dicke Kerne.Die Nachfrage nach den High-End Modellen scheint allgemein gerade massiv zu fallen.


Ich verstehe nicht ,brauchen etwa nun die Menschen nicht mehr so viele Kerne oder ist das Problem das die meisten wo so viele Kerne brauchen,eh schon so eine CPU haben und darum die Nachfrage so stark zurück geht,nicht wahr?

dildo4u
2022-04-18, 15:35:37
Weil es niemand braucht selbst Blender oder Videoschnitt läuft massiv besser auf einer Nvidia GPU oder einem Apple SOC.
Es bleibt so gut wie gar nix übrig wo 12 oder 16 X86 Kerne im normalen Consumer PC Sinn machen.

BlacKi
2022-04-18, 17:50:58
Angenehm ein so leicht zu kühlende CPU im Einsatz zu haben, nicht?



erstens hab ich den ja eingebremst, weil es im gaming keinen nachteil hat auf 130-150w einzubremsen und dann muss man nur die lüfterkurve anpassen damit selbst die 150w nicht stören. dann dreht der noctua keine 1000rpm mehr und die gaming leistung ist da.
ot

der 12900k war aber ungeplant, nicht das er schlecht ist, aber überteuert. ein 12600k oder 12700k hätte es auch getan. und dann kams anders.
da ich jetzt andere pläne habe, bleibe ich nun beim 12400(f) passt auch besser zur kommenden 3060.



erst wollte ich bis zur 4070 mit einer 3050 überbrücken, aber die 4070 wird zuviel saufen, also muss ich auf eine 4060 warten und die kommt erst nächstes jahr im frühling. also hol ich mir eine 3060 für ein jahr.



ich hab wieder den drang, eine passive kiste zu bauen und der 12400 ist echt sparsam. er braucht weniger als hälfte des 12900k, 4ghz vs 5ghz eben.

aufkrawall
2022-04-18, 18:21:18
Der 12400F läuft nur mit 4GHz AC?

BlacKi
2022-04-18, 19:13:22
ja

latiose88
2022-04-18, 19:27:24
Weil es niemand braucht selbst Blender oder Videoschnitt läuft massiv besser auf einer Nvidia GPU oder einem Apple SOC.
Es bleibt so gut wie gar nix übrig wo 12 oder 16 X86 Kerne im normalen Consumer PC Sinn machen.
Echt ist das so,na da scheine ich wohl ne Ausnahme zu sein.Weil nicht alles lässt sich mit GPU gleich gut lösen.Wenn man gute Bildqulität und kleine größe haben will,dann ist es vorbei mit der GPU weil die CPU wird da immer Siegen.Ich habe aber bei der Entwicklung so meine sorgen,das die neuen 16 Kerner wohl viel teuer sein werden wegen geringer Nachfrage.
Was ich nicht verstehe,die Threadripper haben ne sehr geringe Nachfrage,die Preise steigen dennoch nach oben.Es gibt keinen sinn,es sei denn AMD Produziert keine Threadripper mehr wegen EOL und so,dann macht das sinn.
Naja andere Erklärung haben ich irgendwie nicht dazu.Schade um die Threadripper aber nun ja ich kann dank dem Ryzen 9 5950x trotzdem gut damit leben.
Und wenn sie schon selbst für mich ne geringe mehrleistung beim Videoumwandeln für gemessen an dem Preis hat,dann wird es für andere ja sogar noch verheerender aussehen.

aufkrawall
2022-04-18, 20:26:34
Echt ist das so,na da scheine ich wohl ne Ausnahme zu sein.Weil nicht alles lässt sich mit GPU gleich gut lösen.Wenn man gute Bildqulität und kleine größe haben will,dann ist es vorbei mit der GPU weil die CPU wird da immer Siegen.
Sobald man 12 Bit AV1 in HW enkodieren und genug FF-Hardware das dekodieren kann, dürfte es mit CPU-Encoding endgültig vorbei sein.

latiose88
2022-04-18, 23:44:35
Hm was ist denn bitteschön FF-hardware und wie wird das denn ausgeschrieben ?

Und naja mir dann egal weil ich habe vor für immer auf h264 zu bleiben und dann alles in dieses Format umzuwandeln und meide auch andere Formate. Dadurch spare ich Platz auf die Platte. Allerdings risikiere ich das ich in Zukunft immer noch weniger Leistungs Boost bekommen werde. In Zukunft erwarte ich nicht mehr als 10 % je Generation von Steigerung. Das ist nicht viel aber besser als nix und ich habe mich schon dran gewöhnt gehabt . Naja ist halt dann so ,dafür kann ich mir jeder erste Generation überspringen und mich gemütlich zurück lehnen weil die größte Steigerung zu Ende ist und kann alles auf jeder Hardware egal wie alt sie ist auch wirklich abspielen ohne mir Sorgen machen zu müssen da was nicht abspielen zu können. Hat also was gutes wie ich finde.

aufkrawall
2022-04-19, 19:53:46
Hm was ist denn bitteschön FF-hardware und wie wird das denn ausgeschrieben ?

Fixed Function, also einfach "in Hardware" enkodieren. Kann sein, dass das Turing/Ampere HEVC 10 Bit schon deutlich besser ist als x264 8 Bit fast-Preset. Höhere Bittiefe knüppelt die CPU-Performance für De- und Encoding auch derbe.

latiose88
2022-04-19, 20:16:47
in Hardware enkodieren,also damit ist GPU Umwandeln direkt gemeint nicht wahr?
Und ja die Bitiefe kostet wirklich viel Leistung.AUch beim Wiedergeben beim Player merkt man das sehr gut,das da auch mehr zu tuen ist.DIe CPU wird beim WIedergeben solcher Videos auch mehr gefordert.Ist ja wie wenn man in 4k Videos Abspielt. Die Bit ist ja die Farbtiefe,also sprich es muss auch der Bildschirm so wiedergeben können.Ich habe also kein 10 Bit Bildschirm und würde wohl das mehr an Farben nicht merken.

Und naja was bringt es mir in Fast Preset umzuwandeln.Klar bin ich da bei CPU auch schneller,aber ich wandle ja in Preset Medium um.Um genauer gesagt im Custom Medium,weil manche Sachen nach unten und manche Sachen nach oben korregiert hatte.
GPU Umwandeln war schneller gewesen als CPU,also zumindest die meisten die ich so habe.Aber wenn die Größe nicht wäre,die mir ja nicht passt.Mir ist es auch nicht gelungen in guter Bildqulität und gleichzeitig in guter Datei Größe in einem umzuwandeln.Weil entweder oder. In gleicher Bildqualität doppelt so groß oder gleiche Datei in schlechter Bildqulität.
Und die Einstellmöglichkeiten in H264 lässt bei GPU Seite echt zu wünschen übrig.
Da es bei GPU immer mehr andere Formate im Mittelpunkt stehen und der Fokus auf die Nachfolge Formate,so das ich hier wirklich das Nachsehen habe.
Das wird auch in Zukunft nicht mehr anders sein weil anscheinend die Zeit für H264 wirklich zu ende geht. Ich sehe aber da so meine Probleme.Ich habe auch die neueren Formate gehabt.
Das lies sich bei meinem Pc von keinem Player oder vom Reciver mehr abspielen.Und ich will flexible sein also auf jeden Player und Pc abspielbar haben.Das geht nur in so Formate wie H264 am besten.

ALso ist diese HEVC,also H265 oder das andere Format AV1 nicht das was ich mir am besten vorstelle.Diese sehe ich nicht als gute Alternativen an.Sie können auch in Zukunft immer noch mehr Standard sein,ich werde diese Formate nicht aktzeptieren und muss ich auch nicht.Sobald was von Youtube lade,habe ich ne Auswahl möglichkeit.Da gibt es zum Glück auch noch H264 Formate.Dafür verzichte ich gerne auf 4k und das freiwillig oder auf WQHD ebenso.Full HD ist ne super Auflösung wie ich finde zum Anschauen.
Höhere Auflösung führt zum Stottern und langen Ladezeiten. Ab HD und niedriger ist dies am niedrigsten.

Ich kriege bei HD und Full HD die beste Dateigröße mit guter Bildqulität hin. Meine TV aufnahmen mögen zwar nur in 720x576 sein,aber dafür am kleinsten vom Speicherverbrauch.

Nun ja bin gespannt was die Hardware bei der Leistung in H264 noch herausholen kann.Die Software wird zwar keine Verbesserung mehr für mich bieten können und da wird auch nix mehr Optimiert.Hier wird die Hardware also da noch was herausholen können.


Merke es ja selbst bei Intels 12900k bei ein paar Menschen testen lassen.Die Ergebnisse sind eindeutig.Bei 1 Video mit Programm Optimale Geschwindigkeit,bei 2 Videos mit 2 Anwendung aber sauft die CPU ab und ist auf Level vom 5900x.
Wandle ich die hinter einander um ,verliert der 12900k ebenso gegen nen 5950x weil der Paralelle noch immer schneller ist als der 12900k die Videos hinter einander.
Ich machte die tests nur darum um die möglichst schnellste CPU egal ob einzeln oder paralell zu finden. Mal sehen wie der Nachfolger so sein wird ohne das ich Angst um die hohe Stromrechnung zu haben.Videoumwandeln lässt den 12900k saufen wie ein Ochse.
Der Nachfolger soll ja einen 12 P und 8 e Kerner sein.Na dann mal sehen was da so gehen wird.Der wird gewiss zulegen und frage mich was da noch so gehen wird.Bezweifle aber das aus dem H264 hier noch so ein starker Boost noch gehen wird,weil der sinkt ja auch immer weiter nach unten.
Aber dank der mehr Kerne,wird der schnelle Boost sich auch dort bemerkbar machen.
Wer hätte gedacht das sich der L2 Cache bei 2 Paralellen Programmen hier durchaus eine Wirkung haben wird.Der Hohe Takt alleine wird gewiss nicht dazu beigetragen haben.

y33H@
2022-04-19, 21:23:09
Du kannst den 12900K ja einfach begrenzen ...

latiose88
2022-04-19, 21:26:56
ja toll,dann sinkt ja die Leistung wieder oder meinst du damit Kerne zu den Anwendung zu zuordnen?

davidzo
2022-04-20, 02:06:49
Der Nachfolger soll ja einen 12 P und 8 e Kerner sein.Na dann mal sehen was da so gehen wird.Der wird gewiss zulegen und frage mich was da noch so gehen wird.Bezweifle aber das aus dem H264 hier noch so ein starker Boost noch gehen wird,weil der sinkt ja auch immer weiter nach unten.
Aber dank der mehr Kerne,wird der schnelle Boost sich auch dort bemerkbar machen.

Woher hast du denn das mit den 12P+8E? Ich dachte eher dass die E-Kerne verdoppelt und der L2Cache aufgebohrt wird auf 2 bis 3mb. Also 8P 16E + mehr Cache bei den P-Kernen.


Hinter einen Punkt gehört übrigens ein Leerzeichen ;)

latiose88
2022-04-20, 02:29:31
Nun ich habe das gelesen gehabt das auch Intel inzwischen was mit 32 Threads im petto hat. Nun da stand halt 24 Kerne und 32 Threads also kann man sagen ein 12 Kerne mit ht und dazu 8 e Kerne. Weil anderst geht es ja nicht ,es sei denn die e Kerne kriegen auch smt was ja eher unwahrscheinlich ist wie ich finde. Oder aber Intel macht ein 3 Systeme CPU also 3x 8 Kerne was ebenso unwahrscheinlich ist also sprich 2*8 Kerne ohne ht und 1*8 Kerne mit ht. Was ich also sehe unwahrscheinlich finde. Darum die Schlussfolgerung von 1*12 und 1 x 8 e Kerne.

Klar könnte man auch 1*16 und dann 1*8 Kerne machen was ja dann ebenso die 32 entspricht. Man kann es ja beliebig aufteilen so ist dies ja nicht. Auf das wollte ich ja hinaus. Ich hoffe dennoch das da mehr Leistung als aktuell dabei heraus kommt weil die Leistung was der 12900k abliefert ist halt schwach bei richtiger Last. Bei deinem Games mag dies aber wieder anderst aussehen. Allerdings wenn so welche wie ich nen gemischten Workflow haben ,dann sieht die Sache wieder anderst aus. Und Mal voll Last ,dann wieder nicht sowas halt meinte ich damit.

Linmoum
2022-04-20, 09:32:05
24C/32T sind 8/16 + 16/16, also weiterhin 8 P-Cores mit nun insgesamt bis zu 16 E-Cores. Die Anzahl der P-Cores ändert sich nicht.

latiose88
2022-04-20, 10:27:39
Ja gut dann hoffe ich Mal das die Erhöhung der e Kerne ebenso zu einer Leistungssteigerung führt. Und hoffe das der Stromverbrauch nicht mehr weiter steigen tut. Da muss wohl Intel sich echt mächtig ins Zeug legen. Mal sehen wie es aussehen wird.

Wuge
2022-04-20, 14:59:43
Ach, mehr Cache, monster-IMC vorallem bei Vollbestückung & mehr Takt der P Cores wäre mir lieber ;D

Lowkey
2022-05-13, 16:43:59
Ich versuche den 12900KF auf unter 50w im IDLE zu drücken, aber es geht einfach nicht. 5w bringen die Bios Settings. Irgendwas übersehe ich noch.

BlacKi
2022-05-13, 16:55:26
also mit igpu waren 25w auf dem msi pro board möglich, out of the box. was zeigt denn package power? die sollten so bei +-3w liegen.

merkwürgerweiße geht die core voltage beim 12400 auf dem msi board nicht runter. bios hatte ich schon geupdated.

r3ptil3
2022-05-13, 16:58:32
@lowkey

Welches Betriebssystem und Grafikkarte?

Lowkey
2022-05-14, 08:12:05
W10 mit Nvidia 2070. Ich hatte die 2070 in Verdacht (vBios Flash + neuer Treiber), aber da tut sich nichts. C-States auf 10 akzeptiert das System auch. ASMP und diverse Tipps probiert, Lan + Sound deaktiviert und dennoch tut sich fast nichts. Das Meßgerät habe ich auch mal testweise getauscht.

Denn wir hatten es schon öfters im Chat, dass der Stromverbrauch des 5950x nicht normal ist. Im Idle über 50w und mit Youtube um die 110w. Alder Lake müsste hier besser abschneiden.

Package ist auf 3-4w. GPU liegt auf 10-11w. DDR5 < 1w.

r3ptil3
2022-05-15, 15:29:19
Gigabyte hat nun nach über einem halben Jahr, das Gigabyte Z690I Ultra (DDR4/DDR5) offiziell zurückgerufen.

Die Probleme mit der PCIe 5.0 Anbindung (bzw. PCIe 4.0), welche in Windows dutzende oder gar tausende WHEA-Errors erzeugen, sind damit wohl per BIOS/Treiber-Update nicht zu lösen.

Eine überarbeitete Version wurde bereits vorgestellt: Z690I Ultra Plus.

https://www.hardwareluxx.de/index.php/news/hardware/mainboards/58695-gigabyte-ruft-das-z690i-aorus-ultra-zurueck.html


Kundenservice? Bereits im November 2021 war das Problem bekannt und konnte durch dutzende Beiträge auf Reddit bezeugt werden, stattdessen wartet Gigabyte fast 7 Monate, bis die Hardware zurückgerufen wird.

aufkrawall
2022-05-15, 16:08:22
Ui, gut zu wissen. Schlimme Firma. :eek:

Bro hat jetzt seit ein paar Wochen ein ASRock H670 Steel Legend. Das Asus Z690 Strix hatte mindestens einmal am Tag einen BSoD verursacht, mitten aus dem Nichts im völligen Idle. Kaputter, überfrachteter Asus-Müll.
Mit dem Steel Legend musste er auch ASPM abschalten, was mit dem Extreme noch lief. Aber nicht so tragisch, Idle-Verbrauch ist noch in Ordnung und ansonsten laufen 3800 CL15 Gear 1. tWR geht komischerweise trotzdem nicht unter 24, ist für die Performance aber offenbar nicht so wichtig. Läuft so seit Wochen komplett stabil.

Ex3cut3r
2022-05-15, 16:22:42
Uff, solche Probleme können einen sicherlich wahnsinnig machen. Da Sie Random und unvorhersehbar auftreten, man wurde sicherlich auch zig andere HW Komponenten austauschen, und niemals ans Board denken, welches ja auch sonst funktioniert wie es soll.

r3ptil3
2022-05-15, 18:28:37
Zumindest haben sie aber anscheinend die neue Version (das Z690I Ultra Plus) ziemlich stark überarbeitet.

Von 10 auf 12 Layer PCB und nun sprechen sie auch von 8000 Mhz DDR5 RAM.

https://i.ibb.co/5n2Fr44/8000.png

Beim alten Z690I warben sie mit maximal DDR5 6200.

Überlege trotz der oben beschriebenen Katastrophe vielleicht wirklich ein fehlerhaftes Z690I Ultra zu kaufen (ist hier gerade in Aktion für 250) und dann gleich über Gigabyte mit dem Z690I Ultra Plus ersetzen zu lassen. :freak:

Das Z690I Ultra Plus wird locker um die 400 Euro kosten.

Lowkey
2022-05-15, 18:40:36
Da stehst du dann aber vor dem alten Problem, dass man Gigabyte nicht einschätzen kann. Das neue Board kann ebenfalls Mängel haben.

B-Ware ist normalerweise vom Umtausch ausgeschlossen.


Man ließt von Käufern im März/April nun nicht, dass die Gigabyte Mainboards ausgereift sind.