Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - "Raptor Lake"/Core i-13000 Review-Thread
latiose88
2022-12-05, 19:38:39
naja ja das schon,nur wie sieht es dann bei 2 gleichen Anwendung außerhalb der Spiele aus.Dabei kam es dann zu dem Problem das 1 der beiden langsamer lief als das andere.Das kommt also dabei raus wenn 2 gleich starke Lasten anstehen.In dem Sinne wird einer wie bei AMD stabiler laufen als bei den Intel mit den E cores.
Irgendwo hat halt es Nachteile,als vorteile.Naja ob sich das mal jemals bessern wird,wird die Zukunft zeigen.
TurricanM3
2022-12-05, 22:28:23
Neuer 13700k drin, ich dachte zuerst ich hätte einen Bios Bug:
https://abload.de/thumb/111111wed9n.png (https://abload.de/image.php?img=111111wed9n.png)
War aber keiner. ME ist ja uptodate und CMOS clear hat nichts geändert.
Der 13700k ist sogar besser als mein 13900k SP104 (SP113/88).🙃
Ich hab mal 5500 Rest stock ausgelotet (wie die davor). Die kommt am Apex unter 1.1v so:
https://abload.de/thumb/22222222guii9.png (https://abload.de/image.php?img=22222222guii9.png)
Dabei war das Wasser etwas wärmer noch (26°) als bei den anderen davor und ich hatte nur noch uralte Thermalright PK2 WLP gehabt.
Die Dinger sind echt nice. :up:
naja ja das schon,nur wie sieht es dann bei 2 gleichen Anwendung außerhalb der Spiele aus.Dabei kam es dann zu dem Problem das 1 der beiden langsamer lief als das andere.Das kommt also dabei raus wenn 2 gleich starke Lasten anstehen.In dem Sinne wird einer wie bei AMD stabiler laufen als bei den Intel mit den E cores.
Irgendwo hat halt es Nachteile,als vorteile.Naja ob sich das mal jemals bessern wird,wird die Zukunft zeigen.
Das ist wie bei jeder CPU. Der Windows scheduler entscheidet wie viele Ressourcen jeder Thread bekommt. Je mehr Kerne die Bude hat, desto schneller laufen die Anwendungen in Summe. Wenn Du zwei exakt gleiche Anwendungen (gleiche Anzahl Threads mit gleichem Workload, gleichen Abhängigkeiten, gleiche Prio, beide im Hintergrund) hin wirfst, dann laufen die auch gleich schnell. Den Fall gibts in real world aber eigentlich nicht. Irgendwas hat immer mehr Prio und bekommt mehr Ressourcen und dabei ist es egal ob die Archtitektur Heterogen ist oder nicht. Auf nem Raptor Lake ohne E Cores oder ner AMD CPU bekommt der schwächer Priorisierte Thread eben nur 1/4 der CPU Zeit auf einem fetten Kern und die andere Anwendung 3/4. Je weniger Kerne eine CPU hat desto frappierender wirkt es sich aus wenn Aufgaben um Ressourcen fighten.
Neuer 13700k drin, ...
Der 13700k ist sogar besser als mein 13900k SP104 (SP113/88).🙃
Ich hab mal 5500 Rest stock ausgelotet (wie die davor). Die kommt am Apex unter 1.1v so:
Die Dinger sind echt nice. :up:
Dann hast Du wohl einen 13900KS Kandidaten mit Belichtungsfehler in einem eCore cluster erwischt. Glückwunsch :)
Teste doch bitte mal, wie viel VCore Du für 6 Ghz auf den zwei favorite P Cores brauchst (restliche P 5.8 Ghz, Ring 5 Ghz, e cores 4.4 Ghz) und dann 4 oder mal 8 Threads drauf mit 7 Zip oder CB23 wenn Du magst. Pleeeaaase.
Lowkey
2022-12-06, 11:01:14
Wo gekauft ist die bessere Frage :D
TurricanM3
2022-12-06, 12:02:00
Ich lasse die auch im Sockel, der 13900k bringt mir nichts und ist schlechter. :freak:
Ich bin mir leider nicht so sicher welche Cores da favorite sind. Es heißt immer wieder die *-Cores wären das, aber man liest auch genau das Gegenteil. :confused:
Da gibt es ja die prefered Einstellung, aber da blicke ich nicht so 100%ig durch. Müsste ich mich einlesen. Es sei denn du sagst mir was ich einstellen soll, dann kann ich das versuchen (Asus hier).
Heute morgen mal 5600 probiert, der Chip ist völlig krank:
https://abload.de/thumb/sp100_5600rqf64.png (https://abload.de/image.php?img=sp100_5600rqf64.png)
:eek:
(Wasser 20°)
Denke mal die 5500 würde ich auch noch runter kriegen so.
Gekauft auf eBay, aber die sind inzwischen abverkauft.
Werd mal 60/60/58/58/56/56/56/56 für 24/7 probieren. Der schlechtere SP104 13900k hatte die 6GHz mit AI OC anliegen (Teillast).
Auf non Asus boards mit socket sense hätte der dann aber mehr vcore in cpuz oder? Ich teste später mal wie weit ich mit meinem 13900k @5,5 runtergehen kann.
Beim zocken hatte ich mit 61/61/61/61/60/60/60/58 bisher keine Abstürze. Abgesehen davon hab ich aber auch nicht auf Stabilität getestet…
Mit welcher VCore kommst Du auf die 61... und liegt der Takt auch wirklich an?
(Socket Sense sollte so 100-120mV höher sein als Die Sense bei Asus).
@Turrican: sicher die *. Stell doch einfach mal auf 60 hoch, rest auf 58 usw... und dann der übliche Stabi Test. Mich interessiert das 5500 Mhz Gedöns gar nicht so. 25mV hin oder her who carres. Ne CPU die > 6 Ghz bei Last auf 3-4 Threads mit annehmbarer Spannung packt wäre cool. Die 5500 AllCore kann eh jeder vernünftige Chip.
TurricanM3
2022-12-06, 13:20:24
Inwiefern die VCore vergleichbar ist, schwer zu sagen. Die sense am Apex zeigt wohl schon recht niedrig an. Socket sense ist bei mir ca. 50mV mehr, aber Vergleichbarkeit immer noch schwierig. Die Relation zwischen den CPUs sollten aber überall ca. gleich sein.
@Wuge
Werd mal schauen. Mehr als die 253 Watt die Intel freigibt, werde ich aber nicht durchprügeln. Hab noch das Limit offen, werd ich aber ändern. Ich lese bei den Amis im Sammler mit und da sind schon mehrere (!) deren CPUs durch zu viele Benchaktionen mit 300W+ langsam aufgeben und nicht mehr so gut laufen wie anfangs. Brauchen mehr VCore. Handelt sich um Degradation, einfacher gesagt Materialermüdung, wenn man so will.
Einer hat sogar schon die zweite die nachgibt. :crazy:
Sind aber über 350 Seiten und ich bin erst im November. Das Neueste weiß ich also noch gar nicht. Lese da Abends immer bisschen nebenbei.
Meiner schafft Cinebench mit 1,140V unter Last. Bei 8xP55 8xE42, also quasi auf 13700k beschnitten.
https://i.imgur.com/u9LOCAd.jpg
Mit welcher VCore kommst Du auf die 61... und liegt der Takt auch wirklich an?
(Socket Sense sollte so 100-120mV höher sein als Die Sense bei Asus).
In HW Info und auch im RTSS Overlay werden zumindest die 6100 angezeigt. 1,385V gönnt der sich dann (Bei niedriger Last). Hab aber wie gesagt noch nicht wirklich auf Stabilität getestet, abgesehen vom zocken. Vielleicht brauch er mehr oder auch weniger Spannung. 62/62/61/61/60/60/60/58 lief auch ein paar Stunden, dann ist er allerdings auf den Desktop gecrashed.
TurricanM3
2022-12-06, 20:16:59
Ich weiß nicht wie dein Gigabyte da bei der VCore Anzeige liegt. So direkt vergleich kann man das nicht. Ich vermute das Apex zeigt eher zu wenig an. Zumindest war das früher tendenziell so.
Temp bringt einiges, hier noch 5500 mit kaltem Wasser (knapp 19° nach dem Einschalten):
https://abload.de/thumb/ggerh3lwioh.png (https://abload.de/image.php?img=ggerh3lwioh.png)
Wie du schon sagst, schwer zu vergleichen. Nach den aussagen von wuge und dir sollte meine vcore also zwischen 1,02 und 1,09 liegen auf einem apex :D
Hab jetzt auch mal ein powerlimit von 250w gesetzt. Allerdings verhält sich das ding jetzt sehr seltsam im cinebench. Habe mit der vf curve negative offsets gesetzt für die punkte 6-8 damit er höher boostet bei 250w. Im ersten run cb boostet er dann auf 5,3-5,4 und erreicht fast 39k punkte. Wenn man es dann nochmal laufen lässt sind es nur noch 36k und im dritten run dann 33k. Im dritten run springen die taktraten der cores zwischen 1400 und 5800 umher.
Hab grad mal cyberpunk getestet. Da liegen dann 5,8 allcore an, da last auf allen kernen ist. Bei älteren und oder anspruchsloseren spielen sehe ich aber immer wieder mal die 6,1. Mass effect Andromeda z.b.
TurricanM3
2022-12-06, 22:06:48
So meinte ich das nicht. Mein Apex zeigt 50mV socket sense mehr an als die sense. Wie vergleichbar das mit anderen Boards ist, das hat aktuell leider noch niemand getestet.
Bez. Aorus kann ich dir gar nichts sagen. Der Verbrauch bei dir ist etwas höher mit 197w zu 179w, wobei die Angabe auch nicht in Stein gemeißelt ist und du ja den dicken drin hast. Hast auf jeden Fall keine Gurke erwischt. ;)
Du musst bei den negativen Offsets schauen ob die auch wirklich ankommen. Was limitiert siehst du in HWInfo eigentlich sehr schnell. Klingt bei dir nach Hitze, aber kann bei den Temps auf dem letzten Screen fast nicht sein.
Grade nochmal getestet, im ersten run liegen 1,2x v an und alle pcores haben einen ähnlichen takt. Im 2. run sind es dann 1,3x v und einzelne pcores gehen auf 5,8, andere bekommen scheinbar einfach keine watts mehr ab und takten extrem runter. Temp kanns nicht sein, die cpu bleibt bei 250w knapp unter 70c. Ich glaub das ist einfach ein bug
TurricanM3
2022-12-07, 07:12:30
Ich würde mal testweise die negativen offsets entfernen und mit manuel vcore probieren.
Ich werde es später mal mit der niedrigsten llc probieren. Vielleicht kann ich die Spannung über den V-droop regeln.
r3ptil3
2022-12-07, 12:37:49
Löschen bitte - im falschen Thread gepostet.
TurricanM3
2022-12-08, 14:17:30
Ich hatte gestern Abend mangels Zeit nur kurz bisschen mit Ai OC / OCTVB herumgespielt. Bei einem kurzen Gamestart hatte ich bis zu 6200MHz laut OSD im Menü anliegen. :freak: Bei Last ingame um 5700-5800. Ist sicher nicht stable, aber etwas erstaunt war ich da schon, dass mir das mit AC_LL 0.01 nicht gleich um die Ohren fliegt.
Welche llc hast Du denn eingestellt? Mit „high“ ging es bei mir auch mit AC-LL 0,01. jetzt bin ich grad dabei mit der niedrigsten llc rumzuprobieren. Mit der ist es mit 0.01 allerdings gecrashed. High bei GB sollte sowas wie 4 bei asus sein.
TurricanM3
2022-12-08, 16:09:31
LLC4 war das.
Das da oben was ich meinte wird sicher auch crashen. Ich will auch gar nicht so an die Kotzgrenze.
Lowkey
2022-12-08, 16:18:19
Na wie immer versucht man sich an den Crashpoint heranzutasten, macht einen Benchmark fürs Forum und geht dann auf 24/7 Werte.
Es heißt immer wieder die *-Cores wären das, aber man liest auch genau das Gegenteil. :confused:
.
Bei mir sind es auch kern 4 und 5… keine Ahnung ob das wirklich die besten sind oder ob einfach 2 kerne genommen werden die physisch weit von einander entfernt sind, damit sie sich mit ihrer Abwärme weniger stören.
1234
5678
Gibt es auch leute bei denen es kern 1 und 8 ist? (keine ahnung ob die so durchnummeriert sind…)
Könnte man vielleicht testen indem man last auf einzelne kerne gibt und guckt welche anderen kerne dadurch wärmer werden
TurricanM3
2022-12-09, 12:35:38
Dann bis du schon der Dritte bei dem es 4+5 ist.
Eigenartig. Angeblich kann das sogar je nach Mainboard abweichen.
Ich steige die Tage auf ein anderes MB um. Bin gespannt.
Dann hat wohl das Zurücksetzen nicht funktioniert. Wenn man auf einem Board verschiedene CPUs testet und der CMOS clear + etwas anderes (keine Ahnung was aber das Board muss die CPU als neu erkennen) nicht richtig funktioniert, stimmen die favorite cores nicht. Auch die VIDs nicht. Hatte ich auch schon.
TurricanM3
2022-12-12, 23:23:48
Gab eben Bastelstunde bei mir:
https://abload.de/img/apex790194fda.png (https://abload.de/image.php?img=apex790194fda.png)
https://abload.de/img/apex7902nvim2.png (https://abload.de/image.php?img=apex7902nvim2.png)
Ich finde das Board echt nicht schön in Weiß. Sieht seltsam aus im Rechner.
Wenn das genauso mittelmäßig/zickig ist wie das 690er, dann gehe ich auf DDR4 zurück, das bewährte Strix D4 mit B-Dies und fertig.
PS: Die CPU hat auch in dem Board SP100.
hq-hq
2022-12-13, 02:45:50
Teppichboden könnte sich ruinös auswirken :freak:
Selbst wenns nur fürs Fotoshooting war :biggrin:
schwarz find ich jetzt auch ansprechender
aufkrawall
2022-12-13, 02:56:55
Turri wird schon nicht mit Socken Moonwalk gemacht haben. :freak:
Diese Boards sind aber imho Beutelschneiderei. Könnte auf einem 90€ Board mit minimalem Gebastel für die VRMs genau so gut laufen (paar MHz weniger in MT-Spielen), inkls. 4GHz oder gar 4,2GHz RAM-OC.
TurricanM3
2022-12-13, 09:50:57
Das ist ein Handtuch. :biggrin:
Cubitus
2022-12-13, 11:23:50
Hab mich etwas mit meinem 13600k beschäftigt.
Die CPU ist echt nice.
Ich habe sie im Alltag auf 5300Mhz P und 4200Mhz E laufen, mit 1,15 Volt
Bringt mir im Timespy EX CPU zwischen ~8300-8400 Punkte
Bei 1,25 Vcore und scharfer LLC packt die CPU auch 5,8 Ghz
Bzw. bei 1,3 Vcore auch die 6 Ghz.
5,8 Ghz bzw. 6 Ghz schlucken mir im Verhältnis zu viel Strom
Die 240er AIO packt das, allerdings ist es mir dann zu laut.
Als Board habe ich das Z690 Aorus Elite, sieht ganz nett aus und bietet viele Anschlüsse.
Ist halt mit dem Speicher etwas zickig, bzw fordert viel Spannungen
Lässt man das selber trainieren, will es doch tatsächlich für 3733Mhz, 14er Timings und Gear 1 einen VDDQ von 1,5v :freak:
Will gar nicht wissen was es für 4000+ Mhz wünscht ;D
Fahre jetzt mit 1,2v VDDQ und VCSAA bei 1,25v und den besagten Settings oben. --> Ist schnell genug und spart auch bissl Energie.
5,3 @1,5V ist sparsamer als 5,8 @1,25V? Oder meinst Du 5,3@1,2V? (1,15v?)
Cubitus
2022-12-13, 13:10:21
5,3 @1,5V ist sparsamer als 5,8 @1,25V? Oder meinst Du 5,3@1,2V? (1,15v?)
5,3@1,15 Volt mit fixem Vcore und das läuft auch.
Ist sparsamer, im Cinebench sind es da so um die ~150 Watt
Bei 5,8 benötige ich bereits 1,25 Vcore
Hab mich verschrieben ^^
Habs korrigiert :)
5,3@1,15v hört sich doch ganz brauchbar an. Ich bastel immer noch an meinem 6,1 teillast 5,3-5,8 allcore setting rum. Kann mich die letzten tage aber nicht wirklich aufraffen das fertig zu machen.
Lowkey
2022-12-14, 09:34:21
Allcore OC ist auch einfach machbar. Teillastszenarien sind schwer. Und dann noch mit TVBOC. Da hört der Spass auf. Und vllt auch noch AVX austesten? Haha...
AM4 OC macht Spass, aber alles neue mit DDR5 ist unlustig.
OCmylife
2022-12-14, 10:12:26
Ich habe meinen 13700K samt MSI Tomahawk Z690 DDR4 gestern bekommen. Jetzt habe ich eine Custom Wakü(Aquacomputer Kryos Next, 2*360 Radiatoren mit Noiseblocker Eloops) und dann gleich mal Cinebench gestartet. Dass die CPU so ein Hitzkopf ist, hätte ich nicht gedacht. Mit den Standardeinstellungen rast die CPU ziemlich schnell auf 100 Grad. Mit 253 Watt Limit dauert es ein paar Minuten, aber auch da taktet sie sich dann auf 5,15 GHz runter. Ist das normal, habe ich so einen Schluckspecht erwischt, oder hapert es da an anderer Stelle? Ich hatte gestern leider kaum noch Zeit. Aber 4200 auf dem RAM im G1 booten (war allerdings nicht stabil im Kurztest). Die Spannung der CPU erschien mir auch ziemlich hoch mit 1,35-1,4V. Bei God of War hatte ich zwischen 45-60 Grad gesehen. Das passt soweit.
Cubitus
2022-12-14, 10:18:07
Ich habe meinen 13700K samt MSI Tomahawk Z690 DDR4 gestern bekommen. Jetzt habe ich eine Custom Wakü(Aquacomputer Kryos Next, 2*360 Radiatoren mit Noiseblocker Eloops) und dann gleich mal Cinebench gestartet. Dass die CPU so ein Hitzkopf ist, hätte ich nicht gedacht. Mit den Standardeinstellungen rast die CPU ziemlich schnell auf 100 Grad. Mit 253 Watt Limit dauert es ein paar Minuten, aber auch da taktet sie sich dann auf 5,15 GHz runter. Ist das normal, habe ich so einen Schluckspecht erwischt, oder hapert es da an anderer Stelle? Ich hatte gestern leider kaum noch Zeit. Aber 4200 auf dem RAM im G1 booten (war allerdings nicht stabil im Kurztest). Die Spannung der CPU erschien mir auch ziemlich hoch mit 1,35-1,4V. Bei God of War hatte ich zwischen 45-60 Grad gesehen. Das passt soweit.
Eventuell ist die Load-Line Kalibration bei den MSIs zu krass gesetzt.
Eventuell fixt du da den Wert auf normal bzw. auf 0.
Dann würde ich den Vcore auf den Standard Wert fixen.
Ansonsten joa die 13700k bzw die 13900K sind keine Kostverächter, die saufen schon verhältnißmäig viel.
OCmylife
2022-12-14, 10:22:46
Eventuell ist die Load-Line Kalibration bei den MSIs zu krass gesetzt.
Eventuell fixt du da den Wert auf normal bzw. auf 0.
Dann würde ich den Vcore auf den Standard Wert fixen.
Ansonsten joa die 13700k bzw die 13900K sind keine Kostverächter, die saufen schon verhältnißmäig viel.
Danke für die schnelle Rückmeldung. Ich werde heute nach der Arbeit mal schauen, wie ich die Temperaturen in den Griff bekomme. Das Wasser war relativ kalt(im Cinebench maximal 33 Grad) und der Anpressdruck müsste auch passen. Der Kryos war von innen auch sauber, nachdem ich die Halterung auf 1700 umgebaut hatte. Ärgert mich trotzdem 😅
TurricanM3
2022-12-14, 10:48:15
Schau dir mal das Abdruckbild an. Evtl. biegt sich bei dir die CPU arg durch (washer mod).
Lowkey
2022-12-14, 11:18:36
Wie oft erwähnt habe ich es bei Alder Lake auch falsch gemacht und die CPU in den Sockel gesetzt, dann die Kühlerhalterung samt Backplate montiert und das Mainboard dann erst im Gehäuse verschraubt. Dadurch verzieht der Heatspreader der CPU und die der WLP Abdruck ist schlecht. Die Temperaturen gehen dann je nach Kern um 15° auseinander und die normale Arbeitstemperatur liegt bei 100° und fängt an zu drosseln.
Selbst wenn man also die CPU normal betreiben und auf OC verzichten will, sind manche Mainboards per XMP gut dabei die CPU mittels Spannungen zu schrotten. Zwar greift immer wieder das Powerlimit, aber das ist keine Lösung.
Ein 13700k im Asrock hat 1.4v Vcore unter Last erreicht und da stimmt dann was nicht. Dem Besitzer ist es egal, weil ja das PL einspringt. Und beim 13900k siehst du halt die 210 Watt mit 1.2v und die 300+ Watt mit 1.34v. Die Serienstreuung ist demnach recht hoch.
Aber angeblich schläft der MSI Support bei den z690 Boards mit dem korrekten Raptor Lake Support, gerade beim 13900 fehlt mir da ein Bios Update.
TurricanM3
2022-12-14, 11:37:42
Was genau meinst du mit XMP und den Spannungen? Die hat doch keinen Einfluss auf die vCore? Eher Nebenspannungen.
Lowkey
2022-12-14, 12:07:20
Ja SA geht mit XMP auf ungesunde Werte hoch (seit Jahren ohne FIX). Ich verstehe nicht warum er der CPU per AUTO 1.4v zuteilt und unter Last auf 1.34v senkt, aber die CPU selbst mit OC deutlich weniger als 1.3v braucht. Da stimmt halt was nicht.
Aber dank dir habe ich noch einen 13700k bei Amazon bestellt.
Am Tag der Zustellung senden wir Ihnen per E-Mail ein Einmal-Passwort, das Sie dem Fahrer bei der Zustellung vorlesen
TurricanM3
2022-12-14, 12:44:09
Klar, das muss nicht sein, aber macht das so viel aus? Ich hatte die fix auf 1.25v.
Was hast du denn aktuell für CPU+MB?
latiose88
2022-12-14, 18:25:55
@lowkey was heist denn TVBOC? ISt das etwa die Stromsparfunktion und wie heißt diese denn ausgeschrieben?
Lowkey
2022-12-14, 18:42:13
Thermal Velocity Boost ?
Das Problem damit ist einfach die ganze Menge an Optionen. Allcore ist leicht. Takt + Vcore (+LLC) = alle Kerne auf einem Takt.
Und nun haben die Teile für zwei Kerne aka preferred Cores (meist 4+5) einen höheren Boost bei Teillast. Dann gibt es noch 4 und 8er Last Szenarien. Das Problem hier ist halt die Kerne in Gruppen zu testen und dabei zu hoffen, dass es auch die richtigen Kerne erwischt. Wenn das also nicht genug ist, dann kannst du bei TVBOC den Takt zusätzlich von der Temperatur abhängig machen (Spannung dazu anpassen). Und obendrauf kannst du noch das Ganze AVX tauglich austesten (AVX=0 oder -3)
Der Haken ist der Mangel an Literatur oder guten Beispielen, denn zB. MSI Liteload bedeutet auch nichts anderes als das genaue Einstellen der Kernspannung der CPU. Da muss man halt die Werte von Asus ins MSI übersetzen und austesten.
Und dann muss man natürlich Hyperthreading und die E-Kerne ignorieren. Nicht das man ausversehen falsch testet.
@Turricanm3
Ich war bei 5500mhz auf 1.25v unter Last.
OCmylife
2022-12-14, 18:42:29
Eventuell ist die Load-Line Kalibration bei den MSIs zu krass gesetzt.
Eventuell fixt du da den Wert auf normal bzw. auf 0.
Dann würde ich den Vcore auf den Standard Wert fixen.
Ansonsten joa die 13700k bzw die 13900K sind keine Kostverächter, die saufen schon verhältnißmäig viel.
https://i.ibb.co/GM19V8b/Screenshot-20221214-183122.png (https://ibb.co/GM19V8b)
Also, die LLC an sich einzustellen hat nichts gebracht. Danach habe ich versucht die Spannung per Offset einfach mal um 0,1V zu minimieren. Das war ein Fehler, da ich dann gemerkt habe, wie bescheiden es ist keinen Cmos-Clear button mehr zu haben. Ganz abgesehen vom fehlenden Postcode. Wieso spart man sowas ein? Wieso gibt es kein bezahlbares DDR4 Board mit Postcode? Ich verstehe es nicht.
0,05V per Offset weniger hat auch nicht funktioniert. Danach bin ich dann von 1,25 fix eingestellter Vcore hoch. Das bootete immerhin. Bei 1,32V läuft es dann auch noch die 10 Min Cinebench durch. Immerhin habe ich die Temperatur jetzt schon mal im Griff.
Edit: Die Wassertemperatur lag bei dem Screenshot bei 26,8 Grad
TurricanM3
2022-12-14, 19:39:27
@Turricanm3
Ich war bei 5500mhz auf 1.25v unter Last.
Welches MB hast denn? Das macht einiges aus.
Ich baue gerade auf das Strix D4 um.
La Junta
2022-12-14, 19:53:04
Welches MB hast denn? Das macht einiges aus.
Ich baue gerade auf das Strix D4 um.
Gute Entscheidung. Mit dem 2204er Bios läuft es super in Gear1 und super stabil dazu .
OCmylife
2022-12-15, 09:45:02
Ich habe in der Nacht nochmal ein wenig recherchiert und habe gesehen, dass ich nicht der einzige bin, bei dem die Spannungen im Auslieferungszustand so hoch waren. Das Heilmittel scheint hier der Adaptive Mode + Offset zu sein.
Jetzt bin ich schon auf 1,27V und auch der RAM(4133 MHz CL18) lässt sich so langsam im Gear 1 takten ohne zu hohe CPUSA Spannung(1.35V). Optimierungsbedarf ist da sicherlich noch, aber so langsam bin ich zufrieden.
https://i.ibb.co/0M5zttM/OCCT.png (https://ibb.co/0M5zttM)
Edit: Zum ausloten der Vcore hätte ich mir den OCCT Test sparen können. Das Setting was hier 1h OCCT stabil war, erzeugte im Cinebench sofort einen Fehler und ich musste letztendlich auf -0,03V Offset zurück. Evtl laufen -0,04 auch noch, aber das muss ich im Laufe der nächsten Zeit noch testen.
Immerhin war OCCT für die VCCSA Spannung sehr hilfreich. Auch 1,4V(mein persönlich gesetztes Max) reichten hier nicht aus um 4200 im Gear 1 stabil zu bekommen, auch wenn es mit steigender SA immer stabiler wurde. Für 4133 scheint 1,35 ausreichend zu sein. Da muss ich aber auch nochmal schauen, ob ich da noch was optimieren kann. Bei den Timings muss ich auch noch ran.
Ich hatte da auch noch einen Beitrag gefunden, der erwähnte, dass die Ecore L2 Spannung(1,25 wurde angegeben) hilfreich sein soll um die VCCSA Spannung auf 1,25 senken zu können.
TobiWahnKenobi
2022-12-17, 14:40:11
ich lasse beim i7 einfach allcore 5500MHz laufen. TVB aus, EIST, C states und co an,
stock vCore plus 50mV offset und volle LLC. das taktet anständig hoch und runter,
läuft solid und stresst nicht.
(..)
mfg
tobi
Hakim
2022-12-18, 00:30:52
Bin etwas aus der Materie raus, hab jetzt 2 x Raptor Lake geholt (13700k für den Arbeits PC und 13600KF für Gaming sys). Ich wollte bei dem kleinen den Takt bißchen höher und die Spannung etwas senken und den Power Limitieren. Hab jetzt beim 13600KF die P-Cores auf 5,3Ghz gesetzt, die E-Cores auf 4,2Ghz (wollte einfach den Standard Takt vom größeren Bruder), und gleichzeitig den Dynamischen Vcore mit -0,080V Offset laufen und llc so auf Mittlerer Einstellung, dabei auch Power auf 160W Begrenzt. Wenn ich zum Testen Cine R23 laufen lasse, bleibt die Spannung bei etwa 1,153V was mir etwas wenig erscheint. Geht halt dennoch direkt ins 160W Limit und die CPU pendelt dann zwischen 5,2 und 5,3Ghz hin und her. Aber Ansatz soweit richtig?
[..]
Ich steige die Tage auf ein anderes MB um. Bin gespannt.
Und? haben sich die *cores verändert?
OCmylife
2022-12-22, 21:09:55
Da ich mit den Temperaturen vom Aquacomputer Kryos Next einfach nicht zufrieden war, habe ich mir mal den Heatkiller IV Pro samt Heavy Backplate besorgt. Ich kann mir nicht vorstellen, dass der Kühler so viel Unterschied macht, aber ich hatte wohl wirklich ein Problem mit dem Sockel. Jetzt bin ich zufrieden. :freak:
Vorher/Nachher-Vergleich:
https://ibb.co/tMNTQBL
https://ibb.co/pvmjthz
Die Spannung hatte ich gestern schon fixiert und die Wassertemperatur hat sich zwischen dem Umbau sicher nicht auch mal eben halbiert. ;D
TurricanM3
2022-12-22, 22:39:22
Interessant, hab den auch schon bereit liegen und wollte wieder wechseln, denn die Bodenplatte meines Kryos ist nicht mehr ganz gerade und hat noch einen direct die Abdruck von früher. Glaube aber bei dir stimmte vorher was nicht. Abdruckbild normal gewesen?
Und? haben sich die *cores verändert?
Noch nicht drauf geachtet.
OCmylife
2022-12-23, 02:58:56
Da ich die MX5 Wärmeleitpaste im Einsatz habe, musste ich den Kühler immer leicht drehen, da die Wärmeleitpaste auch als Kleber fungiert. 😬
Daher kann ich keine verlässliche Aussage zum Abdruck geben.
Allerdings hatte ich den Kühler 3 Mal neu montiert(inkl entfernen der CPU) und die Temperaturen waren bis auf 1-2 Grad konstant so schlecht. Ich habe noch nie so häufig am PC herum gebastelt.
Bei der Heavy Backplate wird ja auch die Sockelbackplate entfernt und auch der Washermod mit durchgeführt. Ich gehe davon aus, dass das hauptsächlich für die deutlich besseren Temperaturen gesorgt hat, aber ich habe ehrlich gesagt keine Lust den Kryos nochmal mit der Heavy Backplate zu testen, jetzt wo die Temperaturen endlich im grünen Bereich sind. Ich werde über die Feiertage dann mal schauen, ob ich auch 5,5 GHz stabil bekomme.
Und das Lustige ist, dass Dazmode den Heatkiller mehrmals neu montieren musste, um auf Sockel 1700 gute Temperaturen zu erreichen. Der EK Velocity 2 würde konstanter performen. Von EK halte ich aber nichts und deswegen kam der für mich nicht in Frage.
Lowkey
2022-12-23, 10:29:56
Mit dem EK habe ich aber auch nur die Erfahrung gemacht, dass er zunächst nichts bringt. Aber ich kann es nochmals genau nach Anleitung mit dem neuen Board probieren.
https://www.igorslab.de/intel-13th-gen-raptor-lake-binning-ueber-500-cpus-angetestet-teil-1-i9-13900k-und-13900kf/2/
Der "Test" deutet auf eine Serienstreuung von 40% hin! Eigentlich ist das eine News wert, denn die Serienstreuung ist das größte Problem der neusten Hardware.
dildo4u
2022-12-23, 13:20:30
Erste B760 Preise.
https://videocardz.com/newz/asus-h770-b760-motherboards-show-up-with-e164-to-e336-price-tag
OCmylife
2022-12-23, 21:12:54
Mit dem EK habe ich aber auch nur die Erfahrung gemacht, dass er zunächst nichts bringt. Aber ich kann es nochmals genau nach Anleitung mit dem neuen Board probieren.
Ich habe damals mit dem EK 9800 GX2 Kühler so einen Ärger gehabt, dass ich nie wieder was von EK haben wollte. Der wurde mit der Zeit undicht und hat die teure Grafikkarte mit in den Tod gerissen. Hinzu kommt die völlig überzogene Preisgestaltung mittlerweile. Mit Aquacomputer bin ich die letzten Jahre eigentlich ganz gut gefahren und auch die Teile von Alphacool waren nicht schlecht, nur halt nicht so hochwertig verarbeitet. Der Heatkiller ist qualitativ mindestens auf Aquacomputer-Niveau. Da bekommt man Lust auf mehr.
Ich habe in der letzten Stunde auch mal etwas mit meiner CPU gespielt. Für 5,5 GHz brauche ich ca 1,4V was mir persönlich zu viel ist. Für 5,4(Turbo +1) brauche ich humane 1,318V, also kaum mehr als Stock. Und der Stromverbrauch ist mit 240W vs 280 (Cinebench 23) bei 5,5 auch etwas angenehmer. Die Lüfter höre ich kaum und die Wassertemp lag bei 31,3 Grad maximal.
https://i.ibb.co/t8XvvPN/Cinebench-23-12.png (https://ibb.co/t8XvvPN)
Lowkey
2022-12-23, 22:22:18
Vcore oder VID?
OCmylife
2022-12-24, 09:12:05
Vcore oder VID?
Vcore per Override im BIOS gesetzt. Ich werde mich aber wohl nochmal mit der Adaptive Voltage oder den VFcurves beschäftigen müssen, da es mich stört, dass die 1,318V dauerhaft anliegen. Einfaches Offset funktioniert bei mir aber nicht. Dann komme ich selbst bei +0.1V nicht mal ins Windows
TobiWahnKenobi
2022-12-24, 10:57:26
ich hatte drei 13700k CPUs und die saßen auf zwei mainboards. die UEFI unterscheiden sich von hersteller zu hersteller.
fang bei null an. BIOS reset.
alle P-kerne auf einen fixen multi einstellen. wenn die CPU mit 55 schon zickt, nimm halt erstmal 53 oder 54, lass die spannungen alle auf auto, heb die leistungslimits auf (alles auf max) und guck, was unter windows passiert. wenn speedstep, turboboost, speedshift usw. jetzt nicht funktionieren, brauchst du ein bios-update. im normalfall taktet der prozessor jetzt im "ausbalancierten" energieprofil (windows) je nach last hoch und runter und senkt respektive erhöht auch die spannungen.
sollte es eine OC-software für dein board geben, kannst du damit den multi unter windows langsam anheben und mit dem CB R20 testen, ab wann die spannung nicht mehr reicht.
wenn du an den punkt kommst, wo du mit der vCore rumspielen musst, finde erstmal raus, wie die loadlinecalibration (LLC) auf deinem board arbeit. idR. ist die mehrstufig einstell-, aber nicht abschaltbar und senkt die unter last anliegende spannung. ich gehe in solche testereien mit der stärksten absenkung (bei mir LLC5) und würde beim 13700k mit irgendwas zwischen +50 und +100mV vCore offset starten.
+100mV mit LLC5 kann gut funktionieren.. aber auch -30mV mit LLC4 kann gut funktionieren.. es führen immer mehrere wege zum ziel.. das einzige was im grunde gar nicht geht, ist einstellen einer fixen vCore spannung, denn da liegt dann wirklich immer die selbe spannung an, egal was das energieprofil unter windows definiert.
das spielen mit adaptiver spannung (bei meinem asrock board im FIVR menu) macht nur dort sinn, wo du über den turbo übertaktest. da definiert man eine adaptive spannungszugabe, die nur beim boosten greift. das geht auch und funzt recht ähnlich.. aber das sind mir jetzt zuviele infos für ein posting, das nächste woche schon 200 seiten zurückliegt.
viel erfolg!
https://abload.de/thumb/1vvfsn.png (https://abload.de/image.php?img=1vvfsn.png) https://abload.de/thumb/x237-5600-7200-cb23c5dqo.jpg (https://abload.de/image.php?img=x237-5600-7200-cb23c5dqo.jpg)
(..)
mfg
tobi
OCmylife
2022-12-24, 14:49:09
Moin Tobi,
ich hatte noch vor dem Einbau das Bios auf den neusten Stand gebracht, da das MSI Z690 Tomahawk den 13700K im Auslieferungszustand ja nicht unterstützt.
Spannungsabsenkung und Taktsenkung im Idle haben da auch einwandfrei funktioniert, nur kam mir die Spannung unter Last mit Auto Vcore halt ziemlich hoch vor(irgendwas knapp unter 1,4V). Wenn man dann hier die Traum-CPUs mit 1,2V auf 5,5 GHz sieht(die genaue Spannung habe ich nicht im Kopf), wird einem schlecht. Und wenn dann die CPU-Temperaturen unter einer Custom Wakü mit einer Wassertemp von unter 30 Grad bei Cinebench gleich auf 90 Grad schnellt und in Windeseile auf 100 Grad ist, dann ist man erstmal ratlos. :eek: Gerade wenn sich das Spiel auch nach mehrmaligem neu montieren nicht wirklich bessert und man die Temperaturen nur mit Undervolting in den Griff bekommt. Aber wir wissen ja, dass der Heatkiller bzw die heavy Backplate meine Probleme gelöst hat. :biggrin:
Ich weiß auch schon, dass der IMC nicht so schlecht ist, da der Gskill Trident Z(Hynix) ohne Probleme mit 4133 CL 18 läuft bei 1,33 VCCSA und 1,46 VDIMM. Zuvor mit dem 10850K liefen die 4200 CL17 stabil.
Derzeit habe ich LLC2 eingestellt und habe zwischen 2 und 4 von der Stabilität eigentlich keinen Unterschied feststellen können. Bin genauso wie Du der Meinung, dass man einen kleinen Drop der Spannungen lieber hinnehmen sollte, als dass die Spannungsspitzen bei einem Lastwechsel gleich mal für einen kurzen Moment auf 1,5 oder 1,6V springen. Muss nicht sein.
Interessant und wirklich hilfreich ist dein Beitrag mit der adaptiven Spannung. Genau so habe ich derzeit ja übertaktet(Turbo +1) und habe es eigentlich auch vor so laufen zu lassen. Jeden Kern einzeln auszuloten oder den Single-Coreboost beim Allcore-OC nicht mitzunehmen finde ich eigentlich Quatsch.
Vielen Dank für deinen Beitrag! Die CPU aus dem linken Screenshot ist ja göttlich! Die aus dem rechten Screenshot hätte ich nie so hoch geprügelt. ;D
TobiWahnKenobi
2022-12-24, 15:10:28
das ist die selbe CPU mit unterschiedlichen einstellungen.
(..)
mfg
tobi
OCmylife
2022-12-24, 17:53:51
Vcore oder VID?
Jetzt verstehe ich, warum Du gefragt hast... Das was CPU-Z als Vcore anzeigt und die VID im HWinfo sind ja mal gut 0,1V auseinander.
Wenn es danach geht, ist der 13700K ja gar nicht mal so schlecht. :rolleyes:
Edit: Aber ganz ehrlich? Mir sind die 5,5 GHz zu warm. Egal, ob es jetzt 1,316 Vcore oder 1,408 VID ist, um die 10 Min durch den Cinebench zu kommen. Für die 100 MHz mehr benötigt die CPU statt 240 287 Watt unter Last und wird locker um 10 Grad heißer. Aber Adaptive Voltage funktioniert! Jetzt senkt er im Idle auch schön brav die Spannung. :-)
https://i.ibb.co/vvkhHv5/Cinebench-5-5-24-12.png (https://ibb.co/vvkhHv5)
BlacKi
2022-12-24, 18:51:49
Aber ganz ehrlich? Mir sind die 5,5 GHz zu warm. Egal, ob es jetzt 1,316 Vcore oder 1,408 VID ist, um die 10 Min durch den Cinebench zu kommen. Für die 100 MHz mehr benötigt die CPU statt 240 287 Watt unter Last und wird locker um 10 Grad heißer.
den verbrauch und die hitze kannst du doch nach dem optimieren nach gutdünken limitieren. so laufen anwendungen die den verbrauch nicht benötigen schneller.
OCmylife
2022-12-24, 18:58:39
den verbrauch und die hitze kannst du doch nach dem optimieren nach gutdünken limitieren. so laufen anwendungen die den verbrauch nicht benötigen schneller.
Danke, stimmt! Die Möglichkeit hatte ich irgendwie ausgeblendet. :freak:
Ich werde die Tage auch nochmal die Variante von Timo mit den fixen Multis ausprobieren. Über Weihnachten hat man ja Zeit. Dann werde ich mich auch nochmal dem Arbeitsspeicher widmen. Vielleicht sind die 4200 CL17 ja doch ohne Brechstange machbar. :biggrin:
Edit: Was aber immer noch nicht in meinen Schädel will. Es scheint egal zu sein, was ich bei der adaptiven Spannung als Richtwert angebe(ob 1,4 oder 1,32). Es wird als VID 1,408 und bei der Vcore in CPU-Z irgendwas um die 1,315 -1,318 angezeigt, egal ob ich den Turbo auf +1 oder +2 stelle. Dann ist der Unterschied in den Temperaturen nämlich gar nicht so groß zwischen 5,4 und 5,5. Bei Override bleibt er spürbar kühler.
Edit 2: So sieht es nach Tobi seiner Technik aus:
https://abload.de/thumb/cinebench5.524.12allct9ex7.png (https://abload.de/image.php?img=cinebench5.524.12allct9ex7.png)
P-Kerne fix auf 55, Vcore Auto, Keine Limits.
Edit2: Reduziere ich jetzt die Autospannung per Offset auch nur um 0,01V bootet er gar nicht mehr und ich muss einen CMOS Clear machen. Keine Chance, so per Offset zu arbeiten.
TobiWahnKenobi
2022-12-24, 20:23:57
das sind alles infos, die uns in keine richtung bringen.
du müsstest erstmal das board und das UEFI posten, damit man als leser weiss, was für möglichkeiten es gibt. dann bringt man das kognitiv in einklang mit abhängigkeiten, die zwischen den bios-parametern herrschen, ballert noch ein paar erfahrungen mit verschiedenen mainboardherstellern dazwischen und dann kann man weiter orakeln.
btw,
auch deine autospannung mit negativem offset wird sich booten lassen. die LLC muss dann ggf so gestellt werden, dass sie nichts von der vCore droppt.
davon ab ist das gefummel eh nur ein teil der gleichung. 2 std. memtest und 30x cinebench sagt leider nichts darüber aus, wann andere workloads aussteigen.
(..)
mfg
tobi
OCmylife
2022-12-25, 06:27:21
das sind alles infos, die uns in keine richtung bringen.
du müsstest erstmal das board und das UEFI posten, damit man als leser weiss, was für möglichkeiten es gibt. dann bringt man das kognitiv in einklang mit abhängigkeiten, die zwischen den bios-parametern herrschen, ballert noch ein paar erfahrungen mit verschiedenen mainboardherstellern dazwischen und dann kann man weiter orakeln.
btw,
auch deine autospannung mit negativem offset wird sich booten lassen. die LLC muss dann ggf so gestellt werden, dass sie nichts von der vCore droppt.
davon ab ist das gefummel eh nur ein teil der gleichung. 2 std. memtest und 30x cinebench sagt leider nichts darüber aus, wann andere workloads aussteigen.
(..)
mfg
tobi
Ich meine, dass ich das Board in meinen Erfahrungsberichten gelegentlich schon erwähnt hatte.
Es ist das MSI Z690 Tomahawk WiFi DDR4,
in Verbindung mit Gskill Trident Z Neo 3600 CL16(Hynix CJR, wie erwähnt können die deutlich mehr), einer MSI Gaming X 3090 mit einem Alphacool Block, die im selben Loop steckt, wie der 13700K@Watercool Heatkiller, Pumpe Aquacomputer D5 und 2 Hardwarelabs 360 SR2 Radis, verbaut in einem Fractal Define 7.
Das UEFI ist exakt so aufgebaut, wie in dem Video von Skatterbencher hier:
https://www.youtube.com/watch?v=fMMNoylydKE
Vorweg: Wieso stellt man einen 59er Turbo ein, wenn man es offensichtlich nicht gekühlt bekommt? Im Multi von Cinebench R23 habe ich mit 5,5 GHz mehr Punkte, als er mit 5,9. Klar, Singlecoreboost, aber dafür lässt man die CPU bei Volllast dann durchgehend throtteln? Das geht auch anders 😬
Ich glaube Dir auch, dass es möglich ist den Offset irgendwie zum Laufen zu bekommen, allerdings ist das sehr mühselig, wenn dein CMOS Clear lediglich aus einem Jumper auf dem Board besteht und Du jedes Mal das Gehäuse öffnen und die Kontakte mit einem Schraubenzieher verbinden musst, damit das Board wieder bootet. Jetzt wollte ich gestern so clever sein und den Resetknopf zum CMOS Clear Button umfunktionieren. Klappt aber nicht, da die Kabel unten fürs Terminal(LEDs, Reset und Power SW zusammen in einem Schlauch stecken und der Jumper zu weit vom Anschlussterminal entfernt ist. Man könnte den Schlauch öffnen, ja. Und dann habe ich noch mehr Kabelsalat im Gehäuse. 😅
Zudem sehe ich keinen Nachteil über den Turbo zu übertakten, wenn das Endergebnis mit einem Allcore-OC laut Cinebench R23 identisch ist, ich zudem aber noch den Singlecoreboost mitnehme. Für einen variablen Workload mit Lastwechseln habe ich bisher OCCT verwendet. Das ist super um beispielsweise die VCCSA auszuloten, bringt Dir aber nichts für die Vcore, da die Last dort deutlich niedriger ausfällt als mit Cinebench.
Für den Speicher lasse ich TestMem5 im Extreme-Preset laufen. Das findet ziemlich schnell Fehler, wenn der RAM nicht stabil ist.
Dann wolltest Du noch Screens vom UEFI meines Tomahawk:
LLC(da halte ich Stufe 4 schon für optimal):
https://cdn.mos.cms.futurecdn.net/pFQ4BYF93WB35JW3usXLEf.jpg
Advanced CPU config:
https://cdn.mos.cms.futurecdn.net/cZBjM9WDMrcRejhWVhjPsd.jpg
Taktrate Einstellungen:
https://cdn.mos.cms.futurecdn.net/jdSQpuHeAk9UWL8JaVCrWd.jpg
Spannungen:
https://cdn.mos.cms.futurecdn.net/nECSVrbMWBXxcHAnoBcpcd.jpg
https://cdn.mos.cms.futurecdn.net/5u9HTapaD74QvmyNU5qRjd.jpg
Quelle:
https://www.tomshardware.com/reviews/msi-mag-z690-tomahawk-wifi/2
Ist die DDR5 Version und ein 12700K, macht aber von den Einstellungen keinen Unterschied 😁
@Tobi: Mit welchen Komponenten kühlst Du die 5,6 GHz?
TobiWahnKenobi
2022-12-25, 09:02:57
moin, danke erstmal für die infos. ich hatte ein z790 tomahawk DDR4 in verbindung mit 4x 8GB samsung 3600C16 B-die RAM. das flog zusammen mit dem damaligen 13700k nach etwa 10 tagen wieder raus. da liessen sich lustige dinge einstellen.. bis zu 6000MHz auf der CPU.. das ging sogar durch 3dmark, aber die einstellungen, die ich für den alltag auswürfeln konnte, waren beim spielen nicht genug aufschlag auf mein altes system (9900k/z370 allcore 5.2GHz). in meinem fall brauche ich zwingend DDR5, damit sich der umstieg "lohnt". der tribut an UHD/120Hz gezocke. da sind die unterschiede nämlich so gering, dass man die perlen raussuchen muss, die mit DDR5 besser skalieren, um zu sehen, dass es überhaupt was gebracht hat.
den ram würde ich auf 3600-3800 C16 stellen, GEAR1 mit command rate 1. evtl. gehen auch noch 100MHz mehr. alles darüber wird nur mit GEAR2 sauber laufen. apropos -> auf z370 geht dieser speicher bis 4400MHz zu takten.. auf z790 habe ich nichtmal die 4000MHz alltagstauglich bekommen.
zu dem MSI board gehört software. die kann man unter windoof nachladen.. mit "user scenario" kannst du recht einfach zur laufzeit die multis für P und E cores, sowie die spannung setzen.
schau doch mal, wie weit du damit kommst. wie gesagt, ich konnte lustige werte zwischen default und 6GHz einstellen.. gern auch mit zuviel vCore.
für 5.5GHz reich(t)en auf dem Z790 tomahawk default-spannung +50 mV offset respektive +100 mV für 5.6GHz, der rest im UEFI auf auto.
https://abload.de/thumb/13700k_cb23_55003dcir.jpg (https://abload.de/image.php?img=13700k_cb23_55003dcir.jpg)https://abload.de/thumb/13700k_cb23_56009ic6t.jpg (https://abload.de/image.php?img=13700k_cb23_56009ic6t.jpg)
das sind auch die beiden einstellungen gewesen, auf die ich immer wieder zurück bin. die einzigen, die auch dauerlauf-stabil in spielen und beim windowsen waren. wie gesagt.. workloads im alltag sind nicht vergleichbar mit synthies.
ich kühle mit wasser. anders geht es gar nicht. in meinem case sitzen 2x 360mm, 1x 240mm und 1x 140mm radiatoren, eine aquastream XT pumpe und mein CPU-kühlelement ist (seit 3 tagen) ein eisblock xpx aurora von alphacool..
https://abload.de/thumb/x71_222zc1y.jpg (https://abload.de/image.php?img=x71_222zc1y.jpg)
btw,
boards sind gewöhnung. ich wurde mit MSi genauso nicht warm wie mit asus.. bin zulange auf asrock unterwegs. positiv am MSI-UEFI fand ich die vorgeschlagenen TryIt (oder so ähnlich) parameter für den speicher und mystic light konnte hübschere RGB-effekte auf ARGB-devices applizieren.. aber sonst? war nicht meins. der ausflug mit MSI, DDR4 und dem 13700k hat mir 2x das windows zerkloppt.
(..)
mfg
tobi
Cubitus
2022-12-25, 10:12:54
Zumindest Bei den neuen MSI Boards Z790 gibts ein Interessantes Feature
nennt sich Loadline Saturation.. Gut bringt dir im Endeffekt nichts, habe aber jetzt öfters im Netz gelesen, das so mancher damit die Temperaturen in den Griff bei OC bekommen hatte
https://wccftech.com/msi-intros-loadline-saturation-on-z790-motherboards-maxing-out-single-multi-core-performance-on-intel-cpus/
Ich habe selbst ein Gigabyte Board und einen 13600K, der ist was Hitze anbelangt wesentlich einfacher zu handeln und für das zocken reicht die CPU allemal.
Bei mir ist die LCC auf LOW und fahre einen Offset von -0,54 Vcore.
bedeutet die CPU nimmt sich bei 5,4 Ghz/4,2 Ghz zwischen 1,221 und 1,236 Vcore was okay ist. Da kommt auch meine 240er AIO locker damit klar.
Die Frage ist brauchst du wirklich einen 13700k?
Wie gesagt ein 13600k mit etwas OC und guten Speicher Settings, Fahre 3733Mhz mit Gear 1 und 14 Timings, ist jetzt nicht wesentlich langsamer als ein Stock 13700k in spielen, teilweise sogar schneller.
Lowkey
2022-12-25, 10:47:40
Danke für den Link.
Die Verkaufszahlen von 13600 und 13700 sind sehr nahe beieinander. Der Tipp für Gamer zum 13600 zu greifen wird von vielen Käufern ignoriert, denn 90 Euro Aufpreis spielen beim Neukauf keine Rolle. Und eventuell kommt von Igorslab noch Teil 2 mit kleineren Raptoren, wo man dann sehen kann, ob die Serienstreuung und Selektion beim 13600 hart durchschlägt oder nicht.
OCmylife
2022-12-25, 11:45:06
Ich denke mal wirklich gebraucht habe ich vom 10850K ausgehend in 4K Auflösung weder den 13600K noch den 13700K, genauso wenig wie manche hier knappe 6 Ghz auf ihrer CPU fahren. :freak: Ich war ja sogar zuerst am überlegen, ob es nicht sogar ein 13900K wird, damit ich in der Silicon Lottery diesmal auch eine größere Chance habe eine gute CPU abzugreifen. Das hatte ich nämlich weder beim 10850K, noch beim 8700K oder 2500K zuvor.
Der Ansatz mit der LLC scheint wie Tobi schon schrieb aber ein ordentliches Gewicht zu haben, was sowohl die Stabilität, als auch den Verbrauch angeht. Da ist alles von 240 bis 340 Watt drin. Und gerade der SFT Test im Ycruncher scheint was die Stabilität angeht mein System ordentlich auf die Probe zu stellen. Mit Adaptive auf 1,35 und LLC4 lief der Test aber schon durch. :-)
Zudem habe ich wie von Blacki empfohlen jetzt auch mal eine Drossel bei 275 Watt eingestellt. Selbst beim 5,4 GHz Turbo wird der sonst richtig versoffen, sobald ich mit SFT teste. Da habe ich dann auch schon 340 Watt gesehen.
https://abload.de/thumb/sft25.12y7dx4.png (https://abload.de/image.php?img=sft25.12y7dx4.png)
Die Loadline Saturation gibt es ja leider nur auf den Z790 Boards von MSI. Schade! ;D
CR1 scheinen meine Gskill nicht zu mögen. Da müsste ich mit dem Takt zu weit runter, als dass es sich rentiert. Ich bleibe da vorerst auf 4133 CL17-22-22-42 wie es im Screenshot zu sehen ist. Sind ja keine Samsung B-Die ;-)
Das ist jetzt mein zweites MSI nach dem MSI Z490 Ace. Das Ace brauchte ein paar Monate Bios-Reife-Prozess lief danach im Alltag aber sehr stabil. Beim Tomahawk fehlen mir jetzt ein paar Comfort-Features wie beispielsweise ein Cmos-Clear, den ich auf dem Z790 bekommen hätte, aber sonst sehe ich noch keinen großen Kritikpunkt, abgesehen davon, dass der normale Offset auf die Autospannung bei mir nicht funktionieren will. Dafür fahre ich dann halt über die Adaptive - who cares?! :D So einfaches Ram-OC kenne ich wirklich nur von MSI. Memory-Try it, dann Spannungen und Timings nach justieren und fertig.
Deathcrush
2022-12-25, 12:23:32
Ich spiele ja mit dem Gedanken mein i7-10700F durch ein i5-13600k zu ersetzen, danke an trojan :P https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13196397&postcount=662
Aber kann mir bitte mal einer erzählen, was mit den Preisen los ist? Mainboards, die man früher für 70-80€ bekommen hat, kosten nun 170€ (das von PCGH empfohlene ASUS TUF B660M-Plus) Das waren damals Preise für die "High-End" Boards. Gibt es kein vernünftiges Mainboard für unter 100€? Ansprüche an ein Board habe ich keine, außer das die Spannungswandler nicht gleich nach ein paar Sekunden verglühen und der Takt gesenkt werden muss, OC ..... usw brauche ich nicht. Ram eingesteckt, M2 installiert... muss laufen ;)
dildo4u
2022-12-25, 12:33:06
Wenn du kein billiges B660 findest gibt es wenig Hoffnung, B760 sollte erstmal mher kosten.
DDR4 Boards sollte 50€ billiger als DDR5 sein aber kein Plan ob du vorhast neuen RAM zu kaufen.
Edgecrusher86
2022-12-25, 12:49:48
Also ich würde ja gleich mindestens einen 13700K nehmen - da hat man sicher langfristig mehr davon, sprich der Aufpreis dürfte sich lohnen - da hat man ingame auch Top-Leistung, wenn man alle E-Cores deaktiviert - so als Beispiel.
Ob 350€ oder 450€ ist ja nun Latte - es sind ja nicht 600€+. Der 12600K war preislich damals deutlich attraktiver mit grob 270-280€ iirc, dafür leistet der 13er natürlich auch deutlich mehr.
Ein Bekannter wird im Frühjahr von 5900K auf 13700K aufrüsten (GB Z690 Aorus Elite DDR4 ist eingeplant) - ich denke mal, damit macht er nichts falsch. ;)
Lowkey
2022-12-25, 14:10:44
https://wccftech.com/msi-intros-loadline-saturation-on-z790-motherboards-maxing-out-single-multi-core-performance-on-intel-cpus/
Wenn ich die Settings einstelle, taktet es rauf und runter aber nimmt auch nicht die preferred cores.
Die Möglichkeit ist seit AM4 genau das Problem der meisten Multicore CPUs der neusten Generation, dass sie je nach Auslastung takten.
Es läuft gerade laut Anzeige recht komisch:
6000Mhz auf allen Kernen (CPUz) mit 1.38v Vcore und die Lüfter schweigen. Score ist aber nur bei 23k im CB23, also viel zu niedrig.
Cubitus
2022-12-25, 16:20:41
Wenn ich die Settings einstelle, taktet es rauf und runter aber nimmt auch nicht die preferred cores.
Die Möglichkeit ist seit AM4 genau das Problem der meisten Multicore CPUs der neusten Generation, dass sie je nach Auslastung takten.
Es läuft gerade laut Anzeige recht komisch:
6000Mhz auf allen Kernen (CPUz) mit 1.38v Vcore und die Lüfter schweigen. Score ist aber nur bei 23k im CB23, also viel zu niedrig.
Hmpf wie gesagt kenne es nur aus der Theorie und nicht in der Praxis, das es holpert ist natürlich komisch...
Also ich würde ja gleich mindestens einen 13700K nehmen - da hat man sicher langfristig mehr davon, sprich der Aufpreis dürfte sich lohnen - da hat man ingame auch Top-Leistung, wenn man alle E-Cores deaktiviert - so als Beispiel.
Ob 350€ oder 450€ ist ja nun Latte - es sind ja nicht 600€+. Der 12600K war preislich damals deutlich attraktiver mit grob 270-280€ iirc, dafür leistet der 13er natürlich auch deutlich mehr.
Weiß nicht die Sockel 1700 Plattform ist eh tot, ich sehe den 13600K eher als eine Vernunft-Übergang Lösung, bis zur neuen Plattform.
Der Unterschied zum 13700k im Gaming ist zur vernachlässigen
+ beim 13600k hast du keine Probleme mit der Temp.. Für mich ist der 13600k der Sweetspot in Sachen Energie/Leistung.
Vor allem lässt sich mit Standard Spannung der Intel ohne mühen auf 5300Mhz/4200Mhz übertakten.
Solange man mit der CPU nicht arbeitet, sondern nur spielt, passt das.
https://www.techpowerup.com/review/intel-core-i5-13600k/17.html
Die E-Cores abzuschalten, vor allem bei neueren Games unter Windows 11 bringt wohl eher Nachteile.
Gegenüber meinem 10900F ist der 13600K ne Offenbarung.
Das Ding ist wesentlich sparsamer und dann auch noch 30-40 Prozent schneller in Spielen.
TobiWahnKenobi
2022-12-25, 17:20:56
warum sollte man sich auch von einem 8-kerner ausgehend einen 8+8 kerner kaufen und dann die hälfte der kerne abschalten? erscheint mir schon rein von der idee her total sinnlos; da kannste auch den alten scheiss behalten. für ne bessere IPC muss man nun wirklich keine 1000+ euro verbrennen. aber okee, viele haben auch ein loch im kopf.
(..)
mfg
tobi
BlacKi
2022-12-25, 18:17:32
warum sollte man sich auch von einem 8-kerner ausgehend einen 8+8 kerner kaufen und dann die hälfte der kerne abschalten? erscheint mir schon rein von der idee her total sinnlos; da kannste auch den alten scheiss behalten. für ne bessere IPC muss man nun wirklich keine 1000+ euro verbrennen. aber okee, viele haben auch ein loch im kopf.
(..)
mfg
tobi
eigentlich bringt die kernskalierung über 6 kernen kaum vorteile. lediglich ipc und takt machen heutige cpus schneller. du kannst dir zwar heute bis zu 24 kerne günstig kaufen, aber alles über 6 kernen ist eigentlich unnötig, wenn jene ordentlich ipc und taktverbesserung beinhalten.
Lowkey
2022-12-25, 18:58:39
Hrm bei Alder Lake war es ein Vorteil die E-Kerne abzuschalten und mit Raptor Lake ist es offenbar nicht mehr von Nachteil. Und von daher wurde es getestet.
Hakim
2022-12-25, 22:36:29
@Deathcrush also ich hab es gemacht und bereue es nicht. Habe dem kleinen auch etwas UV verpaßt und den PT limitiert. Läuft jetzt so mit den Taktraten vom größeren Bruder 13700K (5,3PC und 4,2EC) relativ genügsam. Vielleicht legst du noch was beim Mobo drauf für ein Z Board, wenn dir das rumgespiele Spaß macht. Aber fangen halt bei so 150-170€ an.
TobiWahnKenobi
2022-12-25, 22:39:44
hätte man vllt. einen aufkleber auf den karton machen sollen -> nicht kompatibel mit windows95
(..)
mfg
tobi
latiose88
2022-12-26, 06:14:31
Also ich bin gespannt wie es bei mir weiter gehen wird.
Ich spielte kurz auch mit einem neuen Intel System aber da die Fakten im Moment sehr viel dagegen spricht sieht es echt mau aus.
Habe 400 € - 500 € für die gesamte Plattform langfristig nur zur Verfügung.
Damit kann man aktuelle sockel gleich schon mal vergessen.
Ich verwende nur Windows 10 und auch bis zum bitteren Ende. Damit hat man teilweise mit den e Kernen wohl Probleme. Also scheidet 12 und 13 gen aus.
Dann ist ein kleiner PC nur langfristig geplant.
Er soll die Leistung die einer i7 6950x ersetzen und gleichzeitig sehr sparsam sein. Also sobald man da her geht und den 13900k mit 125 Watt betreibt ist dieser sogar langsamer als ein i7 6950x. Und dann ist irgendwie nicht richtig.
Also im Grunde genommen echt schade die Entwicklung. Anscheind mag zwar mein verwendetes Programm zwar mehr Kerne aber mit den e kernen scheint es nicht ganz klar zu kommen. Woher ich das weiß durch Tests anderer User. Und zudem verwende ich nur wenn ich zocke ne ältere gpu.
Also bin mehr der Anwender außerhalb des zockens.
Wenn es nach mir geht würde ich wohl noch immer windows 7die treue schwören aber da habe ich die rechnung nicht der meiner mutter gemacht gehabt.
Nun ja ich bin da wohl ein eher sehr spezieller Nutzer.
Ich trenne mich von der alten Software eher weniger. Die arbeitssoftware ist aus 2018 und games sind 15 - 20 Jahre alt. Nen neues Os brauche ich somit erst recht nicht.
Habe es mit dem Kauf zwar nicht eilig aber die Entwicklung geht echt in die falsche Richtung.
Welche Optionen ich also langrfistig haben werde schwierig
Klar ist aber die Software wird auch in Zukunft so verendet. Es wird sich nix an der Software verändern. Das Geld wird knapp bleiben und der stromsparen wird der Fokus gelegt. Mal sehen ob Intel da in Zukunft was für mich hat. Die aktuelle gen scheint wohl eher uninteressant zu sein wie es scheint. Was anderes kann ich dazu nicht schreiben.
Edgecrusher86
2022-12-26, 09:39:05
warum sollte man sich auch von einem 8-kerner ausgehend einen 8+8 kerner kaufen und dann die hälfte der kerne abschalten? erscheint mir schon rein von der idee her total sinnlos; da kannste auch den alten scheiss behalten. für ne bessere IPC muss man nun wirklich keine 1000+ euro verbrennen. aber okee, viele haben auch ein loch im kopf.
(..)
mfg
tobi
Vielleicht weil die E-Cores nichts zur Gaming-Performance beitragen (das, was man in der Presse gelesen hat, ist idR ja nur im Bereich der Messtoleranz, also zu vernachlässigen) und MT auch mit 16T als Gamer im Alltag langen würde? Aber nun ja, ich werde mir wohl doch kein HY in Zukunft holen - HEDT und SMT off ist schöner mit richtigen, dicken Kernen und massig PCI-E 5.0 Lanes von der CPU - schade nur, dass Intel diesbezüglich eine Generation hinterher hinkt - nun ja, egal...habe Zeit. ;)
Hmpf wie gesagt kenne es nur aus der Theorie und nicht in der Praxis, das es holpert ist natürlich komisch...
Weiß nicht die Sockel 1700 Plattform ist eh tot, ich sehe den 13600K eher als eine Vernunft-Übergang Lösung, bis zur neuen Plattform.
Der Unterschied zum 13700k im Gaming ist zur vernachlässigen
+ beim 13600k hast du keine Probleme mit der Temp.. Für mich ist der 13600k der Sweetspot in Sachen Energie/Leistung.
Vor allem lässt sich mit Standard Spannung der Intel ohne mühen auf 5300Mhz/4200Mhz übertakten.
Solange man mit der CPU nicht arbeitet, sondern nur spielt, passt das.
https://www.techpowerup.com/review/intel-core-i5-13600k/17.html
Die E-Cores abzuschalten, vor allem bei neueren Games unter Windows 11 bringt wohl eher Nachteile.
Gegenüber meinem 10900F ist der 13600K ne Offenbarung.
Das Ding ist wesentlich sparsamer und dann auch noch 30-40 Prozent schneller in Spielen.
Nun ja, ich sehe den 13700K als vernünftiger, da man die ganze Plattform dann locker 2-3 Jahre länger fahren wird können als mit dem Kleinen. Derzeit mag der Unterschied gering ausfallen zum i5 ingame, aber das wird sich sicherlich ändern in Zukunft, wenn 6 Cores das neue 4 Cores sein werden. Das mag allerdings noch bis zur nächsten Konsolengeneration dauern. :)
Schon nicht schlecht, was der i5 bietet, aber nun ja - bei dem Preisunterschied hätte ich dennoch zum i7 gegriffen. Ingame ist man wohl bei 60-70 Grad oder sowas unter Wasser - kein Problem. Da wird HEDT sicher auch gut punkten - von Sapphire Rapids ist ja bekannt, dass ein Tile 420mm² groß sein wird und FHF monolitisch wohl grob beim doppelten.
Wird natürlich auch entsprechend kosten. Ich gehe von grob 3000-4000€ inkl. Block und RAM aus, sprich mindestens das doppelte vom i9 und Boardpreise a la Maximus Extreme. Aber wenn man dann lange Ruhe hat und nur die GraKa über einige Generationen tauschen kann, warum nicht?! :)
TobiWahnKenobi
2022-12-26, 10:08:31
krass was andere immer alles be- und überdenken.. *kopfkratz* ich denke nie über sowas nach. wenn ich etwas haben will, kaufe ich es. auf mich wirkt der begriff "gamer" übrigens wie ne beleidigung abwertung. die jahre in denen dieser begriff auf mich gepasst hat, waren die frühen bis mittleren achtziger.. da waren die meisten youtube-affen noch flüssig. naja.. menschen sind verschieden.
btw,
ich habe noch nie kerne oder HT abgeschaltet und habs trotzdem geschafft, bis ins jahr 2022 mit guter performance zu überleben. welches system auch immer ich am start hatte. den eindruck, dass intel irgendwo "hinterher-hinkt" habe ich nicht. hinken sind doch die einbeinigen, die hinterher-humpeln.. oder? wenn das mit den E-cores und der performancebremse stimmt, hinkt eher das OS hinterher oder der user, der noch nicht das aktuellste OS für die aktuellsten platformen einsetzt. was er natürlich vorsätzlich tut.. weil er sich gut informiert hat.. :) verwunderlich, dass der berufstand der informatiker noch nicht ausgestorben ist, wo sich doch heute jeder maurer gut damit auskennt.
(..)
mfg
tobi
Exxtreme
2022-12-26, 10:48:31
Vielleicht weil die E-Cores nichts zur Gaming-Performance beitragen (das, was man in der Presse gelesen hat, ist idR ja nur im Bereich der Messtoleranz, also zu vernachlässigen) und MT auch mit 16T als Gamer im Alltag langen würde? Aber nun ja, ich werde mir wohl doch kein HY in Zukunft holen - HEDT und SMT off ist schöner mit richtigen, dicken Kernen und massig PCI-E 5.0 Lanes von der CPU - schade nur, dass Intel diesbezüglich eine Generation hinterher hinkt - nun ja, egal...habe Zeit. ;)
Die E-Cores könnten was beitragen wenn Micros~1 die Scheduler auf die Reihe bekommen würde. Dann könnte Windows die ganzen semi-aktiven Dienste auf die E-Cores packen.
Cubitus
2022-12-26, 10:50:27
Vielleicht weil die E-Cores nichts zur Gaming-Performance beitragen (das, was man in der Presse gelesen hat, ist idR ja nur im Bereich der Messtoleranz, also zu vernachlässigen) und MT auch mit 16T als Gamer im Alltag langen würde? Aber nun ja, ich werde mir wohl doch kein HY in Zukunft holen - HEDT und SMT off ist schöner mit richtigen, dicken Kernen und massig PCI-E 5.0 Lanes von der CPU - schade nur, dass Intel diesbezüglich eine Generation hinterher hinkt - nun ja, egal...habe Zeit. ;)
Nun ja, ich sehe den 13700K als vernünftiger, da man die ganze Plattform dann locker 2-3 Jahre länger fahren wird können als mit dem Kleinen. Derzeit mag der Unterschied gering ausfallen zum i5 ingame, aber das wird sich sicherlich ändern in Zukunft, wenn 6 Cores das neue 4 Cores sein werden. Das mag allerdings noch bis zur nächsten Konsolengeneration dauern. :)
Schon nicht schlecht, was der i5 bietet, aber nun ja - bei dem Preisunterschied hätte ich dennoch zum i7 gegriffen. Ingame ist man wohl bei 60-70 Grad oder sowas unter Wasser - kein Problem. Da wird HEDT sicher auch gut punkten - von Sapphire Rapids ist ja bekannt, dass ein Tile 420mm² groß sein wird und FHF monolitisch wohl grob beim doppelten.
Wird natürlich auch entsprechend kosten. Ich gehe von grob 3000-4000€ inkl. Block und RAM aus, sprich mindestens das doppelte vom i9 und Boardpreise a la Maximus Extreme. Aber wenn man dann lange Ruhe hat und nur die GraKa über einige Generationen tauschen kann, warum nicht?! :)
ich verstehe was du meinst, dennoch wenn du dir Tests anschaust ist bis dato der Unterschied zwischen 13600K und 13700K im Spielen gering. Natürlich 90 Euro unterschied spielt da keine Rolle, aber wie gesagt Effizienz und eben so die Dinge benutzen wo sich für mich am meisten Sinn ergeben.
krass was andere immer alles be- und überdenken.. *kopfkratz* ich denke nie über sowas nach. wenn ich etwas haben will, kaufe ich es. auf mich wirkt der begriff "gamer" übrigens wie ne beleidigung abwertung. die jahre in denen dieser begriff auf mich gepasst hat, waren die frühen bis mittleren achtziger.. da waren die meisten youtube-affen noch flüssig. naja.. menschen sind verschieden.
btw,
ich habe noch nie kerne oder HT abgeschaltet und habs trotzdem geschafft, bis ins jahr 2022 mit guter performance zu überleben. welches system auch immer ich am start hatte. den eindruck, dass intel irgendwo "hinterher-hinkt" habe ich nicht. hinken sind doch die einbeinigen, die hinterher-humpeln.. oder? wenn das mit dem E-cores und der performancebremse stimmt, hinkt eher das OS hinterher oder der user, der noch nicht das aktuellste OS für die aktuellsten platformen einsetzt. was er natürlich vorsätzlich tut.. weil er sich gut informiert hat.. verwunderlich, dass der berufstand der informatiker noch nicht ausgestorben ist, wo sich doch heute jeder maurer gut damit auskennt.
Naja finde den Begriff Gamer jetzt nicht schlimm, weil ich z.b am privaten PC das zu 90% bin und ich bin gelernter Fachinformatiker (IHK zertifiziert) :freak:
Jedenfalls ist es bei mir schon auch so wenn ich was kaufen will dann tu ich es, natürlich habe ich auch mit Gedanken für den 13900K oder 13700K gespielt. Aber nach mehreren Überlegungen ein effizientes System auf die Beine zu stellen, was zu meiner effizienten 4090 passt, bin ich beim 13600K gelandet. Ich warte aber jetzt mal den 7800X3D ab. Wobei dieser wirklich sehr überzeugend sein müsste, dass ich mich nochmals auf ein AMD einlassen würde.. ;D
Oder Ende kommenden Jahres den Meteor Lake, für mich ist der 13600K bisher nur eine Zwischenlösung, ich plane mit der CPU nicht so lange.
Bzgl E-Cores, würde diese auch nicht abschalten, im Normalfall entlasten die E-Cores die P-Cores und die Perfomance ist besser mit als ohne..
Edgecrusher86
2022-12-26, 11:52:27
Ja, E-Cores könnten sicher besser genutzt werden.
Gut, als Übergangslösung wohl optimal der i5-13600K mit quasi der Gaming-Leistung der größeren Varianten. Ich habe früher auch öfters den Sockel gewechselt, aber die Zeiten sind rum - hauptsache, ich kann meine Spiele noch fluffig genießen und das ist mit dem alten Recken immer noch möglich - auf das letzte fps ohne Limit kommt es mir nicht an. :)
Ich denke nicht, dass Zen 4 3D in UWQHD+ ein Gamechanger zu Raptor Lake sein wird. In geringen Auflösungen mag er vielleicht 10-20% hier und dort bringen, aber das ist für uns nicht wirklich von Bedeutung.
Ja, ich hatte auch mal kurzfristig überlegt mir vielleicht ADL-S oder RPL-S zu holen, aber habe es verworfen.
MiamiNice
2022-12-26, 11:54:45
Den Normalfall habe ich bis heute nicht erlebt nach ca. einem Monat 13900k. Bzw. schon, in synthetischen Benchmarks und leider ausschließlich dort. Quasi jedes meiner gespielten Games reagiert mit Leistungseinbrüchen, wenn E Cores aktiv sind.
Allerdings spiele ich idR. nicht die Games die gerne getestet werden.
Matrix316
2022-12-26, 12:43:03
Wenn man nur 8 Kerne braucht, wäre es da nicht sinnvoller einen 7700X zu kaufen oder 5800X3D oder 12900K oder 13700K? Der 13900K ist doch eher das Gegenstück zum 7950X - und das wäre auch meine Alternative gewesen. ;)
Edgecrusher86
2022-12-26, 15:02:03
Das Binning ist augenscheinlich beim i9 am besten - daher auch was für Alle, die das letzte MHz raus holen wollen. Ich habe noch von keinem i7 gehört, der 6 GHz(+) mit gemacht hätte.
Deathcrush
2022-12-26, 16:19:09
Ja, ich hatte auch mal kurzfristig überlegt mir vielleicht ADL-S oder RPL-S zu holen, aber habe es verworfen.
Ich muss mir diesen Schritt aber auch noch mal gründlich überlegen. Knapp 650€ Für Board, CPU und Kühler ist schon nicht wenig. Eigentlich reicht der i7-10700 noch aus, im Hinterkopf hat man halt immer noch den Gedanken, es würde aber auch noch schneller gehen ;)
TobiWahnKenobi
2022-12-26, 16:19:51
Das Binning ist augenscheinlich beim i9 am besten - daher auch was für Alle, die das letzte MHz raus holen wollen. Ich habe noch von keinem i7 gehört, der 6 GHz(+) mit gemacht hätte.
habe ich ein paar seiten zurück gepostet. mein erster 13700k ging mit 6GHz durch benchmarks.
https://www.3dmark.com/sw/77345
aber ausgehend von 5.4GHz stock ist das ne ganz andere steigerung als die lächerlichen 3%, die aus 5.8GHz sechs machen. die unter uns, die kerne und HT abschalten oder schon vorher wissen, wieviele kerne sie benötigen, werden diese vollständig psychologische steigerung verzichtbar finden.
(..)
mfg
tobi
Lowkey
2022-12-26, 17:07:10
Wird hier nicht was verwechselt? Von 6Ghz Allcore sieht man nichts, aber es geht darum die besten beiden Kerne auf 6+ Ghz laufen zu lassen.
Wenn zwischen dem schlechten und besten i9 eine Serienstreuung von 40% liegt, was er wartet uns dann mit dem zweiten Teil vermutlich i7? Und dann nochmals eine Stufe runter auf i5?
Natürlich kaufen hier alle Neukäufer nicht nach Bedarf, sondern nach Preisschild und weniger nach relativ aufwändiger Literaturrecherche. Bei Failkauf geht es bequem zurück. Ob du nun 8 oder 24 Kerne brauchst weisst du am Ende selber nicht. Wie damals das Kiddie mit 2080TI nur noch LoL zockt.
OC ist quasi tot, denn OC ist nicht mehr das OC wie vor ein paar Jahren. Es fehlt dafür ein passender Begriff, dass man den PC an die eigenen Bedürfnisse anpasst. Seit Multicore entsteht das Problem der Auslastung, dass nun jedes Jahr per Default verbessert wird. Nur XMP ist immer noch nicht das XMP, was es sein sollte, nämlich Leistung und nicht Kompatibilität.
Und dann nimmste halt einen i9 wegen der höheren Qualität, deaktivierst AVX Drossel, Kerne, HT und stellst den Turbo um.
Sonyfreak
2022-12-26, 18:36:49
Er soll die Leistung die einer i7 6950x ersetzen und gleichzeitig sehr sparsam sein. Also sobald man da her geht und den 13900k mit 125 Watt betreibt ist dieser sogar langsamer als ein i7 6950x. Und dann ist irgendwie nicht richtig.Nie im Leben.
Hier hast du einen 6950x@4,5Ghz (https://www.computerbase.de/forum/threads/neuer-cpu-benchmark-die-community-testet-prozessoren-in-cinebench-r23.1980752/page-68#post-24884788):
System: Core i7-6950X @ 4,5 GHz (Cache 3,5 GHz)
Multi-Core: 14005
Single-Core: 1154
Mein optimierter 12900KS@125/75W:
Multi-Core: 19744
Single-Core: ~2075
Ohne E-Kerne:
Multi-Core: 15601
Single-Core: ~2075
Der 13900K ist sicher noch ein paar Prozent schneller, und erst recht wenn du ihn mit 125/125W betreibst. ;)
mfg.
Sonyfreak
Babarecords
2022-12-26, 19:31:38
Ich muss mir diesen Schritt aber auch noch mal gründlich überlegen. Knapp 650€ Für Board, CPU und Kühler ist schon nicht wenig. Eigentlich reicht der i7-10700 noch aus, im Hinterkopf hat man halt immer noch den Gedanken, es würde aber auch noch schneller gehen ;)
Du bist mit nem i7-10700 5 Gens. jünger wie Edge86 oder meiner CPU, also deutlich jünger. Ich fahre meine CPU bald das 9te Jahr in Folge und bisher läuft 90% der Games 1A, klar so CPU Fresser ala KCD oder CP 2077 mal ne Ausnahme aber sonst keine Probleme, trotzdem spiele ich mit dem Gedanken mir im kommenden Frühjahr ne 13700k und passendes Aorus Z690 Elite DDR4 Board zu kaufen, mind. 50% + an IPC Leistung klingt schon verlockend und wieder für viele Jahre CPU technisch ausgesorgt.
Also darfst dich locker entspannt zurücklehnen, dein 10700er hat noch paar Jahre bis der Krückstock ausgepackt werden darf
latiose88
2022-12-27, 02:46:51
@Sonyfreak,habe mich vertan ups.Also auf 125 Watt gedrosselt ist dieser langsamer als ein i9 7980xe bzw 10980xe.Und nur darum weil dieser dann bei 140 Watt landet.Nun woher ich das weis weil die neuen CPUS unter windows 11 richtig abgewürgt werden.Irgenwas passt halt dennoch nicht.Und im grunde echt schade das es so weit abfällt,naja ist halt dann so.
M4xw0lf
2022-12-27, 08:33:13
@Sonyfreak,habe mich vertan ups.Also auf 125 Watt gedrosselt ist dieser langsamer als ein i9 7980xe bzw 10980xe.Und nur darum weil dieser dann bei 140 Watt landet.Nun woher ich das weis weil die neuen CPUS unter windows 11 richtig abgewürgt werden.Irgenwas passt halt dennoch nicht.Und im grunde echt schade das es so weit abfällt,naja ist halt dann so.
Wenn du so feste Anforderungen ans Powerbudget hast, wäre ein 7950x aber die bessere Wahl gewesen, der liegt bei jedem Betriebspunkt zwischen ~50 und 250W vorne.
Ah, hab den Rest gelesen - für 500€ wird es natürlich mit überhaupt keiner aktuellen Kombination was :freak:
latiose88
2022-12-27, 12:36:03
Stimmt sind alle so teuer. Da bleibt bei so harten Grenzen echt nur noch am4 übrig. Aber gut dann warte ich lieber, ist halt im Moment kein guter zeitpunkt da was zu investieren.
Es muss sich ja lohnen, da es aktuell so nicht tut. Solange ich also noch funktionierende PCs habe besteht nicht unbedingt ein Bedarf Geld zu infestieren. Das leere Gehäuse ist nicht für jeden luftkühler geeignet da es in der höhe begrenzt ist.
Somit werden starke cpus bei der Leistung durch die geminderte kühlung auch limitiert. Das führt dann zu weniger Leistung, weshalb man auch gleich ne etwas schwächere CPU nehmen kann. Aber genau dann verliert es an linteresse weil es unter umständen vielleicht wieder zu schwach sein könnte. Wobei der richtig Hitze erzeugt wohl der 5800x ist. Aber Intel ist da ja nicht besser,bei begrenzter kühlung.
Das Gehäuse bringt so viel Nachteile mit sich das ich es im Grunde genommen ja sogar verkaufen könnte.
Und ohne Gehäuse besteht erst recht kein Kauf interesse mehr. Es diente nur dazu das das leere Gehäuse nicht unnütz herum steht.
Ich merkte aber das alles so teuer ist für ein günstiges PC Sache draus zu machen. Und wenn dann wäre wohl nur sowas wie ein 5700g bzw 5600g interesant aufgrund der onboard gpu. Bei Intel brauche ich beim günstigen Preis erst garnicht zu schauen. Die Mainboards sind teuer geworden und sonst von der Leistung auch nicht so interessant und dann noch der Fakt mit nur Windows 10 unterwegs zu sein. All das beeinflusst sehr die Auswahl.
Wobei bei Intel es gewiss auch Systeme gibt wo man auch passiv kühlen kann. Ist dann halt das kleinste Modell wie es scheint. Weil 35 Watt ist wirklich was feines. Nun ja ich habe ja genug Zeit um zu überlegen was ich damit mache. Mein 3770k System ist jedenfalls nicht kurz davor den Geist aufzugeben.
Somit ist ein ersetzen noch nicht notwendig.
Beim 6950x System zu ersetzen ebenso noch nicht. Mehr leistung ist auch da nicht notwendig. Wenn dann auf dem selben Level oder wenn darf es ich minmsl drunter sein. Aber dafür extra ohne das system defekt sein würde macht keinen sinn.
Das andere System müsste es schon mindestens ein ryzen 9 7950x sein damit es sich lohnt. Aber das wird mit einem kleinen luftkühler heikel werden. Sowie auch auf Intels Seite.
So oder so weiß ich also echt nicht welche richtung dieser eine PC einschlagen wird.
Also bleibt mal für ne Weile das Gehäuse leer.
Steht da halt schon 2 Jahre herum, zum Glück leer. Sonst wäre es für die Hardware da drinnen zu schade gewesen.
dildo4u
2022-12-27, 12:58:32
Ich bezweifle das der limitierte 13900k langsamer als die alten 1000€ Intels laut dem @125 Watt über einem 12900k.
13900k 31k
https://pcper.com/2022/10/intel-core-i9-13900k-power-scaling-performance-explored/
12900k 27k
https://www.cpu-monkey.com/en/cpu-intel_core_i9_12900k
10980XE 24k
https://www.cpu-monkey.com/de/cpu-intel_core_i9_10980xe
Und natürlich sind die alten Intel nutzlos vorallem wenn du alte Games zockst die extrem am Single Core hängen.
latiose88
2022-12-27, 13:15:31
Ja stimmt bei games mag das stimmen aber bei Anwendung wo alle Kerne voll auslasten wobei so ein 18 kerner bei mir damals nur zu 80 % mal ausgelastet war. Es war der 9980xe gewesen. Den habe ich ja damals gegen den 3950x getauscht gehabt. Zum Glück noch ordentlich Geld dafür bekommen gehabt.ich finde es halt schade das die 18 kerne nicht optimal ausgelastet waren. Würde diese voll ausgelastet dann wäre diese sogar schneller gewesen. Bei 4 GHz takt und 140 Watt verbrauch auch besser als ein 13900k mit 125 Watt und auch deutlich gesenkten takt.
Nun ja wie auch immer, ist halt so. Sollte eben nicht sein.
Nur als Beispiel wärend der 9980xe bei 1:55 Minuten war, war der 13900k mit 125 Watt Limitierung mit 4,5 GHz takt mit e Kerne bei 2:30 Mintuen.
Ein i9 7960x liegt bei 2:15 Minuten alles ungedrosselt und mit 140 Watt Verbrauch.
Verwendet wurde damals windows 10 schon.
Mein 9980xe lief damals noch mit Windows 7 ohne Probleme oder Einschränkung.
Verwendet wurde x264 zum umwandeln mit 2 Videos paralell also nicht nur 1 gleichzeitig. Das habe ich so eingeführt um die cpus besser auszulasten.
Mir ist es zwar nicht gelungen dem 18 Kerner ganz gerecht zu werden aber immerhin besser als nix. Der AMD 16 Kerner schafft über 90 % Auslastung. Wird also schon deutlich besser ausgelastet.
Und ich weiß was ein 100 % optimaler ausgelastet CPU wirklich heißt.
Es kam einer mit einem threadripper 3960 und dem habe ich es ganz hart testen lassen. Ohne smt und auf jeder einzelnen Software feste 12 kerner gebunden.
Also 2x12 kerne. Die CPU war zu 100 % ausgelastet gewesen.
Beste auslastung die man jemals erreichen könnte.
Bei Intel habe ich das aber so noch nie gemacht. Weiß nicht ob das mit den e kernen ohne Probleme auch so funktionieren würde. Genau so stelle ich mir eine optimal ausgelastete CPU jedenfalls vor.
Das ist mir also mit den 18 kernern jedenfalls nicht gelungen.
Neue mehrkener von Intel lassen auf sich warten.
Wie es in Zukunft weiter gehen wird, bleibt offen.
Und Intel hat jedenfalls bei mir in Zukunft immer noch Chancen.
Und ich merkte sehr wohl das meine Software von avx512 profitiert. Avx 1 und avx 2 jedenfalls nicht, weil kein boost zu merken ist ob aus oder an spielt keine Rolle.
Und bei avx 512 das echte kann Intel durchaus Punkten.
Hätte ich das jedenfalls früher gewusst, hätte ich schon viel früher auf Intels Seite Vorteile gehabt.
Nun ja bleibt also spannend.
Lurtz
2022-12-27, 15:20:53
Ich bin doch etwas überrascht wie oft ich selbst mit einer RTX 3070 in 1440p und einem i5 12500 schon CPU-limitiert bin, erst recht wenn DLSS dazu kommt.
Überlege ob ich nicht doch noch einen 13600K oder 13700K in mein B660-Board klemme... Habe mal gelesen es würde spekuliert ob Meteor Lake evtl. noch für den Sockel kommt, gibts da Anhaltspunkte für oder ist das extrem unwahrscheinlich?
Verliere mich mit B660 bei einer Rocket Lake K-CPU etwas außer OC-Fähigkeit? Hatte mal eine Benchmark gesehen, wo Raptor Lake-CPUs in Alder Lake-Chipsätzen Leistung verlieren, hat sich das erhärtet?
aufkrawall
2022-12-27, 16:40:25
Würde imho nur Sinn ergeben, wenn sich dann der RAM endlich vernünftig takten lässt, was bei dir ja bisher afair nicht ging.
r3ptil3
2022-12-27, 16:58:54
@Lurtz
Ich würde auf den 13400/13500 warten.
Im Gaming fast die gleiche Leistung und dazu noch viel besser zu kühlen.
Ein 13500 wäre für mich sogar die Überlegung Wert evtl. den 5800X3D zu ersetzen. Dann könnte ich alles wieder lautlos in ein ITX Case packen.
Der 5800X3D ist unkühlbar mit einem kompakten Luftkühler.
Zen4-3D genau gleich, absolut keinen Bock auf grosse Luftkühler (ausser dem NH-P1), auf AIOs noch viel weniger.
aufkrawall
2022-12-27, 17:01:24
Ich würde auf den 13400/13500 warten.
Im Gaming fast die gleiche Leistung und dazu noch viel besser zu kühlen.
Tja, wenn der IMC bei vermutlich immer noch gelockter Spannung mehr OC mitmacht, dann auf jeden Fall. Allerdings hat Lurtz da mit seiner aktuellen Kombi wohl die größten Nieten überhaupt.
BlacKi
2022-12-27, 17:11:03
du kannst auf einem b660 memory oc betreiben, es sind ja lediglich die cpus ohne k limitiert.
bin mir nicht sicher ob man sogar den AC takt maximieren kann.
ich hab schon leute auf youtube gesehen die 4 dimms mit einer k raptor cpu ddr4 auf 4000 ziehen konnten. das ging nichtmal mit meinem 12900k, da war bei 3733 schluss.
das ist für mich das interessanteste an raptor. besseres mem oc.
Deathcrush
2022-12-27, 17:25:37
Ich habe mir noch einmal gedanken gemacht und ich werde mit dem kauf noch ein wenig warten. Wenn ich die CPU und Board tausche, dann aber richtig :) Der RAM fliegt dann auch raus und es wird ein Z790 Board werden, zusammen mit 32GB DDR5 ( 6000 ?) Vielleicht dann sogar mit einer i7 anstatt eine i5 CPU, aber da bin ich mir noch nicht so sicher ;) Fest steht bisher nur der Kühler ( be quiet! Dark Rock Pro 4) Für Boardempfehlungen bin ich aber immer zu haben ;), wie auch den passenden RAM, bin da überhaupt nicht im Thema.
Hakim
2022-12-27, 17:28:07
Bin mir nicht ganz sicher, aber hab den einen in der Arbeitsstelle mit DDR5 6000 Mhz laufen (XMP), Ram kann man also selber einstellen, und PT habe ich auch selber eingestellt, Vcore konnte ich auch einstellen (UV). Das einzige was ich beim B660 nicht gesehen habe waren die Multiplikator Möglichkeiten was ja normal ist. Kann aber nicht für jedes B660 sprechen, besser vorher erkundigen ob das Mobo die genannten Einstellungen bietet.
BTW: Mobo hatte Bios von über einem Jahr vom Werk aus (welches natürlich kein Raptor unterstützt hat), und hatte leider keine Möglichkeit es wie bei meinen Gigabyte ohne eine CPU zu flashen, sprich hab zusätzlich einen Billigen Celeron mitbestellt....., evt das beim B660 oder Z690 mit Raptor beim Kauf berücksichtigen.
aufkrawall
2022-12-27, 17:31:09
du kannst auf einem b660 memory oc betreiben, es sind ja lediglich die cpus ohne k limitiert.
Ja, aber das wird wohl auf den 13400F genau so zutreffen (?). Mit einem 13600K könne man auf jeden Fall massig IMC-Spannung draufklatschen.
BlacKi
2022-12-27, 17:51:04
Ja, aber das wird wohl auf den 13400F genau so zutreffen (?). Mit einem 13600K könne man auf jeden Fall massig IMC-Spannung draufklatschen. ich könnte mir vorstellen, das auch mit raptor und selber spannung mehr geht. aber halt nicht viel. mit glück 3800. vl gibts auch mehr spannung von haus aus. wenn man auf die tests wartet macht man nichts falsch.
Lowkey
2022-12-27, 18:12:12
Kann man auf dem B660 überhaupt die SA Spannung einstellen? Ich dachte das ginge nicht...
aufkrawall
2022-12-27, 18:13:05
Mit K-CPU geht das afaik. Kann ich mir auch kaum merken, arschige Verwirrung ala Intel...
BlacKi
2022-12-27, 18:32:55
Kann man auf dem B660 überhaupt die SA Spannung einstellen? Ich dachte das ginge nicht...ich kann das sogar bei meiner non k cpu. es wird nur nicht übernommen...
Lurtz
2022-12-27, 20:56:52
Würde imho nur Sinn ergeben, wenn sich dann der RAM endlich vernünftig takten lässt, was bei dir ja bisher afair nicht ging.
Läuft mit 3466 MHz, höher habe ich nie stabil bekommen.
@Lurtz
Ich würde auf den 13400/13500 warten.
Im Gaming fast die gleiche Leistung und dazu noch viel besser zu kühlen.
Ein 13400 wäre sicher die günstigste Option, dürfte aber auch kaum was bringen.
Naja, das ganze Vorhaben ist vermutlich eher fragwürdig. Die Spiele, wo das Upgrade substanziell was verbessern würde, kann man wahrscheinlich an einer Hand abzählen. Vernünftig programmierte Spiele laufen auch mit dem 12500 vernünftig, mies programmierte würde der 13600 wahrscheinlich auch nicht wirklich massiv beschleunigen.
Kann man auf dem B660 überhaupt die SA Spannung einstellen? Ich dachte das ginge nicht...
Laut MSI, von denen ich ein Board habe, sei SA-Spannung mit K-SKUs auf B660 nicht genau von Intel spezifiziert und sollte funktionieren, wird aber nicht garantiert.
Ex3cut3r
2022-12-27, 21:17:53
In welchen Spielen bist du denn CPU limitiert?
Witcher 3 Remake? Und weiter?
Witcher 3 wurde ich halt aktuell stark ausklammern, dürfte einer der grottigsten Umsetzungen überhaupt sein. Vor allem, wenn der "Vorgänger" mit DX11 3x schneller im CPU Limit läuft.
Cubitus
2022-12-27, 21:43:30
Ein 13600K ist in einigen spielen gleichauf wie der 12900k und in manchen Spielen schneller.. Bei weniger Verbrauch, dann übertaktest den 13600k noch ein wenig bei Standardspannung und gut ists :)
mhgc9Xmd3_s
Ex3cut3r
2022-12-27, 21:49:40
Es wurde schon öfter gesagt, dass solche YouTube Videos ziemlicher Fake sein dürften. Die Zahlen klingen zwar relativ realistisch, aber richtig gebencht wurde da nichts. Vermutlich abgeschriebene Werte von anderen Tech Websiten. Zweite Überlegung wäre, Prozent werte von kompletten Leistungs Ratings ala CB oder PCGH z.B. in eine KI eingefügt und dann den Werte minus oder plus genommen. Dritte Möglichkeit und Worst Case, relative Random Werte eingetragen.
Wer nicht sein Gesicht zeigt, mit der "richtigen" HW in Bild oder Video, der ist bei mir erstmal suspicious.
TobiWahnKenobi
2022-12-27, 21:58:44
es geht ja auch viel schneller ein video mit irgendwelchen zahlen zu basteln, als das aufwendig zu messen und dann zusammenzustückeln.. ich würde mir den aufwand auch nicht geben und wenn man so in etwa weiss, welche fps so halbwegs passen.. warum nicht..?! youtube ist unterhaltung und keine wissenschaftliche quelle.
(..)
mfg
tobi
Cubitus
2022-12-27, 23:13:47
Es wurde schon öfter gesagt, dass solche YouTube Videos ziemlicher Fake sein dürften. Die Zahlen klingen zwar relativ realistisch sein, aber richtig gebencht wurde da nichts. Vermutlich abgeschriebene Werte von anderen Tech Websiten. Zweite Überlegung wäre, Prozent werte von kompletten Leistungs Ratings ala CB oder PCGH z.B. in eine KI eingefügt und dann den Werte minus oder plus genommen. Dritte Möglichkeit und Worst Case, relative Random Werte eingetragen.
Wer nicht sein Gesicht zeigt, mit der "richtigen" HW in Bild oder Video, der ist bei mir erstmal suspicious.
Die zahlen in dem Video scheinen schon zu passen.
https://www.techpowerup.com/review/intel-core-i5-13600k/17.html
Hakim
2022-12-27, 23:28:51
die zahlen bei Techpowerup für den übertakteten 13600k sehen schon komisch aus, 5,6 Ghz und kein Unterschied? Entweder war der Power Target bei der Intel Vorgabe Fest und es bringt schlicht nichts auf von 5,1 auf 5,6 Ghz zu setzen da bei erreichen der 181 Watt es sofort wieder runtertaketet, oder PT war frei aber die Temps gingen sofort auf 99 woraufhin es sich wieder runtergetaktet hat. Idk
Edit: nur mal so als Vergleich Techpowerup mit einmal ohne Power Target Limitierung und einmal mit 5,6 GHz bei Cine23
https://abload.de/thumb/techprkcfp.jpg (https://abload.de/image.php?img=techprkcfp.jpg)
Und ich mit UV und OC auf 5,3 Ghz und maximal 165W Power Target.
https://abload.de/thumb/cine23wwiu4.jpg (https://abload.de/image.php?img=cine23wwiu4.jpg)
latiose88
2022-12-28, 01:30:05
In welchen Spielen bist du denn CPU limitiert?
Witcher 3 Remake? Und weiter?
Witcher 3 wurde ich halt aktuell stark ausklammern, dürfte einer der grottigsten Umsetzungen überhaupt sein. Vor allem, wenn der "Vorgänger" mit DX11 3x schneller im CPU Limit läuft.
Es gibt noch mehr CPU Limiterte Spiele-
Borderland Tiny Tina Wonderlands,Gears of war serie,die Saints Row Serie.Battelfield oder auch Serious sam 4 genauso.
Oder stimmt das etwa nicht?
Achja es gibt noch spiele wie Red Faction Gurilla das CPU Limtierend ist und alle anderen Nischen Games ebenso.Da kann man leider nix dran ändern.
MiamiNice
2022-12-28, 03:05:34
Aufbaugames, MMOs, VR Titel, Star Citizen, EFT, quasi alle Indie Games bzw. non AAA Games uvm. Die Welt ist im CPU Limit XD
TurricanM3
2022-12-28, 03:19:18
https://abload.de/img/aidanff7i.png (https://abload.de/image.php?img=aidanff7i.png)
Ist schneller in EFT als mein altes 6600C30 Setting. :smile:
dildo4u
2022-12-28, 10:35:44
In welchen Spielen bist du denn CPU limitiert?
Witcher 3 Remake? Und weiter?
Witcher 3 wurde ich halt aktuell stark ausklammern, dürfte einer der grottigsten Umsetzungen überhaupt sein. Vor allem, wenn der "Vorgänger" mit DX11 3x schneller im CPU Limit läuft.
Gutes Bespiel mit ein Grund warum Framegeneration hier sinnvoll ist, die neuen i5/i7 Intel sind grad so über 60fps bei den Lows
https://abload.de/img/flighthmke9t.png
https://www.tomshardware.com/reviews/intel-core-i9-13900k-i5-13600k-cpu-review/5
MiamiNice
2022-12-28, 13:07:03
https://abload.de/img/aidanff7i.png (https://abload.de/image.php?img=aidanff7i.png)
Ist schneller in EFT als mein altes 6600C30 Setting. :smile:
https://i.ibb.co/2srFMzd/sdf.png (https://imgbb.com/)
Cubitus
2022-12-28, 13:34:51
Die Welt ist im CPU Limit XD
Mit einer 4090 erst recht, die CPUs kommen aktuell nicht so wirklich hinter.
Zumindest nicht bei den gängigen Auflösungen.
Aber selbst in 4K gibt es Framedrops wo einfach die GPU nix zu fressen bekommt.
Wie soll das dann erst bei einer 5090 etc werden.
Sobald die nächste GPU-Gen kommt, kannst als Spieler eigentlich schon wieder den Unterbau wechseln.
Gutes Bespiel mit ein Grund warum Framegeneration hier sinnvoll ist, die neuen i5/i7 Intel sind grad so über 60fps bei den Lows
https://abload.de/img/flighthmke9t.png
https://www.tomshardware.com/reviews/intel-core-i9-13900k-i5-13600k-cpu-review/5
Flight Sim profitiert ohne FG schon von mehr Kernen.
Mit FG ist egal, das konnte ich auch noch mit dem 10900F herrvorgand spielen.
Edgecrusher86
2022-12-28, 13:35:46
https://abload.de/img/aidanff7i.png (https://abload.de/image.php?img=aidanff7i.png)
Ist schneller in EFT als mein altes 6600C30 Setting. :smile:
Krass - was fährst du denn dort an VCore und VDIMM? :D
Edgecrusher86
2022-12-28, 13:40:32
Wie soll das dann erst bei einer 5090 etc werden.
Sobald die nächste GPU-Gen kommt, kannst als Spieler eigentlich schon wieder den Unterbau wechseln.
Ach, ich sehe das gelassen - Framelimit + (DL-)DSR, gut ist. Dann spielst du halt in 5160 und 6880 oder 10320 (https://abload.de/img/maxpayne3_10320x4320_qsir1.jpg). :)
Schade nur, dass NV keine Anstalten macht, mehr wie 2,25x DL-DSR zu unterstützen, gerade 4,00x wäre Hammer aufgrund des Sharpenings - wird doch das konventionelle 4,00x DSR bezüglich Bildqualität in meinen Augen geschlagen.
Dem Kollegen TheSpyHood traue ich nicht über den Weg - der hatte schon oft seltsame Werte geliefert - immer nur nackte Zahlen ohne OSDs...ich weiß nicht.
E: Oops, doppelt...sollte doch noch oben rein. :redface:
Cubitus
2022-12-28, 14:15:07
Ach, ich sehe das gelassen - Framelimit + (DL-)DSR, gut ist. Dann spielst du halt in 5160 und 6880 oder 10320 (https://abload.de/img/maxpayne3_10320x4320_qsir1.jpg). :)
Schade nur, dass NV keine Anstalten macht, mehr wie 2,25x DL-DSR zu unterstützen, gerade 4,00x wäre Hammer aufgrund des Sharpenings - wird doch das konventionelle 4,00x DSR bezüglich Bildqualität in meinen Augen geschlagen.
Das wäre in der Tat mal nützlich, 2,25 DL-DSR empfinde ich als auch zu wenig :) besonders bei kleineren Monitoren. Sitze gerade besuchsbedingt vor nem 24er TFT mit 1080p, 2,25 DL-DSR ist da definitiv zu wenig.
Lowkey
2022-12-28, 14:18:45
https://abload.de/img/aidanff7i.png (https://abload.de/image.php?img=aidanff7i.png)
Ist schneller in EFT als mein altes 6600C30 Setting. :smile:
Hab ich dir schon gesagt wie sehr ich dich nicht mag? :D
robbitop
2022-12-28, 15:42:13
Gutes Bespiel mit ein Grund warum Framegeneration hier sinnvoll ist, die neuen i5/i7 Intel sind grad so über 60fps bei den Lows
https://abload.de/img/flighthmke9t.png
https://www.tomshardware.com/reviews/intel-core-i9-13900k-i5-13600k-cpu-review/5
Bei FG und DLSS/FSR und co fürchte ich, dass mittelfristig der Kram genutzt wird um Spiele nicht mehr anständig optimieren zu müssen. „Wieso? läuft doch auf 60 fps.“ (bei 1/8 der Arbeit für die HW)
robbitop
2022-12-28, 15:47:20
Ach, ich sehe das gelassen - Framelimit + (DL-)DSR, gut ist. Dann spielst du halt in 5160 und 6880 oder 10320 (https://abload.de/img/maxpayne3_10320x4320_qsir1.jpg). :)
Schade nur, dass NV keine Anstalten macht, mehr wie 2,25x DL-DSR zu unterstützen, gerade 4,00x wäre Hammer aufgrund des Sharpenings - wird doch das konventionelle 4,00x DSR bezüglich Bildqualität in meinen Augen geschlagen.
Dem Kollegen TheSpyHood traue ich nicht über den Weg - der hatte schon oft seltsame Werte geliefert - immer nur nackte Zahlen ohne OSDs...ich weiß nicht.
E: Oops, doppelt...sollte doch noch oben rein. :redface:
Mehr als ;)
DL-DSR macht nur Sinn bei ungeraden Faktoren, da dort die Sampleposition nicht zu den Pixelmitten der output resolution passen. Entsprechend wird der DL Part für einen möglichst passenden und ggf adaptiven Filterkernel genutzt um aus den soboptimalem Samplepositionen alles herauszuholen. Bei geraden Faktoren passt das alles und man kann ganz normal linear interpolieren. :)
Dank dem oft zusätzlichen TAA (bzw fsr/dlss) lässt sich dann schwer zwischen 2,25x und 4x unterscheiden weil die Samples für die Glättung von Kanten fast irrelevant sind und mehr in temporale Stabilität gesteckt werden. Aber besser sieht es nicht aus. Aber immerhin fast en par was schon bei weniger samples eine beachtliche Leistung ist.
Mit GeDoSato ging zur dx9 Zeit auch dass man alle möglichen Filterkernel nutzen konnte für downsampling und man damals schon fast an das heran kam was dl-dsr heute bietet.
dildo4u
2022-12-28, 15:49:15
Bei FG und DLSS/FSR und co fürchte ich, dass mittelfristig der Kram genutzt wird um Spiele nicht mehr anständig optimieren zu müssen. „Wieso? läuft doch auf 60 fps.“ (bei 1/8 der Arbeit für die HW)
Das wird sowieso Realität die Konsolen vertagen RT nur@30fps, für 60fps musste am PC dann richtig was auffahren siehe Callisto Protocol.
latiose88
2022-12-28, 16:43:20
Flight Sim profitiert ohne FG schon von mehr Kernen.
Mit FG ist egal, das konnte ich auch noch mit dem 10900F herrvorgand spielen.
Wie wird denn FG ausgeschrieben und was kann das denn,ist das etwa ne Grafikeinstellung von dem Spiel des Flight Sim?
Ex3cut3r
2022-12-28, 17:02:23
Wie wird denn FG ausgeschrieben und was kann das denn,ist das etwa ne Grafikeinstellung von dem Spiel des Flight Sim?
Hast du irgendwie unter einem Stein gelebt die letzten Monate?
FG = Frame Generation aka DLSS 3
92ZqYaPXxas
TobiWahnKenobi
2022-12-28, 19:10:48
Wie wird denn FG ausgeschrieben und was kann das denn,ist das etwa ne Grafikeinstellung von dem Spiel des Flight Sim?
heute kommen mehr bilder pro sekunde auf den schirm, wenn die grafikkarte rät, wie bilder auszusehen haben, statt sie korrekt zu berechnen.. raten spart also zeit, klingt aber nicht sooo professionell. darum heisst es framegeneration.. es werden frames generiert.. durch raten. :)
(..)
mfg
tobi
Deathcrush
2022-12-28, 21:48:42
Habe bestellt :( der Druck war einfach zu groß :D
Asrock z790 Pro
I5-13600kf
32gb Kingston DDR5 6000
und passenden Kühler
Ich bin gespannt, hab schon gelesen das der 13600k ein Hitzkopf sein soll.
Cubitus
2022-12-28, 22:14:09
Habe bestellt :( der Druck war einfach zu groß :D
Asrock z790 Pro
I5-13600kf
32gb Kingston DDR5 6000
und passenden Kühler
Ich bin gespannt, hab schon gelesen das der 13600k ein Hitzkopf sein soll.
Glückwunsch :)
Der 13600K ist noch "zahm"..
sogar bisschen oc ist bei Standard Spannung drin 5300 P-Cores und 4200 E-Cores sind machbar..
Hakim
2022-12-29, 02:47:17
Glückwunsch :)
Der 13600K ist noch "zahm"..
sogar bisschen oc ist bei Standard Spannung drin 5300 P-Cores und 4200 E-Cores sind machbar..
Von dem was ich im Netz gesehen und selber ausprobiert habe gehen die 5,3 und 4,2 selbst mit etwas UV. Aber ja jeder Chip reagiert unterschiedlich.
Deathcrush
2022-12-29, 11:21:33
Glückwunsch :)
Der 13600K ist noch "zahm"..
sogar bisschen oc ist bei Standard Spannung drin 5300 P-Cores und 4200 E-Cores sind machbar..
Ich muss mich erst einmal in das Thema wieder einlesen, bin schon lange raus was das angeht. Wobei mich UV eher interessiert als OC.
latiose88
2022-12-29, 13:43:44
heute kommen mehr bilder pro sekunde auf den schirm, wenn die grafikkarte rät, wie bilder auszusehen haben, statt sie korrekt zu berechnen.. raten spart also zeit, klingt aber nicht sooo professionell. darum heisst es framegeneration.. es werden frames generiert.. durch raten. :)
(..)
mfg
tobi
Oh mein Gott,das ist ja schrecklich.Wobei für welche die wenig Geld haben durchaus eine Option.Aber bei sehr geringer Auflösung macht es halt irgendwann auch keinen Sinn mehr,wie bei 720p oder weniger.Weil ab da tut sich dann auch die GPU beim Raten echt sehr schwer.Ab Full HD könnte es für die wo super wenig Geld haben ,durchaus interessant sein.Wobei ein geratete 1080p gewiss noch immer schlechter aussieht als Natives 720p.
r3ptil3
2022-12-30, 10:59:01
Falls es den ein oder anderen interessiert:
13600K + 13900K mit DDR4 und DDR5 im Vergleich
https://overclock3d.net/reviews/cpu_mainboard/intel_13600k_and_13900k_ddr4_vs_ddr5_showdown/16
Hier wird ausnahmsweise auch mal richtig schneller DDR4 RAM verwendet (4000Mhz CL14) gegen DDR5 mit 6000Mhz CL36.
https://overclock3d.net/gfx/articles/2022/10/18230330891l.jpg
aufkrawall
2022-12-30, 11:11:29
Mit einer 2080 Ti in 1080p getestet, was soll der Scheiß?
robbitop
2022-12-30, 11:37:52
Die Skala ist auch geil. Und dann nur den integrierten Benchmark genutzt. X-D
Außerdem: Ein Index wäre auch viel aussagekräftiger als ein Einzelbeispiel. IIRC gab es Spiele die besser auf ddr5 angesprochen haben (Bandbreite und doppelt so hohe Granularität des IMCs was bei vielen Zugriffen die effektive Latenz deutlich drücken kann) und manche besser auf ddr4 (absolte Latenz etwas besser).
aufkrawall
2022-12-30, 11:41:49
Und dann nur den integrierten Benchmark genutzt. X-D
Kann man schon machen, die letzten paar Sekunden sind bei den integrierten Benchmark-Features der FC-Teile immer recht interessant für die Performance im CPU-Limit.
Aber da steht wohl auch nicht, was die mit "min fps" meinen. Bei dem Dunia Stutter-Müll misst man da schnell Mist. Oder eigentlich garantiert. :freak:
r3ptil3
2022-12-30, 13:28:36
Ihr erwartet einfach zu viel Jungs.
Perfektion und dann noch kostenlos ist halt schwierig.
Anomalien in solchen Tests erkennt doch hier jeder sofort beim ersten Blick, da geht's mehr darum mal einen groben Vergleich zu kriegen und dafür reicht es aus.
Was lernen wir daraus? Hochgezüchteter DDR4 RAM mit Raptor Lake ist noch durchaus für was gut.
TobiWahnKenobi
2022-12-30, 15:08:01
FarCry6 integrierter benchmark, 1080p ultra, ohne RT
https://abload.de/img/13700k_7200_c34_fc6_faaezs.jpg
i7 13700K 5.6GHz allcore, 32GiB DDR5 7200C34, GF RTX 4090
davon ab hat mich damals der erste ausflug mit raptor lake @DDR4 4000 nicht überzeugt. der kram ging zurück.
wenn schon was neues, dann bitte inkl. speicher.
(..)
mfg
tobi
r3ptil3
2022-12-30, 15:16:14
FarCry6 integrierter benchmark, 1080p ultra, ohne RT
https://abload.de/img/13700k_7200_c34_fc6_faaezs.jpg
i7 13700K 5.6GHz allcore, 32GiB DDR5 7200C34, GF RTX 4090
davon ab hat mich damals der erste ausflug mit raptor lake @DDR4 4000 nicht überzeugt. der kram ging zurück.
wenn schon was neues, dann bitte inkl. speicher.
(..)
mfg
tobi
Was genau? Probleme mit dem DDR4 Board?
Was hast du für ein ASRock Board im Einsatz?
Konnte das 7200er Kit problemlos mit XMP umgesetzt werden?
Deathcrush
2022-12-30, 15:20:30
Gott, was war ich Nervös :D Schon lange keinen PC mehr komplett zusammen geschraubt, schon gar nicht zu diesem Preis. Erst einmal Power Limit auf 125W gestellt, bei Auto gingen die Temps bei Cinebench auf über 90C. Load Line auf 5 und dann mal vorsichtig ans Undervolten machen. Temp´s beim Spielen sind in Ordnung, denke ich. Eigentlich wollte ich den Dark Rock Pro 4 haben, aber den gab es leider nicht, also wurde es nur der Dark Rock 4.
TobiWahnKenobi
2022-12-30, 15:25:35
1000 EUR für nix war das hauptproblem. das schlechte gewissen, kohle verbrannt zu haben damit alles genauso läuft, wie vorher auch schon.. klar, ausreichend gut.. aber das hatte ich wie gesagt vorher auch schon.
dann habe ich mir die augen viereckig gelesen und rausgefunden, dass man für unterschiede perlen raussuchen muss und auch schnelleren moderneren ram braucht.
DDR3600C16 und 3800C17 @gear1 bzw. DDR4000C17 @gear2 auf dem MSI z790 tomahawk/DDR4 waren es jedenfalls nicht..
etwas später habe ich mir nochmal bastelspaß für die feiertage mitgenommen (NBB ist hier umme ecke).. diesmal aber DDR5 6000C36 und das einzige griffbereite DDR5 brett war ein asrock steel legend.
parallel dazu habe ich mir bei amazon noch DDR5 7200C34, einen dritten 13700k und ein neues kühlelement bestellt.
tjo, worum ging? achso.. wenn schon neu, dann inkl. RAM. und davon der schnellste den man kriegen kann bzw. sich leisten.. ich finde bis zu dem 7200er für irgendwas zwischen 300 und 400 EUR ist der preis vertretbar. darüber ist es atm noch sehr kostenintensiv.
mein board kommt auch mit EXPO zurecht. das 6000C36 kit war expo.. der 7200er ist XMP.. beides völlig unproblematisch. anders hingegen die spielereien mit dem DDR4 @ MSI z790 tomahawk. wer da zuviel fummelt, zerkloppt sich ggf. nachhaltig sein windows. ist mir zweimal passiert, weil es die frequenzen und timings von meinem alten z370 nicht schlucken wollte.. B-Die. ich glaube, MSI weiss das auch. es gibt bei denen einen bios-unterpunkt mit "try-it" RAM-timings, die augenscheinlich stabil funktionieren, aber nicht vergleichbar mit denen des selben speichers auf vergangenen mainboards sind. bastelspaß ja.. zeit rumkriegen.. check.. aber spürbar mehr bums ggü meiner alten platform gab es nicht. also ganz oder gar nicht.
(..)
mfg
tobi
Muahahaha Endstufen DDR4 gegen 0815 DDR5. Ich finds ja auch interessant aber dann bitte mal DDR4 4000C15 mit ausgereitzten Subs gegen DDR5 7600C34 mit ausgereizten Subs, per Bank refresh, getunter tRFCsb und so weiter...
Natürlich ist DDR4 noch gut für alles was wenig parallele Random Zugriffe braucht. Aber DDR5 ist inzwischen nicht mehr schlechter und in Usecases mit hohem Durchsatz dann mal 20-30% schneller.
Deathcrush
2022-12-30, 15:53:01
Ich Depp, Loadline Stufe 5 ist ein höherer Vcore als Stufe 1, bei meinem alten Board war es genau umgedreht, jetzt gehen die Temps bei Cinebench nicht über 80C
EDIT: Bin gerade bei einem Offset von -100mV, Cinebench 76C. Nach 56s drosselt er aber auf 125W, dann fallen die Temps noch einmal auf 69C. Muss mich erst einmal wieder in die Materie einlesen.
OCmylife
2022-12-30, 19:43:26
1000 EUR für nix war das hauptproblem. das schlechte gewissen, kohle verbrannt zu haben damit alles genauso läuft, wie vorher auch schon.. klar, ausreichend gut.. aber das hatte ich wie gesagt vorher auch schon.
dann habe ich mir die augen viereckig gelesen und rausgefunden, dass man für unterschiede perlen raussuchen muss und auch schnelleren moderneren ram braucht.
DDR3600C16 und 3800C17 @gear1 bzw. DDR4000C17 @gear2 auf dem MSI z790 tomahawk/DDR4 waren es jedenfalls nicht..
etwas später habe ich mir nochmal bastelspaß für die feiertage mitgenommen (NBB ist hier umme ecke).. diesmal aber DDR5 6000C36 und das einzige griffbereite DDR5 brett war ein asrock steel legend.
parallel dazu habe ich mir bei amazon noch DDR5 7200C34, einen dritten 13700k und ein neues kühlelement bestellt.
tjo, worum ging? achso.. wenn schon neu, dann inkl. RAM. und davon der schnellste den man kriegen kann bzw. sich leisten.. ich finde bis zu dem 7200er für irgendwas zwischen 300 und 400 EUR ist der preis vertretbar. darüber ist es atm noch sehr kostenintensiv.
mein board kommt auch mit EXPO zurecht. das 6000C36 kit war expo.. der 7200er ist XMP.. beides völlig unproblematisch. anders hingegen die spielereien mit dem DDR4 @ MSI z790 tomahawk. wer da zuviel fummelt, zerkloppt sich ggf. nachhaltig sein windows. ist mir zweimal passiert, weil es die frequenzen und timings von meinem alten z370 nicht schlucken wollte.. B-Die. ich glaube, MSI weiss das auch. es gibt bei denen einen bios-unterpunkt mit "try-it" RAM-timings, die augenscheinlich stabil funktionieren, aber nicht vergleichbar mit denen des selben speichers auf vergangenen mainboards sind. bastelspaß ja.. zeit rumkriegen.. check.. aber spürbar mehr bums ggü meiner alten platform gab es nicht. also ganz oder gar nicht.
(..)
mfg
tobi
Das mit dem zerkloppten Windows habe ich mit meinen DDR4 auch schon hin bekommen, mit exakt der selben Kombi: Tomahawk +4133 CL17 Gear 1. ;D
Lies sich mit der automatischen Reparatur aber wieder beheben und es stellte sich heraus, dass mein RAM auf der Frequenz im Gear 1 wohl doch nicht so stabil war, wie angenommen. Y-cruncher hat mich dann eines besseren belehrt.
Aber aus dem Kosten-Nutzen Verhältnis muss ich Dir widersprechen. Das Tomahawk Z690 + 13700K hat mich zusammen 740€ gekostet, da ich ja schon brauchbaren DDR4 RAM hatte. Meine Traumkombi aus 6000 CL32 mit DDR5 Board und 13700K wären glatt mal über 1000€ gewesen. Solange ich nicht nur AIDA64 spiele, sehe ich von dem Performancegewinn quasi nichts.
BlacKi
2022-12-30, 20:07:35
Ich Depp das es da keine richtlinien gibt ist nicht deine schuld. ich hab mich darüber auch schon aufgeregt, obwohl ich es rechtzeitig gesehen habe.
Muahahaha Endstufen DDR4 gegen 0815 DDR5. Ich finds ja auch interessant aber dann bitte mal DDR4 4000C15 mit ausgereitzten Subs gegen DDR5 7600C34 mit ausgereizten Subs, per Bank refresh, getunter tRFCsb und so weiter...
Natürlich ist DDR4 noch gut für alles was wenig parallele Random Zugriffe braucht. Aber DDR5 ist inzwischen nicht mehr schlechter und in Usecases mit hohem Durchsatz dann mal 20-30% schneller.
framechasers, der ddr5 mit 8200mt/s betreibt, sagt seiner config 8% mehr performance zu. also max ddr4 vs max ddr5.
was du vl vergisst ist, das ddr4 auch hier im forum leute mit 4200 ddr4 auf raptor unterwegs sind. was nochmals schneller ist als das oben gezeigte. der punkt ist aber auch, das ddr5 immernoch teurer ist, auch wenn sich das gebessert hat.
TobiWahnKenobi
2022-12-30, 20:26:09
Aber aus dem Kosten-Nutzen Verhältnis muss ich Dir widersprechen. Das Tomahawk Z690 + 13700K hat mich zusammen 740€ gekostet, da ich ja schon brauchbaren DDR4 RAM hatte. Meine Traumkombi aus 6000 CL32 mit DDR5 Board und 13700K wären glatt mal über 1000€ gewesen. Solange ich nicht nur AIDA64 spiele, sehe ich von dem Performancegewinn quasi nichts.
meins war damals ein z790 th und kam zusammen mit der cpu für 907 euro.
ich wollte es auch erst so günstig wie möglich, aber war nicht meins. das zeug, das jetzt drinsteckt kostet etwas über 1100.
ein paar dollars flossen auch noch in einen neuen cpu kühler, einen zusätzlichen 360er radiator, 7 neue lightwings, paste und schläuche.. summierte sich auch irgendwie hoch..
das komische ist, dass ich den kram schon wieder über habe und überhaupt nicht benutze. wenn ich heute wieder auf den z370/9900k zurückbauen würde, würde ich nichts vermissen ausser den ARGB-fähigkeiten des 790er boards.
(..)
mfg
tobi
-=Popeye=-
2022-12-30, 21:18:24
Also mit DDR4 gehört man bei dieser Plattform definitiv noch nicht zum Alteisen.
i7-13700k @ stock (5,3p/4,2e/4,5c)
Z690 Strix D4
32GB DDR4 4200 CL16
RTX 4090 FE
https://abload.de/thumb/farcry6_2022_12_30_156hf2x.jpg (https://abload.de/image.php?img=farcry6_2022_12_30_156hf2x.jpg)
das es da keine richtlinien gibt ist nicht deine schuld. ich hab mich darüber auch schon aufgeregt, obwohl ich es rechtzeitig gesehen habe.
framechasers, der ddr5 mit 8200mt/s betreibt, sagt seiner config 8% mehr performance zu. also max ddr4 vs max ddr5.
was du vl vergisst ist, das ddr4 auch hier im forum leute mit 4200 ddr4 auf raptor unterwegs sind. was nochmals schneller ist als das oben gezeigte. der punkt ist aber auch, das ddr5 immernoch teurer ist, auch wenn sich das gebessert hat.
8% Systemperformance Uplift glaube ich nicht mal, das wäre wie 500 Mhz mehr CPU Takt und ziemlich viel für nur Speicher.
Und klar gibt es Leute mit 4200 Mhz DDR4, hatte ich auch mal. Genauso wie es solche mit 8400 Mhz DDR5 gibt. Ich schätze das normale Maß, das jeder zum laufen bringt mit guten Komponenten wird bei 4000 DDR4 und 7200-7600 DDR5 sein auf RPL Z790. Preisargument, keine Frage - ich tu mich ja schon schwer meine 32 GB DDR5 durch Verkauf meiner 64 GB B-Die Trindent Zs zu finanzieren. Aber Preis ausser Acht gelassen, hat DDR5 jetzt den Punkt erreicht ab dem man Vorteile hat und zumindest keine Nachteile mehr.
-=Popeye=-
2022-12-30, 21:33:30
Für mich zB wird DDR5 erst ab 8000 mit entsprechenden Latenzen interessant, da dies durch die Bank weg schneller als ein gutes DDR4 Setup ist.
aufkrawall
2022-12-31, 04:59:20
Also mit DDR4 gehört man bei dieser Plattform definitiv noch nicht zum Alteisen.
i7-13700k @ stock (5,3p/4,2e/4,5c)
Z690 Strix D4
32GB DDR4 4200 CL16
RTX 4090 FE
https://abload.de/thumb/farcry6_2022_12_30_156hf2x.jpg (https://abload.de/image.php?img=farcry6_2022_12_30_156hf2x.jpg)
Wieder das typische Bild "Intel-Performance in Tests vs. Realität". 99% der Tester sind einfach zu doof für RAM-OC + CPU-Tests, einfach nur traurig.
5800X3D krebst ohne RT bei 103fps in der Schlussszene rum. :freak:
Ok, etwas hart formuliert. Aber trotzdem...
Deathcrush
2022-12-31, 11:44:27
Also mit DDR4 gehört man bei dieser Plattform definitiv noch nicht zum Alteisen.
Eigentlich wollte ich mein Speicher auch weiter betreiben, allerdings waren es nur DDR4 3000 MHZ Module und "nur" 16GB. Daher habe ich mich dazu entschieden, 32GB zu nehmen und DDR5.
BlacKi
2022-12-31, 12:59:29
einfach zu doof für RAM-OC + CPU-Tests, einfach nur traurig.
wurde schon öfter erwähnt, die redakteure bekommen das nicht bezahlt. allerdings verstehe ich es nicht, warum das nicht wenigstens hinter einer paywall stattfindet und wenn nur cashual artig, damit die user das so übernehmen können. betreibt kein redakteur im privaten ram oc+tuning?
auf jeden fall ist da ein loch das keiner füllen will.
Deathcrush
2023-01-01, 02:20:03
Bin gerade ein wenig überfordert :( Man kann ja mittlerweile so viel einstellen, das einem schwindelig wird.
Bin gerade bei -100mV Offset, mehr geht nicht, aber wieso? Hat das was mit der Undervolt Protection im Bios zu tun? FIVR Configuration, da kann man auch noch einmal verschiedene Spannungen einstellen. Ich will doch nur, das die CPU weniger Spannung bekommt. Auf Vcore Auto sind 1,34V voreingestellt, mit VCore LLC und Offset bin ich jetzt bei unter Last 1,136V, denke aber das da noch mehr geht. Sollte ich den Vcore manuell reduzieren bzw einstellen? Mir brummt gerade der Schädel, das war früher "viel" einfacher :(
MiamiNice
2023-01-01, 03:51:30
auf jeden fall ist da ein loch das keiner füllen will.
Man bekommt seit Ewigkeiten keine guten CPU Tests mehr zu sehen. Wenn man mich fragt, zahlt AMD dafür in Form von Werbeanzeigen. Deren Produkte dürften nicht die Popularität haben, die sie nunmal haben. In einer funktionierenden Welt, hätte man denen imo Zen 1-2,5 vor die Füsse werfen und eine Anklage wegen Ressourcen Verschwendung auf den Weg bringen müssen.
Trotzdem wurde AMD mit Zen 1-2,5 so populär wie niemals zuvor. Ich denke hier hat man sich das Schweigen erkauft und dies dauert bis heute an. Mittlerweile will das auch kaum noch einer sehen, Gehirnwäsche wurde erfolgreich umgesetzt. Alle wollen irgendwelche irrelevanten MT Benches sehen und erfreuen sich daran, noch mehr Power in der Kiste zu haben, die sie nicht abrufen können.
Die Welt ist kaputt und unsere Redakteure tragen die Schuld daran, da sich alle kaufen lassen.
Das Wort zum 1. Januar.
Frohes Neues :)
BlacKi
2023-01-01, 04:17:07
Alle wollen irgendwelche irrelevanten MT Benches sehen und erfreuen sich daran, noch mehr Power in der Kiste zu haben, die sie nicht abrufen können.
Die Welt ist kaputt und unsere Redakteure tragen die Schuld daran, da sich alle kaufen lassen.
Das Wort zum 1. Januar.
Frohes Neues :)
ich teile die meinung das zen1+2 im gaming komplett überbewertet wurden. da hat man gamingperformance gebracht die intel schon 3 jahre vorher gebracht hatte, nur billiger.
ob die redaktuere gekauft wurden? glaub nicht. die wollten einfach die konkurenz pushen. underdog image.
fand ich total lächerlich. sowohl der 7700k und auch der 8700k waren wieder meilenweit voraus. auch wenn die benches avg fps nur ein paar prozent unterschied zeigten, wegen der mangelnden differenzierung.
und damals war per core performance noch wesentlich relevanter. wurde nur nirgends abgebildet.
Freestaler
2023-01-01, 08:57:17
Was raucht ihr zwei? Trink weniger oder mehr, so macht das getrolle keine Freude ..Redaktion gekauft... Meilenweit voraus nur sieht man das nicht Anhand Fps.. 3 Jahre. Jungs echt? Liefert doch mal zahlen wo ein Haswell (x) (2014) nen Zen 1 gleich stellt.
Oder die FPS Ingame so den meilenweiten unterschied sind (also mehr als 25%). Vielleicht ist nämlich der Grund ein ganz anderer. Evtl sind die Delta dann doch nicht xfach wenn man auf beiden Kisten Ram und Co hochzieht. Allenfalls ist dann auch noch immer in +/- 10% zu den Defaultbenchmarks.
Also mit DDR4 gehört man bei dieser Plattform definitiv noch nicht zum Alteisen.
FarCry 6 ist schon sehr cherry picked zugunsten von DDR4. In Cyberpunk sieht selbst der hochgezüchteste DDR4 nur die Rücklichter von DDR5 ;)
aufkrawall
2023-01-01, 13:22:09
Oder die FPS Ingame so den meilenweiten unterschied sind (also mehr als 25%). Vielleicht ist nämlich der Grund ein ganz anderer. Evtl sind die Delta dann doch nicht xfach wenn man auf beiden Kisten Ram und Co hochzieht. Allenfalls ist dann auch noch immer in +/- 10% zu den Defaultbenchmarks.
Hatte einen 6700K (ok, "nur" zwei Jahre) mit getuntem 3200 CL14 B-Die, Bro hatte vergleichbaren Speicher mit 2600X und 3600X. Der Zen+ war wirklich absurd langsam, >30% langsamer war quasi der Normalfall bzw. noch nicht mal besonders schlecht. Die Berichterstattung über RAM-OC war dann sehr einseitig pro AMD, weil die halt so billig pro Kern waren (wobei eher ausgerechnet die Spiele mit gutem MT besonders bescheiden liefen ;D ). Für Spiele war Zen 1/+ aber unterm Strich trotzdem einfach nur kompletter Schrott gegen Skylake, wenn man letzterem auch mal B-Die zu fressen gab.
Ich sehe mit der miesen Performance vom Zen 3D in Spiderman oder CP77 (aus was für Gründen auch immer) wieder gewisse Parallelen. 13400F dürfte Zen 3D deklassieren, wenn man den RAM hoch genug bekommt. Bro will mir den 3D billig überlassen, wenn er sich RPL holt. Aber ich hab da gar nicht so schrecklich Bock drauf. :freak:
800fps in CS:GO, yay...
Edit: Wird dann spannend, ob RPL wieder genauso unbrauchbar bei den Frame Times rumspinnt wie es der 12700K bei ihm tat. Dann wäre AMD natürlich doch wieder nicht so übel. ;D
MiamiNice
2023-01-01, 14:23:48
Netter edit Blacki ;)
BlacKi
2023-01-01, 14:54:11
roman hat wohl zuviel zeit
girF9ySJfCQ
MiamiNice
2023-01-01, 15:47:57
Super Video. Allerdings würde ich es favorisieren, wenn die Zielgruppe keine Anfänger wären. Das Video ist inhaltlich sehr flach und wer die erklärten Dinge nicht selbst weiß, ist imo, auf der Plattform verkehrt.
Ein tiefer Guide Richtung Ram OC würde mich z.b. interessieren. Eventuell kann man den Peozess abkürzen oder ähnliches. Simples Takt OC ist doch öde :(
BlacKi
2023-01-01, 15:48:56
ja, waren praktisch oc basics.
aufkrawall
2023-01-01, 15:53:20
Was soll man darüber auch groß erzählen? Ist ja keine komische Telemetrie wie bei AMD mit PBO am Werk, mit der es zu Clock Stretching oder ähnlichen komischen Dingen kommen kann. Takt und Spannung einstellen und das wars, oder nicht?
(Wer BCLK-OC macht, kann sich eh einweisen lassen.)
Lowkey
2023-01-01, 19:20:13
Er benutzt eine SP88 CPU, also unterdruchschnittlich. Dafür gibt es einen Pluspunkt. Dafür benutzt er ein Asus MB und für Asus gibt es genug Guides.
OCmylife
2023-01-01, 22:10:13
Super Video. Allerdings würde ich es favorisieren, wenn die Zielgruppe keine Anfänger wären. Das Video ist inhaltlich sehr flach und wer die erklärten Dinge nicht selbst weiß, ist imo, auf der Plattform verkehrt.
Ein tiefer Guide Richtung Ram OC würde mich z.b. interessieren. Eventuell kann man den Peozess abkürzen oder ähnliches. Simples Takt OC ist doch öde :(
Ich finde derzeit OCN für Raptor Lake Overclocking-geschichten sehr hilfreich.
https://www.overclock.net/threads/msi-pro-z690-a-ddr4-wifi-owners-thread.1795717/page-64
Mein Lesestoff für AC/DC Loadline zur Zeit. Bin da aber auch schon über schöne Guides zu RAM OC und Raptor Lake generell gestoßen. Da fand ich das Video von Roman auch zu oberflächlich.
Matrix316
2023-01-02, 22:50:56
Das ist mal ein interessanter Vergleich
JHWxAdKK4Xg
dildo4u
2023-01-03, 06:40:47
Da bauen die AM5 Boards mit OC Ram vermutlich Mist, wenn Intel so effektiv im idle/Halblast wäre hätten sie deutlich besser Laufzeiten in Notebooks.
Genau das Gegenteil ist der Fall.
Kriegsgeier
2023-01-03, 07:14:55
Schon krass: es gibt nun den i7 13700k für 450€ und einer kauft ernsthaft noch AMD CPUs?!
Die Leistung eines i7 13700k für 450€ ist einfach unglaublich und überhaupt nicht zu schlagen!
Man braucht quasi keine andere CPU im Hausgebrauch - der i7 13700k für den Preis wälzt alles nieder!
dildo4u
2023-01-03, 07:22:10
Deswegen legt AMD ja nach der neue 12 Core wird 430$ kosten die werden sich nicht viel geben.
https://videocardz.com/newz/amd-ryzen-7000-non-x-series-to-launch-january-10th-ryzen-9-7900-faster-than-5900x
aufkrawall
2023-01-03, 07:31:18
Da bauen die AM5 Boards mit OC Ram vermutlich Mist, wenn Intel so effektiv im idle/Halblast wäre hätten sie deutlich besser Laufzeiten in Notebooks.
Genau das Gegenteil ist der Fall.
Du vergleichst Äpfel mit Birnen, die Chiplet-Zens sind komplette Effizienzkrüppel vs. die monolitischen.
dildo4u
2023-01-03, 07:32:52
Ich bezweifle das 50Watt vs 10Watt normal sind 2x vielleicht das gebe ich dir.
Igor hat hier gemischte Workloads 13600k=7700X (Beide ca 75Watt)
https://www.igorslab.de/intel-core-i9-13900k-und-core-i5-13600k-im-test-showdown-der-13-generation-und-eine-3-4-krone-fuer-den-letzten-monolithen/11/
aufkrawall
2023-01-03, 07:35:26
Ich bezweifle das 50Watt vs 10Watt normal sind 2x vielleicht das gebe ich dir.
50W Differenz zwischen 5800U und 5800X3D bei leichter Last? Dürfte es ständig geben...
dildo4u
2023-01-03, 07:47:18
Kann mich nicht erinnern das die Zen3 APU im Desktop sonderlich effizient waren das scheint mir schon am verwendeten Ram zu hängen.
Kriegsgeier
2023-01-03, 07:53:06
dennoch der i7 13700k ist der King schlicht hin!
Es gibt keinen besseren Prozessor für 95% der Nutzer für 450€!
aufkrawall
2023-01-03, 08:22:40
Kann mich nicht erinnern das die Zen3 APU im Desktop sonderlich effizient waren
Weil du keine Ahnung hast? Die ziehen trotz Knüppel-Spannung bei Teillast in Spielen ständig <30W...
dildo4u
2023-01-03, 08:23:06
dennoch der i7 13700k ist der King schlicht hin!
Es gibt keinen besseren Prozessor für 95% der Nutzer für 450€!
Für welche Nutzer? Ein 7600X bringt 90% der Gameingleistung für 200€ weniger. Intels Top Modell bei MF ist wieder der 12400f.
https://wccftech.com/amd-ryzen-5000-cpus-continue-to-dominate-5800x3d-outsell-all-ryzen-7000-cpus-in-germany/
Es sei den du machst was wo dir die E-Cores massiv helfen?
Sieht so aus als ob die Masse auf den 13400 wartet selbst 300€ sind zu viel für 13600k.
Weil du keine Ahnung hast? Die ziehen trotz Knüppel-Spannung bei Teillast in Spielen ständig <30W...
5500 setzt sich hier nicht ab er nimmt 13 Watt weniger als 5600 ist aber auch langsamer.
https://abload.de/img/pcghfa0cqw.png
https://www.pcgameshardware.de/Ryzen-7-5700X-CPU-278283/Tests/5600-5500-Release-Benchmark-Preis-vs-5800x-1393445/3/
aufkrawall
2023-01-03, 10:12:23
Ich sprach von "Teillast bei Spielen", aka GPU-Limit, und nicht von 720p Benchmarks.
25W D2R ohne Drossel:
https://abload.de/thumb/d2r_2022_11_18_14_04_kmcet.png (https://abload.de/image.php?img=d2r_2022_11_18_14_04_kmcet.png)
15W Drossel:
https://abload.de/thumb/d2r_2022_11_18_15_02_9ie1c.png (https://abload.de/image.php?img=d2r_2022_11_18_15_02_9ie1c.png)
Und das ohne Drossel war mit 1,275V für Allcore-Last + 3800 1:1 RAM OC. Der 5800X3D säuft mit RAM OC im Idle schon mehr fürs Nichtstun. ;D
robbitop
2023-01-03, 10:28:54
Kann ich bestätigen. Mein 5800X3D mit UV (CO -30) und RAM OC auf 3800 nimmt im idle 32W gerade laut HWInfo.
5-7W für "CPU Kern Leistungsaufnahme"
12,5W für "CPU-SoC Leistungsaufnahme
und 18 W für "Core+Energieverbrauch"
sind bei "CPU-Gesamt-Leistungsaunfhame" grob 32W
Scheint mit dem Chipletkram zusammen zuhängen wie du schreibst. Die CPU Cores als solche sind gar nicht so durstig. Es soll ja mit Dragon-Range-X eine Laptop SKU mit Chiplets kommen - mal schauen, ob man diese Konfiguration etwas weniger (idle) durstig bekommt. :)
BlacKi
2023-01-03, 10:46:13
mal schauen, ob man diese Konfiguration etwas weniger (idle) durstig bekommt. :)
ramtakt runterdrehen. bei 2400 oder mit 1/2 IF takt soll sich der idle verbrauch sich fast halbieren.
teste es mal aus, dann merkst du, das es fail by design ist. weil bei den apus von amd und intel haut der ramtakt nicht so rein.
und der typ im video sagt, es würde wohl an den efficiency cores liegen, aber auch ohne die e cores ist der idle verbrauch oft unter 4w, trotz hohem ramtakt.
dildo4u
2023-01-03, 11:17:02
Deshalb sind Tests wie PCGH sie macht doch sinnvoll ich sehe z.b wenig Sinn bei einem X3D mehr als 3200 zu nutzen.
Für paar Prozent Leistung lass ich das Ding im idle nicht mit 30 Watt laufen aber natürlich Jeder wie er will.
aufkrawall
2023-01-03, 11:23:47
Auf die Rechnung, weshalb dich das arm macht, wäre ich ja mal gespannt. X-D
MiamiNice
2023-01-03, 11:48:33
Für mich ist es immer wieder faszinierend, wie es AMD schafft, die Leute zu täuschen. Anfangs mit den Blender Scores und den ST Krüppeln, die teils 30% ST langsamer waren, als die blauen. Trotzdem wurden zum gamen gekauft. Heute reißt man mit einem Zen 1 oder 2, im Gaming, gar nichts mehr. Hat man auch früher nicht, aber das war ja egal, man kauft für das Gefühl den Underdog zu supporten. Mit einem blauen aus dem Zeitraum kann man noch spielen ...
Stromverbrauch bei den roten interessiert mich jetzt nicht, dass aber im Schnitt bei AMD mehr verbraucht wird, überrascht mich jetzt am allerwenigsten.
AMD hat die Preise massiv erhöht, direkt nachdem die Gehirnwäsche mit den many Core Gelaber durch war. LOL
Noch heute glauben Menschen an das Multicore Gelaber, was zu so amüsanten ingame Diskussionen führt wie: " I have a high end ryzen and a 4800 rtx, i have only 50 fps. what happen".
Wenn man den Guys dann erklärt, dass deren CPU für den Arsch ist, wenn man nicht gerade ein AAA Game spielt, reagieren die meist verständnislos.
Ich halte mich da seit Jahren raus und genieße nur noch die Show.
Und dann wird man noch blöd angeschaut wenn man seiner Antipathie gegen AMD freien Lauf lässt :confused::freak:
Mein 5950x hat auch 40W im idle gezogen. Bei nem youtube video auch gern mal 60W.
Jetzt mit den 13900k sind es <10W idle und ca. 20W bei youtube… Da kommt über die Nutzungszeit schon einiges zusammen.
robbitop
2023-01-03, 12:50:26
@Miami
Es ist eher der Stromverbrauch im Idle. Nicht der unter Last. :D
Ich würde mich nicht wundern, wenn man mit einem Ryzen 1800X in heutigen Spielen mit mehr Threads ganz gut darsteht relativ zum 7700K (der war ja damals der Gegner). Wissen tue ich es aber nicht - finde auch auf die Schnelle keine Tests aus 2022. :)
Tja, dann hat Miami ja ausgerechnet grad mit dem 13900k abgerechnet :freak:. Der ist nämlich extrem multicore.
Aber in Wirklichkeit liegt er einfach total falsch, weil ST scheissegal ist, das war es immer. Was wichtig ist, wieviel Leistung ein Kern im Verbund bringt. Und bei Spielen kommt noch hinzu, dass es einen großen, schnellen Cache geben muss.
AMD hat von Anfang an das Problem der fragmentierten L3-Caches und der hohen inter-Core-Latenzen zwischen den CCX. Das hat man umgangen mit einem 8C CCX. Aber das kann und wird nicht das Ende der Reise sein.
Da wurd aber auch niemand verarscht :freak:. Wer sowas behauptet, hat überhaupt nichts geblickt. Ohne Ryzen wär selbst Icelake noch als 4/8 erschienen im Desktop.
MiamiNice
2023-01-03, 13:00:27
Ich habe das verstanden, Rob. Der Punkt ist aber, dass die ganzen Leuts weder den ganzen Tag das AMD Logo blendern, noch den ganzen Tag gamen. Ergo verbraucht man mit einem AMD mehr Saft über die Laufzeit der CPU - wenn man einen für private Desktops üblichen Workflow voraus setzt.
Werden AMD CPUs nicht gekauft weil sie minimal weniger Leistung bringen bei maximal weniger Leistungsaufnahme? Und natürlich weil sie günstiger sind … ah ja und natürlich weil sie viele viele Kerne haben und damit schneller sind. Klingt für mich als würde jemand argumentieren, dass er viele blaue LEDs in der Kiste hat und die deswegen besonders schnell ist.
Es ist einfach nur traurig.
Mir ist es lieber, mich zoggt ne Firma ab als wenn man mich versucht in den Arsch zu nageln. Easy as that.
Tja, dann hat Miami ja ausgerechnet grad mit dem 13900k abgerechnet :freak:. Der ist nämlich extrem multicore.
Aber in Wirklichkeit liegt er einfach total falsch, weil ST scheissegal ist, das war es immer. Was wichtig ist, wieviel Leistung ein Kern im Verbund bringt. Und bei Spielen kommt noch hinzu, dass es einen großen, schnellen Cache geben muss.
AMD hat von Anfang an das Problem der fragmentierten L3-Caches und der hohen inter-Core-Latenzen zwischen den CCX. Das hat man umgangen mit einem 8C CCX. Aber das kann und wird nicht das Ende der Reise sein.
Da wurd aber auch niemand verarscht :freak:. Wer sowas behauptet, hat überhaupt nichts geblickt. Ohne Ryzen wär selbst Icelake noch als 4/8 erschienen im Desktop.
Blöd das Miami die E-Cores aus und den 13900k wegen des Binnings gekauft hat ;)
Klar wurde man vom AMD verarscht. Wie nennst Du das den bitte, wen man mit irrelevanten Benches hausieren geht, die Kunden damit blendet und bei normalen Workload nicht ansatzweise die gezeigte Leistung hinten rauskommt. Ich nenne das "vorgaukeln falscher Tatsachen", das ist ein Straftatbestand.
Blediator16
2023-01-03, 13:03:29
Ich stelle mir Miami als einen mitte 40er vor, der seit ich weiß nicht wie vielen Jahren diesen Stuß von sich gibt. Herrlich :D
Der_Korken
2023-01-03, 13:12:39
Kann ich bestätigen. Mein 5800X3D mit UV (CO -30) und RAM OC auf 3800 nimmt im idle 32W gerade laut HWInfo.
5-7W für "CPU Kern Leistungsaufnahme"
12,5W für "CPU-SoC Leistungsaufnahme
und 18 W für "Core+Energieverbrauch"
sind bei "CPU-Gesamt-Leistungsaunfhame" grob 32W
Scheint mit dem Chipletkram zusammen zuhängen wie du schreibst. Die CPU Cores als solche sind gar nicht so durstig. Es soll ja mit Dragon-Range-X eine Laptop SKU mit Chiplets kommen - mal schauen, ob man diese Konfiguration etwas weniger (idle) durstig bekommt. :)
Mein 5900X kann das auch bestätigen. Es liegt aber nicht allein an den Chiplets, denn sonst wären die Dual-Chiplet-Varianten nochmal deutlich schlimmer. Offenbar sind sie aber nur "ein bisschen" schlimmer. Imho ist der IOD ein absoluter Effizienzkrüppel bzw. besitzt quasi keine Stromsparmechanismen. Wenn man den RAM mit max. 3200Mhz betreibt, sinkt der Idle-Verbrauch plötzlich um eine ganze Ecke, so als ob da ein Schalter umgelegt um die letzten Stromsparmechanismen komplett abzuschalten. Aber auch mit 3200Mhz sind es noch >20W und somit deutlich schlechter als Intel. Mit Zen 4 wurde es auch null besser, obwohl ich dachte, dass der 6nm IOD es reißen würde, weil man da die APU-Technik benutzen könnte. Dort klappt es ja auch. Auf Twitter meinte mal wer die DDR5-PHYs im IOD würden durchgehend 9W ziehen, auch im Idle, die IF-Links nur 3W. Wenn AMD Chiplets in die Notebooks bringt, wird es interessant. Die Desktop-Version nuckelt einen 60Wh Akku in <2h idle leer ...
Für mich ist es immer wieder faszinierend, wie es AMD schafft, die Leute zu täuschen. Anfangs mit den Blender Scores und den ST Krüppeln, die teils 30% ST langsamer waren, als die blauen. Trotzdem wurden zum gamen gekauft. Heute reißt man mit einem Zen 1 oder 2, im Gaming, gar nichts mehr. Hat man auch früher nicht, aber das war ja egal, man kauft für das Gefühl den Underdog zu supporten. Mit einem blauen aus dem Zeitraum kann man noch spielen ...
Die erste Ryzen-Generation bot massiv mehr MT-Power. Ein 1600X mit 6C/12T ist da preislich gegen Intels 7600K-Krüppel mit 4C/4T angetreten. Der sah zwar damals in Spielen noch passabel aus, aber nur wenn man nicht auf die Frametimes und die Auslastung geschaut hat. Eine Generation sind die 4T-Modelle reihenweise umgefallen. Mit den 8000ern und 6 Kernen sah es bei Intel dann deutlich besser aus.
Und dann wird man noch blöd angeschaut wenn man seiner Antipathie gegen AMD freien Lauf lässt :confused::freak:
Und das nicht zu Unrecht. Ohne AMD würdest du heute noch Intels zehnten Skylake-Refresh mit vier Kernen kaufen. Und Nvidia hätte die Ada-Preise schon bei Ampere verlangt. Die RTX4090 hätte Nvidia gar nicht released, sondern einfach die 4080 zum 4090-Preis verkauft. Natürlich ist AMD kein Wohltätigkeitsverein und die haben für Zen 4 und RDNA3 jetzt auch jede Menge Gegenwind bekommen. Du musst ja keine AMD-Produkte kaufen, aber AMD den Untergang zu wünschen ist einfach absolut dumm.
MiamiNice
2023-01-03, 13:17:32
Ohne AMD gäbe es heute keine E-Kerne, die man abschalten muss. CPUs hätten weiterhin 8 Cores, 16 Threads. Also auch in 2023 noch genau die richtige Menge zum arbeiten und gamen.
Bin mir nicht so sicher ob das schlecht wäre.
Der_Korken
2023-01-03, 13:24:03
Ja genau, E-Kerne einzuführen ist absoluter Müll und völlig unnötig. Genauso wie Multicore im allgemeinen, man hätte lieber bei Singlecore bleiben sollen, ohne SMT natürlich. Die ganzen RAM-Standards wie DDR2, DDR3, usw. hätte man sich auch klemmen können, weil die zum Vorgänger immer bei Release schlechtere Latenzen hatten. Und Chiplets waren auch totaler Müll. Sowas wie gestapelten Cache braucht kein Mensch und für Server tut es statt einem 64-Kerner doch auch ein monolithischer 24-Kerner mit 10% Yieldrate bei gleichem Verbrauch.
/s
MiamiNice
2023-01-03, 13:33:08
Ja, für den Desktop hast Du da recht. Es gibt gar nicht derart viel Software um von diesen ganzen Kernen zu profitieren. Wir sprechen über Desktop Prozessoren für Enduser, nur um das nochmal ins Gedächtnis zu rufen.
Kein privater User packt den ganzen Tag Dateien oder rendert den ganzen Tag was auch immer.
Im Desktop gewöhnliche Software ist, dato heute, zu weit überwiegenden Teil Single Core. Intel hat E-Cores eingeführt, damit sie auf dem Papier mit AMD mithalten. AMD hat den Krieg der Kerne eingeläutet, weil sie nicht anders konnten und die User davon überzeugt, dass sie ganz viele Kerne brauchen.
Wie auch immer Du das drehst und wendest, den Mist braucht keiner.
Parallel bin ich btw. gerade in Photoshop unterwegs und produziere einen Flyer. Rate mal, was mir helfen würde. Richtig mehr ST Power ;D
So ziemlich jeder wäre mit einer 40 Ghz single Core CPU bei heutigen IPC besser bedient, als mit dem MT Rotz den man kaufen kann. MT ist nur eine Notlösung, weil wir es nicht schneller können. Nur spielt 95% der Software nicht mit.
robbitop
2023-01-03, 14:45:55
@Miami
Ich finde man kann froh über Ryzen sein. Denn nur dadurch gab es wieder straffen Wettbewerb im x86 CPU Bereich der auch Intel ordentlich nach vorn gepusht hat. Und natürlich pusht Intel widerum AMD auch ihr bestes zu geben. Nicht nur die E-Cores kamen dadurch - auch die P Cores sind deutlich sichtbar gepusht worden. Wenn man sich anschaut wie lange Intel auf der Uralt Skylake uArch mit 4 Cores herumgekaut hat und auf einmal gibt es 8x Cores und jedes Jahr einen neuen P-Kern. Da ging sicherlich ein ordentlicher Ruck durch Intel als AMD mit Ryzen immer näher kam (mit einem Bruchteil des RnD Budgets!) ;).
Was die E-Cores angeht. Mal sehen was passiert, wenn die ihre eigene Voltagerail bekommen und man diese mit einem Betriebspunkt auslegt, der auch eher zum Efficiency core passt. Dann kann das im mobile Bereich schon nochmal einen Vorteil bringen.
Im Moment liegen die RKL CPUs knapp vorn. Kurz vor RKL lag Zen 4 vorn. Mit Zen 4 X3D liegt AMD wahrscheinlich wieder vorn. Und mit MTL dann wieder Intel und mit Zen 5 wahrscheinlich wieder AMD und mit ARL wieder Intel und mit Zen 5X3D wahrscheinlich wieder AMD. So viel Mehrleistung und Wettbewerb pro Zeiteinheit gab es schon lange nicht mehr.
Im Moment finde ich, dass beide Plattformen viel zu teuer sind. Boards (mit OC Fähigkeit und modernem Chipsatz) unter 200 EUR gibt es ja praktisch kaum. Ansonsten ist eigentlich keine der CPUs jetzt dominant schneller als die des Gegenlagers.
Ähnliches hat sich ja auch im mobile CPU Bereich ergeben. Ich kann den Ärger eigentlich nicht teilen. Man bekommt viel Innovation jedes Jahr und in jedem Preispunkt super CPUs. Und mit Zen 3X3D bekommt man sogar dank günstiger alter AM4 Plattform sogar noch relativ günstige Upgrades älterer PCs. Im CPU Bereich ist es eine super Zeit für uns Endkunden. Ganz anders als im GPU Bereich, wo man wirklich abgezockt wird. Von beiden IHVs. Von einem ein wenig mehr aber grundsätzlich sind GPUs viel zu teuer geworden IMO. CPUs haben sich da ganz anders entwickelt.
MiamiNice
2023-01-03, 15:46:19
Gerade der Punkt, dass in den letzten Generationen, dann doch wieder mehr IPC möglich war, finde ich erschreckend. Man hat uns verkauft, dass weitere Steigerungen der IPC zu teuer wären. Hat auch jeder verstanden, wird ja alles immer kleiner und teurer. Abnehmender Grenzertrag usw. usf. Dem kann jeder folgen. Schlussendlich müssen wir also in die Breite, was wir seit dem Core2Duo, auch tun. Spätestens seit dem Core2Quad sollte jeder Entwickler daran interessiert sein, MT "mäßig" zu arbeiten.
Wo sind wir denn heute?
Jeder Dummi kann sich denken, wie einfach es ist ein Bild zu zerschnipseln und auf diverse Cores zu verteilen. Dadurch das jeder Core dann vorab schon weiß, was er zu tun hat, brauchst auch nicht viel Kommunikation zwischen den Kernen und alles ist geil. Packprogramme und ähnliche Software, die man halt easy parallelisieren kann, ebenfalls.
Aber wo ist die Software, die Ihren Workload perfekt in so viele Teile wie man Cores in der Kiste hat, splitten kann? Wohlgemerkt abseits der Programme bei denen sich jeder non Software Engi selbst erklären kann, wieso das funktioniert?
Gibt es einfach nicht.
Und jetzt kommt der Punkt:
Wenn man mit Entwicklern spricht, bekommt man oft zu hören "Es ist unglaublich komplex, die Abhängigkeiten, nicht jedes Problem lässt sich parallelisieren usw. usf."
Es wird auf lange Zeit nicht diese Art Software geben, die Ihren Workload perfekt auf die Anzahl der Kerne splitten kann.
So ziemliches jegliches Game und jedwede Office-Software sind single Core limitiert, dato heute. Das wird sich in den nächsten Jahren auch nicht ändern.
AMD brachte CPUs mit unterirdischer IPC aber massiv vielen Kernen, in Zeiten, in denen man sich eher massiv auf die IPC konzentrieren hätte sollen. Intel fühlt sich genötigt, auch mehr Cores zu verbauen, weil AMD Massenhypnose irgendwie gewirkt hat. Jetzt haben beide so viele Cores, dass selbst ein Computer Bild Leser merkt, dass es nichts bringt. Und jetzt auf einmal gehen doch wieder massive IPC Improvments.
Wären wir bei 8 Kernen geblieben und hätten direkt alles in die IPC gesteckt, wären wir jetzt imo besser aufgestellt.
Schuld hat hier, für mich, nur AMD. Aber auf der anderen Seite gäbe es sicherlich die heutigen IPC Improvents ohne AMD nicht. Aber ohne AMD hätte es auch den Stillstand nie gegeben, der erst zu dieser ganzen Geschichte geführt hat. Es fehlt schon immer Wettbewerb im CPU Markt. AMD ist kein Wettbewerber, AMD ist eher eine Lachnummer, wenn man sich die Firmengeschichte anschaut. Wir wären alle besser dran gewesen, wenn es AMD nie gegeben hätte und es einen Intel Widersacher auf selben Augenhöhe geben würde. Anstatt einer Garagenfirma, die Intel kompatible CPUs zusammen lötet. AMD hat der Menschheit über eine Dekade an Entwicklungszeit gekostet. Daher kommt meine Antipathie gegen diesen Laden.
Der_Korken
2023-01-03, 15:53:10
So ziemlich jeder wäre mit einer 40 Ghz single Core CPU bei heutigen IPC besser bedient, als mit dem MT Rotz den man kaufen kann. MT ist nur eine Notlösung, weil wir es nicht schneller können. Nur spielt 95% der Software nicht mit.
Es ist keine Notlösung, denn das suggeriert, dass sie nur vorübergehend ist. Eine Sache sequentiell zu beschleunigen ist inhärent immer schwerer hinzubekommen als über Parallelisierung. Wenn du jemanden einstellen willst, der alleine die Arbeit von vier Leuten erledigen kann, wird dich dieser Überperformer nicht das Vierfache eines Normalos kosten, sondern eher das Zwanzigfache und mehr, weil er so rar ist.
Dass der Desktop mit 16 Kernen noch für eine ganze Weile übersättigt ist, sehe ich aber genauso. Der Desktop ist aber auch ein Sonderfall, weil im Gegensatz zu allen anderen Marktsegmenten Energieeffizienz quasi keine Rolle spielen, während sie in anderen Bereichen essentiell ist. Daher muss man damit leben, dass das was wir Desktop sehen eigentlich nur ein Abfallprodukt der Server- und Mobilearchitekturen ist.
Edit:
Schuld hat hier, für mich, nur AMD. Aber auf der anderen Seite gäbe es sicherlich die heutigen IPC Improvents ohne AMD nicht. Aber ohne AMD hätte es auch den Stillstand nie gegeben, der erst zu dieser ganzen Geschichte geführt hat. Es fehlt schon immer Wettbewerb im CPU Markt. AMD ist kein Wettbewerber, AMD ist eher eine Lachnummer, wenn man sich die Firmengeschichte anschaut. Wir wären alle besser dran gewesen, wenn es AMD nie gegeben hätte und es einen Intel Widersacher auf selben Augenhöhe gegeben hätte. Anstatt einer Garagenfirma, die Intel kompatible CPUs zusammen lötet.
Was für ein Blödsinn. Die Kernmonster wurden für den Serverbereich entwickelt und dort hat man Intel mit Zen 2 völlig auseinander genommen. Dass AMD im Desktop auf 16 Kerne hoch ist, haben sie nur deswegen gemacht, weil es für sie so billig war. Man hat damit Intels HEDT-Plattform ziemlich obsolet gemacht, denn - man staune - Intel hatte die ganze Zeit auch >4 Kerne, nur eben für Apothekenpreise auf ihrer HEDT-Plattform. Erst 10 Kerne mit Broadwell, wo Zen noch gar nicht da war und später 18 Kerne mit Skylake-X. Warum sollte AMD dieses Segment nicht angreifen, wenn sie die gleiche Leistung viel billiger anbieten können als Intel? Inwiefern soll das nun die IPC-Entwicklung ausgebremst haben? In der Zeit, wo sich AMD von Zen 1 bis Zen 3 hochgearbeitet hat, ist Intel immer noch auf ihren Skylake-Kernen rumgetuckert, die eigentlich schon weniger IPC als Zen 2 hatten - außer in Spielen, weil Intel einen auf wenige Kerne optimierte Speicherhierachie hatte und deswegen bessere RAM-Latenzen. Die einzige Lachnummer ist hier also Intel, die sich von einer zig-mal kleineren Firma zeitweise haben vorführen lassen. Auch der 3D-Cache, der für Spiele quasi der Shit ist, stammt aus AMDs Feder. Hätte es AMD nicht gegeben, hätte sich Intel noch ewig Zeit gelassen mit ihren Cove-Kernen. Das ging so weit, dass eine Firma wie Apple ihre eigene CPU entwickelt hat für Macbooks und Mac Pros, weil sie auf keinen Bock mehr auf Intel hatten. Verglichen mit den mobilen Intel-CPUs dürfte der M1 zu Release übrigens 20% mehr ST-Performance, >50% mehr IPC und ca. 3-fache MT-Performance unter festen Powerlimits gehabt haben. Man stelle sich vor Intel wäre erst zu dem Zeitpunkt aufgewacht und nicht schon 1,5 Jahre früher.
Cubitus
2023-01-03, 16:12:00
Für mich ist es immer wieder faszinierend, wie es AMD schafft, die Leute zu täuschen. Anfangs mit den Blender Scores und den ST Krüppeln, die teils 30% ST langsamer waren, als die blauen. Trotzdem wurden zum gamen gekauft. Heute reißt man mit einem Zen 1 oder 2, im Gaming, gar nichts mehr. Hat man auch früher nicht, aber das war ja egal, man kauft für das Gefühl den Underdog zu supporten. Mit einem blauen aus dem Zeitraum kann man noch spielen ...
Stromverbrauch bei den roten interessiert mich jetzt nicht, dass aber im Schnitt bei AMD mehr verbraucht wird, überrascht mich jetzt am allerwenigsten.
AMD hat die Preise massiv erhöht, direkt nachdem die Gehirnwäsche mit den many Core Gelaber durch war. LOL
Noch heute glauben Menschen an das Multicore Gelaber, was zu so amüsanten ingame Diskussionen führt wie: " I have a high end ryzen and a 4800 rtx, i have only 50 fps. what happen".
Wenn man den Guys dann erklärt, dass deren CPU für den Arsch ist, wenn man nicht gerade ein AAA Game spielt, reagieren die meist verständnislos.
Ich halte mich da seit Jahren raus und genieße nur noch die Show.
Und dann wird man noch blöd angeschaut wenn man seiner Antipathie gegen AMD freien Lauf lässt :confused::freak:
Mir sind gewisse Dinge schon vor 2 Jahren aufgefallen in meinem AMD Rant Thread :) Jetzt wird es thematisiert.
Aber joa Hauptsache jeder ist mit seinem Sys zufrieden, falls nicht besteht Handlungsbedarf. Ich würde ja AMD wieder ne Chance geben, aber bisher waren deren CPUs und Chipsets für mich nicht überzeugend.
Mein Intel 13600 idled gerade mit 7,5 Watt rum :)
Minimum 5,6 Watt im Desktop, mit Browser und Corsair Murals und Gigabyte RGB Gedöns ..
Der_Korken
2023-01-03, 16:22:57
Was das AMD-Fanboytum angeht, würde ich euch sogar Recht geben. Dass man nach der jahrelangen Intel-Durststrecke den Underdog pusht, kann ich gut verstehen. Zumal die erste Zen-Generation auch deswegen einen schweren Stand hatte, weil die gesamte Software-Welt jahrelang nur auf Intel-CPUs und deren Eigenheiten hin optimiert hat - einschließlich Betriebssysteme und Compiler. Seit Zen 3 ist AMD aber eigentlich kein Underdog mehr und benimmt sich auch nicht so. Deswegen muss man da andere Maßstäbe nehmen, aber das haben viele leider nicht mitbekommen. Ich selber habe an Zen 4 viel kritisiert in den Threads und würde, wenn ich wählen müsste, eher zu Raptor Lake als zu Zen 4 tendieren, auch wenn mein aktuelles System nicht so aussieht.
TobiWahnKenobi
2023-01-03, 16:29:07
ja, idlen können die raptoren gut..
https://abload.de/img/13700k_oc_idle_tempd6imd.jpg
13700K
aber relevanter ist mir eigentlich das, was die PSU gleichzeitig nuckelt. klar.. steckt viel drin
und hängt einiges dran.. und es leuchtet.. für irgendwas jenseits der 120W.. im idle.
https://abload.de/img/13700k_oc_idle_temp_s1id97.jpg
system gesamt
(..)
mfg
tobi
Matrix316
2023-01-03, 16:38:53
Ohne AMD gäbe es heute keine E-Kerne, die man abschalten muss. CPUs hätten weiterhin 8 Cores, 16 Threads. Also auch in 2023 noch genau die richtige Menge zum arbeiten und gamen.
Bin mir nicht so sicher ob das schlecht wäre.
Sind die E-Cores nicht der Grund, warum Intel im Idle so viel weniger verbraucht? Wobei könnte ich ja auch mal testen... :uponder:
aufkrawall
2023-01-03, 16:41:55
Sind die E-Cores nicht der Grund, warum Intel im Idle so viel weniger verbraucht? Wobei könnte ich ja auch mal testen... :uponder:
Ne, das ist schon ewig so. Hab mit dem aktuellen Board mit 14nm RKL Gear 1 3600 auch nur 8W.
Hakim
2023-01-03, 16:56:24
Idle ist wirklich verdammt gut, zumindest ist mir das vom 8700k kommend sofort aufgefallen. Auch so Sachen die über einen längeren Zeitraum wenig Last benötigen. Hatte bei meinem 8700k extra ein Profil dafür erstellt, extrem niedrige Spannung und Takt auf maximal 2,2 Ghz limitiert. Der 13600K macht das ab Werk ohne eingreifen zu müssen deutlich besser.
r3ptil3
2023-01-03, 17:51:18
Habt ihr denn auch mal den realen Stromverbrauch an der Dose gemessen?
Freestaler
2023-01-03, 18:04:09
@bardh, hör sofort auf! KEINE Fakten. Falscher Thread! ;-)
Ich lese wieder 30% schneller (klar), echte 8 Kerner (gabs nie von Intel vor Ryzen im Consumer), "Straftatbestand" und solche Dinge wie Stromsparen mit Kisten die am OC Limit laufen inkl. GPU und Waku (was zieht die so?) Lol der ganze Thread. Ich frag mich da echt, wieso jemals den 7700k weg gegeben?
Hakim
2023-01-03, 18:27:10
Habt ihr denn auch mal den realen Stromverbrauch an der Dose gemessen?
Habs mal jetzt mit dem Meßgerät nachgemessen
um die ~64-69W Idle bei mir laut Meßgerät, GB Aorus z690 Mobo, 3x M.2 SSDs, 4x Ram Module, 3060ti, Eingabegeräte, Webcam, Wlan/BT stick, zwei 27er Monis an der Graka.
Der 8700K auf dem Asrock Taichi (bis auf den Wlan/BT stick, der hatte schon eins verbautes Modul für, selben Sachen) hatte um die ~75-83W. Ja kein Welt unterschied zugegeben, aber immerhin. :)
@Freestaler OC Limit mache ich schon lange nicht mehr, der 8700K hatte ich nur aus Neugier die ersten Wochen mit 5Ghz laufen, danach war der im wesentlich Effizienteren 4,7Ghz allcore bei mir.
Deathcrush
2023-01-03, 18:30:43
Ich glaube, ich habe mein Setting gefunden und bin auch soweit zu frieden. Im Bios habe ich die Leistung auf 150W begrenzt und 56s für 175W. Schade, das ich es bisher nicht geschafft habe, über die manuelle Einstellung des Vcores mit Offset auf das gleiche Ergebnis zu kommen wie mit Vcore Compensation und Offset.
Auf jedenfall eine tolle CPU :) Der Tausch der Hardware (die RTX4080 kam ja auch noch dazu) war zwar sehr teuer, aber es hat sich gelohnt. Jetzt muss ich erst einmal wieder sparen, der Hardwaretausch war so nicht geplant :D und mein erspartes ist fast auf Null geschrumpft.
Freestaler
2023-01-03, 18:31:59
@Hakim, danke für die Fakten. Ich sprich vorallem zwei andere im Thread an ;-). Bench und OC bei dennen haben schon min. Fünfstellig Watts verbraten für die letzten 2% aber reden nun über 10w.
Hakim
2023-01-03, 18:38:52
@Deathcrush du kannst mal versuchen bei dem gesenkten Vcore und ~160-170W Begrenzung die Kerne 5,3 und 4,2 laufen zu lassen. Ich hab so über 25k bei Cine23. Aber ja, in der Praxis wirst du keinen unterschied merken.
Deathcrush
2023-01-03, 19:52:34
@Deathcrush du kannst mal versuchen bei dem gesenkten Vcore und ~160-170W Begrenzung die Kerne 5,3 und 4,2 laufen zu lassen. Ich hab so über 25k bei Cine23. Aber ja, in der Praxis wirst du keinen unterschied merken.
OC ist für mich irgendwie nicht mehr wirklich interessant. Das war früher deutlich interessanter, wo es auch wirklich einen Mehrwert hatte.
Mal eine andere Frage, macht es eigentlich mit der neuen CPU sinn, auf Windows 11 zu wechseln? Lese da immer unterschiedliche Meinungen.
Hakim
2023-01-03, 19:56:21
Gute Frage, ich hatte damals zu Alder Lake mal irgendwo gelesen das der Integrierte Scheduler nur bei Win 11 funzt und bei Win 10 es immer noch über das OS läuft, immer noch so? Vorteile? idk :)
Edit: hab mal ein Video gefunden wo jemand die Vorteile vom Thread Director 2 und win 11 beschreibt und zeigt falls es dich interessiert.
RDtJ5h0NjvQ
La Junta
2023-01-03, 21:19:14
Habt ihr denn auch mal den realen Stromverbrauch an der Dose gemessen?
Zwischen 50 und 65W im Idle bei mir . 13700K @ stock , RTX 3080 , Soundblaster ZXR , 3X 2TB NVMes , Z690er Board , 32GB DDR4 4300 RAM , 12x 120mm Lüfter und eine Laing DDC Pumpe und 850W Corsair NT .
@Deathcrush : Ich bin schon lange mit WIN 11 unterwegs und habe nix negatives gefunden bisher . Aber ich habe auch nicht meine E-Cores /HT abgestellt und iwelche fancy Optimierungen betrieben wie manch einer hier (ich behaupte aber auch nicht das es mit Win 10 anders wäre, da ich meinen 12700k/13700K niemals unter Win 10 betrieben habe) .
Lowkey
2023-01-03, 21:50:34
59w am PC ohne Monitor.
z790i + 32gb DDR5 + 2070 + AIO
r3ptil3
2023-01-04, 08:26:39
Ich finde es interessant, dass für den B760 Chipsatz so viele Boards mit DDR4 Support kommen.
Es sind u.a. schon zwei ITX Boards mit DDR4 vorgestellt worden. (Gigabyte und MSI).
Da hat man vielleicht schnell aus AM5 gelernt. Ist ja schliesslich für für die Intel Plattform die letzte CPU Gen auf dem Sockel.
Lowkey
2023-01-04, 09:26:13
Und ich finde es interessant, dass gerade DDR5-6000 einen Preisrutsch erlebt hat. Fast nur die 6000Mhz Module..
https://geizhals.de/?cat=ramddr3&xf=15903_DDR5%7E253_32768%7E254_6000%7E256_2x
r3ptil3
2023-01-04, 09:40:13
Und ich finde es interessant, dass gerade DDR5-6000 einen Preisrutsch erlebt hat. Fast nur die 6000Mhz Module..
https://geizhals.de/?cat=ramddr3&xf=15903_DDR5%7E253_32768%7E254_6000%7E256_2x
Und was schliesst du draus, dass es nur die 6000er Module sind?
Lowkey
2023-01-04, 09:43:10
Man will Crucial/Micron vernichten? :D
BlacKi
2023-01-04, 10:21:50
Und was schliesst du draus, dass es nur die 6000er Module sind?die 5600 cl36 38 m die die buildzoid empfiehlt, sind innerhalb von stunden von 179€ auf 145€ gecrashed. https://geizhals.de/kingston-fury-beast-dimm-kit-32gb-kf556c36bbek2-32-a2812852.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
den samsung crap mit 36 36 36 würd ich nicht kaufen, die sind mit m die und händischem tuning nicht vergleichbar.
latiose88
2023-01-04, 10:30:27
Nun zu den Unterhaltung von euch allen.
Also ich habe erfahren das windows 10 mit aktuellen update nicht mehr die probleme bei Intel mit dem e Kerne hat. Er scheint es wohl aus einem anderem forum wo der halt kommt eben selbst so zu betreiben.
Also da nimmt sich nix mehr.
Zu der anderen Unterhaltung AMD mag zwar mehr idle Stromverbauch haben aber dafür unter last sparsamer sein. Mein ryzen 9 5950x ist mit Spannung optimiert und auf 3,8 GHz fest gesetzter takt auf last bei 120 Watt. Leistung passt. Idle Stromverbauch ist anstatt 60 Watt auf 37 Watt gelandet. Was ich noch machen könnte das mit dem ramtakt von 3600 auf 3200 MHz. Dann komme ich gewiss auf 20 Watt idle raus. An der Spannung von 1,05 volt kann ich jedenfalls nix mehr machen.
Beim 13900k kann man zwar auch drosseln auf 125 Watt und Spannung noch senken aber am Ende kommt weniger Leistung dabei raus.
Durch die extreme sparsam machen verliert man massiv Leistung.
Klar hat Intel noch immer Vorteile bei idle aber wenn man täglich 2 Stunden vollast hat dann ist der spareffekt gleich dahin.
Wenn man es also beim 5950x lassen würde wären es 142 Watt vs 350 Watt pro Stunde.
Selbst wenn man also den PC 24 Stunden jeden Tag laufen lassen würde ohne last und mit last nur 2 stunden also sagen wir mal so 22 Stunden idle und 2 Stunden vollast dann hätten beide Gleichstand.
Also was da wohl besser ist kann man ja ausrechnen. Nur noch der Anschaffungspreis entscheidet noch. Aber naja ich würde wenn Zen 4 also 7950x hat wieder auf 142 Watt runter regeln und mit etwas Spannung Senkung noch was rausholen.
Intel hätte dann noch weniger ne chance. Weil eben nicht nur idle alles ist.
Klar ist bei 10 Stunden PC Nutzung jeden Tag und auch 2 Stunden Vollast ist bei mir aktuell der Fall.
Da kann man dann fragen wo auf welcher Plattform hätte ich mehr.
Wenn man den 13900k also lässt wie er soll ist dieser minimal schneller als der 7950x aber auch durstiger.
Ich täte mich also sehr schwer wenn ich mich jetzt für eine Plattform entscheiden müsste da einen klaren Sieger zu haben.
Und das mit den 125 watt vollast Drosselung wurde von wem für mich ausprobiert. Die Software klappt bei der Leistung wie ein Kartenhaus zusammen. Der Software passt diese Drosselung so garnicht und zeigt auf wie schlecht der 13900k ist bei limitierenden Stromverbauch.
Ich finde es schade weil ich halt ein Leistung pro Watt user bin wo am meisten Leistung pro Watt sucht. Wo eben sparsam im idle als auch unter last unterwegs sein will. Der aber dennoch noch Leistung am Ende davon übrig hat.
So eine CPU gibt es eben so im ganzen noch nicht zu kaufen. Mit noch mehr kernen wird es noch schlimmer.
Wobei bei einem anderen test es beim threadripper 3960x mit jeder Software feste Kerne ohne smt bei 180 Watt und Leistung die einem threadripper 3970x entsprach.
Das kann ich leider bei einer gleichrn software so fest nicht einstellen. Das jede Software feste 12 threads zur Verfügung hat. Inzwischen ist da ja ein ryzen 9 7950x und auch ein 13900k viel schneller als ein threripper Zen 2.
Wie es bei einem Zen 3 threadripper oder Zen 4 threadripper aussieht kann ich nicht sagen.
Aber denke mal nicht so gut. Meine software kommt zwar mit einigen kernen gut zurecht aber ist dennoch eher schlecht wenn man bedenkt das es auch Software gibt die deutlich besser mit mehr kernen umgehen kann.
Videoumwandeln ist halt was anderes als videos zu rendern also selbst zu erschaffen.
Fakt ist das ich wegen 20 % mehrleistung bei CPU nicht mehr aufrüsten werde.
Ich warte bis da deutlich mehr raus kommt mit Nachfolger Plattform bzw cpu.
Intel kann ne Option in Zukunft sein aber meine workflow wird sich nicht mehr ändern. Games bleiben seid Jahren die selben, die software die ich verwende bleibt die selbe.
Darum bleibt es spannend wie sich die zukünftige Plattform bzw cpus sich so entwickeln werden. Und wie viel es mehr leistung geben wird ebenso.
Fakt ist die aktuelle Plattform bei AMD hat nur durch den erhöhten takt zu 20 % mehrleistung gebracht.
Würde ich den 7950x mit nur 3,8 GHz auch betreiben wären es mir noch 7 % mehr leistung. Ob es bei Nachfolger noch mehr cpu takt gibt kann ich mir nicht mehr vorstellen und 6 GHz wäre doch sehr utopisch wie ich finde. Bei Intel gillt es da ja genauso.
Würde man also alle CPUs nur auf 3,8 GHz oder halt nen ändern festen takt machen sähe es ganz schnell anderst aus bei den ganzen cpus,so viel ist sicher.
Nun ja wie es weiter gehen wird sehen wir dann ja noch in Zukunft.
Das powerlimit bei intel ist 253w für den 13900k. Damit hat man schon >95% der Leistung.
Und nun zu deiner these das bei 2 stunden vollast AMD sparsamer wäre:
AMD: 22h * 40w + 2h 142w = 1164Wh
Intel: 22 * 10W + 2h* 253W = 726Wh
AMD: 8h * 40w + 2h *142W = 604Wh
Intel: 8h * 10w + 2h * 253w = 586Wh
Man braucht also mehr als 20% der zeit vollast damit AMD sparsamer ist.
robbitop
2023-01-04, 12:26:15
Also der 5800X3d läuft in Spielen bei mir zwischen 50-70W. Und idle 32 W. Der Intel nimmt in Spielen wahrscheinlich aber auch sicher unter 100 W in der Praxis. Obige PPTs werden wohl nur bei Numbercrunching, Encoding oder Powerviren genommen.
aufkrawall
2023-01-04, 12:28:25
Der Intel nimmt in Spielen wahrscheinlich aber auch sicher unter 100 W in der Praxis.
Mit 12700K AC 4,7GHz sind in Spielen ohne hohe MT-Last im GPU-Limit oft eher ~45W typisch.
La Junta
2023-01-04, 12:58:25
Also der 5800X3d läuft in Spielen bei mir zwischen 50-70W. Und idle 32 W. Der Intel nimmt in Spielen wahrscheinlich aber auch sicher unter 100 W in der Praxis. Obige PPTs werden wohl nur bei Numbercrunching, Encoding oder Powerviren genommen.
Bei mir um die 100W . Wer wirklich Strom sparen will beim Gamen , macht dies mit der Graka. Ich habe z.B ca.80% der leistung mit ca 190W vs. OC 340W mit der RTX 3080 . Aber ganz ehrlich , wenn Strom sparen an erster Stelle sthet , kauft euch eine Xbox Series S . Das Ding verbraucht ca. 90W und sieht nichtmal so schlecht aus .
PS: Es bezieht sich nicht auf dich robbitop, hab dich nur gequotet weil du es objektiv zu sehen scheinst und nicht wie lattiose88 z.b .
Lehdro
2023-01-04, 13:28:47
Also der 5800X3d läuft in Spielen bei mir zwischen 50-70W. Und idle 32 W. Der Intel nimmt in Spielen wahrscheinlich aber auch sicher unter 100 W in der Praxis.
Wie gut das es Tests dazu gibt:
https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/2/#abschnitt_leistungsaufnahme_in_spielen_ab_werk
https://www.igorslab.de/amd-ryzen-7-5800x3d-der-einzige-kaempfer-seiner-art-als-perfektes-und-vor-allem-effizientes-upgrade/10/
Mit UV lässt sich da sicherlich auch noch einiges rausholen.
robbitop
2023-01-04, 13:50:42
Mit 12700K AC 4,7GHz sind in Spielen ohne hohe MT-Last im GPU-Limit oft eher ~45W typisch.
Wow das ist super sparsam. Krass was für Potenzial moderne CPUs haben wenn man sie fernab der Kotzgrenze und im realistischen GPU Limit betreibt. :)
Bei mir um die 100W . Wer wirklich Strom sparen will beim Gamen , macht dies mit der Graka. Ich habe z.B ca.80% der leistung mit ca 190W vs. OC 340W mit der RTX 3080 . Aber ganz ehrlich , wenn Strom sparen an erster Stelle sthet , kauft euch eine Xbox Series S . Das Ding verbraucht ca. 90W und sieht nichtmal so schlecht aus .
PS: Es bezieht sich nicht auf dich robbitop, hab dich nur gequotet weil du es objektiv zu sehen scheinst und nicht wie lattiose88 z.b .
Hast du kein UV betrieben? CO -30 bringen zumindest einiges. Meine max 70W sind im GPU Limit (3080) in RDR2 in St Denis und mit CO -30.
Im CPU Limit zu testen kann man machen aber sagt nichts über den Gamingalltag aus. :)
Wie gut das es Tests dazu gibt:
https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/2/#abschnitt_leistungsaufnahme_in_spielen_ab_werk
https://www.igorslab.de/amd-ryzen-7-5800x3d-der-einzige-kaempfer-seiner-art-als-perfektes-und-vor-allem-effizientes-upgrade/10/
Mit UV lässt sich da sicherlich auch noch einiges rausholen.
Danke für die Links :up:
Die Tests bestätigen meine Messungen. Bei Igor ist der 5800X3D sogar noch etwas sparsamer.
aufkrawall
2023-01-04, 14:04:03
Wow das ist super sparsam. Krass was für Potenzial moderne CPUs haben wenn man sie fernab der Kotzgrenze und im realistischen GPU Limit betreibt. :)
"Realistisch" ist aber genau so mehr als der doppelte Verbrauch, wenn CP77 oder Spiderman mit RT die CPU mit einer 4090 vollknallen. Nur kann für das viel gespielte Moba oder BR-Shooter halt auch etwas ganz anderes gelten. Man muss beides sehen, wenn einen der Verbrauch interessiert (imho ein eher unnützer Fetisch, wie auch die Kosten-Hochrechnungen aus dem vorangegangenen Video zeigen, aber gut...).
latiose88
2023-01-04, 15:21:37
@la junta
Das bringt ja nix es sei denn Konsolen könnten auch schon Videos umwandeln dann wäre ich sofort dabei aber das ist halt nicht der Fall darum komme ich um ner guten CPU nicht drum rum. Bei der gpu muss ich jedoch nicht mehr achten.
Achja anderst sieht es aus wenn die 13900k dann stattdessen 350 Watt brauchen würde. Aber dann müsste ich wohl zum fairen Vergleich wohl auch den ryzen 9 7950x mit 200 Watt laufen lassen. Es stimmt ich muss dann für beide gleiche Verhältnisse antreten lassen.
latiose88
2023-01-05, 17:06:49
Das powerlimit bei intel ist 253w für den 13900k. Damit hat man schon >95% der Leistung.
Und nun zu deiner these das bei 2 stunden vollast AMD sparsamer wäre:
AMD: 22h * 40w + 2h 142w = 1164Wh
Intel: 22 * 10W + 2h* 253W = 726Wh
AMD: 8h * 40w + 2h *142W = 604Wh
Intel: 8h * 10w + 2h * 253w = 586Wh
Man braucht also mehr als 20% der zeit vollast damit AMD sparsamer ist.
So habe nun noch mal Versucht den 5950x sparsamer zu kriegen.Beim Hochfahren hat er gleich 50 Watt gebraucht.Nun springt der Stromverbrauch immer wieder.Habe auf 3200 mhz Ram Takt gesetzt trotz Profil,weis nicht ob ich es mit oder ohne Profil einstellen sollte.Dann bin ich her gegangen und habe nun 0,980 Volt eingestellt.Nun ja habe mir wohl zu viel erhofft.Der Idle Verbrauch ist noch immer so um die 30-35 Watt.Also so viel brachte das irgendwie nicht. Na ganz toll,schuld ist der Package Power.Die Kerne an sic h brauchen nicht viel,aber der rest schon.So viel zu Ramtakt beeinflusst den Package Power.Es ging zwar mal auch bis hinab zu 16 Watt aber nur kurz und war sehr schnell wieder oben gewesen.Also unter sowas verstehe ich schon ne feste niedrige idle Wert und nicht nur Sekunden davon.
Man kann sagen es ist als gescheitert zu beruteilen.AMD will also nicht sparsamer werden.Ich könnte mit der Spannung noch weiter runter gehen,habe aber angst das es dann instabil läuft.Zudem muss ich eh schauen ob es mit der Spannungssenkung Stabil läuft.
Achja was ich meinte ab wann Intel nicht mehr und ab wann schon hier das was ich meinte das es eher schlechter wäre.Achja ausgehend weil ich die CPU in Vollast habe und darum auch real wirklich so bei Intel angelegt ist.Mir gefällt die Wahrheit auch nicht aber genau das ist leider bei diesem Modell der Fall gewesen.Ich habe einem mit der 13900k mit meinem Programm am laufen gehabt und sogar Bilder davon,also cool ist da nix mehr.Aber gut erst mal wie es wirklich wäre:
AMD: 8h * 40w + 2h *142W = 604Wh oder beim 7950x ungedrosselt unter last
AMD: 8h* 40W + 2h*200W= 700WH
Intel: 8h * 10w + 2h * 253w = 586Wh
Intel 8h* 10W + 2h* 350W= 780WH
Dann schon wäre wohl AMD sparsamer als Intel,aber nur dann oder man Vergleicht erste mit letzeren,was wohl dann unfair wäre.
Und beide sind ungefäir gleich schnell.
Lowkey
2023-01-05, 19:28:06
https://www.techpowerup.com/303116/intel-hikes-12th-gen-core-processor-pricing-by-10-percent
Hey Preise was stimmt mit euch nicht? Ihr sollt fallen und nicht steigen!
latiose88
2023-01-06, 08:00:11
naja vielleicht ist die Nachfrage so hoch am Ende gewesen das sich Intel dachte gut,dann erhöhen wir halt die Preise,weil wird ja gekauft also nehmen wir den höheren Gewinn auch noch mit.
Also scheint die Durststrecke wohl zu Ende zu sein.
klar könnte es auch so sein,mist die Nachfrage sinkt ,aber wir brauchen Geld also Erhöhen wir die Preise und nehmen die wo noch was kaufen noch mehr Geld ab,damit wir den Verlust abfedern können.Klar nehmen wir dann in kauf das es weniger kaufen,aber dann von den restlichen halt mehr Geld ab.Durch das gleichen wir das wieder aus.
Welches Szenario wohl zutrifft da kann man wohl nur raten.
Thunder99
2023-01-06, 08:27:07
Ist wohl der Inflation geschuldet und dem Willen mehr einzunehmen als geplant. Dennoch schräg, dass bei einem Auslauf Produkt die Preise erhöht werden, offiziell!
Verrückte Zeit...
dildo4u
2023-01-06, 08:34:12
naja vielleicht ist die Nachfrage so hoch am Ende gewesen das sich Intel dachte gut,dann erhöhen wir halt die Preise,weil wird ja gekauft also nehmen wir den höheren Gewinn auch noch mit.
Also scheint die Durststrecke wohl zu Ende zu sein.
klar könnte es auch so sein,mist die Nachfrage sinkt ,aber wir brauchen Geld also Erhöhen wir die Preise und nehmen die wo noch was kaufen noch mehr Geld ab,damit wir den Verlust abfedern können.Klar nehmen wir dann in kauf das es weniger kaufen,aber dann von den restlichen halt mehr Geld ab.Durch das gleichen wir das wieder aus.
Welches Szenario wohl zutrifft da kann man wohl nur raten.
Intels Consumer Marge ist bei 20% was die Investoren nicht sehen wollen eh verwunderlich wie lange sie mit ihren schrottigen 10nm mitgehalten haben das ist jetzt zu Ende.
https://abload.de/img/q3_2022earningsdeck_0ouii2.png
dildo4u
2023-01-07, 17:04:25
NDA gefallen und kein Interesse?
13400f im Test.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/60188-der-raptor-der-eigentlich-ein-alder-lake-ist-der-core-i5-13400f-im-test.html
Hätte gedacht er schlägt 7600x in Anwendungen scheint aber selten der Fall.
NDA gefallen und kein Interesse?
13400f im Test.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/60188-der-raptor-der-eigentlich-ein-alder-lake-ist-der-core-i5-13400f-im-test.html
Hätte gedacht er schlägt 7600x in Anwendungen scheint aber selten der Fall.
Es gilt zu beachten, dass hardwareluxx das power Limit händisch auf 65W einbremst, was die wenigsten machen werden. Das ist eher unrealistisch in der Praxis. In normalen Tests wird die CPU etwas besser aussehen, im Test von overclock3d (https://www.overclock3d.net/reviews/cpu_mainboard/intel_core_i5_13400_review/7) liegt der CB R23 score 8% höher.
Das Problem was ich sehe ist der Preis, die Raptor i5 liegen doch ein gutes Stück über den alten Alder Lake Preisen. Auch wenn man aufgrund der günstigeren Boards immer noch günstiger wegkommt als beim ähnlich teuren 7600x.
Lehdro
2023-01-08, 00:13:19
Hätte gedacht er schlägt 7600x in Anwendungen scheint aber selten der Fall.
Im Gaming sieht es auch nicht so prickelnd aus. Am Ende entscheidet der Preis, nach den Intel Preiserhöhungen sehe ich da aber erst einmal schwarz. Der 13600K(F) wirkt da derzeit einfach attraktiver in jeder Hinsicht.
dildo4u
2023-01-08, 07:16:15
Gameing war klar da nur 4.6 GHz Peak, ich tippe Mal drauf das ist damit OEM absolute Schrott Kühler verbauen können.
Intel liefert dieses Prachtstück mit.
https://www.alternate.de/Intel/Laminar-RM1-1700-CPU-K%C3%BChler/html/product/1810040
7600 hat 5.1 SC Boost mit dem kleinsten Boxed Kühler.
https://www.amd.com/de/products/apu/amd-ryzen-5-7600
IC3M@N FX
2023-01-08, 10:38:29
Intel wird erst seinen richtigen Boost bekommen wenn Intel b20A-Node anfertigen lässt, deren Strukturbreiten den 3nm-Nodes von TSMC ähneln bei der 14XXX Serie kommt dann auch neuer Sockel.
Dann wird es für AMD sehr schwierig das wären dann gleich 20-25% Performance Boost bei gleicher Architektur und weniger verbrauch allein schon wegen dem DIE Shrink.
Wenn wir noch die Architektur Änderung/Verbesserung mit einkalkulieren wird daraus 30-40% Performance Boost pro Kern insgesamt gegenüber der 13XXX Serie.
M4xw0lf
2023-01-08, 11:42:44
Intel wird erst seinen richtigen Boost bekommen wenn Intel b20A-Node anfertigen lässt, deren Strukturbreiten den 3nm-Nodes von TSMC ähneln bei der 14XXX Serie kommt dann auch neuer Sockel.
Dann wird es für AMD sehr schwierig das wären dann gleich 20-25% Performance Boost bei gleicher Architektur und weniger verbrauch allein schon wegen dem DIE Shrink.
Wenn wir noch die Architektur Änderung/Verbesserung mit einkalkulieren wird daraus 30-40% Performance Boost pro Kern insgesamt gegenüber der 13XXX Serie.
Sehr viel Vertrauen in Intels Roadmap nach gut 5 Jahren voller Verzögerungen und Verschiebungen ;)
y33H@
2023-01-08, 12:53:38
Soa, 13700K eingesackt - wenn ich das richtig sehe, sind 120W für Games passend und ich schaffe ca 80% der App Performance vs unlimited?
EDIT: mit Blick auf Apps scheint mir 150W ein bisschen besser zu sein ...
Troyan
2023-01-09, 15:22:17
PCGH hat CPU Benchmarks aus the Witcher 3 NG mit Raytracing: https://www.pcgameshardware.de/Ryzen-9-7900-CPU-279362/Tests/AMD-Ryzen-7900-7700-7600-non-X-Benchmark-Review-1410740/2/
Tja, Raptor-Lake oder nichts. 13600K ist 32% schneller als der 7700 zum selben Preis.
ChaosTM
2023-01-09, 18:07:02
RL 13600 liegt 14% vor dem 3D und 23% vor dem 7700X. Beide sind allerdings 30-40 Euro teurer als der 13600er.
Wenn du es via "zurückliegen" rechnest, sind es 12 und 19%.
Einen 7700 ohne x finde ich auf geizhals oder Mindfactory noch nicht gelistet. Sollte aber preislich deutlich drunter liegen.
Ist auch eine 65 Watt CPU vs 125 beim Intel und der Single Core Boost funktioniert noch nicht. Von daher (noch) kein fairer Vergleich, speziell bei Spielen wie dem Witcher. Ein Kühler ist auch dabei.
Beim Witcher 3 ist momentan Intel trotzdem klar die bessere Wahl.
Was die 3D`s bei der Single Core Leistung bringen werden ist noch offen. Wird wohl ca. auf ein Patt hinauslaufen.
r3ptil3
2023-01-09, 18:13:44
Tja, Raptor-Lake oder nichts. 13600K ist 32% schneller als der 7700 zum selben Preis.
Geht ordentlich ab, man beachte aber die Differenz zwischen Zen3 und Zen3-3D:
https://i.postimg.cc/VL9BwrhJ/image.png
Ich tippe für Zen4-3D auf 80 FPS+.
y33H@
2023-01-09, 20:20:30
Wie soll das gehen? dann würde der 7800X3D sehr viel besser skalieren als der 5800X3D ...
r3ptil3
2023-01-09, 20:36:17
Wie soll das gehen? dann würde der 7800X3D sehr viel besser skalieren als der 5800X3D ...
Wenn ich mir in gewissen Foren die OC Ergebnisse des 5800x3D mit 4.8Ghz und höher anschaue, skaliert die 3D CPU noch besser mit dem Takt.
Beim Zen4-3D kommt neben dem erstaunlich hohen Takt, auch noch DDR5 (6000 CL30).
Langlay
2023-01-09, 20:57:42
Wenn ich mir in gewissen Foren die OC Ergebnisse des 5800x3D mit 4.8Ghz und höher anschaue, skaliert die 3D CPU noch besser mit dem Takt.
Beim Zen4-3D kommt neben dem erstaunlich hohen Takt, auch noch DDR5 (6000 CL30).
Meine Milchmädchen Rechnung sagt ~73 FPS macht Zen4 3D.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.