PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Coffee Lake - Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18]

SKYNET
2020-05-01, 14:39:08
:ubeer: hm, gut die Konkurrenz kocht mit dem gleichen Wasser

bin mal frech und schreib den Thermal Grizzly Support an...
wahrscheinlich kommt dann sowas wie "jaaa hätten sie besser mal vernickeltes Kupfer verwendet" ;D


ist ja nun nix neues das LM auf reinem kupfer pures gift ist...

BlacKi
2020-05-01, 14:49:39
ist ja nun nix neues das LM auf reinem kupfer pures gift ist...
:biggrin:

Du meinst das hier:

In 1440p!
https://www.computerbase.de/2020-05/spieleleistung-test-intel-coffee-lake-s-skylake-x-arbeitsspeicher/2/#diagramm-anno-1800-1440p

eher das hier

und ausgemaxt ist das ja ebenfalls noch nicht. es sind ramtunings die ebenfalls so auf dem sky x system liefen mussten, als gemeinsamer nenner.
https://abload.de/img/cb3xkpv.png

Der_Korken
2020-05-01, 15:36:19
Die Werte bei Anno mit 4133+OC sehen buggy aus. Wie soll OC alleine denn +28% bringen, wenn die CPU von 4,7Ghz Allcore auf 5,2Ghz Allcore übertaktet wurde? In keinem anderen Spiel bringt OC 10% bei 4133er RAM. Was bedeutet "Zweites Dreier Pack"?

aufkrawall
2020-05-01, 15:37:50
und ausgemaxt ist das ja ebenfalls noch nicht.
https://abload.de/img/cb3xkpv.png
Längst nicht, nur popeliges CL16 für 3200...
Eigentlich ist das ein kompletter Fail?

Birdman
2020-05-01, 16:00:05
Server? Epyc vermöbelt die Xeons doch nochmals stärker als Ryzen die Cores...
Das kommt stark drauf an wo und bei was.
Es gibt noch genug Anwendungsszenarion im Serverbereich wo Xeon weiterhin klar King ist

BlacKi
2020-05-01, 16:48:52
Die Werte bei Anno mit 4133+OC sehen buggy aus. Wie soll OC alleine denn +28% bringen, wenn die CPU von 4,7Ghz Allcore auf 5,2Ghz Allcore übertaktet wurde? In keinem anderen Spiel bringt OC 10% bei 4133er RAM. Was bedeutet "Zweites Dreier Pack"?
stimmt. manche werte sehen sehr komisch aus, schau mal oc+2666 vs oc+3200 und vergleiche den step up auf oc+4133. ich will garnicht die messungen anzweifeln, aber wer weiß was die da gemessen haben? Typo?

das memory performance scaling stock könnte passen.

https://abload.de/img/cbfskob.png

Längst nicht, nur popeliges CL16 für 3200...
Eigentlich ist das ein kompletter Fail?
3200 cl16 steht eher für billigen ram zb. https://geizhals.de/?cat=ramddr3&xf=15903_DDR4%7E253_16384%7E254_3200
wohl genauso wie der 4133er für einfach xmp https://geizhals.de/g-skill-trident-z-rgb-dimm-kit-16gb-f4-4133c17d-16gtzr-a1755386.html?hloc=de

hq-hq
2020-05-01, 17:34:34
ist ja nun nix neues das LM auf reinem kupfer pures gift ist...

naja, so schlimm isses auch nicht, macht halt leider extra Arbeit aber gibt halt nix besseres, was soll man machen :redface:

Benutzername
2020-05-01, 17:37:12
naja, so schlimm isses auch nicht, macht halt leider extra Arbeit aber gibt halt nix besseres, was soll man machen :redface:

direct die Kühlung natürlich. Dann muss man auch nicht mehr mit Metall herumschmaddern. ;)

hq-hq
2020-05-01, 17:40:04
direct die Kühlung natürlich. Dann muss man auch nicht mehr mit Metall herumschmaddern. ;)

ääh, da kommt ja auch LM zum Einsatz und der Kühler ist ebenfalls Kupfer, oder nicht :freak::confused:

Benutzername
2020-05-01, 17:44:13
Server? Epyc vermöbelt die Xeons doch nochmals stärker als Ryzen die Cores...


Ja und? AMD kann nicht genug liefern um den gesamten Bedarf zu decken und die Einkäufer sind auch eher konservativ und der Markt bewegt sich langsamer. Dann gibt es auch nicht so viele Angebote mit EPYC von den Herstellern. Dann gibt es auch noch je nach Anwendung das Problem, daß manche Software per Kern lizenziert wird. Weswegen es ja diese komischen Epyc mit F gibt um sich darum herum zu mogeln.

------------------------------------
Klar ist aber nicht alles AMD hat immer noch keine Lösung gegen Optane,ich vermute es gibt massig Server die I/O limitiert sind vermutlich alles was Webservices bedient.

AMD fertigt keine SSDs und intels Spielerei mit dem Zeug was sie noch so alles unter der Optane Marke verkaufen ist Kappes. Server laufen meistens sowieso mit Linux und da nimmt man bcache oder flashcache oder LVM caching und noch ein paar Varianten. Da ist eine SSD mit 3D X-Point Flash-bausteinen ("Optane") auch nur eine SSD wie jede andere und hängt am u.2 oder steckt im PCIe Steckplatz.


-------------------

ääh, da kommt ja auch LM zum Einsatz und der Kühler ist ebenfalls Kupfer, oder nicht :freak::confused:

Kommt darauf an. Gibt auch Leute die das Kühlwasser direkt über den Chip leiten. Und je nach eingesetztem Luftkühler ist die Bodenplatte durchaus vernickelt.

UV_Freak
2020-05-01, 17:48:26
https://www.youtube.com/watch?v=DA6pq4vj4lI

lol ab 15:45

das wars mit intel für mich ein mann knn nur so viel scheisse hören.

BlacKi
2020-05-01, 17:55:43
das wars mit intel für mich ein mann knn nur so viel scheisse hören.
watt?

gmb
2020-05-01, 17:59:50
RAM-OC mit Intel-CPUs im Test (https://www.computerbase.de/2020-05/spieleleistung-test-intel-coffee-lake-s-skylake-x-arbeitsspeicher/)


Wer maximale gaming Leistung will, kommt nicht an OC RAM vorbei, auch wenn das jetzt keine Neuigkeit ist.

hq-hq
2020-05-01, 18:12:30
-------------------



Kommt darauf an. Gibt auch Leute die das Kühlwasser direkt über den Chip leiten. Und je nach eingesetztem Luftkühler ist die Bodenplatte durchaus vernickelt.


ja Nickel verzögert es sauber, mein nächster Wasserkühler wird sicher vernickelt...

klingt ja abenteuerlich mit Wasser direkt auf den Die, das müsstest du ja dann zum PCB abdichten :freak:

und ich bezweifle das das so gut wäre, Wasser kann gut Wärme aufnehmen ist aber ein schlechter Wärmeleiter (kleine Kontaktfläche)

SKYNET
2020-05-01, 18:27:39
naja, so schlimm isses auch nicht, macht halt leider extra Arbeit aber gibt halt nix besseres, was soll man machen :redface:


kühler kaufen die vernickelt sind :tongue:

optional selber vernicken(lassen).

BlacKi
2020-05-01, 18:41:35
ja, oder einfach nichts machen.

dildo4u
2020-05-07, 15:44:13
:biggrin:



eher das hier

und ausgemaxt ist das ja ebenfalls noch nicht. es sind ramtunings die ebenfalls so auf dem sky x system liefen mussten, als gemeinsamer nenner.
https://abload.de/img/cb3xkpv.png

Das Game skaliert echt komisch der neue Ryzen 3300X zersägt sein 6 Core Bruder.

https://www.golem.de/news/ryzen-3-3300x-3100-im-test-amd-legt-intels-200-euro-klasse-lahm-2005-148268-2.html

aufkrawall
2020-05-07, 15:48:08
Mögliche Erklärung steht im Text...

BlacKi
2020-05-20, 17:41:12
etwas spät, aber toller test, solche tests sollte man direkt zum release bringen. aber nee, macht man 1 tag bevor die next gen ansteht. aber hey, wenigstens kann man dank der skylakearchitektur die werte einfach übernehmen.

https://abload.de/img/17xkt5.png
https://www.computerbase.de/2020-05/spieleleistung-test-intel-core-i9-9900k-amd-ryzen-9-3900x-ram-oc/2/#abschnitt_testergebnisse

aufkrawall
2020-05-20, 17:42:47
Siehe Ryzen-Thread, die Skalierung bei Ryzen widerspricht teilweise anderen Einzelergebnissen komplett.

w0mbat
2020-05-20, 17:55:21
Nur 5% von 3200 CL14 auf 3733 CL14 macht beim Ryzen keinen Sinn, läuft wohl 1:2 und ist damit unbrauchbar.

Ex3cut3r
2020-05-20, 18:00:16
HWU hat doch schon bei optimierten 3000er RAM (DRAM CALCULATOR) erheblich mehr gewonnen. Obwohl die auch einen Fehler gemacht haben, nämlich, dass Sie beim Thaiphoon Burner nicht den Kompletten HTML Speicherbericht im DRAM Calculator eingefügt haben.

https://youtu.be/iH3qq_mSxTM?t=340

Bei CB ist alles schief gelaufen. Keinen DRAM Calculator benutzt, sonder per Hand getunt. Dazu unterschiedliche Systeme, SSD, Netzteile, CPU Kühlung. Im großen und ganzen ein Witz Bench. Frage mich was daran so schwer sein soll. Ich wette, dass Dargo, oder Krawall das besser hinkriegen wurden.

BlacKi
2020-05-20, 18:37:14
https://youtu.be/iH3qq_mSxTM?t=340

ist halt ein anderes game

dildo4u
2020-05-20, 18:43:21
Origins und Odyssey verhalten sich exakt gleich weil es die selbe Engine ist ohne nennenswerte Änderungen.

Ex3cut3r
2020-05-20, 19:02:45
ist halt ein anderes game

Guck weiter, da kommen noch andere und genug Games. lol

aufkrawall
2020-05-20, 19:04:28
Origins und Odyssey verhalten sich exakt gleich weil es die selbe Engine ist ohne nennenswerte Änderungen.
Hm, nö? Origins hat völlige Schrott-Frametimes in größeren Siedlungen, Od. nicht.

dildo4u
2020-05-20, 19:12:22
Meinst du im GPU Limit?


https://youtu.be/5N1XydCnGQk?t=304

aufkrawall
2020-05-20, 19:20:12
Origins hatte allgemein üble Render Stalls in Städten. Völlig egal, ob man man ansonsten bequem im GPU-Limit war.

-=Popeye=-
2020-05-20, 20:07:48
...

Bei CB ist alles schief gelaufen. Keinen DRAM Calculator benutzt, sonder per Hand getunt. Dazu unterschiedliche Systeme, SSD, Netzteile, CPU Kühlung. Im großen und ganzen ein Witz Bench. Frage mich was daran so schwer sein soll. Ich wette, dass Dargo, oder Krawall das besser hinkriegen wurden.

Bevor man mosert sollte man vielleicht auch den letzten Abschnitt lesen.

Danksagung

Zum Abschluss gilt es noch, einen Dank an die Community-Mitglieder Esenel, ZeroStrat und KlaraElfer zu richten. Esenel verdient abermals ein Lob für die beigesteuerten Tests auf dem Coffee-Lake-S-Testsystem, ZeroStrat als Entwickler der einmal mehr verwendeten Aufzeichnungs-Software CapFrameX und KlaraElfer für die Bereitstellung des Ryzen-Testsystems.

Der Autor dieses Artikels ist kein Redaktionsmitglied, sondern aktives Mitglied der RAM-OC-Community im Forum von ComputerBase. Nachdem die Community-Expertise zum Thema RAM-OC auf AMD Ryzen 3000 und RAM-OC auf Intel Core (X) bereits separat ihren Auftritt auf ComputerBase hatte, nahm sich Friedrich Günther jetzt auf vielfachen Wunsch der Community der direkten Gegenüberstellung an und ließ AMD Ryzen 3900X sowie Intel Core i9-9900K übertaktet mit RAM-OC gegeneinander antreten.

Ex3cut3r
2020-05-21, 00:00:46
Und? Ich melde mich doch auch nicht freiwillig zum Berufssoldaten ohne vorher eine Ausbildung bei der Bundeswehr absolviert zu haben, maßlose Überschätzung eines Hobby Bencher, der anscheinend vollkommen überfordert war. Entweder mache ich es richtig, oder gar nicht. Punkt.

-=Popeye=-
2020-05-21, 00:37:46
Steile These... beide haben sehr schnelle Komponenten (M.2 SSDs, schnellen DDR4 RAM, ne RX5700XT und ne RTX2080TI) im System, und du bist der Meinung die 3DC Community würde es besser machen. LOL

Ex3cut3r
2020-05-21, 03:16:56
Steile These... beide haben sehr schnelle Komponenten (M.2 SSDs, schnellen DDR4 RAM, ne RX5700XT und ne RTX2080TI) im System, und du bist der Meinung die 3DC Community würde es besser machen. LOL
Wenn man nichtmal den DRAM Calculator bei Ryzen benutzen will. Ja, jeder 3DCenter User wurde es besser hinkriegen. Bist du etwa einer "Tester" bei CB gewesen? Kommt mir fast so vor.

-=Popeye=-
2020-05-21, 03:49:46
Bist du dir sicher das der Ryzen User nicht vorher den Calculator bedient hat um für sich das beste Setting zu finden?

Und nein, ich bin keiner der Tester.

edit:

Sieh es ein du hast einen Fehlkauf getätigt. :freak:.
Nein mal im ernst, die AMD Performance ist Top, die müssen nur noch an der Speicher-Latenz arbeiten und sie ziehen mit Intel gleich oder sogar vorbei.

Ex3cut3r
2020-05-21, 15:05:14
Bist du dir sicher das der Ryzen User nicht vorher den Calculator bedient hat um für sich das beste Setting zu finden?

Und nein, ich bin keiner der Tester.

edit:

Sieh es ein du hast einen Fehlkauf getätigt. :freak:.
Nein mal im ernst, die AMD Performance ist Top, die müssen nur noch an der Speicher-Latenz arbeiten und sie ziehen mit Intel gleich oder sogar vorbei.

Ja, bin ich sicher, habe im CB Thread mitdiskutiert. Sein Zitat war, dass er bei beiden die Timings per Hand gestrafft hat.

Dein Trolling lasse ich einfach mal unkommentiert. Schönen Tag noch.

gnomi
2020-05-21, 16:14:17
Dass Ram OC zusammen mit normalem was bringt, war ja schon lange klar.
War in meinem Fall bei Sandy Bridge heftig mit DDR 3 2133 CL9 @ 4,4 GHz, und ist es jetzt bei Coffee Lake mit DDR 4 3866 @ 4,7 GHZ ebenso.
Ich verwende beide Systeme noch heute.

Ob nun AMD mit 3900x oder Intel mit 9900K da mehr profitiert und nun schneller ist.
Imho ist Intel im Gaming @ Max schneller, aber ich würde mich nicht darauf einlassen und das dann mit zwei Systemen exakt testen und das auch noch ins Netz stellen. Darin liegt schon der Fehler. Massig Aufwand und sehr unentspannt alles... ;D
Ich sage einfach Danke, wenn sich da jemand echt so viel Arbeit macht und sehe das locker.
Stabile Ram und Takt Grenzen 24/7 finden reichen mir persönlich mittlerweile schon.

FlappyStompy
2020-05-22, 22:12:15
@Ex3cut3r Wieso muss man dann zwingend den DRAM Calculator benutzen? Hat der Programmierer dazu die Weisheit mit Löffeln gefressen? :) Die Timings fürs 3733er Settings sind ziemlich straff, kannst ja mal vergleichen mit dem was der DRAM-Calculator vorschlägt. Hab ich ehrlich gesagt noch nicht gemacht.

@gnomi Vielen Dank für die lieben Worte :) Mir war klar, dass das nicht jedem gefallen würde und mit berechtigter Kritik kann ich auch gut umgehen bzw. drauf eingehen. Vieles ist aber halt hohles Getrolle. Das nervt schon ein bisschen.

Edit: Habe mittlerweile im DRAM Calculator nachgeschaut: Mein Setting ist straffer.

Badesalz
2020-05-28, 11:45:06
@Ex3cut3r Wieso muss man dann zwingend den DRAM Calculator benutzen? Hat der Programmierer dazu die Weisheit mit Löffeln gefressen? :)Wer weiß das schon so genau... Gibt es denn schon Indizien, daß es jemand beser drauf hat?

Edit: Habe mittlerweile im DRAM Calculator nachgeschaut: Mein Setting ist straffer.Beide Screenshots wären jetzt bestimmt super gewesen.

Wie schon bei DDR3, geht es auch - vor allem bei den Subtimings - um die nicht weniger wichtigen Abhängigkeiten der jeweiligen Timings zueinander.

Der gute alte 32M SuperPi klärt das imho weiterhin halbwegs zuverlässig, ob man damit auf dem goldenen oder dem holzigen Weg ist.

dildo4u
2020-08-12, 16:04:19
Es gibt eine Preissenkung von Intels Seite MF hat das schon übernommen z.b 399€ für 9900k.

https://www.tomshardware.com/news/intel-promo-drops-9th-gen-coffee-lake-cpu-pricing-up-to-25-percent

Lehdro
2020-08-12, 16:48:38
Krass. Wann hat Intel das letzte mal die Preise gesenkt?

Schnoesel
2020-08-12, 16:54:49
Bei ihren HEDT-CPUs aber die sind ja nicht mehr konkurrenzfähig und mit dem 10700k ist der 9900k für zu viel Geld ja sowieso obsolet.

BlacKi
2020-08-12, 17:40:56
ich glaube die verkaufszahlen bei amd helfen intel bei seinen lieferschwierigkeiten^^.

aber jetzt nochmal cfl/comet kaufen? dann doch eher auf rocket warten.

dildo4u
2020-08-12, 17:51:21
Watch Dogs 3 und Cyberpunk werden vermutlich gut von 8 Cores profitieren, dafür kommt Intel zu spät mit Rocket Lake.
Gibt kein Grund länger mit dem Aufrüsten zu warten, da es ja auch neue GPUs im Herbst gibt.

BlacKi
2020-08-12, 18:17:33
profitieren? wieviel? 3-5%? nope, ich warte auf alderlake mit ddr5. ich versuche auch solange noch mit 16gb klarzukommen.

Lowkey
2020-08-14, 13:57:25
Willow Cove ist Rocket Lake? Ich bin verwirrt...

dildo4u
2020-08-15, 05:14:02
Ist noch nicht bekannt bisher sind nur Mobile Chips mit Willow Cove bestätigt.

https://www.anandtech.com/show/15971/intels-11th-gen-core-tiger-lake-soc-detailed-superfin-willow-cove-and-xelp

Lowkey
2020-08-16, 18:48:45
Hmm ja wird wohl ein Mix. Die Features des z590 lesen sich gut. Es deutet alles darauf hin, dass die TDP bzw. der Stromverbrauch aktuell das Problem wird und nicht der hohe Takt.

Der 10900k wird demnach immer noch hier und da in Anwendungen besser sein, während Rocket Lake vermutlich im Januar bei Spielen nochmals ein Schippe drauflegt.

TobiWahnKenobi
2020-08-30, 12:02:05
ich habe die preissenkung mal mitgenommen und ein sidegrade von 8700k auf 9900k gemacht. war für unter 400€ einfach ein nobrainer..


(..)

mfg
tobi

hq-hq
2020-08-30, 15:01:15
ich habe die preissenkung mal mitgenommen und ein sidegrade von 8700k auf 9900k gemacht. war für unter 400€ einfach ein nobrainer..


(..)

mfg
tobi

ja der 9900kf @ 366,90 ist schon echt günstig, soviel hat der 8700k mal gekostet

aufkrawall
2020-08-30, 15:09:22
In ca. drei Monaten ist das halt vermutlich alles überteuerter Steinzeit-Schrott (überspitzt gesagt). :redface:

r3ptil3
2020-08-30, 16:36:35
In ca. drei Monaten ist das halt vermutlich alles überteuerter Steinzeit-Schrott (überspitzt gesagt). :redface:

Ist schon so, gerade Z490 in Kombi mit den 10x CPUs.
Ohne PCIE 4.0 sind die Dinger nochmals einiges unattraktiver, wird aber noch gut wettgemacht mit CPU/RAM OC und der Gaming-Performance.

Letztens gab's in der CH einen 10700KF für 275.- Euro.

TobiWahnKenobi
2020-08-30, 16:50:12
ich unterscheide zwischen so einem initialkauf und einem geplanten wechsel der infrastruktur. bei nbb liegen auch noch ein 3900xt und ein x570 taichi für mich zur abholung. aber irgendwie will ich das beides gar nicht haben. kostet mehr als der prozessor, macht mehr arbeit und ist in 3 monaten auch wieder out. der 9900k werkelt hier übrigens auf z370, wenn auch "nur" mit 4.9GHz allcore und ohne avx-offset. speicher musste ich etwas entschärfen.. der 8700k kam mit 4133mhz cl17 mit angepassten subs zurecht; der 9900k läuft (noch) ganz gemächlich mit 3600 cl16 und subs aus den fähigkeiten meines steinalten mainboards.


(..)

mfg
tobi

Ex3cut3r
2020-08-30, 16:51:14
Blöd nur, dass Nvidia jetzt mit Ampere PCIe 4.0 supporten wird. Alle Intel User auch 10th Gen Leute schauen weiterhin in die Röhre. Nicht das man jetzt schon einen Vorteil dadurch hätte, fühlt sich bei einen 10900k aber einfach nur scheiße an. Natürlich auch mal ein :facepalm: an die ganzen Leute die sich 2020 noch ein B450 Board geholt haben. B550 war bekannt...

r3ptil3
2020-08-30, 17:08:44
Blöd nur, dass Nvidia jetzt mit Ampere PCIe 4.0 supporten wird. Alle Intel User auch 10th Gen Leute schauen weiterhin in die Röhre. Nicht das man jetzt schon einen Vorteil dadurch hätte, fühlt sich bei einen 10900k aber einfach nur scheiße an. Natürlich auch mal ein :facepalm: an die ganzen Leute die sich 2020 noch ein B450 Board geholt haben. B550 war bekannt...

Der PCIE 4.0 Support wird wohl auch seine Gründe haben.

Wenn man beobachtet dass PCIE 4.0 bereits bei einer 5700 XT in Einzelfällen deutliche Vorteile bringt, ist das bei einer 3080 mit 10Gb auch nur eine Frage der Zeit. Bei einer 3090 mit den möglichen 24Gb wird man davon aber rein gar nichts merken. Aber ich verstehe schon was du meinst, da kauft man sich die beste CPU und hat gleich schon Einschränkungen mit den Grafikkarten, nicht schön.

Ging mir auch schon durch den Kopf mit Z490/10700k, aber mit RAM und CPU OC, liegt Intel in Sachen Gaming-Performance noch so deutlich vorne, dass es da nichts vergleichbares gibt von anderen Herstellern.

Ein X570 Unify liegt hier im Schrank bereit für Ryzen 3, aber die CPUs kommen wohl nicht vor November/Dezember.

aufkrawall
2020-08-30, 17:16:47
Ging mir auch schon durch den Kopf mit Z490/10700k, aber mit RAM und CPU OC, liegt Intel in Sachen Gaming-Performance noch so deutlich vorne, dass es da nichts vergleichbares gibt von anderen Herstellern.

Schon, nur wann in der Praxis? BFV (btw. auch schon lange untot) lief schon auf dem 8700k super, und was zockt man momentan sonst so?
Auch mit einer 5700 XT würd sich mein 6700k in 1440p bei eigentlich jedem aktuellen Spiel mehr oder weniger langweilen, nicht mal damit erscheint mir Intels Line Up attraktiv. :usad:

Rampage 2
2020-08-30, 17:37:41
In ca. drei Monaten ist das halt vermutlich alles überteuerter Steinzeit-Schrott (überspitzt gesagt). :redface:


So ein Quatsch. Skylake (also Kaby Lake, Coffee Lake) ist doch nicht Bulldozer:freak:

Vor dem Erscheinen von Zen2 war die Skylake-IPC das höchste der Gefühle (einzige Ausnahmen: Broadwell wg. dem eDRAM sowie HSW-E & BDW-E... die hatten eine noch höhere IPC, vermutlich wg. der aufgeblähten Caches und Quad-Channel), dazu höheres Memory-OC sowie eine Speicherlatenz die nach wie vor ungeschlagen ist (bis runter auf 35ns), während sich bei Zen2 die Speicherlatenz sogar verschlechtert hat!

Rocket Lake wird eine höhere IPC, vermutlich auch höheres Memory-OC und PCIe 4.0 bringen - das bedeutet aber nicht, dass die Skylake-IPC schlecht ist. Wie gesagt, ist es keinesfalls ein Bulldozer...

Bei Anwendungen ist AMD klarer Sieger, aber bei Spielen hat Intel immer noch einen kleinen Vorsprung zu Zen2 - nicht in allen, aber in den meisten Games:wink:

Für Gaming ist Coffee Lake (wenigstens die 8-Kerner) immer noch eine gute Wahl:smile: (v.a. in ST-lastigen Games)

R2

Ex3cut3r
2020-08-30, 17:40:33
Hast du BF5?

Kannst du das mal benchen? Genaue Anleitung gibt es im Link

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12406040&postcount=11965

Mich wurde mal interessieren wie schneller dein 9900k + schneller optimierter DDR4 RAM ist gegen meinen 3600. Am besten deaktivierst du noch 2 Kerne, weil BF5 rauf auf bis zu 16 Kernen skaliert. HT kann anbleiben.

aufkrawall
2020-08-30, 17:43:28
während sich bei Zen2 die Speicherlatenz sogar verschlechtert hat!

Und die Spieleleistung hatte sich gleichzeitig massiv erhöht, also was soll diese unsinnige isolierte Erwähnung?


dass die Skylake-IPC schlecht ist. Wie gesagt, ist es keinesfalls ein Bulldozer...

Zen 3 wird in Anwendungen einen massiven Vorsprung haben. Wenn man die Effizienz mit einrechnet, ist da der von dir ohne Not gezogene Bulldozer-Vergleich sogar gar nicht mehr so abwegig.


Für Gaming ist Coffee Lake (wenigstens die 8-Kerner) immer noch eine gute Wahl:smile: (v.a. in ST-lastigen Games)

Es ging um die Relation zum Preis und dem, was man in der nahen Zukunft fürs Geld bekommen wird. Wenn man natürlich entweder das Geld über hat, oder einfach nicht damit umgehen kann, ist dieser Aspekt egal.

r3ptil3
2020-08-30, 17:52:42
Hast du BF5?

Kannst du das mal benchen? Genaue Anleitung gibt es im Link

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12406040&postcount=11965

Mich wurde mal interessieren wie schneller dein 9900k + schneller optimierter DDR4 RAM ist gegen meinen 3600. Am besten deaktivierst du noch 2 Kerne, weil BF5 rauf auf bis zu 16 Kernen skaliert. HT kann anbleiben.

Leider kein BFV dabei, aber einige andere nennenswerte Games:
https://www.computerbase.de/2020-05/spieleleistung-test-intel-core-i9-9900k-amd-ryzen-9-3900x-ram-oc/2/

Das Ergebnis mit 9900k (OC) + 4133 CL17 ist aber merkwürdig, obwohl der Tester versichert, dass nachgetestet wurde.

Ex3cut3r
2020-08-30, 17:57:31
Die Timings sind nicht getunt. Sieht man am Timing Screenshot. Desweiteren ist mir nicht klar, in welcher Spieleauflösung getestet worden ist. Und ob der Ryzen auch im 1:1:1 Mode läuft. Außerdem feht mir da ein 3800mhz RAM Setup beim Ryzen. Und warum kein BF5?

r3ptil3
2020-08-30, 18:02:31
Die Timings sind nicht getunt. Sieht man am Timing Screenshot. Desweiteren ist mir nicht klar, in welcher Spieleauflösung getestet worden ist. Und warum kein BF5?

Also was ich fast vergessen habe:

Ich hatte vor kurzem folgende Konfiguration:

X570 + R5 3600 + MSI Gaming X 5700 + 4x8Gb 3600 (16-16-16-36)
und danach
Z490 + 10700k + gleichem RAM und GPU

in BFV hatte ich im Übungsgelände bei Ultra Settings folgende Ergebnisse bei WQHD an der gleichen Stelle:

124 FPS (AMD)
134 FPS (Intel)

RAM-Tuning brachte dabei aber höchstens 2-4 FPS.

AMD (14-15-15-30-T1 / 3600)
Intel (16-16-16-36-T2 / 4200)

aufkrawall
2020-08-30, 18:09:39
in BFV hatte ich im Übungsgelände bei Ultra Settings folgende Ergebnisse bei WQHD an der gleichen Stelle:

124 FPS (AMD)
134 FPS (Intel)

Evtl. hätte das Spiel nach einem Settings-Wechsel einen Neustart gebraucht o.ä. Das CPU-Limit auf der Test-Range dürfte ohne fps-Limiter igendwo bei >200fps liegen.

Ex3cut3r
2020-08-30, 18:10:15
@Bardh
Dann hast du auch keine Subtimings getunt? Oder warst schon um GPU Limit.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12406040&postcount=11965

Hier sind man sehr gut, dass von 3733mhz CL-16-15-15 auf 3800mhz CL16-14-14 IF 1900mhz

11 FPS in den 1% Low gewinnt. Von Standard DDR4 3200 CL16 ist das natürlich nochmal eine ganz andere Welt.

Rampage 2
2020-08-30, 18:11:23
Hast du BF5?

Kannst du das mal benchen? Genaue Anleitung gibt es im Link

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12406040&postcount=11965

Mich wurde mal interessieren wie schneller dein 9900k + schneller optimierter DDR4 RAM ist gegen meinen 3600. Am besten deaktivierst du noch 2 Kerne, weil BF5 rauf auf bis zu 16 Kernen skaliert. HT kann anbleiben.


Würde ich ja gerne machen, nur muss ich meinen PC neu aufbauen (hab ein neues MB:biggrin:) - das wird noch Wochen dauern*, bis ich irgendein Spiel starten kann:frown:

Außerdem kann ich noch nicht sagen, wie weit mein Speicher gehen wird - kann ja sein, dass ich Pech habe beim Speicher und/oder beim IMC meines 9900K...

* = 1-2 Tage für Einbau + optimale Verkabelung, mehrere Tage oder Wochen für das Ausmerzen von Kinderkrankheiten und mehrere Wochen für eine perfekte Windows-Neuinstallation:freak:

Aber ich werd' dich auf dem Laufendem halten;)

R2

r3ptil3
2020-08-30, 18:19:36
@Bardh
Dann hast du auch keine Subtimings getunt? Oder warst schon um GPU Limit.


Die Ergebnisse waren mit Default Timings (XMP) und definitiv im GPU-Limit.
Teilweise brachten 5.2 Ghz allcore + 4400Mhz RAM (nur 2x8Gb) fast nichts.

Dies sah mit der 2080 TI ganz ganz anders aus, da brachten selbst 200Mhz mehr CPU Takt schon deutlich messbare Unterschiede, jedoch noch mit dem alten 8700K.

Ex3cut3r
2020-08-30, 18:28:22
Na kein Wunder, das dir 5.2ghz und 4400mhz im GPU Limit nix bringen.

Lowkey
2020-08-30, 18:34:46
Die Avengers Edition des 10900k ist lieferbar und günstiger als die WOF Version, aber vermutlich kommt im Januar schon Rocketlake + z670 mit zahlreichen Verbesserungen.

Den PCI-E 4.0 Test habe ich auch mal gelesen und mir ist nicht ganz klar woher der minimale Vorteil stammt. PCI-E 4.0 bei AMD wird wohl nicht so gut sein wie das Intel PCI-E.

Ein 3950x im ITX wäre auch eine Option, aber kostet nochmals ein paar Euro mehr bzw. lohnt wegen Ryzen 4k dann auch wieder weniger. Was passieren kann: die z490 Mainboards landen im Abverkauf und machen die CPU im Angebot dann günstig. Alle 10900k laufen wohl mehr oder weniger mit 5,2Ghz. Alle anderen K-CPUs sind dagegen nicht immer mit 5Ghz allcore lauffähig.

Rampage 2
2020-08-30, 18:35:20
Und die Spieleleistung hatte sich gleichzeitig massiv erhöht, also was soll diese unsinnige isolierte Erwähnung?


Obwohl sich die Latenz verschlechtert hat? :eek::|


Zen 3 wird in Anwendungen einen massiven Vorsprung haben. Wenn man die Effizienz mit einrechnet, ist da der von dir ohne Not gezogene Bulldozer-Vergleich sogar gar nicht mehr so abwegig.


Zen 3 != Zen 2

Nochmal: der Bulldozer war von Anfang an schlecht (IPC, Energieeffizienz), Skylake hingegen war zum Zeitpunkt seines Erscheinens State-of-the-Art (abgesehen von den Ausnahmen, die ich genannt hatte;)) und Kaby Lake/Coffee Lake(-R) legten jeweils nochmal eine Schippe drauf (höherer Takt, höheres Speicher-OC und mehr Kerne). Es ist eine buchstäblich totoptimierte Architektur. Natürlich kommen im Laufe der Jahre neue Produkte auf den Markt, die die Vorgänger-Generation alt aussehen lassen - ist aber deswegen eine 8800 GTX damals schlecht gewesen, nur weil wir *jetzt* schnellere, effizientere und modernere GPUs haben? :|

bzgl. Anwendungen und Effizienz: AMDs Vorsprung in Anwendungen ist aber primär durch mehr Kerne/Threads bedingt und weniger durch mehr IPC oder Takt - das weiß jeder! Und mit "Effizienz" meinst du die Energieeffizienz; die ist mittlerweile schlechter als bei AMD, ja! - Ich sprach von der Leistungseffizienz (IPC/Pro MHz-Leistung). Die ist bei Skylake & co. immer noch gut. Bei Bulldozer hingegen war Beides schlecht; Verbrauch und IPC - und das von Anfang an!


Es ging um die Relation zum Preis und dem, was man in der nahen Zukunft fürs Geld bekommen wird. Wenn man natürlich entweder das Geld über hat, oder einfach nicht damit umgehen kann, ist dieser Aspekt egal.


Da hast du natürlich Recht - Jemand, der eine Neuanschaffung plant, sollte auf Rocket Lake oder Zen 3 warten. Aber die höhere IPC von RKL wird auch nur dann zur Geltung kommen, wenn RKL dieselben Taktraten wie Coffee Lake erreicht... (oder hoffentlich noch höher=))

R2

Nightspider
2020-08-30, 18:36:31
Die Avengers Edition des 10900k ist lieferbar und günstiger als die WOF Version, aber vermutlich kommt im Januar schon Rocketlake + z670 mit zahlreichen Verbesserungen.

Januar 2022?

Möglich. Aber "schon" ist dann das falsche Wort dafür. :rolleyes:

Langlay
2020-08-30, 18:52:41
bzgl. Anwendungen und Effizienz: AMDs Vorsprung in Anwendungen ist aber primär durch mehr Kerne/Threads bedingt und weniger durch mehr IPC oder Takt - das weiß jeder!

Das ist Bullshit. Ein 3600 ist in den meisten Anwendungen genauso schnell oder schneller als ein 8700k. Das dürfte nicht der Fall sein, wenn AMD die Leistung nur über die Anzahl der Kerne bekommt.


https://www.youtube.com/watch?v=eM5rtd61K2o

Tarkin
2020-08-30, 20:23:16
Also was ich fast vergessen habe:

Ich hatte vor kurzem folgende Konfiguration:

X570 + R5 3600 + MSI Gaming X 5700 + 4x8Gb 3600 (16-16-16-36)
und danach
Z490 + 10700k + gleichem RAM und GPU

in BFV hatte ich im Übungsgelände bei Ultra Settings folgende Ergebnisse bei WQHD an der gleichen Stelle:

124 FPS (AMD)
134 FPS (Intel)

RAM-Tuning brachte dabei aber höchstens 2-4 FPS.

AMD (14-15-15-30-T1 / 3600)
Intel (16-16-16-36-T2 / 4200)

sorry, aber hast du das Gefühl, dass sich das ausgezahlt halt?

Der ganze Aufwand eines Systemwechsels, die mehr als doppelt so teure CPU... um dann mickrige 8% mehr FPS zu erzielen???

Ex3cut3r
2020-08-30, 20:38:31
sorry, aber hast du das Gefühl, dass sich das ausgezahlt halt?

Der ganze Aufwand eines Systemwechsels, die mehr als doppelt so teure CPU... um dann mickrige 8% mehr FPS zu erzielen???
Da brauchst du auch keinen Intel: Ryzen 3600 @ 4.3 Allcore 3800mhz CL14

Testrange wie er meinte:

Game Settings:

https://abload.de/thumb/bfv_2020_08_30_20_29_lijiy.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_lijiy.jpg)

https://abload.de/thumb/bfv_2020_08_30_20_29_m8km3.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_m8km3.jpg)

https://abload.de/thumb/bfv_2020_08_30_20_29_7yjv1.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_7yjv1.jpg)

CPU Limit 3440x1440 FPS Lock aufgehoben, Resoultion Scale 50%:

https://abload.de/thumb/bfv_2020_08_30_20_29_pcj5n.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_pcj5n.jpg)

309.5 FPS

GPU Limit:

https://abload.de/thumb/bfv_2020_08_30_20_30_09kzj.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_30_09kzj.jpg)

168.5 FPS

MP mit 64 Playern rennt irgendwo zwischen 215 - 150 FPS rum. Der alte 4770k mit DDR3 2400mhz CL11, sieht dagegen kein Land. Es ist abnormal wie schnell der Ryzen mit Allcore Clock, und optimierten RAM ist. Kein Scherz, bin mittlerweile begeistert von Ryzen. Und werde mir einen Zen 3 mit 12 oder 8 Kernen holen.

r3ptil3
2020-08-30, 21:11:03
Da brauchst du auch keinen Intel: Ryzen 3600 @ 4.3 Allcore 3800mhz CL14

Testrange wie er meinte:

Game Settings:

https://abload.de/thumb/bfv_2020_08_30_20_29_lijiy.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_lijiy.jpg)

https://abload.de/thumb/bfv_2020_08_30_20_29_m8km3.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_m8km3.jpg)

https://abload.de/thumb/bfv_2020_08_30_20_29_7yjv1.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_7yjv1.jpg)

CPU Limit 3440x1440 FPS Lock aufgehoben, Resoultion Scale 50%:

https://abload.de/thumb/bfv_2020_08_30_20_29_pcj5n.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_29_pcj5n.jpg)

309.5 FPS

GPU Limit:

https://abload.de/thumb/bfv_2020_08_30_20_30_09kzj.jpg (https://abload.de/image.php?img=bfv_2020_08_30_20_30_09kzj.jpg)

168.5 FPS

MP mit 64 Playern rennt irgendwo zwischen 215 - 150 FPS rum. Der alte 4770k mit DDR3 2400mhz CL11, sieht dagegen kein Land. Es ist abnormal wie schnell der Ryzen mit Allcore Clock, und optimierten RAM ist. Kein Scherz, bin mittlerweile begeistert von Ryzen. Und werde mir einen Zen 3 mit 12 oder 8 Kernen holen.

Sehr gut, aber eben ich hatte auch selber den 3600 und der 10700K ist eine andere Liga was Gaming-Performance angeht. Den Unterschied merkst du aber erst richtig ab 2080 TI und bald 3080+.

Miserabel ist lediglich der Verbrauch, aber der kann zumindest nach diversen Anpassungen etwas in Grenzen gehalten werden.

@Tarkin

High-End Hardware zahlt sich NIE aus. :D Völlig der falsche Ansatz deine Frage bei solchen Komponenten. :tongue:

Der Prozessor wurde eigentlich für die 2080 TI angeschafft (bzw. für 3080 oder 3090). Wird aber Ende Jahr sowieso alles verkauft für einen 4900X/4950X, evtl. wandert der 10700K dann ins kleine ITX System undervolted bei 1.0V und 4.0Ghz. :)

Ex3cut3r
2020-08-30, 21:45:29
Na dann zeig doch mal, nimm die gleichen Settings zur Hand im CPU Limit, und zeig mir mal was der 10900k da ausspuckt? Testszene ist ja im Bild auch zu sehen. So schwer ist das nicht. Dann hat man auch ein Bild, bilder sagen mehr als Tausend Worte. ;)

Natürlich wird der 10900k schneller sein, aber um wie viel? Lohnt es sich dann eben 350 FPS zu haben? Anstatt der 310? Wohl eher nicht, den der Intel ist ist mit MB total überteuert.

Daredevil
2020-08-30, 22:07:37
Das wichtige sind nicht die 10%, die man mehr drauf hauen kann, sondern die Möglichkeit, die 10% mehr draufhauen kann. Die sind halt Intel exklusiv, die "letzten 10-20%", gerade mit OC.
Ob sich das "lohnt", aus P/L Sicht nicht. Aus Leistungssicht? Klar! Sind immerhin 10-20%. :D

Ex3cut3r
2020-08-30, 22:24:13
Du hast anscheined nicht die Seite davor gelesen. Er meinte er ist deswegen vom 3600 zum 10900k gewechselt, weil der Ryzen wohl gemerkt im GPU Limit nur diese Werte ausgespuck hat:

124 FPS (AMD)
134 FPS (Intel)

und das auf der Testrange, so habe ich das zumindest verstanden-

Dann wollte ich das das mal nachbenchen und kam auf 309 FPS (wohlgemerkt im 21:9 Format | Welches nochmal ein bisschen mehr kostet, da mehr im Bild dargestellt wird, als im 16:9 Format) im CPU Limit für den 3600. Ergo fragwürdiger wechsel. Denn im GPU Limit musste der Ryzen die 134 FPS ja locker ausspucken können....macht also keinen Sinn, seine Aussage.

Daredevil
2020-08-30, 22:31:29
Hm, wieso nicht? Ein GPU Limit bedeutet doch nicht konstantes GPU Limit, das fluktuiert doch.
Wenn er mit WQHD@Max Settings im GPU Limit ist und ein Teil der Testrange eben doch CPU limitiert ist, dann kommen da halt 10fps raus.

Dann hat man auch ein Bild, bilder sagen mehr als Tausend Worte.
Ein Bild sagt eben nicht viel, deswegen gibt es ja Bench Szenen, wo man gemitteln ein Limit erkennen kann, oder eben auch nicht.

r3ptil3
2020-08-30, 22:35:01
Du hast anscheined nicht die Seite davor gelesen. Er meinte er ist deswegen vom 3600 zum 10900k gewechselt.

Ehm, wie bitte? :freak:
Ich habe sowas weder gesagt, noch habe ich einen 10900K.

Habe schon mal hier drin beschrieben was mich zum Wechsel bewogen hat und das waren... andere Gründe.
Die Leistung/OC nimmt man sicher gerne mit, aber keine Lust hier jetzt irgendwas zu rechtfertigen.

Ich befürworte ja ein solches System nicht mal, wenn man meine letzten Post liest. Nunja egal jetzt...

Daredevil
2020-08-30, 22:58:28
Der 4770Ker Exe hat jetzt nen Ryzen und den Timing Calc kennen gelernt, der hat vorher jeden Ryzen zum Duell rausgefordert mit seiner Quadcore Mühle und jetzt fordert er halt jeden Intel User zum Duell raus.
So isser halt. :D :ulove3:

-=Popeye=-
2020-08-30, 23:26:40
Bis auf die Auflösung (2560x1440) alles gleich eingestellt.

https://abload.de/thumb/bfv_2020_08_30_23_15_nejiv.jpg (https://abload.de/image.php?img=bfv_2020_08_30_23_15_nejiv.jpg)

394 FPS

aufkrawall
2020-08-30, 23:41:30
Tjo, hat halt auch zwei Kerne mehr und vermutlich kommt durch die bei Frostbite selbst bei der statischen Szene etwas rum.
Aber darum ging es ja auch gar nicht, sondern darum, wie viel man von der Mehrleistung in Spielen in der Realität etwas hat. Die Beantwortung dieser nicht ganz unwesentlichen Frage der Sinnhaftigkeit wurd hier seltsamerweise in bisher jedem Thread nicht sonderlich zufriedenstellend beantwortet...

Ex3cut3r
2020-08-30, 23:44:53
Bis auf die Auflösung (2560x1440) alles gleich eingestellt.

https://abload.de/thumb/bfv_2020_08_30_23_15_nejiv.jpg (https://abload.de/image.php?img=bfv_2020_08_30_23_15_nejiv.jpg)

394 FPS

Danke dir! :smile:

Ehm, wie bitte? :freak:
Ich habe sowas weder gesagt, noch habe ich einen 10900K.

Habe schon mal hier drin beschrieben was mich zum Wechsel bewogen hat und das waren... andere Gründe.
Die Leistung/OC nimmt man sicher gerne mit, aber keine Lust hier jetzt irgendwas zu rechtfertigen.

Ich befürworte ja ein solches System nicht mal, wenn man meine letzten Post liest. Nunja egal jetzt...

Gut, dann entschuldige ich mich natürlich, falls ich mich falsch ausgedrückt habe, sollte kein Angriff sein.

-=Popeye=-
2020-08-30, 23:46:56
Völlig egal... aber ich setze noch einen drauf.

https://abload.de/thumb/bfv_2020_08_30_23_39_x6j9e.jpg (https://abload.de/image.php?img=bfv_2020_08_30_23_39_x6j9e.jpg)

415 FPS

Ex3cut3r
2020-08-30, 23:48:08
5,2 ghz. :eek:

x-force
2020-08-31, 00:29:54
1/3 mehrleistung ist nicht wegzureden. lass es noch 1/4 sein mit amds topmodell. bleibt höchstens die frage in wie fern die geringere auflösung die minderperformance des pascal chips ausgleicht.

aber die erkenntnis ist eben auch alt. es tauchen nur immer wieder leute auf, die davon zum ersten mal hören wollen :freak:


Aber darum ging es ja auch gar nicht, sondern darum, wie viel man von der Mehrleistung in Spielen in der Realität etwas hat.

ein 360hz viech ist doch gerade erst rausgekommen

aufkrawall
2020-08-31, 00:41:10
ein 360hz viech ist doch gerade erst rausgekommen
Und 240Hz gibts schon länger und steht bei vermutlich einem Promille-Anteil der Nutzerschaft hier auf dem Tisch. Sehr relevant. Nicht.

x-force
2020-08-31, 02:16:32
Und 240Hz gibts schon länger und steht bei vermutlich einem Promille-Anteil der Nutzerschaft hier auf dem Tisch. Sehr relevant. Nicht.

haben ist immer besser als brauchen.

davon ab ist davon auszugehen, daß auf einem vollem server die minfps ebenfalls deutlich höher ausfallen, oder hast du da andere infos?
(ich spiel den kram nicht)

aufkrawall
2020-08-31, 13:21:10
Mir fällt gerade auf, dass auf dem zweiten Bild von -=Popeye=- das FoV wieder wie 50 aussieht und Ex3cut3rs Bilder 21:9 sind. So ist der Vergleich komplett für die Tonne. :freak:
Ich würde mal vorschlagen:
-720p 16:9 mit 25% RS
-Standard-FoV von 50
-die Kamera- und Standposition nach dem Laden der Testrange nicht zu verändern
-ansonsten die Detail-Settings von Ex3cut3r

Edit: Dabei kommt hier mit dem 6700k Folgendes raus:
DX11: 342fps
https://abload.de/thumb/bfv_2020_08_31_13_01_wij6m.png (https://abload.de/image.php?img=bfv_2020_08_31_13_01_wij6m.png)

DX12: 388fps
https://abload.de/thumb/bfv_2020_08_31_12_58_0tj8t.png (https://abload.de/image.php?img=bfv_2020_08_31_12_58_0tj8t.png)

Ex3cut3r
2020-08-31, 13:35:55
Mir fällt gerade auf, dass auf dem zweiten Bild von -=Popeye=- das FoV wieder wie 50 aussieht und Ex3cut3rs Bilder 21:9 sind. So ist der Vergleich komplett für die Tonne. :freak:
Ich würde mal vorschlagen:
-720p 16:9 mit 25% RS
-Standard-FoV von 50
-die Kamera- und Standposition nach dem Laden der Testrange nicht zu verändern
-ansonsten die Detail-Settings von Ex3cut3r

Deine Vorgaben erledigt. + Meine Game Settings von oben:

https://abload.de/thumb/bfv_2020_08_31_13_33_v4kia.jpg (https://abload.de/image.php?img=bfv_2020_08_31_13_33_v4kia.jpg)

343 FPS

Hast recht gehabt, 21:9 + 90er FOV kostet etwas Leistung. ;)

aufkrawall
2020-08-31, 13:37:07
Huh, deine Kamera-Perspektive ist anders. Komisch, hier war es zwischen dem DX11 und 12-Test identisch.

Ex3cut3r
2020-08-31, 13:42:27
Was für ein FOV benutzt du denn?

Wenn ich 50 einstelle, zeigt er mir links horizontales FOV 64 an.
https://abload.de/thumb/bfv_2020_08_31_13_40_a8jd1.png (https://abload.de/image.php?img=bfv_2020_08_31_13_40_a8jd1.png)

Hier nochmal mit FOV 64 im Slider ausgewählt:

https://abload.de/thumb/bfv_2020_08_31_13_40_y8j7o.png (https://abload.de/image.php?img=bfv_2020_08_31_13_40_y8j7o.png)

365 FPS

aufkrawall
2020-08-31, 14:04:12
Meine Screenshots sind mit FoV 50 (vert. 64). Du guckst oben mit den gleichen Settings aber offenbar in eine andere Richtung. Bei deinem Screenshot mit FoV 64 (horiz.) ist es die gleiche Blickrichtung. Ergo, bitte nochmal mit FoV 50 (vert. 64) und der gleichen Blickrichtung wie meiner wiederholen, falls möglich. :redface:

Ex3cut3r
2020-08-31, 14:18:57
Mache ich später ab 22 Uhr. Muss jetzt zur Arbeit.

TurricanM3
2020-08-31, 14:35:42
Soll ich auch mal laufen lassen (10900k)?

MartinRiggs
2020-08-31, 14:43:13
ja bitte :biggrin:

aufkrawall
2020-08-31, 14:44:30
Je mehr Leistungsdaten, desto besser. :)
Ich frag mich aber immer noch, ob der Ex3cut3r an der Maus geschubst hatte ;) , oder ob das Spiel wirklich zufällig zwischen 2 Kameraperspektiven wählt, wenn man auf der Test Range spawnt.

Ex3cut3r
2020-08-31, 14:46:36
Je mehr Leistungsdaten, desto besser. :)
Ich frag mich aber immer noch, ob der Ex3cut3r an der Maus geschubst hatte ;) , oder ob das Spiel wirklich zufällig zwischen 2 Kameraperspektiven wählt, wenn man auf der Test Range spawnt.
Bin jeztz am Handy. Ich habe die Vermutungs, dass ich für korrektes 16:9 Ingame, auf dem Destkop auch eine 16:9 Auflösung einstellen muss, manche Games fucken sich immer ab, wenn man eine 21:9 Auflösung in meinen Fall 3440x1440 auf den Desktop hat, aber Ingame dann auf eine 16:9 Auflösung besteht, das werde ich nachher auch testen. :smile:

Zen 3 wird Rocken. :devil:

TurricanM3
2020-08-31, 14:52:51
Ich hatte auch deinen Spawn aufkrawall.

https://abload.de/thumb/bfv_2020_08_31_14_51_nhkkq.png (https://abload.de/image.php?img=bfv_2020_08_31_14_51_nhkkq.png)

Ist mein Alltagssetting mit schon ziemlich zugemülltem Windows, was glaube schon 3 Gen's alt ist. :freak:

r3ptil3
2020-08-31, 15:04:36
Interessant, werde auch mal diese Woche mit folgenden Settings testen und melden:

10700k @ 5.4Ghz
2x8Gb @ 4400 16-16-16-36

Ex3cut3r
2020-08-31, 15:05:31
6C/12T werdet ihr nicht nochmal testen können oder? Sodass ich sehe wie viel die Core Architektur gegenüber Zen 2 bzw. meine 3600er rausholt?

r3ptil3
2020-08-31, 15:10:35
6C/12T werdet ihr nicht nochmal testen können oder? Sodass ich sehe wie viel die Core Architektur gegenüber Zen 2 bzw. meine 3600er rausholt?

Sobald ich, hoffentlich in Kürze, mein neues Z490 Formula kriege (DIMM A1 funktionierte plötzlich nicht mehr), können wir das gerne machen.

TurricanM3
2020-08-31, 15:24:57
Hier mal noch ohne CPU/RAM OC:

https://abload.de/thumb/bfv_2020_08_31_15_22_gij58.png (https://abload.de/image.php?img=bfv_2020_08_31_15_22_gij58.png)

Er hält den 4900 allcore, boostete aber wohl auf bis 5100 (ob auch in BF V weiß ich nicht).

TurricanM3
2020-08-31, 17:21:15
Hier noch mal inkl. weiteren Tests im Gesamten:

Stock (4900 allcore, RAM 3200MHz@Auto):
https://abload.de/thumb/bfv_2020_08_31_15_22_gij58.png (https://abload.de/image.php?img=bfv_2020_08_31_15_22_gij58.png)
369 FPS

Nur CPU OC (5300 allcore, RAM 3200MHz@Auto):
https://abload.de/thumb/bfv_2020_08_31_15_34_9ukkc.png (https://abload.de/image.php?img=bfv_2020_08_31_15_34_9ukkc.png)
397 FPS

Nur RAM OC (4900 allcore, 4600MHz@CL17 2x 16GB DR Module):

https://abload.de/thumb/bfv_2020_08_31_17_00_jbjnv.png (https://abload.de/image.php?img=bfv_2020_08_31_17_00_jbjnv.png)
418 FPS

Full OC:
https://abload.de/thumb/bfv_2020_08_31_14_51_nhkkq.png (https://abload.de/image.php?img=bfv_2020_08_31_14_51_nhkkq.png)
455 FPS

Schneller optimierter RAM ist wichtiger als 500MHz CPU-Takt, zumindest in diesem doch recht krassen Vergleich (3200@Auto vs 4600C17 opt. Subs).

aufkrawall
2020-08-31, 17:34:18
Cool, interessant. Ist DX12 bei dir denn schneller als 11? Ist ja doch etwas komisch, dass du @ "stock" weniger fps hast als der alte 6700k, der auch nur mit 4,2GHz Allcore läuft. Mein RAM dürfte zwar ~maximal getweakt sein, aber halt auch nur 3200er. Eigentlich muss man da schon annehmen, dass da wieder irgendwas mit Nvidia DX12 langsam läuft.

Lowkey
2020-08-31, 17:35:06
Sind aber 2x8Gb?

TurricanM3
2020-08-31, 17:41:33
Ich hatte DX11 schon ewig nicht mehr getestet. Kann ich dir so aus dem Stehgreif nicht sagen. Früher ging DX12 FF rendering nicht, aber wie viel das evtl. kostet - keine Ahnung.

Sind 2x 16GB DR.

-=Popeye=-
2020-08-31, 18:08:35
DX11 ist hier deutlich schneller als DX12.

9900KS @ 5,0GHz (Cache 4,6GHz)
4x8GB DDR4-4266 CL17
MSI GeForce GTX 1080Ti Aero 11G OC @ Stock

DX11
https://abload.de/thumb/bfv_2020_08_31_17_24_2qk3f.jpg (https://abload.de/image.php?img=bfv_2020_08_31_17_24_2qk3f.jpg)
431 FPS

DX12
https://abload.de/thumb/bfv_2020_08_31_17_28_s6js7.jpg (https://abload.de/image.php?img=bfv_2020_08_31_17_28_s6js7.jpg)
380 FPS

9900KS @ 5,2GHz (Cache 4,8GHz)
4x8GB DDR4-4266 CL17
MSI GeForce GTX 1080Ti Aero 11G OC @ OC

DX11
https://abload.de/thumb/bfv_2020_08_31_17_37_wcjrp.jpg (https://abload.de/image.php?img=bfv_2020_08_31_17_37_wcjrp.jpg)
471 FPS

DX12
https://abload.de/thumb/bfv_2020_08_31_17_33_ehkx1.jpg (https://abload.de/image.php?img=bfv_2020_08_31_17_33_ehkx1.jpg)
392 FPS

aufkrawall
2020-08-31, 18:19:33
Früher ging DX12 FF rendering nicht, aber wie viel das evtl. kostet - keine Ahnung.

Ist eh nur Fake, das Spiel hat mit DX12 immer 2 Frames Prerender und damit viel höheren Input Lag als DX11 mit FFR on + ULL ultra im Treiber. :)

Mensch, das scheint laut den Screenshots von -=Popeye=- gut im Arsch zu sein mit NV. :freak:
Na ja, immerhin kann Ex3cut3r das dann 1:1 vergleichen (zumindest zu Turris Turing).

TurricanM3
2020-08-31, 18:47:51
Muss mal mit DX11 zocken. Ich weiß gar nicht mehr warum ich das damals auf DX12 gestellt hatte. Ich meine das lief mal besser.

DX11:

https://abload.de/thumb/bfv_2020_08_31_18_46_jijwl.png (https://abload.de/image.php?img=bfv_2020_08_31_18_46_jijwl.png)

aufkrawall
2020-08-31, 19:24:26
Uh, not bad. :D
Bin gespannt, was hier kernnormiert noch rauskommt.

Ex3cut3r
2020-08-31, 19:26:17
Das ist in der Tat erschreckend gut. Allerdings traut sich ja auch kein 3900X oder 3950X @ 4.5+ ghz + DDR4 3800mhz CL14 User hier her. :redface:
Ich werde mir jetzt ein paar Monate vor Zen 3 keinen 3900X oder höher mehr kaufen, ist alteisen.

Meine Screenshots sind mit FoV 50 (vert. 64). Du guckst oben mit den gleichen Settings aber offenbar in eine andere Richtung. Bei deinem Screenshot mit FoV 64 (horiz.) ist es die gleiche Blickrichtung. Ergo, bitte nochmal mit FoV 50 (vert. 64) und der gleichen Blickrichtung wie meiner wiederholen, falls möglich. :redface:

Kriege ich nicht hin. FOV ist auf 50 (64 Hor.) aber trotzdem ist das Bild bei mir mehr reingezoomt. 1280x720 Resoultion Scale 25% Desktop auch vorher auf 16:9 umgestellt. Bringt nix. :confused:

https://abload.de/thumb/bfv_2020_08_31_20_00_91jp3.jpg (https://abload.de/image.php?img=bfv_2020_08_31_20_00_91jp3.jpg)
374 FPS

https://abload.de/thumb/bfv_2020_08_31_20_00_h5jcx.jpg (https://abload.de/image.php?img=bfv_2020_08_31_20_00_h5jcx.jpg)

Raff
2020-08-31, 23:00:12
Wie gut ein hart aufgemöbelter 3900X(T) in BF5 ist, sieht man hier: https://extreme.pcgameshardware.de/benchmarks/571753-pcgh-community-benchmarks-battlefield-5-cpu.html

-> Geil, aber einem ebenso ausoptimierten Intel dennoch unterlegen. Kommende Spiele werden das Verhältnis voraussichtlich in Richtung des 12-Kerners verschieben.

MfG
Raf

aufkrawall
2020-08-31, 23:39:41
Ist nur durch DX12 auf Nvidia für den Hintern. Wenn man DX12 testet, nimmt man besser nur Radeons.
So was ist auch witzig: "Das Ruckeln wird auf Systemen mit AMD-CPUs erfahrungsbedingt stärker ausfallen, als bei Intel-Prozessoren."
Muss ja sehr kommod sein, unter so einem Fanboy-Stein. :freak:

Ex3cut3r
2020-08-31, 23:57:59
Wie gut ein hart aufgemöbelter 3900X(T) in BF5 ist, sieht man hier: https://extreme.pcgameshardware.de/benchmarks/571753-pcgh-community-benchmarks-battlefield-5-cpu.html

-> Geil, aber einem ebenso ausoptimierten Intel dennoch unterlegen. Kommende Spiele werden das Verhältnis voraussichtlich in Richtung des 12-Kerners verschieben.

MfG
Raf
Das wird/kann dauern. Vlt mit den reinen Next Gen Spielen in 2-3 Jahren. Aber dann gibt es auch schon wieder Zen 3 und/oder Zen 4. Und Intel wird ja auch nicht schlafen. Bei euren Benchmark habe ich auch mal mitgemacht, letzer Beitrag im Thread.

aufkrawall
2020-09-03, 13:46:45
Habs nochmal überprüft: Default-Wert fürs FoV ist 55 (70 vertikal). :redface:
Ich bekomme beim zweiten Anlauf aber noch ~exakt die gleichen fps raus wie vorher, passt also schon.

Turris Wert erscheint zwar übermächtig (+42% vs. den Zen 2 6C), aber das ist natürlich auch mit ganzen vier Kernen (+67%) mehr bei Frostbite Nvidia DX11 und wahrscheinlich ansonsten auch so ausgefahren, was das technisch Machbare hergibt. Muss der Billig-Ryzen also imho nicht traurig sein. ;)

Fun fact: Korrekt funktionierendes DX12 bringt hier mehr als zwei extra Kerne. :D

TobiWahnKenobi
2020-09-03, 14:07:07
ich kenne bei den EA shootern nur kaputtes DX12.. habs damals in BFV und erst neulich in battlefront2 versucht.. da ruckelt sich auch nichts ein - das ist nicht nutzbar.. 4-5-6 fps.. mal 10.. *hust* habs dann mit ALT+F4 abgeschossen, weil ich mit der maus plaque bekommen habe.


(..)

mfg
tobi

aufkrawall
2020-09-03, 14:09:20
Jo, das Shader Compile Stuttering ist der letzte Rotz. Trotzdem läufts halt auf Radeons im CPU-Limit schneller als mit 11, irgendwas ist da zusätzlich speziell mit Nvidia kaputt.

TurricanM3
2020-09-03, 14:11:39
Die Ruckler hast du einmalig wenn die Shader generiert werden. Danach nicht mehr.

Habe nun zwei Abende in DX11 gespielt. Also es läuft deutlich glatter. Merkt man z.B. recht stark bei den Kartenzooms beim Spawn.
Allerdings habe ich selten harte spikes. Das Bild steht dann geschätzt 200-300ms. Da kann ich mich in DX12 nicht dran erinnern.

Ja, nicht vergessen, dass ist hardwareseitig schon ziemlich optimiert so und für 2x16 DR @4600 braucht es das Apex XII und gute Module, sonst ist viel früher Schluss. Aus P/L Sicht natürlich nicht sinnvoll.

Lowkey
2020-09-03, 14:37:37
Wieviele Boards, CPUs und Module wurden denn gebinnt?

aufkrawall
2020-09-03, 14:49:49
Allerdings habe ich selten harte spikes. Das Bild steht dann geschätzt 200-300ms. Da kann ich mich in DX12 nicht dran erinnern.

Schon das Abschalten vom Origin Overlay probiert? Das kollidiert gerne mal mit anderen Injects wie z.B. RTSS.
Das lief hier im Juli noch ziemlich gut auf der 1070, kann mich an keine Monster-Stocker erinnern.

Nochmal zu ULL ultra: Das muss man btw. im Treiber global einschalten, damit es für BFV genutzt wird, weil das Spiel aus vermeintlichem Cheating-Schutz das Treiber-Profil beim Start auf global setzt. Im Spiel FFR on.

Ich muss es mit der Radeon aber mit DX12 spielen, weil 11 lauter eklige Mikroruckler hat. Schätze, Dice hat den 11-Pfad für Radeons versaut, BF1 lief noch zu 100% sauber in Conquest Large. Wenn man mit Nvidia DXVK nutzt und damit den AMD-Pfad, mikroruckelt es auch genau so. :freak:

TurricanM3
2020-09-03, 14:53:37
Board und RAM beides nur 1x gekauft, nichts selektiert. CPUs habe ich schon ein paar, aber 5300 allcore packen da mehrere. Ist jetzt nicht bis an die Stabilitätsgrenze ausgequetscht. Hatte anfangs 5400 @Alltag laufen, aber das lohnt nicht.

@aufkrawall
Ja, Origin overlay ist off.
Hab ULL ultra global erzwungen.

EDIT:
Kann es sein, dass der Treiber dann automatisch 3fps unter Hz für weniger Lag capped? Aus meinen 141 wurden nämlich nun 138.

Ex3cut3r
2020-09-03, 16:05:38
Habe mal da Werbung gemacht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12412771&postcount=33

Hätte gerne noch einen 3900X zum Vergleich, leider traut sich aber keiner. :redface: Und ich kaufe jetzt wie gesagt keinen 3900X mehr. Wird auf Zen 3 gewartet.

r3ptil3
2020-09-03, 17:03:50
Ich habe heute ein neues Z490 Formula erhalten (Garantiefall)... bin am überlegen, ob ich das Ding nicht gleich inserieren soll als ungeöffnet und neu, da ich nicht unbedingt mit einem neu verpackten Board gerechnet habe.

Schade dass die XT Modelle von AMD leider rein gar nichts bringen, ausser dem Nachteil mit dem doch "massiven" Temperaturanstieg, sonst hätte ich mir gleich vorübergehend einen 3800XT geholt.

@Ex3cut3r
Falls ich das Teil doch aufmache, reiche ich die Werte nach aus BFV. :)

Ex3cut3r
2020-09-03, 17:55:30
Alles gut. Muss du auch nicht unbedingt. Turrican hat ja schon geliefert. :up:

Naja. Die XTs sollen mit Allcore OC höhere Taktraten bei weniger Spannung benötigen. Aber kaum ein Ryzen User macht sich ja die Mühe mit dem Allcore OC. Was auch geil ist, per CCX OC. z.B. Ein CCX läuft @ 4.25 ghz, der andere @ 4.375 der andere @ 4,4

Allcore OC kann schwierig sein richtig auszuloten, weil jeder CCX in der CPU etwas niedriger taktet lässt. Bei meinem 3600 mit zwei CCX wars ziemlich simple. 4.3 ghz @ 1.325V 4,4 ghz gehen auch, brauchen dann aber rational gesehen zu viel Spannung @ 1.4V. Krumme zahlen wie 4.350 oder 4.375 ghz mag er komischerweise gar nicht. Und beim einzelnen CCX OC ist es auch nicht lohnenswert. Der eine macht 4.425 mit der andere 4.4 aber mit wie gesagt mit 1.4 Volt gesamt.

Lowkey
2020-09-03, 23:26:57
https://www.heise.de/security/meldung/CPU-Sicherheitsluecken-Windows-10-Updates-mit-neuem-Intel-Microcode-4885026.html


Wo bleibt eigentlich nach 2+ Jahren der große Intel CPU Test? Nach 30+ Fixes müßte die Leistung auf Ryzen Level liegen ;)


Ja genau Raff ... dich mein ich ;)

TurricanM3
2020-09-04, 12:37:32
Ich habe heute ein neues Z490 Formula erhalten (Garantiefall)... bin am überlegen, ob ich das Ding nicht gleich inserieren soll als ungeöffnet und neu, da ich nicht unbedingt mit einem neu verpackten Board gerechnet habe.


Mich würd schon interessieren was bei dir rauskommt. Was für RAMs hast du und inwieweit optimiert?
Natürlich nicht wegen mir das MB entjungfern...

La Junta
2020-09-06, 02:01:16
Nachdem die Monarchen im Kreislauf eingebunden sind und ich nächstens jemmanden am Flughafen fahren muss (lohnt sich nicht mehr zu schlafen) , hatte ich zeit zum etwas testen . https://abload.de/image.php?img=4233gkk33.jpg
Alles drüber benötigt zuviel io/sa Voltage .

https://abload.de/thumb/4233gkk33.jpg (https://abload.de/image.php?img=4233gkk33.jpg)

Edit : CPU/Cache @ Auto .

r3ptil3
2020-09-07, 22:13:26
Mich würd schon interessieren was bei dir rauskommt. Was für RAMs hast du und inwieweit optimiert?
Natürlich nicht wegen mir das MB entjungfern...

RAM: F4-3600C16Q-32GTZN (4x8Gb)

Aktuell:
4000Mhz, 1.40V, 16-16-16-36 (XMP Timings)
4000Mhz, 1.45V, 15-15-15-35
4200Mhz, 1.5V, 16-16-16-16 (XMP Timings)

Hatte noch keine Zeit die weiteren Timings zu testen.

Die gleichen Module liefen auf einem X570 Unify Board mit: 3600Mhz, 14-15-15-30 T1 (inkl. allen anderen Timings gemäss Ryzen DRAM Calc)

Vermutlich würde mit 2x8Gb noch mehr gehen.

TurricanM3
2020-09-14, 20:13:10
Schade, keine AMD Ergebnisse. Interessiert hätte mich das auch.

Schon das Abschalten vom Origin Overlay probiert? Das kollidiert gerne mal mit anderen Injects wie z.B. RTSS.
Das lief hier im Juli noch ziemlich gut auf der 1070, kann mich an keine Monster-Stocker erinnern.

Hier so Ruckler sind das, Sek. 6:

zQ4V5KrMOj4

Ich hab allerdings noch das alte Win. Ob da was zerschossen ist? :confused:

aufkrawall
2020-09-14, 20:24:48
Kann ich leider mit keiner Nvidia-Karte mehr gegentesten. :)
Das spiel hat hier jedenfalls exakt 0 vom Wechsel von SATA- zu NVMe-SSD profitiert.

r3ptil3
2020-09-16, 13:12:37
Wow - habe mal die Gebrauchtpreise des 9900KS angeschaut:

- günstigtes Modell aktuell bei 530$ und 51 Geboten
- durchschnittlich aber über 1000$

Der 8086k liegt verhältnismässig auch auf einem sehr hohen Preisniveau.

Man merke: Wenn man in Hardware investieren will, holt man sich die Sondereditionen der Intel-CPUs. :D

Rampage 2
2020-09-19, 00:14:09
Ich habe eine Frage zum Stromverbrauch des 9900K wenn er extrem übertaktet wird, da ich mit dem Gedanken spiele, mir ein stärkeres Netzteil zuzulegen (wegen Nvidia's Ampere-Generation):

1.) Sind Lasts von bis zu 350W möglich oder übertrieben? Ich gehe hier vom "Worst-Case" aus, dass mein Exemplar ein Platin-Sample ist und 5.5 GHz (AVX-Offset 0) auf allen Kernen/Threads @ 1.4V schafft - aber selbst wenn er "nur" 5 oder 5.2 GHz schafft... sind auch da Lasts von 300W (oder mehr) möglich? Höchsttemperaturen von 90°C (solange diese nicht ständig anliegen;)) liegen noch in meinem Toleranzbereich.

2.) Ich hab' ein bisschen gegoogelt und das hier aufgefischt:

Neben den eigentlichen Rekordergebnissen sind vor allem auch die Zahlen drumherum und das Verhalten der CPU von Interesse. So zieht der Core i9-9900K beispielsweise 250 Watt aus der Steckdose, wenn man ihn auf 5,2 GHz taktet und die Kühlertemperatur bei 50 °C liegt. Auf 0 °C heruntergekühlt passen allerdings noch 5,8 GHz ins Leistungsbudget von 200 Watt. Bei -60 °C wiederum begnügt sich der Chip selbst bei 6,1 GHz noch mit einer Leistungsaufnahme von 175 Watt.


Soll das etwa heißen, je besser meine Kühllösung, umso schwächer darf mein Netzteil sein;D =)

Der Sinn von Frage Nr 1.) dürfte klar sein: ich muss die benötigte Wattage VOR dem Kauf eines neuen NTs wissen. Bei der GPU gehe ich z.B. vom Worst-Case von 450W alleine für die Grafikkarte ausX-D

R2

-=Popeye=-
2020-09-19, 00:28:26
Wenn man ausschliesslich Prime95 mit AVX2 ON spielt kommt man auf derart hohe Verbrauchswerte. Wenn man dagegen Spiele spielt die aktuell auf dem Markt sind ist man von solchen Verbrauchswerten meilenweit weit entfernt.

btw. 5,5 ist schon sehr optimistisch, im Schnitt rechnet man mit 5,2 und damit kommt man beim zocken nichtmal Ansatzweise in diese Watt Regionen.

Rampage 2
2020-09-19, 00:43:35
Wenn man ausschliesslich Prime95 mit AVX2 ON spielt kommt man auf derart hohe Verbrauchswerte.


Genau an P95 hatte ich auch gedacht. Aber zu den "derart hohen Verbrauchswerten": bitte genauer definieren - 300W? 350W? Wieviel? Was ist der Worstcase?


btw. 5,5 ist schon sehr optimistisch, im Schnitt rechnet man mit 5,2 und damit kommt man beim zocken nichtmal Ansatzweise in diese Watt Regionen.


Ich hatte ja geschrieben, "Platin-Sample" - ich will, was das Netzteil angeht, für den Worstcase gerüstet sein;) Aber sind in Prime95 auch mit "nur" 5,2 GHz (AVX-Offset 0) 300W möglich? :confused:

R2

-=Popeye=-
2020-09-19, 01:14:21
Vergiss Prime... in normalen Anwendungen erreicht man nie solche Werte. Wenn man über solche Sachen nachdenkt sollte man nicht nur die Watt Zahl betrachten, sondern nachdenken wie man sowas kühlt.

Und was die 300 Watt angeht, die wirst du beim zocken nie zu Gesicht bekommen.

BlacKi
2020-09-19, 01:20:52
ich will, was das Netzteil angeht, für den Worstcase gerüstet sein;) Aber sind in Prime95 auch mit "nur" 5,2 GHz (AVX-Offset 0) 300W möglich? :confused:

R2
du machst hier rum wegen 50w. wenn die ausgangsfragestellung lautet für den worstcase rüsten, dann kauf dir einfach ein verficktes 1kw netzteil. was machst du da wegen 50w rum???

Rampage 2
2020-09-19, 01:48:23
du machst hier rum wegen 50w. wenn die ausgangsfragestellung lautet für den worstcase rüsten, dann kauf dir einfach ein verficktes 1kw netzteil. was machst du da wegen 50w rum???


Würde ich ja gerne machen, aber ist einfach zu teuer (280< Euro) und vermutlich auch ein bisschen übertrieben - genau deswegen will ich ja auch wissen, ob 850W genug sind und dazu muss ich erstmal den Stromverbrauch der einzelnen Komponenten abschätzen und dann summieren;)

R2

seaFs
2020-09-19, 07:59:36
Ist mal wieder typisch. Da wird eine Luxusvilla beschafft, aber an der Bodenplatte geknausert.
Nette Unterhaltung ;D

4Fighting
2020-09-19, 08:30:40
Ist mal wieder typisch. Da wird eine Luxusvilla beschafft, aber an der Bodenplatte geknausert.
Nette Unterhaltung ;D

Das tut echt weh...

Erkläre doch erstmal, wie du bei einem 9900k 350W kühlen willst? Noctua? :freak:
Beim Spielen würde ich von maximal 150-180W ausgehen. Aber das muss schon ein recht stark Multi-threaded Spiel sein

woodsdog
2020-09-19, 08:54:05
ich bezweifle mal ganz stark das man ohne extreme Maßnamen wie Stickstoff-Benmarks 350W aus einem 9900k bekommt... der knallt dir doch auch unter Wasser direkt ins Temp-Limit.

Darüber hinaus ist die Netzteil Thematik hier echt lächerlich wenn man mit einer CPU für 500 Eur rumspielt und dann keine 200ish Eur für die Stromversorgung ausgeben möchte... 280 ist auch zuviel, ich hab vor 2 Wochen 220 für mein RM1000i bezahlt - wahrlich kein china böller. v0v

hq-hq
2020-09-19, 09:25:34
Ich habe eine Frage zum Stromverbrauch des 9900K wenn er extrem übertaktet wird, da ich mit dem Gedanken spiele, mir ein stärkeres Netzteil zuzulegen (wegen Nvidia's Ampere-Generation):

1.) Sind Lasts von bis zu 350W möglich oder übertrieben? Ich gehe hier vom "Worst-Case" aus, dass mein Exemplar ein Platin-Sample ist und 5.5 GHz (AVX-Offset 0) auf allen Kernen/Threads @ 1.4V schafft - aber selbst wenn er "nur" 5 oder 5.2 GHz schafft... sind auch da Lasts von 300W (oder mehr) möglich? Höchsttemperaturen von 90°C (solange diese nicht ständig anliegen;)) liegen noch in meinem Toleranzbereich.

R2

ja denke auch 320 Watt bei 5.4GHz und 1.4V sind nicht unrealistisch mit avx Aufgaben :freak:

schätze ein 850Watt NT sollte es schon sein

r3ptil3
2020-09-19, 09:31:47
Hier: 10700k @ 5.1 / 1.38V ( AVX Offset 0) = über 320W (Prime95)

Wie auch oben schon genannt, beim zocken wird das niemals erreicht.

Aber sowas würde ich auf keinen Fall empfehlen.

Ich bin jetzt bei 4.8Ghz @ 1.25V und in Prime95 max. 220w.
4.0 Ghz ist auch interessant bei 1.0V - Performanceverlust ist viel weniger als Gedacht.

PacmanX100
2020-09-19, 15:08:29
Ich kann nur empfehlen, dickes Netzteil rein. ;) Die sind ohnehin recht effizient geworden.
Damals hat fast alles mit 550-600W noch gereicht aber wenn ich mir das heute ansehe, kann das schonmal schwierig werden:
320W CPU
320W GraKa
100-320W zweite GraKa

Zusatzkomponenten wie Platten, Steckkarten, USB, Lüfter...
AVX haut rein ist aber kaum die Praxis. Kurze Spitzen sind ja nicht so schlimm.

aufkrawall
2020-09-19, 15:31:12
Sag das mal den typisch deutschen Öko-Geizern, gegen die Mischung aus Unwissen, Unbelehrbarkeit und Irrationalität kommst du nicht an...

PacmanX100
2020-09-19, 15:47:25
Ich habe das in der Praxis erlebt. Enermax defekt durch Limitausreizung, ein weiteres anderer Marke verschmorrt (am Plastikstecker GraKa). Danach habe ich neue Marke mit 5+ Jahre Garantie und knapp 1kW gekauft. Und nein, das ist nicht zuviel bei mir. ;)
Das letzte Crossfire System hat 570W + CPU + Rest genommen. Damals dachte man, würde das für alle Zeiten reichen aber wir sind ja wieder am Limit angelangt. Vielleicht kommen noch 370-420W Grafiks...

aufkrawall
2020-09-19, 15:54:19
Kabel kann natürlich auch einfach ein Produktionsfehler sein, hatte das für die CPU-Versorgung mit zerbröselten Steckern auf beiden Seiten mit einem Corsair 850W Gold (so viel konnte der 2500k OC auch nicht saufen).
Die hatten mir dann ein 860W Platinum-Teil geschickt. Ist mittlerweile fünf Jahre her, das hält hoffentlich nochmal genau so lang und sollte bei keiner Hardware schwächeln.

BlacKi
2020-09-19, 16:05:01
ich glaube tatsächlich, das pc hardware in zukunft noch mehr strom brauchen wird. und bei einer garantie von 13 jahren die seasonic gibt, da kann man auch mal ein 1kw netzteil kaufen um auf der sicheren seite zu sein.

evga gibt den 3080/90 karten jetzt schon 440w PT mit auf den weg. intel und amd brauchen fast jede generation ebenfalls mehr strom. selbst wenn du 4 jahre mit dem 850w netzteil hinkommst, kaufst du dann in 5 jahren ein neues ebenfalls knapp bemessenes?

aufkrawall
2020-09-19, 16:09:47
Zen 2 6C kannst du ohne merkbaren Performance-Verlust auf 65W limitieren. ;)

Rampage 2
2020-09-19, 16:24:06
Ist mal wieder typisch. Da wird eine Luxusvilla beschafft, aber an der Bodenplatte geknausert.

Nette Unterhaltung ;D


Darüber hinaus ist die Netzteil Thematik hier echt lächerlich wenn man mit einer CPU für 500 Eur rumspielt und dann keine 200ish Eur für die Stromversorgung ausgeben möchte...


Sind 150-200€ für ein Netzteil zu wenig!? 200 Euro wäre ich durchaus bereit noch auszugeben, aber alles darüber ist Overkill aus preislicher Sicht - zumindest für mein Budget;)

Und leider kosten die besten Netzteile (80 Plus Titanium) eher Richtung 250 Euro:(


Erkläre doch erstmal, wie du bei einem 9900k 350W kühlen willst? Noctua? :freak:



Noctua: 4.8 - 5.2 GHz
(später) WaKü oder exotische Sachen: 5.2 - 5.5 GHz

;)

ich bezweifle mal ganz stark das man ohne extreme Maßnamen wie Stickstoff-Benchmarks 350W aus einem 9900k bekommt... der knallt dir doch auch unter Wasser direkt ins Temp-Limit.


Deswegen hatte ich ja explizit PCGH zitiert - inwieweit bessere Kühlung den Strombedarf reduziert;)

Stickstoff oder Helium natürlich nicht für den Dauerbetrieb - aber da gibts mit Sicherheit noch andere exotische Kühlmethoden, die wirkungsvoller sind als WaKü und als Dauerlösung taugen:

YbLfQLkU5gU

Hier: 10700k @ 5.1 / 1.38V ( AVX Offset 0) = über 320W (Prime95)



Der 10700K ist doch der mit 8C/16T und 16MB Cache - also alles das Gleiche wie beim 9900K, sollte sich gut vergleichen lassen. Danke! :smile:

Aber alter Schwede: bei "nur" 5.1 GHz & weniger als 1.4V hätte ich höchstens mit 300W gerechnet - da sinds schon 20W drüber:eek:

Das würde also bedeuten, 5.2 GHz könnte 350W benötigen und noch höher gehts dann Richtung 400WX-D

R2

hq-hq
2020-09-19, 18:08:44
Sind 150-200€ für ein Netzteil zu wenig!? 200 Euro wäre ich durchaus bereit noch auszugeben, aber alles darüber ist Overkill aus preislicher Sicht - zumindest für mein Budget;)

Und leider kosten die besten Netzteile (80 Plus Titanium) eher Richtung 250 Euro:(



bei Netzteilen musst du einfach spontan mal einen Schnapper machen, hab z.B. für ein 850 Watt Corsair TX-M Series TX850M Modular 80+ Gold 79€ bezahlt (bei MindFactory) -> versuch auf mydealz ein paar Alarme zu setzen

4Fighting
2020-09-19, 18:14:51
Noctua: 4.8 - 5.2 GHz
(später) WaKü oder exotische Sachen: 5.2 - 5.5 GHz
;)


...ist klar. Schaff dir mal für ein paar hundert Euro Kühl-Equpiment an, um dann ne Runde zu Prime95'en.


Deswegen hatte ich ja explizit PCGH zitiert - inwieweit bessere Kühlung den Strombedarf reduziert;)

Stickstoff oder Helium natürlich nicht für den Dauerbetrieb - aber da gibts mit Sicherheit noch andere exotische Kühlmethoden, die wirkungsvoller sind als WaKü und als Dauerlösung taugen:


Mensch, hast Dich ja richtig informiert. :freak:
10 Grad weniger Core Temp -> ~50mhz Leistung bei gleicher Spannung; von 80°C CPU Temperatur auf -30°C sparst Du irgendwas um die 60-80 Watt.

Frage an Dich: Möchtest Du x-Hundert Watt durch einen Chiller jagen, damit Du ein paar Watt bei der CPU sparst?...Merkste selbst, oder?

JVC
2020-09-19, 20:15:49
.............................
R2
Kauf Das.
https://geizhals.at/seasonic-focus-gx-1000w-atx-2-4-focus-gx-1000-a2119991.html?hloc=at

M.f.G. JVC

TobiWahnKenobi
2020-09-19, 20:51:07
ich hab' das und würd's wieder kaufen.
https://geizhals.at/corsair-professional-series-hx1200i-1200w-atx-2-4-cp-9020070-eu-a1215556.html

gut, dass SLi tot ist.. für zwei 3090er würde es nicht reichen.. mit 100A @12V

vorher hatte ich die kleinere version mit 850W. dem konnte ich lt. messgerät 1.1KW entlocken.. dann habe ich aufgerüstet; war mir zu heiss.


(..)

mfg
tobi

r3ptil3
2020-09-20, 01:39:26
Nochmals getestet:

10700K @ 4.0Ghz, 1.0V = 110 Watt in Prime95


Edit:

10700k @ 3.5Ghz 0.85V = 70 Watt in Prime95

Ein paar Ergebnisse aus PUBG in WQHD und alles auf High (Trainingsgelände an identischer Stelle gemessen):

10700k, G.SKill 3600 16-16-16-36, MSI Gaming X 5700:

5.0Ghz, 3600Mhz: 116 FPS
3.5Ghz, 3600Mhz: 110 FPS
3.5Ghz, 4200Mhz: 115 FPS

Interessant auch Hellblade Senua's Sacrifice: In WQHD und max. Settings keinen einzigen FPS Unterschied zwischen 5.0 und 3.5Ghz, RAM-Takt ebenfalls keine Auswirkung.
Den GPU-Takt hingegen merkt man in der Messung bereits ab 20Mhz+ - also voll im GPU-Limit.


Werde noch einige Spiele testen und dann eventuell dauerhaft die CPU auf 4.0Ghz @ 1.0V betreiben mit RAM @ 4000Mhz 16-16-16-36.

Rampage 2
2020-09-20, 18:22:51
bei Netzteilen musst du einfach spontan mal einen Schnapper machen, hab z.B. für ein 850 Watt Corsair TX-M Series TX850M Modular 80+ Gold 79€ bezahlt (bei MindFactory) -> versuch auf mydealz ein paar Alarme zu setzen


Genau daran hatte ich auch gedacht - einige der 80 PLUS Titanium-Netzteile mit 850W gab es vor knapp einem halben Jahr z.T. für unter 200€... jetzt kosten sie 240+ Euro!

Liegt das an Corona? Mir fällt nämlich echt kein anderer Grund ein, wenn ich mir den GH-Preisverlauf ansehe...

Kauf Das.
https://geizhals.at/seasonic-focus-gx-1000w-atx-2-4-focus-gx-1000-a2119991.html?hloc=at


Ich hatte eigentlich den Vorsatz, nichts unterhalb von Platinum zu kaufen, aber sollte es ein 1000W-NT sein, werde ich dieses Modell in engere Betrachtung ziehen - Danke! :)


Ein paar Ergebnisse aus PUBG in WQHD und alles auf High (Trainingsgelände an identischer Stelle gemessen):

10700k, G.SKill 3600 16-16-16-36, MSI Gaming X 5700:

5.0Ghz, 3600Mhz: 116 FPS
3.5Ghz, 3600Mhz: 110 FPS
3.5Ghz, 4200Mhz: 115 FPS

Interessant auch Hellblade Senua's Sacrifice: In WQHD und max. Settings keinen einzigen FPS Unterschied zwischen 5.0 und 3.5Ghz, RAM-Takt ebenfalls keine Auswirkung.


Du solltest aber bedenken, dass PUBG und Hellblade nicht gerade Referenz-Benchmarks sind, wenn es um CPU-limitierte Spiele (genauer: SingleThread-lastige Spiele) geht;)

Probier mal Arma 3, oder das alte Crysis 1 (oder das "neue" Crysis Remaster;D). Wenigstens bei Arma 3 solltest du einen gigantischen Unterschied merken - A3 skaliert sehr gut mit CPU- und RAM-Overclocking! (Ersteres, weil es schlechtes Multithreading hat bei gleichzeitig hohem CPU-Gebrauch)

R2

r3ptil3
2020-09-20, 19:59:51
Du solltest aber bedenken, dass PUBG und Hellblade nicht gerade Referenz-Benchmarks sind, wenn es um CPU-limitierte Spiele (genauer: SingleThread-lastige Spiele) geht;)

Probier mal Arma 3, oder das alte Crysis 1 (oder das "neue" Crysis Remaster;D). Wenigstens bei Arma 3 solltest du einen gigantischen Unterschied merken - A3 skaliert sehr gut mit CPU- und RAM-Overclocking! (Ersteres, weil es schlechtes Multithreading hat bei gleichzeitig hohem CPU-Gebrauch)

R2

Das ist so, ich teste aber auch absichtlich mit höchsten bzw. hohen Einstellungen, da ich nur das testen will, was mir real auch was bringt. In niedrigen Einstellungen wäre der Unterschied ja auch deutlich grösser.

Und eben ich habe auch nicht so eine starke GPU momentan.

Bei der 3080 werden die Unterschiede viel grösser Ausfallen.
Werde dann alles mal durchtesten.

So ein 10700k @ 3.5Ghz und 0.85V ist halt schon interessant - Prime95 unter 50°. :)

Rampage 2
2020-09-21, 21:42:09
Das ist so, ich teste aber auch absichtlich mit höchsten bzw. hohen Einstellungen, da ich nur das testen will, was mir real auch was bringt. In niedrigen Einstellungen wäre der Unterschied ja auch deutlich grösser.

Ähem... bei Arma 3 steigt bei höheren Settings (insbesondere Sichtweite und LODs) die CPU-Last an anstatt zu sinken. Ich wette, bei einer Sichtweite von 12km (Maximum) würde jede noch so starke CPU völlig ins Schwitzen kommenX-D

Bei Arma 3 mit niedrigen Settings (hier wieder SW, LODs und einige andere CPU-sensitive Settings) steigt vermutlich die GPU-Last - weil die CPU-Last sinkt:freak:


Und eben ich habe auch nicht so eine starke GPU momentan.

Für Arma 3 spielt die Stärke der GPU kaum eine Rolle (im Gegensatz zu den meisten anderen Games) - vermutlich würde es sogar auf Flaschen-GPUs noch anständig performen;) Die Engine ist immer noch dieselbe von 2001 (also das Grundgerüst - natürlich wurde sie mit jeder Arma-Generation iterativ verbessert) und weil die Entwickler auch mit v4.0 immer noch kein vernünftiges Multithreading implementiert hatten (oder es nicht konnten...), ist es immer noch brutalst ST-limitiert. Wenigstens bringt RAM-OC etwas...

Und die GPU langweilt sich zu Tode - meine RTX 2070 erreicht in Arma 3 durchgehend ihren maximalen Boost-Clock, weil sie eine so niedrige Last hat - hohe AA-Modi (+TrSSAA) führen nur zu 10-20% Performance-Verlust:freak:

Das wird sich wohl erst mit der grundauf neuentwickelten Enfusion-Engine bessern, die wahrscheinlich bei einem zukünftigen Arma 4 zum Einsatz kommt:(

R2

r3ptil3
2020-09-21, 23:55:31
@Rampage2

Habe jetzt Arma3 tatsächlich noch installiert.

Ist genau so wie von dir beschrieben:

Stelle mit guter Sicht, viele Bäume und Details (WQHD, alles Ultra)
3.5Ghz: 69 FPS
4.7Ghz: 94 FPS
5.1Ghz: 101 FPS

Rampage 2
2020-09-22, 02:08:07
@Rampage2

Habe jetzt Arma3 tatsächlich noch installiert.

Ist genau so wie von dir beschrieben:

Stelle mit guter Sicht, viele Bäume und Details (WQHD, alles Ultra)


Nutze YAAB (Yet Another Arma Benchmark) - diese ist extrem CPU-lastig, weil sehr viel KI im Spiel ist und sich die KI dynamisch verhält. Kannste dir im Steam-Workshop als Mission für Arma 3 kostenlos runterladen;) Leider sind die Bench-Ergebnisse nicht reproduzierbar, weil kein Bench-Run jemals Dieselbe ist - wie gesagt, verhält sich die KI dynamisch um die CPU ordentlich zu beschäftigen. Abweichungen von 1-5 fps sind die Regel. Benche einfache so oft du Bock drauf hast und nimm dann das Ergebnis mit der höchsten Zahl:D

Noch viel entscheidender als die Sichtweite ist die KI (Anzahl NPCs, aktive NPCs, NPC-Verhalten bzw. Ereignisse/Abläufe in der Spiellogik) für die Performance von A3. Die Sichtweite wiederum hat einen Einfluss darauf, bis zu welcher Entfernung die KI/NPCs "erfasst" wird (auch wenn du sie NICHT siehst!) und deswegen von der CPU bearbeitet werden muss;)


3.5Ghz: 69 FPS
4.7Ghz: 94 FPS
5.1Ghz: 101 FPS


- Diese Zahlen nützen nichts, solange du nicht Informationen bzgl. CPU-Konfiguration ("Sync all Cores" oder einzelne CPU-Kerne mit mehr/weniger Takt?), AVX-Offset, Uncore-Takt (sehr wichtig!), HT an oder aus, CPU-Throttling vorhanden?, RAM-Takt und -Timings/Subtimings (sehr wichtig! - gerade für Arma 3) nennst.

PS: Die Subtimings musst du nicht auflisten, wenn du keinen Bock hast - aber wenigstens die primären Timings und die Command Rate;)

- Wie ist außerdem deine A3-Launcher Konfiguration? - je nachdem, wie du die Startparameter eingestellt hast, kann sich das dramatisch auf die Performance und/oder Stabilität auswirken. Du kannst die einzelnen "Advanced"-Parameter hier aufschreiben oder einfach einen Screenshot von der Sektion "Parameters" (insbesondere der Abschnitt "Advanced" bzw. "Erweitert") machen, wenn du willst - oder du kannst es sein lassen, wenn du keinen Bock drauf hast;)

- um die Performance zu maximieren, solltest du außerdem in den Steam Launch Options den Zusatz -high einfügen sowie zusätzlich das Programm "Prio" nutzen - während Windows eine manuell gesetzte CPU-Priorität nach Beendigung/Neustart verwirft, speichert dieses Programm die gesetzte CPU-Priorität für einen Prozess/Programm/Spiel dauerhaft =)

- möglichst wenig Hintergrundprozesse die CPU-Leistung saugen, am Laufen haben, bevor/während man A3 spielt;)

- je mehr Arma 3 von Arbeitspeicher Gebrauch macht, also Speicherbelegung, umso höher muss die Auslagerungsdatei sein - sonst kann es zu einem "Out of Memory"-Error kommen, obwohl mehr als genug RAM vorhanden ist. Wenn du also mehr als 16GB RAM hast, musst du die Auslagerungsdatei möglicherweise höher als 8GB einstellen;)

- Setze mal in den Ingame-Grafiksettings Sichtweite/Draw Distance/Visibility auf:

Overall: 4000
Object: 2500
Shadow: 200

Ist geringfügig höher als beim "Ultra"-Preset. Und falls du Postprocess-AA benutzt, dann wähle bitte "SMAA Ultra".

- Hast du Mods/Addons für A3 am Laufen? Bei mir sind die Bench-Ergebnisse mindestens 10% niedriger, wenn ich A3 mit 90+ Mods/Addons am Laufen habe:freak:

- Und auch wenn die GPU bei A3 nur eine untergeordnete Rolle spielt, können Einstellungen im NV-Inspector beträchtliche Unterschiede herbeiführen! ;)

Have Fun:)

R2

r3ptil3
2020-09-26, 23:58:56
Habe gerade zufällig noch folgendes Bild entdeckt meines alten 8700k:

https://i.ibb.co/h22Hzwx/8700K-OC.jpg (https://ibb.co/h22Hzwx)

War überrascht was ich damals mit einem NH-D15 erreicht habe und bereue den Verkauf jetzt doch sehr.

Mit dem 10700k kann man davon nur träumen.

hq-hq
2020-09-27, 00:39:53
Habe gerade zufällig noch folgendes Bild entdeckt meines alten 8700k:

https://i.ibb.co/h22Hzwx/8700K-OC.jpg (https://ibb.co/h22Hzwx)

War überrascht was ich damals mit einem NH-D15 erreicht habe und bereue den Verkauf jetzt doch sehr.

Mit dem 10700k kann man davon nur träumen.


ääh 146Watt bei 1.408V :freak:

mir scheint dein 8700k zieht nur soviel Saft wie mein 8600k... mein 8700k liegt da bei >200Watt wenn ich mich recht erinnere...

ähm ja dein NH-D15 ist vermutlich nen Tick besser als meine mini H60 Wasserkühlung für den 8600k

r3ptil3
2020-09-27, 11:21:14
ääh 146Watt bei 1.408V :freak:

mir scheint dein 8700k zieht nur soviel Saft wie mein 8600k... mein 8700k liegt da bei >200Watt wenn ich mich recht erinnere...

ähm ja dein NH-D15 ist vermutlich nen Tick besser als meine mini H60 Wasserkühlung für den 8600k

Vermutlich nahm ich das Bild genau auf, als ein nächster Test in Prime startete.

Der müsste schon bei 200W sein, stimmt.
Übrigens war der 8700er auch geköpft.

Bin mir ernsthaft am überlegen das auch auch beim 10700k zu machen, die Temperaturunterschiede zwischen den Kernen sind bei mir sehr hoch (bis zu 8k). Siehe 8700k oben als Vergleich, wenn man die Paste oder das Flüssigmetall sauber aufträgt.

dildo4u
2020-09-27, 11:26:28
Preise Purzeln 10 Kerne für 430€.

https://geizhals.de/intel-core-i9-10850k-bx8070110850k-a2341363.html

r3ptil3
2020-09-27, 11:33:23
Preise Purzeln 10 Kerne für 430€.

https://geizhals.de/intel-core-i9-10850k-bx8070110850k-a2341363.html

Das ist ja nicht mal die Avengers Edition, geht gar nicht.

Der 10850k ist nicht so übertaktungsfreudig. Einen guter 10900k, den man auf 5Ghz+ bei unter 1.25V kriegt, das ist interessant.

Daredevil
2020-09-27, 12:06:43
Die 6 Kerner sind auch recht lecker als 3600 Alternative.

r3ptil3
2020-12-01, 19:42:13
Computerbase hat im Ryzen 5000 Review einige CPUs ergänzt, darunter auch den 8700k (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/4/#abschnitt_amd_ryzen_vs_intel_core_in_1080p):
https://i.ibb.co/z4gcbS5/8700k.png (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/4/#abschnitt_amd_ryzen_vs_intel_core_in_1080p)

Man ich hab zuerst vergeblich gesucht, bis ich den 8700K soweit unten gefunden habe.:freak:

Dass da jetzt selbst ein R5 3600 weiter vorne ist, überrascht mich doch etwas.
Soviel auch zur Thematik letztens hier bzgl. 8700k Upgrade auf Ryzen 5000 oder nicht.

aufkrawall
2020-12-01, 19:44:34
Das Ding ist "real" mit RAM- und Allcore-OC natürlich viel schneller als @stock.

Ex3cut3r
2020-12-01, 19:50:02
Fuck, wollte auch grade schreiben. Wer betreibt denn eine Intel K CPU @ Stock? Und mit DDR4 2933er? :freak:
Schaut euch mal HQs 8700k an, der rasiert immer noch.

Knuddelbearli
2020-12-01, 20:40:59
vermutlich dürfte über 3/4 der Teile so betrieben werden da wette ich sonstwas drauf.
Und weit über 90% nur mit XMP Ram.

Aber mit dem Tellerrand ist es in solchen "nerd" Foren wie hier meist nicht weit

Schnoesel
2020-12-01, 20:43:31
Nicht verwunderlich, ist ja die gleiche Architektur. Also wenn einem die Kerne nicht ausgehen, dann ist Skylake ab 5,0Ghz+ immer noch Top. Macht aber nicht jeder Skylake mit, musste ggf. köpfen und sauft dann wie nix gutes.

aufkrawall
2020-12-01, 20:43:35
Aber mit dem Tellerrand ist es in solchen "nerd" Foren wie hier meist nicht weit
Hast du auch so etwas wie einen Punkt, oder wolltest du dich nur mal als Robin DAU-Hood aufspielen?

Monsta
2020-12-01, 21:37:15
Also ich betreibe meinen 8700K auf der Firma fast Stock. Müsste nochmal genau gucken was ich da gemacht habe.

Bei so ca. 5GHz allcore Geschichten brennt sich das Ding beim Compilieren bis zum Erdkern durch. Musste auch nen ordnelichen AVX Offset einstellen.
Trotz Wasserkühlung.

Habs nicht mehr so voll auf dem Schirm, ist aufjedenfall ein übles Exemplar.

gnomi
2020-12-02, 12:21:43
Ich kann schon verstehen, dass die offiziellen Specs dann getestet werden.
Persönlich bringt es mir allerdings auch nichts, da ich 3866 Ram und 4,7 Ghz auf allen Kernen mit geringerer Spannung einsetze.
Der Prozessor ist dann eben schon konkurrenzfähiger und der Rückstand verringert sich.
Man darf nicht vergessen, dass die neuen AMD CPU's aktuell schlecht lieferbar und zu teuer sind.
Und bei Intel müsste man den Sockel wechseln oder einen 9900K im Abverkauf nehmen, wo allerdings 2 Kerne mehr auch nicht so zaubern können, die alten Boards am Limit laufen, und man das Teil weniger leicht per Luft lautlos und mit 70-95 Watt laufen lassen kann.
Auch sind die CPU Messungen extrem theoretisch- auch jetzt noch.
Im Normalfall ist der immer noch nicht extrem gefordert.
Läuft was schlecht, ist es die fehlende Software Optimierung und man kann eh nichts machen...

arcanum
2020-12-02, 13:36:55
Computerbase hat im Ryzen 5000 Review einige CPUs ergänzt, darunter auch den 8700k (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/4/#abschnitt_amd_ryzen_vs_intel_core_in_1080p):
https://i.ibb.co/z4gcbS5/8700k.png (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/4/#abschnitt_amd_ryzen_vs_intel_core_in_1080p)

Man ich hab zuerst vergeblich gesucht, bis ich den 8700K soweit unten gefunden habe.:freak:

Dass da jetzt selbst ein R5 3600 weiter vorne ist, überrascht mich doch etwas.
Soviel auch zur Thematik letztens hier bzgl. 8700k Upgrade auf Ryzen 5000 oder nicht.

die einfluss von oc wurde ja schon erwähnt, zumal sich kaum jemand einen 8700k gekauft hat um ihn stock laufen zu lassen - dafür gibt es den 8700.

der index wird durch valorant und total war stark beeinflusst. wer solche spiele nicht spielt (bzw. keine 1000fps braucht) und in auflösungen >WQHD spielt ist auch mit älteren cpus sehr gut bedient.
in 4k ist die 3080 praktisch immer am anschlag und ein cpu-upgrade wird sich in der konstellation bestimmt erst nach 2 weiteren gpu-generationen lohnen, falls sich bei kommenden spielen nichts gravierend ändert was die cpu-last angeht.

alles in allem kann man mMn aber sagen, dass zen3 das erste upgrade für einen 8700k seit seinem erscheinen ist. wären die preise nicht so übertrieben hoch, hätte ich ein upgrade sogar in betracht gezogen aber so warte ich erst mal bis der erste neue 8-kerner von intel oder amd unter 300€ fällt.

Lowkey
2020-12-02, 14:06:35
Der 8700k ist höher getaktet als der 8700

Nächstes Jahr darfst du dir den 5700 für unter 300 Euro kaufen, wenn du schnell bist.

BlacKi
2020-12-02, 19:40:38
jetzt aufzurüsten ist doch schwachsinn, oder wollt ihr wegen dem billigen ram auf der alten plattform bleiben?


ddr5 und pcie5.0 kommt doch schon nächstes jahr. auf alderlake oder zen4 zu wechseln kann man von cfl kommend wenigestens merken.

zen3 kann man, wenn man cfl mit 12t hat, ruhig aussitzen und über die schmunzeln die jetzt den zen3 cpus hinterherrennen, weil man sich denn riss nicht geben muss, da man schon seit 3 jahren ähnliche performance im rechner hat.

hq-hq
2021-01-04, 03:01:45
wie es aussieht hat mein alter 8700k einen oder mehrere defekte Glättungskondensatoren auf dem PCB, vermutlich ist mindestens einer gecrackt bzw hat immer wieder oder dauerhaft einen Schluss auf GND und das PCB zeigt deutliche Delaminierungserscheinungen und sichtbare Verfärbungen

das Bauchgefühl auf den 5800x zu wechseln war wohl richtig ^^

und nein, garantiert liegt das nicht an unzureichender Kühlung (oder zu hoher Spannung, max war 1.475V Idle und ca. 1.426V unter Last), bei 5400MHz AVX Load wurden Peak 76°C erreicht :freak:

könnte auch sein das das ASRock Z370 Extreme4 dem 8700k zu viele Spannungswatschen bzw. Overshootings und hohe Ripplespannung verpasst hat, aber Ausgangspunkt ist definitiv einer der Kondensatoren

das bricht mich seelisch mental, der sollte doch in den 2. PC :ugly2:

https://media.giphy.com/media/3orifg77036dmNeQFy/giphy.gif

Denniss
2021-01-04, 09:55:28
durch OC ausgelutscht und ausgebrannt, erinnert irgendwie an den Beginn von Fast and Furious mit dem durchgebrannten Motor am Ende des Rennens

Annator
2021-01-04, 11:01:18
Also 1,475V empfinde ich schon als ziemlich viel. Meiner läuft mit 1,28V bei 5Ghz.

Lowkey
2021-01-04, 11:25:29
Nach dem Wechsel von Asrock ITX z370 auf z390 (je phantom Gaming) ging mein 8700k ab wie ein Goldensample. Die Differenz zwischen z370 und z390 ist relativ groß, auch wenn es fast dieselbe Technik ist. Aber mein Limit lag immer bei 1.35v in der Spitze, meistens 1.25v unter Last. Ungeköpft ist es sonst sowieso schlecht kühlbar.

Mein 8700k läuft gerade testweise mit 52 52 50 52 52 50. Zwei Kerne laufen nur mit 50x. Unter maximaler Last sind 50x auf allen Kernen und meistens sind zwei Kerne auf 52x beim Laden oder einfachen Aufgaben. Uncore geht nun auch ohne Mehrspannung auf 48x statt 47x.

gnomi
2021-01-04, 12:25:49
Ich musste wegen eines Defekts des Boards von Asus Prime A 370Z auf Asus Prime A 390Z wechseln.
Habe eines aus Amazon Warehouse genommen. Nichts dran, und deutlich günstiger. (der Generationsaufpreis quasi weg)
Qualitativ ist die Spannungsversorgung und manches Detail (Kühlkörper) minimal besser. Ram Support höher zudem.
Trotzdem war in Sachen OC keine Steigerung drin.
Belasse es weiter bei VCore 1,25 und DDR 1,37.
Mehr als 100-200 MHz beim Takt bekommt man nicht mehr raus.
Es ist dann nicht perfekt stabil und kann gelegentlich abstürzen.
Zudem kostet das Nerven und Zeit. Kein Bock mehr drauf!
Also Komponenten CPU und Speicher sind leider Durchschnitt.
Muss man eben akzeptieren. (Spec wird ja übererfüllt; OC ist Bonus)
Bei den Chipsätzen passiert wenig bei Intel. Gibt trotzdem ständig Neue. :wink:

Lowkey
2021-01-04, 12:32:08
Ja wenn IO/SA auf Auto stehen, dann kannst du rumprobieren wie du willst. Man muss ein stabiles oder halbstabiles Setting bekommen und dann austesten. Hat man die richtigen Spannungen und Timings, dann läuft es stabiler.

Austesten machst aber nur Spass, wenn der Testrechner separat daneben steht und einfach zu bedienen ist. Einfach bei jeder Gelegenheit einen Wert verstellen und dann austesten.

hq-hq
2021-01-04, 13:23:42
durch OC ausgelutscht ist zumindest nicht das Die :biggrin:

er lief ja zu 95% auf 1.375 idle und etwa 1.33V unter Last bei 5.2GHz, nur wegen des AVX Offsets von 0 konnte ich die Spannung nicht weiter absenken.

VCCSA normal zwischen 1.25- 1.30V und IO 1,15-1.20V , je nachdem welches Kit gesteckt war

nichts dramatisches, Temperaturen für gewöhnlich unter 60°C, meistens so 25-45°C

imho liegt das an einem C, das vielleicht durch das OC schneller nachgegeben hat...

aufkrawall
2021-01-04, 13:46:42
er lief ja zu 95% auf 1.375 idle und etwa 1.33V unter Last bei 5.2GHz

Wenn der Sensor das durchweg so anzeigt, würd ich davon ausgehen, dass die Bauteile auf dem Träger zumindest nicht durch fiese LLC-Overshoots malträtiert wurden.

hq-hq
2021-01-04, 14:04:21
da müsste man schon im hohen KHz Bereich messen, du kannst weder den Ripple sehen noch die Peaks, da müssen die armen kleinen aber eben buckeln

-> siehe das rtx 3080/3090 Bestückvariantenproblemchen

genau ein C ist abgehoben und ist verfärbt, als ich letztens Mal das Liquid Metal getauscht hab war das noch nicht zu sehen...

anscheinend hat es irgendwann die Grätsche gemacht, ist aber nicht aufgefallen
ich vermute das Peaks beim Hochstellen der Spannung den Schaden erst sichtbar gemacht haben und erst dann short to gnd hatte,
es gab zuletzt Probleme wenn ich in Windows die Spannung hochgestellt hab, dann konnte ab und zu der PC abschmieren - das gabs frühers halt nicht.
Die "Selbstheilungskräfte" sind aber irgendwann ausgelutscht

bei Gelegenheit mal tauschen, ist jetzt quasi unverkäuflich ^^

FastAndy
2021-04-08, 15:13:12
Mir fällt gerade auf, dass auf dem zweiten Bild von -=Popeye=- das FoV wieder wie 50 aussieht und Ex3cut3rs Bilder 21:9 sind. So ist der Vergleich komplett für die Tonne. :freak:
Ich würde mal vorschlagen:
-720p 16:9 mit 25% RS
-Standard-FoV von 50
-die Kamera- und Standposition nach dem Laden der Testrange nicht zu verändern
-ansonsten die Detail-Settings von Ex3cut3r

Edit: Dabei kommt hier mit dem 6700k Folgendes raus:
DX11: 342fps
https://abload.de/thumb/bfv_2020_08_31_13_01_wij6m.png (https://abload.de/image.php?img=bfv_2020_08_31_13_01_wij6m.png)

DX12: 388fps
https://abload.de/thumb/bfv_2020_08_31_12_58_0tj8t.png (https://abload.de/image.php?img=bfv_2020_08_31_12_58_0tj8t.png)

Hat das mal jemand mit 5950x laufen lassen?

-=Popeye=-
2021-04-14, 23:03:38
Yeah... ASUS hat es endlich auch geschafft Resizable BAR für Z390 freizugeben.

Version 1901 Beta Version
2021/04/14 8.18 MBytes

ROG MAXIMUS XI HERO (WI-FI) BIOS 1901
Add Resizable BAR support for Nvidia RTX 30 series cards to potentially deliver more performance to gamers in select titles.
Before running the USB BIOS Flashback tool, please rename the BIOS file(M11HW.CAP)using BIOSRenamer.

https://rog.asus.com/motherboards/rog-maximus/rog-maximus-xi-hero-wi-fi-model/helpdesk_bios

gnomi
2021-04-16, 15:11:13
Prima. Für das Prime A ist das Bios auch draußen.
Fehlen nur noch RTX 3000er Karten zu vernünftigen Preisen. :wink:

Sonyfreak
2023-05-15, 13:38:56
Hat jemand von euch vielleicht eine Ahnung, ob der CPU-Teil mobiler Coffee Lake Prozessoren (z.B. Core i7-8559U (https://www.notebookcheck.com/Intel-Core-i7-8559U-SoC-Benchmarks-und-Specs.315994.0.html)) auch vom integrierten EDRAM-Cache der GPU profitieren können? :uponder:

mfg.

Sonyfreak