PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Comet Lake - Review-Thread


Seiten : [1] 2 3 4

w0mbat
2020-05-20, 15:01:56
Heute ist es nun so weit, Intel beglückt uns mit neuen CPUs:


Codename: Comet Lake (CML)
Architektur: Skylake, 14nm+++
Generation: 10th gen


Reviews
ComputerBase: https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/
Golem: https://www.golem.de/news/core-i9-10900k-core-i5-10600k-im-test-die-letzten-ihrer-art-2005-148363.html
PCGH: https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/
AnandTech: https://www.anandtech.com/show/15785/the-intel-comet-lake-review-skylake-we-go-again

Voodoo6000
2020-05-20, 15:03:25
computerbase
Overclocking ist die totale Ernüchterung

Auch einen Intel Core i9-10900K können Käufer über den Multiplikator übertakten – theoretisch zumindest. In der Praxis ist die Luft aber dünn. Kein Wunder, liegt der All-Core-Turbo doch bereits bei 4,9 GHz und in den meisten Anwendungen über 200 Watt Verbrauch.

Die 5,3 GHz mit handelsüblichen Mitteln über alle zehn Kerne zu ermöglichen, schlägt dann auch fehl. Die Mischung aus 5,0 GHz für bis zu zehn Kerne und für Vier-Kern-Last 5,3 GHz erzeugt wiederum 350 Watt Package Power (Cinebench R20) und damit eine so große Abwärme, dass die Kühlung stets am Limit agiert und Throttling bei längerem Einsatz die Folge ist. Selbst 5,1 GHz im All-Core-Modus erscheinen mit Luftkühlung und herkömmlichen All-in-one-Wasserkühlungen nahezu unmöglich und das sind nur 200 MHz über dem Dauertakt ab Werk – selten war Overclocking so ernüchternd wie heute.


yYvz3dObHws

Screemer
2020-05-20, 15:10:41
14nm und Skylake scheinen wirklich bis ans Limit ausgequetscht zu sein.

dildo4u
2020-05-20, 15:14:41
Kommt aufs Board an wie die CPU läuft Asus gibt ohne MCE z.b nur 4.3Ghz All Core frei.


1O1nhAd7V9I

Der_Korken
2020-05-20, 15:22:17
Der Verbrauch bei CB ist ja mal richtig übel. 280W Systemverbrauch bei Volllast CPU und damit 70W höher als die 12- und 16-Kerner von AMD. Mit AVX dann 370W :uroll:

Keine Ahnung, für mich ist das einfach albern, eine CPU so zu konfigurieren. Die Spieleleistung bei CB auch wenig begeisternd. 2% schneller als der 9900KS durch den höheren ST-Boost, mehr aber auch nicht, weil sich an der CPU sonst nichts geändert hat. Spiele können mit 10 Kernen nichts anfangen. Bei PCGH ist das alles etwas unübersichtlich. Teilweise ist der 10900K langsamer als der 9900K, teilweise >20% schneller :confused: muss ich mir mal im Detail angucken.

y33H@
2020-05-20, 15:26:28
Kommt aufs Board an wie die CPU läuft Asus gibt ohne MCE z.b nur 4.3Ghz All Core frei.Das gilt nicht für Asus generell, das ROG Maximus XII Hero WiFi legt volle 4,9 GHz auf allen Kernen an.

Lyka
2020-05-20, 15:28:48
Der8auer hat auch schon wieder getaktet ^^

GJpYDOjVvB8

Ravenhearth
2020-05-20, 15:36:10
Der Verbrauch bei CB ist ja mal richtig übel. 280W Systemverbrauch bei Volllast CPU und damit 70W höher als die 12- und 16-Kerner von AMD. Mit AVX dann 370W :uroll:

Keine Ahnung, für mich ist das einfach albern, eine CPU so zu konfigurieren. Die Spieleleistung bei CB auch wenig begeisternd. 2% schneller als der 9900KS durch den höheren ST-Boost, mehr aber auch nicht, weil sich an der CPU sonst nichts geändert hat. Spiele können mit 10 Kernen nichts anfangen. Bei PCGH ist das alles etwas unübersichtlich. Teilweise ist der 10900K langsamer als der 9900K, teilweise >20% schneller :confused: muss ich mir mal im Detail angucken.
Bei PCGH ist der 10900K in Anno 1800 44% schneller als der 9900K. :freak: Wie kann das denn sein? Das Spiel nutzt die extra Kerne noch nichtmal.

Lowkey
2020-05-20, 15:39:56
Der neue/alte König ist der i7-8700k i7-8086k i5-10600k. Leider ist durch das Binning kein max OC mehr möglich. Dafür sind für Gaming 12 Threads mit knapp 5 Ghz immer noch die P/L Möglichkeit im Highend.

Anno1800 scheint beim Benchen immer noch ein Problem zu sein...

Spätestens jetzt platzt die Bombe. Denn die ersten beiden Vertreter von Comet Lake-S weisen mitnichten eine sehr hohe Leistunsgaufnahme unter Last auf, wie von den meisten erwartet.

Wo sind die 250 Watt hin? 70w beim 10900k und 92w beim 3950x. Das deutet darauf hin, dass kein Spiel die CPU komplett auslastet und AVX nutzt.


=> Intel legt was drauf, die Preise sind relativ stabil: 8700k zu 10600k. Lediglich die Mainboardpreise sind um gut 30-50% gestiegen. Dafür gibt es wohl eine stärkere Boardkühlung mit stärkeren VRMs.

=> Budget King wird der i5 ohne OC für 175 Euro, der dann im Angebot dem 3600 Konkurrenz macht. Als Gaming Unterbau erste Wahl. Fehlen nur die passenden Boards. Wann kommen die günstigen B und H Boards?

Hakim
2020-05-20, 15:46:18
Wer vor zwei Jahren beim 8700K zugeschlagen hat, kann sich heute noch mehr als glücklich schätzen. CB

Da hab ich wohl einmal was richtig gemacht.

Lowkey
2020-05-20, 15:52:13
Richtig gemacht haben es die, die damals die 8086 CPUs aus dem Gewinnspiel aufgekauft haben. Die waren qualitativ wohl das Beste.

Mortalvision
2020-05-20, 15:53:10
Ja, die 8086 Edition war wirklich top.

aufkrawall
2020-05-20, 15:56:27
Das Produkt muss ja echt überzeugend sein, wenn sich alle gegenseitig beglückwünschen, ein Vorgängermodell gekauft zu haben. ;D

dildo4u
2020-05-20, 15:58:05
Ich würde erstmal warten den i5 hervorzuheben die 65 Watt Modelle haben 2.9Ghz Base Clock, die 125Watt Modelle 4.1Ghz dafür zahlt man fast 100€ mehr.
Dort kann man dann fast den 3700X nehmen.

Linmoum
2020-05-20, 16:00:53
PCGH übertrifft sich echt selbst. Wie kann man sowas überhaupt veröffentlichen? Alleine der Wert in Anno 1800 ist komplett absurd.

Ravenhearth
2020-05-20, 16:05:47
Ich würde erstmal warten den i5 hervorzuheben die 65 Watt Modelle haben 2.9Ghz Base Clock, die 125Watt Modelle 4.1Ghz dafür zahlt man fast 100€ mehr.
Dort kann man dann fast den 3700X nehmen.
Wieso fast? Aktuell kostet der 3700X weniger als der 10600K.

Schnoesel
2020-05-20, 16:05:49
Das finde ich krass:

https://i.postimg.cc/d37dBjXY/4.jpg

Was für ein Blender. CB hat ja noch den best case genommen und 30 Sekunden zwischen den Benches gelassen damit die arme CPU sich etwas erholen kann, damit es net so furchtbar wird:

"Die Botschaft ist damit allerdings klar: Selbst der zweite Testlauf der Redaktion stellt einen Best Case mit Limits dar. Würde der gesamte Parcours mit nur minimalen Pausen zwischen den Benchmarks durchlaufen werden, wäre zumindest der Core i9-10900K nochmals langsamer. Und allein die Reihenfolge der Benchmarks würde dann einen Unterschied machen."

https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/2/#abschnitt_robuste_benchmarks_nur_ohne_limits

dildo4u
2020-05-20, 16:07:20
Wieso fast? Aktuell kostet der 3700X weniger als der 10600K.
Hab das hier bei Alternate gesehen.

https://www.alternate.de/Intel/Core-i5-10600KF-Prozessor/html/product/1612056?campaign=Sockel+1200/Intel%C2%AE/1612056

Platos
2020-05-20, 16:10:33
Naja, kommt darauf an, wie man es betrachtet. Hatte man damals in Ende 2017 einen 4c/4t und will/braucht hohe FPS, dann ist es vermutlich schon das glückste gewesen, sich einen 8700k zu kaufen. Denn mit einem 4c/4t noch 2.5 Jahre länger spielen, wenn man hohe FPS haben will, ist dann schon sinnlos.

Und ein 6-Kerner reicht nun noch ein bisschen, so dass man vlt. das nächste mal erst bei Intels 7nm CPUs (mit neuen Kernen) umsteigen kann. Ich würde sagen, bei einer CPU-Laufzeit von ~6 Jahren, ist das also genau die richtige Strategie gewesen.

Wenn man aber z.B eher im Bereich 40-60FPS spielt und schon ein 4c/8t hat (übertaktet), wäre das dann aus meiner Sicht eher ein "Fail-Kauf", wie alles richtig gemacht. Also ich würde mich ja tierisch aufregen, hätte ich erst vor ~2 Jahren eine 6-Kern CPU gekauft für das Geld, wofür man heute einen 8-Kerner bekommt.

Aber ich persönlich kaufe keine Intel-CPUs vor 10nm bzw. 7nm, da ich davon ausgehe, das 10nm im Desktop nicht der Bringer wird.

Radeonfreak
2020-05-20, 16:15:37
PCGH übertrifft sich echt selbst. Wie kann man sowas überhaupt veröffentlichen? Alleine der Wert in Anno 1800 ist komplett absurd.

Das Review erscheint mir eh sehr Intel lastig zu sein und auch der 3900x liegt sogar in seinen Werten unter Stock. 6600 in CB20? Ehrlich? Wenn das auch für den Rest giilt. :freak:

Der_Korken
2020-05-20, 16:33:29
Intel hätte eigentlich mal einen Bruch gebraucht. Statt des 8C Coffee Lakes hätte Intel schon Ende 2018 bzw. Anfang 2019 einen 14nm-Port auf Sunny Cove Basis bringen sollen. Ja, das wäre teurer und riskanter gewesen, aber dass man eine ehemals als Vierkerner konzipierte Architektur im selben Prozess nicht immer weiter aufpumpen kann, muss denen selber klar gewesen sein. Ein 8C mit 15% mehr IPC und 4,2-4,3Ghz Boost (so hoch boosten die ersten 10nm Ice Lakes) wäre zwar langsamer als ein 9900K gewesen, aber gegenüber dem 8700K trotzdem ein gutes Upgrade und man hätte den Architekturwechsel vollzogen als man noch die ST-Krone hatte (das kann sich mit Zen3 ändern). Darauf hätte man aufbauen können und wäre jetzt schon deutlich weiter. Nun hat man Skylake auf 5,3Ghz hochgeprügelt und muss mit Rocket Lake eventuell Abstriche hinnehmen (8C statt 10C, keine ST-Verbesserung durch hohen Taktverlust). Ja, natürlich hat der 10900K jetzt die Spielekrone und es ist auch keine schlechte CPU, aber technologisch eine Sackgasse, eine tote Investition, da man bessere Designs schon fertig in de Schublade liegen hat - nur halt für 10nm statt für 14nm.

Ravenhearth
2020-05-20, 16:36:39
PCGH übertrifft sich echt selbst. Wie kann man sowas überhaupt veröffentlichen? Alleine der Wert in Anno 1800 ist komplett absurd.
Bei Golem performt Anno 1800 auch, wie man es erwarten würde.

https://scr3.golem.de/screenshots/2005/Comet-Lake-S-Review/thumb620/01-anno-1800,-island-10k-savegame-(ultra-preset,-d3d12,-far-cam,-720p)-chart.png

Schnoesel
2020-05-20, 16:40:55
Sie haben es mittlerweile selbst erkannt:

https://extreme.pcgameshardware.de/news-kommentare-zu-cpus/568843-intel-core-i9-10900k-und-i5-10600k-im-test-finaler-schlag-der-14-nm-garde-mit-10-kernen-und-5-3-ghz-4.html#post10319666

y33H@
2020-05-20, 16:42:31
Vermutlich hat PCGH alte Werte mit früheren Patches und Treibern mit aktuellen Messungen gepanscht ... daher mache ich Spiele bzw alles mit Online-Zwang-Update immer neu ^^

Linmoum
2020-05-20, 16:44:41
Dann lasse ich halt 'nen Praktikanten mal gegenbenchen. Zu wenig Zeit mag sein, aber sowas springt einem doch spätestens dann, wenn man die Werte untereinander vergleicht, sofort ins Auge. Das dann trotzdem einfach zu veröffentlichen ist doch kompletter Käse. Ist ja nicht das einzige, was da nicht ganz hinhaut.

Ex3cut3r
2020-05-20, 16:58:13
Also PCGH scheint allgemein sehr hohe Werte für den Comet Lake auszuspucken, Keine Ahnung warum. Aber schaut man sich das mal an, lohnt es sich sogar von einem aktuellen Ryzen zu wechseln. :D

Schnoesel
2020-05-20, 17:04:12
Wir wissen warum. Warum du nicht?

Ex3cut3r
2020-05-20, 17:04:52
Wir wissen warum. Warum du nicht?

Ruhig, mein Comment war lolig an PCGH gerichtet. Was aber erstaunlich ist, sind die Temps, die scheinen unter Kontrolle zu sein. IMO trotzdem eine gute CPU, die Leistung fürs Gaming ist einfach gut. Die Preise (leider) noch nicht, ist momentan alles mindestens einen 50er-100€ zu teuer. Mal sehen ob Ryzen 3000 jetzt im Preis fällt.

Ravenhearth
2020-05-20, 17:10:00
Laut Hardware Unboxed ist das mehr oder weniger ein Paper-Launch, die Mengen sollen nicht gerade groß sein.

Lowkey
2020-05-20, 17:11:09
Laut News hat Intel die Mitarbeiter trotz Corona zur Arbeit gezwungen ;)

BlacKi
2020-05-20, 17:20:16
mich wunderts das die cpus so günstig zu haben sind. praktisch billiger als der 9900k zum release. vorrat scheints trotzdem nicht zu geben.


Keine Ahnung, für mich ist das einfach albern, eine CPU so zu konfigurieren. Die Spieleleistung bei CB auch wenig begeisternd. 2% schneller als der 9900KS durch den höheren ST-Boost, mehr aber auch nicht, weil sich an der CPU sonst nichts geändert hat. Spiele können mit 10 Kernen nichts anfangen. Bei PCGH ist das alles etwas unübersichtlich. Teilweise ist der 10900K langsamer als der 9900K, teilweise >20% schneller :confused: muss ich mir mal im Detail angucken.
die 2% stammen wohl eher von dem schnelleren ram. immerhin läuft der jetzt mit 2933mhz XD

mit was der intel mit skylake im stande ist wenn memory + OC ins spiel bei spielen kommt, zeigt der CB test von gestern gegen den 3900x. leider zeigt hier keiner benches mit memory OC, kotzen sich aber aus wie wenig OC möglich ist.

kennt jemand die taktraten je core auslastung? allcore hin oder her, aber was liegt denn in den spielen an?

Ja, natürlich hat der 10900K jetzt die Spielekrone und es ist auch keine schlechte CPU, aber technologisch eine Sackgasse, eine tote Investition, da man bessere Designs schon fertig in de Schublade liegen hat - nur halt für 10nm statt für 14nm.
ich hab bei der cpu auch eher gemischte gefühle, so kurz vor rocket lake, auch wenn die gaming performance spitzenklasse ist.

dildo4u
2020-05-20, 17:24:39
Hast recht bei CB Test vom 9900k steht 700€ Holy Fucking Shit.

https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/4/#abschnitt_hohe_leistung_zum_sehr_hohen_preis

Ex3cut3r
2020-05-20, 17:25:31
mich wunderts das die cpus so günstig zu haben sind. praktisch billiger als der 9900k zum release. vorrat scheints trotzdem nicht zu geben.

Naja, im Vergleich zum Ryzen 50-100€ aktuell zu teuer. Dafür gibt aber mit dem Z490 Tomahawk für 200€ gleich ein sehr solides Board. Ohne großen Premiumaufschlag und ohne Lüfter. ^^
https://geizhals.de/msi-mag-z490-tomahawk-7c80-004r-a2288109.html?hloc=de

Hätte ich nicht vor ein paar Wochen einen 3700X + X570 Board gekauft. Hätte ich wohl beim i7-10700K zugeschlagen. Mist.

BlacKi
2020-05-20, 17:32:34
Naja, im Vergleich zum Ryzen 50-100€ aktuell zu teuer. Dafür gibt aber mit dem Z490 Tomahawk für 200€ gleich ein sehr solides Board. Ohne großen Premiumaufschlag und ohne Lüfter. ^^
https://geizhals.de/msi-mag-z490-tomahawk-7c80-004r-a2288109.html?hloc=de

Hätte ich nicht vor ein paar Wochen einen 3700X + X570 Board gekauft. Hätte ich wohl beim i7-10700K zugeschlagen. Mist.
ja, und mit memory oc darf der auch gerne mal 25% teurer sein, denn die soviel ist er wohl schneller, siehe CB test von gestern.

dildo4u
2020-05-20, 17:33:43
Der 10700k kostet über 400€ der Preis passt überhaupt nicht, zumindest wenn man ein neues System kauft kann man da zur nästen GPU Stufe gehen mit einem 3700X.

BlacKi
2020-05-20, 17:35:14
Der 10700k kostet über 400€ der Preis passt überhaupt nicht, zumindest wenn man ein neues System kauft kann man da zur nästen GPU Stufe gehen mit einem 3700X.
kann man machen, aber wenn man memory oc macht, geht dem 10700k 25% später die puste aus^^

dildo4u
2020-05-20, 17:38:41
Mit dem teuren 4000 Ram da hat man noch mehr Geld fürs GPU Upgrade auf AMD Seite.

Complicated
2020-05-20, 17:40:57
Eine teurere GPU bringt bei 720p halt nichts ;)
Daher kauft man das nicht wenn man 720p als Maßstab nimmt bei der Kaufentscheidung.

bananenmann
2020-05-20, 18:12:42
Kommt aufs Board an wie die CPU läuft Asus gibt ohne MCE z.b nur 4.3Ghz All Core frei.


https://youtu.be/1O1nhAd7V9I

Ich hatte das so verstanden, dass die 4,3 Ghz allcore normal sind - also auf allen Boards. Und wenn man dann auf diesen im Bios MCE einschaltet, dann bekommt man 4,9 Ghz allcore... ebenfalls auf allen Boards. Richtig?

dildo4u
2020-05-20, 18:16:30
Nein.


Asus:

While testing on the Asus ROG Maximus XII Extreme and MCE enabled, the board maintained an all-core clock frequency of 4.9 GHz, but with MCE disabled the frequency dropped as low as 4.3 GHz. Intel advertises up to a 4.9 GHz all-core turbo depending on workload and duration, so it seems Asus is adhering to that spec.

MSI:

However, after we had finished all testing we started messing around with other motherboards from other makers and found different boost behavior. Using the MSI Z490 Tomahawk, the board by default runs all cores at 4.9 GHz, regardless of duration, and with MSI’s version of MCE enabled which they call ‘Enhanced Turbo’, the 10900K’s all-core frequency was 5.1 GHz. Basically MSI is allowing the Tomahawk to run in the maximum power state indefinitely, whereas Asus is following the Intel spec and after a short period of time reduces the frequency.

https://www.techspot.com/review/2028-intel-core-i9-10900k/

Ex3cut3r
2020-05-20, 18:38:22
Also auf dem Tomahawk läuft das Teil 5,1 All Core? Automatisch ohne Optimierung? Geil, das nenn ich mal einen PBO Boost und nicht diese 1 Sekunden 4,6 GHz beim AMD.

Was ist den OC mäßig möglich mit AIO oder guter Luftkühlung? 5,5 Ghz machbar?

dildo4u
2020-05-20, 18:40:56
Ist mittlerweile wie bei AMD man würgt ab Werk alles raus was man kann.


Die 5,3 GHz mit handelsüblichen Mitteln über alle zehn Kerne zu ermöglichen schlägt fehl. Die Mischung aus 5,0 GHz für bis zu zehn Kerne und 5,3 GHz für Vier-Kern-Last erzeugen wiederum 350 Watt Package Power (Cinebench R20) und damit eine so große Abwärme, dass die Kühlung stets am Limit agiert und Throttling bei längerem Einsatz die Folge ist. Selbst 5,1 GHz im All-Core-Modus erscheinen mit Luftkühlung und herkömmlichen All-in-One-Wasserkühlungen nahezu unmöglich, und das sind nur 200 MHz über dem Dauertakt ab Werk – selten war Overclocking so ernüchternd wie mit Comet Lake-S.

https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/4/#abschnitt_overclocking_ist_die_totale_ernuechterung

Thunder99
2020-05-20, 18:44:44
@Ex3cut3r, du hast es richtig gemacht mit dem AMD System. Schau dir doch mal an zu welchem Preis sich Intel die Geschwindigkeit erkauft und wie lange sie wirklich da ist bevor die CPU ein gebremst wird :wink:. Und ein AMD läuft länger auf max Speed, nicht nur eine Sekunde. Weiter ist der Durchschnitt-Takt bei echter Belastung höher.

Platos
2020-05-20, 18:48:37
Ist mittlerweile wie bei AMD man würgt ab Werk alles raus was man kann.




https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/4/#abschnitt_overclocking_ist_die_totale_ernuechterung

Ich wüsste nicht, wo da das Problem liegt. Im Grunde ist das wünschenswert, dass man alles aus dem Produkt raus quetscht. Auch die ganze Turbos, die man mittlerweile hat, sind einfach deutlich besser, wie vor noch ein paar Jahren.

Ex3cut3r
2020-05-20, 18:48:58
@Ex3cut3r, du hast es richtig gemacht mit dem AMD System. Schau dir doch mal an zu welchem Preis sich Intel die Geschwindigkeit erkauft und wie lange sie wirklich da ist bevor die CPU ein gebremst wird :wink:. Und ein AMD läuft länger auf max Speed, nicht nur eine Sekunde. Weiter ist der Durchschnitt-Takt bei echter Belastung höher.

Also mein 3700X läuft mit PBO und einer 240mm AIO in Games mit "erbärmlichen" 4,25 ghz average. Manuell ist 4,3 Allcore @ 1,350V. 1.400V bringt nix, Nichtmal 4,4 ghz Allcore. Vlt. eine Krücke erwischt? Glaube eher nicht, das ist wird wohl der Durschschnitt sein. :redface:

Lowkey
2020-05-20, 18:50:02
Wie oben geschrieben wurde kannst du den Intel auch permanent ohne Limit laufen lassen.

Aber ich verstehe auch keinen AMD User, warum es ein x570 sein muss ;)

aceCrasher
2020-05-20, 18:50:26
Mal ganz abgesehen davon dass man auf AM4 ja dieses Jahr auch noch auf Zen 3 aufrüsten kann. Der 10900K ist im Grunde auch nur ein 6700K mit mehr Kernen, optimierter Fertigung und Werks-OC. Die paar Prozent Performance die der 10900K im Vergleich zu einem Ryzen rausholt wären mir niemals den Mehrverbrauch wert.

Thunder99
2020-05-20, 18:52:19
Ok, sollte dazu erwähnen, dass der Durschnitt-Takt bei AMD höher ist als bei Intel wenn man die Einbrüche vergleicht. :)
Die Auswirkungen auf das Ergebnis sind groß: Im Maximum werden 6.400 Punkte, im schlechtesten Fall nur knapp über 5.400 Punkte erreicht – das sind 16 Prozent Unterschied auf ein und derselben CPU. Die 900 MHz respektive 18 Prozent Taktverlust von 4,9 GHz Dauertakt auf 4,0 GHz, die das Zurückfahren von PL2 auf PL1 bedeutet, skalieren in dem Test fast linear mit verlorengegangener Leistung.
Quelle CB (https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/2/#abschnitt_core_i910900kf_mit_deutlichen_verlusten)

Thunder99
2020-05-20, 18:53:28
Wie oben geschrieben wurde kannst du den Intel auch permanent ohne Limit laufen lassen.

Aber ich verstehe auch keinen AMD User, warum es ein x570 sein muss ;)
Wenn man von Intel auf AMD umsteigt darf es dann auch die neuste Technologie sein damit es sich auch in dieser hin sicht rentiert über Jahre :)

Lehdro
2020-05-20, 19:15:42
Die Leistung mal aussen vor (die ist sehr gut):

- massive BIOS Probleme mit einigen Boards (soviel zum LTT Video: "Intel just works")
- Boards "cheaten" erneut bei den Power Limits (und täglich grüßt das Murmeltier)
- ~Paper Launch (kennen wir vom: 7700K, 8700K, 9900K & Ryzen 9)
- überhöhte Preise im Handel zum Release (siehe einen Punkt drüber)

Schön dass sich die Konkurrenten mittlerweile auf Augenhöhe begegnen :freak:

Lowkey
2020-05-20, 19:18:14
Wenn man von Intel auf AMD umsteigt darf es dann auch die neuste Technologie sein damit es sich auch in dieser hin sicht rentiert über Jahre :)

Für den Aufpreis? Ohne praktischen Nutzen?


Mal ganz abgesehen davon dass man auf AM4 ja dieses Jahr auch noch auf Zen 3 aufrüsten kann. Der 10900K ist im Grunde auch nur ein 6700K mit mehr Kernen, optimierter Fertigung und Werks-OC. Die paar Prozent Performance die der 10900K im Vergleich zu einem Ryzen rausholt wären mir niemals den Mehrverbrauch wert.

Mehrverbrauch bei Games?

10600k 53w, 3600 56w, 8700k 69w

=> Intel ist bei FPS in Games vor AMD => Intel ist bei Games effizienter.

(Quelle PCGH (https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/))

Bei Anwendungen herrscht vermutlich ein Gleichstand mit Vorteil für AMD.

BlacKi
2020-05-20, 19:25:14
Ist mittlerweile wie bei AMD man würgt ab Werk alles raus was man kann.




https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/4/#abschnitt_overclocking_ist_die_totale_ernuechterung
5,3 auf allen kernen geht sicher in spielen.

die leute bei cb wissen nur nicht wie.

du stellst vcore auf auto oder standard, multiplikator auf 53 und tjmax auf 80 grad. da die spiele keine volle last auf alle kerne geben wie cb cinebench oder prime, wird die cpu mit guter kühlung dauerhaft 5.3 laufen. sicher werden bestimmt 1,45v anliegen ab und zu, aber das hat intel ja freigegeben.
in prime oder cinebench wird die cpu dann runtertakten um die temperatur und damit den stromverbrauch nicht zum explodieren zu bringen. dann verbraucht die kiste auch keine 250w mehr, allerhöchstens kurzzeitig, denn sie wird unter maximalem stress durch tjmax gedrosselt und in spielen liegt der verbrauch weit unter 125w.

alternativ stellst du gleich powerlimit werte ein. ich finde die lösung über tj max allerdings eleganter.

Thunder99
2020-05-20, 19:33:02
Für den Aufpreis? Ohne praktischen Nutzen?




Mehrverbrauch bei Games?

10600k 53w, 3600 56w, 8700k 69w

=> Intel ist bei FPS in Games vor AMD => Intel ist bei Games effizienter.

(Quelle PCGH (https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/))

Bei Anwendungen herrscht vermutlich ein Gleichstand mit Vorteil für AMD.
Ich kaufe lieber vorausschauend ;) und ich habe bereits einen Nutzen :wink:

Intel Jünger müssen sich dann gleich wieder eine neue CPU und Mainboard kaufen damit sie in den Genuss kommen ;D

maximus_hertus
2020-05-20, 19:36:51
Für den Aufpreis? Ohne praktischen Nutzen?


Wie kommst du darauf? Warum sollte PCIe 4.0 (Grafik und SSD) keinen praktischen Nutzen in 3-4 JAhren erbringen?

Nicht jeder kauft sich, wie anscheinend du, jedes JAhr ein neues Board und CPU. Dazu sind die X570er 100% ZEn 3 kompatibel, ohne BETA Bios, kein Wegzurück Bios.

Blicke einfach mal von Zeit zu Zeit über den Tellerrand.

Ja, der Lüfter beim X570er ist nicht toll, aber auch hier: es gibt Boards, bei denen der Lüfter zu 99% der Zeit aus ist, also kein Problem.

BlacKi
2020-05-20, 19:39:57
Intel Jünger müssen sich dann gleich wieder eine neue CPU und Mainboard kaufen damit sie in den Genuss kommen ;D
das argument zieht leider nicht. cfl nutzer werden erst garnicht wechseln und für alle anderen wäre sowieso ein wechsel nötig, auch bei amd muss man nach 4 jahren ein mainboard wechseln. ein MB wechsel bringt auch ram tuning vorteile. du wirst abstriche machen müssen gegenüber einem b550/x570 wenn du nur ein 300/400er serie board hast.

mich persönlich trifft das sowieso nicht. ich muss mir traditionell pro cpu 2 boards kaufen weil sie verrecken. teils meine schuld teils von alleine XD

beim 2500k hatte ich 2 boards in verwendung, beim 5820k ebenfalls, und mein z370 hat auf dem ersten pcie slot nur noch 2 lanes... da bräuchte ich auch ein 2. board. ich hab mich gefragt, ob ich mir nun ein 2. cfl board kaufe, rein aus neugier mir einen 3700x auf ein b550 setze und auf zen3 warte, oder auf cometlake setze. vermutlich wirds ein z390 board, weil ich nicht mehr als 6kerne brauche bis alderlake, und die kernleistung ebenfalls top ist.

Megamember
2020-05-20, 19:42:52
WIe ist das eigendlich in Sachen future proof von dem 1200er Sockel? Laufen da nur die comet lake dinger drauf oder auch noch spätere, Ice lake, oder was auch immer da geplant ist? Oder ist ist der Sockel ne Sackgasse?

dildo4u
2020-05-20, 19:43:34
Im Low End scheint Intel gar nix zu haben so lange es keine Alternative zum Z490 gibt, eigentlich macht damit nix unter dem 8 Core für über 400€ Sinn.

Thunder99
2020-05-20, 19:44:56
das argument zieht leider nicht. cfl nutzer werden erst garnicht wechseln und für alle anderen wäre sowieso ein wechsel nötig, auch bei amd muss man nach 4 jahren ein mainboard wechseln. ein MB wechsel bringt auch ram tuning vorteile. du wirst abstriche machen müssen gegenüber einem b550/x570 wenn du nur ein 300/400er serie board hast.
Gleiche gilt auch für AMD die nicht wechseln müssen da sie einfach länger was haben vom System.

Schnoesel
2020-05-20, 19:53:31
Für den Aufpreis? Ohne praktischen Nutzen?


Weißt du was wirklich keinen praktischen Nutzen hat. Ein Z490 Board das angeblich mit PCIe4.0 umgehen kann aber die CPU dazu nicht. Das hat keinen praktischen Nutzen.

Aber schon beeindruckend von Intel. Haben ganze 2% Mehrperformance rausgeholt gegenüber der Vorgängergeneration. Kein Wunder dass der KS gehen musste. Stark Intel stark ;D

bzgl. Leistungsausfnahme in Gaming:

https://i.postimg.cc/CKhcLLbd/4.png

Kann sich ja jeder selbst ausrechnen.

Platos
2020-05-20, 20:02:12
Leider steht da nicht, was FullHD Gaming bedeuten soll bzw. welches Spiel und Settings das sind.

Und was heisst Multithreading? Ich würde doch gerne wissen, welches Spiel das ist.

Aber abgesehen davon: Haben eig. alle kein 10700k bekommen?

Und Stromverbrauch: Der 10 Kerner ist natürlich ziemlich durstig, aber beim i5 siehts dann eig. ziemlich ok aus in Spielen.

Linmoum
2020-05-20, 20:02:36
WIe ist das eigendlich in Sachen future proof von dem 1200er Sockel? Laufen da nur die comet lake dinger drauf oder auch noch spätere, Ice lake, oder was auch immer da geplant ist? Oder ist ist der Sockel ne Sackgasse?Wahrscheinlich ebenfalls Rocket Lake im nächsten Jahr, allerdings verabschiedet sich Intel direkt wieder von 10C und es geht wieder zurück auf max. 8C.

Tarkin
2020-05-20, 21:26:01
Für den Aufpreis? Ohne praktischen Nutzen?




Mehrverbrauch bei Games?

10600k 53w, 3600 56w, 8700k 69w

=> Intel ist bei FPS in Games vor AMD => Intel ist bei Games effizienter.

(Quelle PCGH (https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/))

Bei Anwendungen herrscht vermutlich ein Gleichstand mit Vorteil für AMD.

Jo... und die Intel CPU ist nur 150 Euro teuer (oder anders gesagt DOPPEL so teuer - muss man sich mal auf der Zunge zergehen lassen) und kommt ohne Kühler - tolle Wurst! :rolleyes::eek:

Für den gleichen Preis bekomme ich bei AMD einen 8 Core + gutem Kühler und hab im Endeffekt sogar noch Kohle übrig! Wahnsinn, einfach irre die Intel Preispolitik!

6 Cores für 310,- genialer Fortschritt, bravo!

MiamiNice
2020-05-20, 21:29:24
Meh, 2 Kerne mehr und neues Board dazu? Eher nicht. Ich würde sagen wer einen 9900K gekauft hat, hat alles richtig gemacht. Zu Release 2018 gekauft, noch heute der König. :wink:

=Floi=
2020-05-20, 21:40:05
Ich würde sagen wer einen 9900K gekauft hat, hat alles richtig gemacht.

wer einen 3700X... :cool:

Lowkey
2020-05-20, 21:58:31
Gaming? 3700x und 9900k sind doch in ein paar Monaten stark überholt und heute relativ nutzlos.

Jo... und die Intel CPU ist nur 150 Euro teuer (oder anders gesagt DOPPEL so teuer - muss man sich mal auf der Zunge zergehen lassen) und kommt ohne Kühler - tolle Wurst! :rolleyes::eek:

Für den gleichen Preis bekomme ich bei AMD einen 8 Core + gutem Kühler und hab im Endeffekt sogar noch Kohle übrig! Wahnsinn, einfach irre die Intel Preispolitik!

6 Cores für 310,- genialer Fortschritt, bravo!

Ich rede vom Stromverbrauch in Bezug auf vorherige Posts und du redest über den Preis. ;)

Lowkey
2020-05-20, 22:07:25
Wie kommst du darauf? Warum sollte PCIe 4.0 (Grafik und SSD) keinen praktischen Nutzen in 3-4 JAhren erbringen?


Schau dir die Werte von PCI-E 3.0 and und man sieht keinen Bedarf, sondern sogar noch Spielraum in der Bandbreite. Und die notwendige Bandbreite brauchen Higendbeschleuniger der 1000+ Euro Klasse. Bei PCI-E 4.0 SSDs siehst du nur die höhere sequenzielle Transferrate. Nichts lädt schneller, nichts kann dadurch schneller werden. Externe Medien hängen bei 400mb/s oder 1000mb/s (M.2, verbrennend heiß).
Klug ist es eine NVME SSD zu nehmen, denn die hat man wirklich noch viele Jahre im Rechner. Ich tippe auf einen Vorteil durch NVME als durch PCI-E 4.0.


Nicht jeder kauft sich, wie anscheinend du, jedes JAhr ein neues Board und CPU. Dazu sind die X570er 100% ZEn 3 kompatibel, ohne BETA Bios, kein Wegzurück Bios.


Niemand kauft sich einen x570 für Zen3, denn die Leistung der meisten CPUs reicht heute aus. Die Faustregel eine Generation zu überspringen gilt immer noch. Die Frickellösungen gibt es heute und niemand weiss wie gut/schlecht es wird.


Blicke einfach mal von Zeit zu Zeit über den Tellerrand.


Genau das mache ich und komme zu einer anderen Schlussfolgerung.


Ja, der Lüfter beim X570er ist nicht toll, aber auch hier: es gibt Boards, bei denen der Lüfter zu 99% der Zeit aus ist, also kein Problem.


Das ist auch kein Problem, wenn man das Board praktisch nicht voll ausfährt.

Thunder99
2020-05-20, 22:57:34
@Blacki nichts für ungut :). Wer ein System aus Zen 2 oder Coffe Lake hat kann die Generation auslassen, das stimmt.

Wer aber jetzt noch neukaufen möchte sollte sich im klaren sein, dass zwar von der Geschwindigkeit die CPUs interessant sind aber von der Plattform oder Gesamtpaket sicher AMD die Nase vorne hat (spätestens mit B550 welcher längst überfällig ist...)

Es ist nach wie vor alter Wein (Skylake) in neuen Schläuchen...

Matrix316
2020-05-20, 23:08:00
Nach 3 Jahren AMD wäre es ja eigentlich mal wieder Zeit für Intel. Schade, dass da nicht mehr passiert ist. Spätestens als AMD den 1700er mit 8 Kernen auf den Mainstream losgelassen hat, hätte sich Intel schon Gedanken machen müssen...

r3ptil3
2020-05-20, 23:09:25
10400 (160€) oder 10700f (290€) kaufen und im Herbst mit wenig Verlust verkaufen und Ryzen 3 holen - meine Vorgehensweise.

Bin gespannt was mit Undervolting so gehen wird.

8700k ging für knapp 300 weg.

w0mbat
2020-05-20, 23:10:41
Du wechselst also jetzt die Plattform, damit du im Herbst wieder die Plattform wechseln kannst?

BlacKi
2020-05-20, 23:16:24
Wer aber jetzt noch neukaufen möchte sollte sich im klaren sein, dass zwar von der Geschwindigkeit die CPUs interessant sind aber von der Plattform oder Gesamtpaket sicher AMD die Nase vorne hat (spätestens mit B550 welcher längst überfällig ist...)
kann dir nicht folgen was ist das problem? der verbrauch?

w0mbat
2020-05-20, 23:40:43
Nur PCie Gen3, nur 16 lanes von der CPU, etc.

Man kann mit LGA1200 + CML nichtmal eine PCIe Gen3 x4 NVMe voll anbinden, das geht nur über den Chipsatz via DMI 3.0 und da sitzt ja mindestens noch ethernet und sound dran.

Platos
2020-05-21, 00:56:58
Da hier ja einige die CPU so oft wie ihre Unterwäsche wechseln, spielt das ja keine Rolle. Denn bis nvme SSDs was bringen (im Gaming), haben die dann ja schon 2-3 Mal gewechselt ;D

SKYNET
2020-05-21, 01:58:00
Da hier ja einige die CPU so oft wie ihre Unterwäsche wechseln, spielt das ja keine Rolle. Denn bis nvme SSDs was bringen (im Gaming), haben die dann ja schon 2-3 Mal gewechselt ;D


ehm, also der unterschied zwischen NVMe und SATA SSD ist bei gewissen games in den ladezeiten schon recht deutlich... und ich rede von ner "alten" 3.0 NVMe die nur knapp über 2.5GB/s macht...

zockerX
2020-05-21, 02:52:49
Wer aber jetzt noch neukaufen möchte sollte sich im klaren sein, dass zwar von der Geschwindigkeit die CPUs interessant sind aber von der Plattform oder Gesamtpaket sicher AMD die Nase vorne hat (spätestens mit B550 welcher längst überfällig ist...)
Bei AMD wirst du auch nur einmal aufrüsten können, was sich bekanntlich nicht lohnt.
Und bis sich PCIe 4.0 lohnt, ist die Plattform hoffnungslos veraltet. Mehr als NVMe braucht in absehbarer Zeit kein Consumer, sofern es kein extrem spezieller Einsatzzweck wäre. Und bei GPUs bringt selbst eine 2080Ti PCIe 3.0 nicht ansatzweise an die Grenze. Abgesehen davon sind die Lüfter bei AMD-Board für mich ein absolutes KO-Kriterium.

Schade, dass da nicht mehr passiert ist. Spätestens als AMD den 1700er mit 8 Kernen auf den Mainstream losgelassen hat, hätte sich Intel schon Gedanken machen müssen...
Naja, die 8 Kerne bringen kaum etwas und der 1700er ist zumindest was Spiele und Alltag angeht eine der sinnlosesten CPUs überhaupt durch die geringen Singlethread Leistung. Intels Fokus auf Singlethread Leistung ist für 90% aller Consumer besser.

dildo4u
2020-05-21, 06:52:41
Du meinst bei Intel macht es kein Sinn, AMDs Preise brechen nach einem Jahr ordentlich ein. So dass man jetzt ein 6 Core kaufen könnte, um dann später auf 12 Kerne zu gehen.
Intel 9 Gen hingegen ist immer noch Schweine Teuer und das sind 2018 Modelle.

Effe
2020-05-21, 07:34:54
Gaming? 3700x und 9900k sind doch in ein paar Monaten stark überholt und heute relativ nutzlos.
Niemand kauft sich einen x570 für Zen3, denn die Leistung der meisten CPUs reicht heute aus.
Gespaltene Persönlichkeit? Innerhalb 20 Minuten das Gegenteil zu behaupten ist schon interessant.
Warum sollte "niemand" X570 für Ryzen 3 kaufen? Deine Argumentationen werden immer wirrer.


Die Faustregel eine Generation zu überspringen gilt immer noch.
Da kann man sogar mal zustimmen. Aber 3700x und 9900k sind in ein paar Monaten weder "nutzlos" oder "stark überholt". Bullshit³

Lowkey
2020-05-21, 09:17:17
2011 konntest du dir für wenig Geld ein 2600k System bauen und es hielt sehr lange.
2020 kostet so ein PC mit den besten Teilen ein mehrfaches des Preises von damals. Es ist wirtschaftlicher heute einen PC nicht mehr auf 5-10 Jahre zu kaufen.

Der Besitzer des Ryzen 1700 dachte auch vor 3 Jahren, er sei mit 16 Threads auf der sicheren Seite. Heute kann die CPU bei Games immer noch nicht ihre Kerne ausspielen und wird von 6 Kernern überholt.

Damals waren mal 100 Euro für Mainstream normal. Ein z170/z270 für 200 Euro war für die meisten Neukäufer wucher. Dann kommt AMD mit P/L Mainboards um die 100 Euro und die Leute greifen (siehe CB Forum) dennoch aus Angst wieder zu teureren x570 Boards.

Korvaun
2020-05-21, 09:37:11
Nach 3 Jahren AMD wäre es ja eigentlich mal wieder Zeit für Intel. Schade, dass da nicht mehr passiert ist. Spätestens als AMD den 1700er mit 8 Kernen auf den Mainstream losgelassen hat, hätte sich Intel schon Gedanken machen müssen...

Bei Intel liegt es zum größten Teil an der verkackten (sorry) 10nm-Fertigung. Da sind se nun seit Jahren dran und haben es immer noch nicht im Griff. Ist natürlich blöd für die CPU Abteilung wenn sie immer gesagt bekommen "dauert nicht mehr lange" und dann ist wieder 1 Jahr rum und es geht immer noch nicht. Dann muss halt nochmal Skylake in 14nm herhalten, und dann nochmal... und nochmal... und.....

Man kann nur hoffen das es mit 7nm wieder einigermaßen klappt, sonst is Intel "am Arsch"!

chaospanda
2020-05-21, 09:57:07
iQVBlCfb72M

10600K und 10700K dürften schlicht die "vernünftigeren" Kaufoptionen sein, wenn es nicht zwingend die Sperspitze sein muss.

Mal schauen, was da preislich bei Intel noch geht, wenn die breite Verfügbarkeit gegeben ist.

Dorn
2020-05-21, 10:08:30
Der Besitzer des Ryzen 1700 dachte auch vor 3 Jahren, er sei mit 16 Threads auf der sicheren Seite. Heute kann die CPU bei Games immer noch nicht ihre Kerne ausspielen und wird von 6 Kernern überholt.
.Scherzkeks, ist ja die gleiche Konsolen Generation. Erst nächstes Jahr kann man hier so langsam an schauen wann die Kerne eine Rolle spielen.

dildo4u
2020-05-21, 10:19:45
Modern Warfare ist zu viel für den 9700k was ich ziemlich erstaunlich finde, HT war früher mal Gift für Games.

https://live.staticflickr.com/65535/49918311198_1fcbc52677_b.jpg (https://flic.kr/p/2j47oMU)mondern (https://flic.kr/p/2j47oMU) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr


I656fTow6Ow

chaospanda
2020-05-21, 10:40:23
Wichtig fand ich tatsächlich die niedergeschriebene Erkenntnis bei CB, dass es mit Comet Lake entscheidend ist, in welcher Reihenfolge und wie straff durchgetaktet gebencht wird und ob die CPUs dazwischen genug Pause bekommen.

Erstaunlich, dass die Reviewer teils extreme Probleme mit unfertigen BIOS-Versionen hatten.

Positiv fand ich, dass Asus nun eingebaut hat, das der Nutzer aktiv darauf hingewiesen wird, dass es MCE gibt und man somit zumindest theoretisch offensichtlicher die Wahl hat, ob man in den Specs bleiben will oder nicht.

Badesalz
2020-05-21, 10:47:07
Wichtig fand ich tatsächlich die niedergeschriebene Erkenntnis bei CB, dass es mit Comet Lake entscheidend ist, in welcher Reihenfolge und wie straff durchgetaktet gebencht wird und ob die CPUs dazwischen genug Pause bekommen.Ja. Das ist eben schon wichtig, ob man es noch schafft in PL2 zu testen oder ins PL1 rutscht...

Und Tau ist nur eine der Kenngrößen bei EWMA und die ist auch nicht die alles bestimmende.

hardtech
2020-05-21, 11:15:42
Wie kommst du darauf? Warum sollte PCIe 4.0 (Grafik und SSD) keinen praktischen Nutzen in 3-4 JAhren erbringen?

Nicht jeder kauft sich, wie anscheinend du, jedes JAhr ein neues Board und CPU. Dazu sind die X570er 100% ZEn 3 kompatibel, ohne BETA Bios, kein Wegzurück Bios.

Blicke einfach mal von Zeit zu Zeit über den Tellerrand.

Ja, der Lüfter beim X570er ist nicht toll, aber auch hier: es gibt Boards, bei denen der Lüfter zu 99% der Zeit aus ist, also kein Problem.

wo bleibt der spass beim basteln?
praktischer nutzen hin oder her... pcie 4.0 bringt heute keinen praktischen nutzen... du hast höheren verbrauch, den quirligen Lüfter, der auch mal ausfallen kann, Staubansammlung, den deutlich erhöhten preis...

ja gut, und warum man von einem 3600 auf einen 4600 wechseln sollte... da kann man gleich b450 kaufen und dann zu Zen 4 gehen.

aber jedem das seine. ich würde mir nie ein x570 board kaufen wg der genannten Nachteile. vorausschauend kaufen im pc Bereich hat sich noch nie gelohnt. man kauft das, was man JETZT braucht. :wink:

=Floi=
2020-05-21, 11:32:29
Der Besitzer des Ryzen 1700 dachte auch vor 3 Jahren, er sei mit 16 Threads auf der sicheren Seite. Heute kann die CPU bei Games immer noch nicht ihre Kerne ausspielen und wird von 6 Kernern überholt.

wie kommst du denn auf die schnappsidee, dass der 1700er nichts mehr ist?! Die frametimes solllten immer noch super gut sein, und weniger AVG. zum "schnelleren" 6/12 ist auch kein wunder, bei mehr ipc und mehr takt/boost, weil viele spiele eben noch keinen 8 kerner auslasten. Hier sieht man wenigstens fortschritt. :ugly:

hardtech
2020-05-21, 11:38:11
wie kommst du denn auf die schnappsidee, dass der 1700er nichts mehr ist?! Die frametimes solllten immer noch super gut sein, und weniger AVG. zum "schnelleren" 6/12 ist auch kein wunder, bei mehr ipc und mehr takt/boost, weil viele spiele eben noch keinen 8 kerner auslasten. Hier sieht man wenigstens fortschritt. :ugly:

Ryzen 1 ist in spielen wirklich nicht gut.
der 3300x {1} für 120€ macht jeden ryzen1 platt. die Architektur ist intern nicht gut angebunden und durch die schlechten internen Timings hängen die cpus in spielen hinterher.

{1} https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-3-3100-3300x

aufkrawall
2020-05-21, 11:52:17
Der IPC-Gewinn für Spiele von 1xCCX 4C Zen 2 vs. 2xCCX 4C Zen 1 dürfte absolut wahnwitzig hoch sein, womöglich in so manchem Spiel +100%.

chaospanda
2020-05-21, 11:57:17
https://www.computerbase.de/2020-05/intel-core-i9-10900k-pl1-pl2-tau/

CB hat einen extra Artikel zu P1, P2, Tau und Co veröffentlicht.

Damit spielt auch eine Rolle, was die CPU vor der neuen Volllastphase getan hat, auch wenn der Einfluss auf das Ergebnis mit größerem zeitlichen Abstand abnimmt. Eine längere Leerlaufphase mit nur 10 Watt Leistungsaufnahme hat nach dem Start einer Volllastphase mit bis zu 250 Watt (PL2 beim i9-10900K) schnell nur noch wenig Gewicht, EWMA nähert sich zügig PL1 an. War die CPU zuvor einer hohen Last ausgesetzt, liegt der EWMA deutlich höher als der Leerlaufverbrauch und erreicht schneller PL1.

Je kürzer die Last, desto deutlicher werden sich PL2 und Tau in der Leistung einer nach Intels Vorgaben betriebenen CPU niederschlagen. Viele kurze Benchmark-Tests werden 250, 229 oder 182 Watt über ihre komplette Dauer nutzen können, während längeren und den 95-Watt-CPUs mit PL2 von 119 Watt viel niedrigere Grenzen gesetzt werden.

Schnoesel
2020-05-21, 12:13:13
Die Auswirkungen des Taschenspielertricks sieht man auch hier:

https://i.postimg.cc/BvfXpyQ0/5.png

Ein minute man

Badesalz
2020-05-21, 12:14:04
CB hat einen extra Artikel zu P1, P2, Tau und Co veröffentlicht.Das sind uralte (2018) Infos -> overclockers.at -> Anand (im zweiten Versuch).

konkretor
2020-05-21, 12:22:04
Also das CPU Design und Fertigung ist mehr als ausgelutscht.

Also die 9 Generation war ja schon so lalala aber die 10 übertrifft es echt nochmals.

Bei der 11 gibts nen Wasserkocher Aufsatz gratis dazu :D

chaospanda
2020-05-21, 12:23:09
Das sind uralte (2018) Infos -> overclockers.at -> Anand (im zweiten Versuch).
Wenn es jetzt (welch Überraschung) derart hoch kocht, war es wohl nötig, es (noch) einmal im Detail auszuarbeiten, niederzuschreiben und zu veröffentlichen. ;)

Badesalz
2020-05-21, 12:28:28
Jetzt war es wohl nötig? Nö. Man traut sich das jetzt nur mittlerweile gegenüber den Blauen.
Wer JETZT darüber berichtet, hatte davor nur keine Eier dafür. In was auch immer das begründet lag :usweet:

Grad bei CB brauchen wir aber nach den Gründen und Ursachen nicht wirklich tief graben...

edit:
Power limits waren für mich schon immer Teil des OC. 95W Sandys standen auf 114W/148W. Oder 65W/77W Ivys auf 94W/122W. So weit, so gut, so fein.

Das ist jetzt aber mit den blauen 9ern und 10ern eine ganz andere Story :ulol:

Linmoum
2020-05-21, 12:40:44
Es wird darüber berichtet, weil die Parameter sich deutlich geändert haben. That's it.

zockerX
2020-05-21, 12:43:22
Du meinst bei Intel macht es kein Sinn, AMDs Preise brechen nach einem Jahr ordentlich ein. So dass man jetzt ein 6 Core kaufen könnte, um dann später auf 12 Kerne zu gehen.
Intel 9 Gen hingegen ist immer noch Schweine Teuer und das sind 2018 Modelle.
Wer sich innerhalb von einem Jahr 2 CPUs kauft, hat min. einen Fehlkauf hingelegt. Dass du dabei noch groß etwas sparst bezweifle ich.

Scherzkeks, ist ja die gleiche Konsolen Generation. Erst nächstes Jahr kann man hier so langsam an schauen wann die Kerne eine Rolle spielen.
Auch das wird wieder Jahre dauern bis man mehr als nur Einzelfälle hat. Multicoreunterstützung mit (mehr als) 4 Kernen wurde schon 2006 prophezeit als die PS3 rauskam, 2013 waren es dann 8 Kerne. Was daraus wurde wissen wir alle.

Badesalz
2020-05-21, 12:45:08
@Linmoum
EWMA ist immernoch was es war und die Parameter gab es so schon immer.
Was sich verändert hat ist das Verhältnis der Parameter.

Tau ging bisher auf den meisten Boards auf max. 32s, wenn man die Optionen im Bios einfach nur auf "Performance" (und alles Auto blieb) stellte, weil der WinRAR Bench knappe 30s dauert, bis es die erste Zahl ausspuckt... :wink:

Wann hat hier wer das erste Mal erfahren, daß die Boards da schon ewig bei den Blauen die powerlimits auf 4 kW stellen? Den Rest hat halt EWMA geregelt, damit den Leuten die Kühlerböden nicht schmelzen.

Schnoesel
2020-05-21, 12:47:48
@zockerX

Kann man imo nicht vergleichen. Weder Cell (PS3) noch die Jaguar Kerne der PS4/Xbox waren DesktopCPUs. Das wird mit der kommenden Generation anders. Die CPU in PS5/Xbox X ist eine Desktop CPU. Das könnte durchaus einen Unterschied machen. Und ja die PS4 hatte 8 Kerne aber auch nur 8 Threads, da wundert es nicht, dass 4C/8T CPUs noch sehr gut mithalten. Auch das wird sich mit 8C/16T in der Konsole ändern.

Badesalz
2020-05-21, 12:51:36
@Schnoesel
Weder Cell (PS3) noch die Jaguar Kerne der PS4/Xbox waren DesktopCPUs.Die Kerne waren keine Desktop-CPUs... Liest sich sehr aufregend. Erzähl mal mehr.

Und ja die PS4 hatte 8 Kerne aber auch nur 8 Threads, da wundert es nicht, dass 4C/8T CPUs noch sehr gut mithalten. Auch das wird sich mit 8C/16T in der Konsole ändern.Einen gleich ausschliesslich direkten Zusammenhang sehe ich da nicht. Division(2) und paar andere WENIGE Beispiele zeigen, daß eine Skalierung recht brauchbar funzen kann und auch gemacht wird, wenns eben möglich ist. Egal, ob es das Spiel für die Konsolen gibt oder nicht.
Nun denn. Wir werden ja sehen wie sich das entwickelt.

Für eine stärkere Parallelisierung braucht man halt nicht einfach nur mehr Threads, sondern erstmal und vor allem eine Idee wie man das alles nutzt und seine Daten sinnvoll verteilt.
Ab 8 Threads scheint das aber irgendwie nicht mehr so einfach zu sein wie noch von 2 auf 4 Threads.

Schnoesel
2020-05-21, 13:05:56
Ich glaube du warst derjenige der kurde Zusammenhänge zwischen völlig unterschiedlichen Prozessorarchitekturen (Cell ist ja noch nicht mal X86), Kernzahlen und Desktop PCS erstellt hat.

Edit: Falsch das war zockerX

Badesalz
2020-05-21, 13:07:13
(ok)

zockerx halt ;)

dildo4u
2020-05-21, 13:21:52
Zu Teuer davon ab das man eh keine kaufen kann.


kk9JMtH3cm4

hardtech
2020-05-21, 14:03:25
mich würde der Stromverbrauch von Intel vs amd unter spielen interessieren, in realistischen Auflösungen. also 2080ti mit 1440p, nicht 1080p.
in Anwendungen kann Intel trotz massiv höherem Stromverbrauch nicht am 3900x vorbeiziehen. die cpu ist an der kotzgrenze.

zockerX
2020-05-21, 14:16:04
@zockerX

Kann man imo nicht vergleichen. Weder Cell (PS3) noch die Jaguar Kerne der PS4/Xbox waren DesktopCPUs. Das wird mit der kommenden Generation anders. Die CPU in PS5/Xbox X ist eine Desktop CPU. Das könnte durchaus einen Unterschied machen. Und ja die PS4 hatte 8 Kerne aber auch nur 8 Threads, da wundert es nicht, dass 4C/8T CPUs noch sehr gut mithalten. Auch das wird sich mit 8C/16T in der Konsole ändern.
Jaguar war dem Desktop sehr ähnlich und trotzdem bringen 8 echte Kerne praktisch nichts. Normalerweise dürften 4C/8T schon lange nicht mehr mithalten.
Die Architektur spielt auch nur eine untergeordnete Rolle, es geht darum ob auf MT hin optimiert wird. Und das ist trotz aller Vorhersagen nicht der Fall bzw. erfolgt seeeeehr zeitverzögert. Bis du 8C/16T benötigst, werden die heute aktuellen CPUs wieder zu lahm sein. Und da brauchst du nicht mit gleicher Architektur kommen, Konsolen arbeiten nun einmal effizienter was Rechenleistung angeht. Das war schon immer so und daran wird sich auch nichts ändern. ;)

Platos
2020-05-21, 14:18:45
Bezüglich Threadanzahl:

Die Minimumanforderungen* werden zwar m.M.n nicht von der Konsole diktiert, aber die Maximal"anforderungen". Die Konsole kann 100 Threads haben, wenn am PC die Hälfte potentieller Kunden 8-12 Threads hat, muss das auch da(mit) spielbar sein.

Aber das Maximum wird sicher steigen. Von 16 Threads wird man sicherlich profitieren können (in AAA Titel). Allerdings nicht, solange noch die alten Konsolen unterstützt werden. Breitflächig wird es also sicherlich ~1/1.5 Jahre dauern.

https://www.computerbase.de/2015-08/intel-core-i5-6600k-i7-6700k-test-benchmark-skylake/7/#diagramm-call-of-duty-advanced-warfare-1080p

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/36200-skylake-core-i7-6700k-und-core-i5-6600k-im-test.html?start=9

https://www.3dcenter.org/artikel/launch-analyse-intel-skylake/launch-analyse-intel-skylake-seite-2

Aber schon in 2015 hat man von 8 Threads in vielen Spielen in den min. FPS profitiert. Und wenn nicht, dann ist es normalerweise ein Crossgentitel oder Witcher 3 bzw. PC Only. Also doch, man hat sehr wohl von 8 Threads profitiert und damaligen Next-Gen Titel. Und physische Kerne hatte beide nur 4. Interessant wäre mal ein Test von damaligen Spielen mit Skylake und heutigen 6- und 8-Kerner. Am besten dann aufgeteilt in PC-Only, "Next-Gen"-Spiele und Crossgen-Spiele

Edit: Bei CB war der 6700k im Schnitt 27% besser in Anwendungen, wie der 6600k. Anwendungen beinhalten aber auch solche synthetische Benchmarks wie Cinebench.

Leider gab es bei CB und Hardwareluxx nicht viele damalige Next-Gen Spiele. Unter den getesten Spielen waren auch noch PC Only-Spiele und Crossgen-Spiele. Bei den damaligen Next-Gen Spielen AC Unity, Ryse: Son of Rome lag die Mehrperfomance in beiden Fällen bei 27% oder höher.

* Mit Minimumanforderungen meine ich, dass die Spiele für das Genre akzeptable (nicht herausragende) Framerates liefern (unter Umständen dann natürlich auf Low-Settings wenns sein muss).

Schnoesel
2020-05-21, 14:18:51
@zockerX

Es ist nicht der Fall? Wo warst du die letzten Jahre? 4C/4T die im Übrigen zu Release von Ps4 mit 8 Kernen noch topaktuell waren sind so tot wie es nur geht und bei 6C/6T erleben wir genau das gleiche. Von den Frametimes fange ich noch nicht mal an.

Platos
2020-05-21, 14:34:00
Dass man von einem 8 Kerner enorm profitieren wird und auch jetzt schon tut, ist eig. klar.

Interessant finde ich eher, ob man dann auch wirklich signifikant von 16 Threds profitieren kann und somit ein 16c/16t(32t) deutlich bessere Perfomance abliefert, wie eben ein 8c/16t.

Könnte nach ~1/1.5 Jahren durchaus durchgened Vorteile bringen. Ich hoffe doch, es gibt dazu dann Tests.

uweskw
2020-05-21, 14:36:24
wie kommst du denn auf die schnappsidee, dass der 1700er nichts mehr ist?! Die frametimes solllten immer noch super gut sein, und weniger AVG. zum "schnelleren" 6/12 ist auch kein wunder, bei mehr ipc und mehr takt/boost, weil viele spiele eben noch keinen 8 kerner auslasten. Hier sieht man wenigstens fortschritt. :ugly:


Na, wer bei 720p mit ner 2080Ti zocken will, den kann mit dem 1700er nix anfangen. Also am besten gleich entsorgen! :freak:
greetz
US

aufkrawall
2020-05-21, 14:37:22
Könnte nach ~1/1.5 Jahren durchaus durchgened Vorteile bringen. Ich hoffe doch, es gibt dazu dann Tests.
Wird sicherlich der Fall sein, aber der Aufpreis natürlich in keinem Verhältnis zum Nutzen vs. 8C/16T stehen.

Platos
2020-05-21, 14:38:40
Wird sicherlich der Fall sein, aber der Aufpreis natürlich in keinem Verhältnis zum Nutzen vs. 8C/16T stehen.

Aber geil:freak:;D

zockerX
2020-05-21, 14:41:39
Aber schon in 2015 hat man von 8 Threads in vielen Spielen in den min. FPS profitiert. Und wenn nicht, dann ist es normalerweise ein Crossgentitel oder Witcher 3 bzw. PC Only. Also doch, man hat sehr wohl von 8 Threads profitiert und damaligen Next-Gen Titel. Und physische Kerne hatte beide nur 4. Interessant wäre mal ein Test von damaligen Spielen mit Skylake und heutigen 6- und 8-Kerner. Am besten dann aufgeteilt in PC-Only, "Next-Gen"-Spiele und Crossgen-Spiele
Man darf nicht Threads und echte Kerne vermischen. Die 8 Threads haben bei Spielen in der Vergangenheit ab und an was gebracht, die Kerne nicht. Jedenfalls keinen Vorteil ggü. den Threads/HT.

Edit: Bei CB war der 6700k im Schnitt 27% besser in Anwendungen, wie der 6600k. Anwendungen beinhalten aber auch solche synthetische Benchmarks wie Cinebench.
Der 6700k hat auch 14% mehr Basistakt und 2MB mehr Cache als der 6600k.

@zockerX

Es ist nicht der Fall? Wo warst du die letzten Jahre? 4C/4T die im Übrigen zu Release von Ps4 mit 8 Kernen noch topaktuell waren sind so tot wie es nur geht und bei 6C/6T erleben wir genau das gleiche. Von den Frametimes fange ich noch nicht mal an.
Dafür hält ein i3 9100F noch ganz gut mit:
https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/3/#abschnitt_benchmarks_in_spielen_full_hd_und_uhd

Demnach ist der AMD 2700 noch toter. :wink:

Du machst den Fehler, dass du dir einzelne Spiele wie Battlefield in Extremsituationen rauspickst und dabei das große Ganze außer Acht lässt.

Benutzername
2020-05-21, 14:43:45
Ruhig, mein Comment war lolig an PCGH gerichtet. Was aber erstaunlich ist, sind die Temps, die scheinen unter Kontrolle zu sein. IMO trotzdem eine gute CPU, die Leistung fürs Gaming ist einfach gut. Die Preise (leider) noch nicht, ist momentan alles mindestens einen 50er-100€ zu teuer. Mal sehen ob Ryzen 3000 jetzt im Preis fällt.

Wozu sollte AMD senken? Die neuen teuren Socket 1200 Mobos hauen bei intel rein in die Rechnung. Die CPUs hat intel ja halbwegs an AMd angenähert im Vergleich zur 9er Serie. Für Ryzen 3000 kann man auch Mobo neu für 60-70€ finden. B450 meistens. Also preislich muss AMD da gar nix ändern imho.


Bisher mein Eindruck, besseres Wärmemanagement, ansonsten die erwartbaren Verfeinerungen und Leistungszuwachs durch das feintuning um das letzte aus 14nm und Skylake rauszuquetschen. Aber wohl einige scheinen BIOS Probleme geahbt zu habe? Naja ist eh fast ein paperlaunch, von daher hat intel noch etwas Zeit das auszubügeln.


Hat eigentlich schon wer mit dem geziehlten HT abschalten bei einigen Kernen was gemacht? Das ist doch das wirkich neue Feature.

dildo4u
2020-05-21, 14:49:49
Man darf nicht Threads und echte Kerne vermischen. Die 8 Threads haben bei Spielen in der Vergangenheit ab und an was gebracht, die Kerne nicht. Jedenfalls keinen Vorteil ggü. den Threads/HT.


Der 6700k hat auch 14% mehr Basistakt und 2MB mehr Cache als der 6600k.


Dafür hält ein i3 9100F noch ganz gut mit:
https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/3/#abschnitt_benchmarks_in_spielen_full_hd_und_uhd

Demnach ist der AMD 2700 noch toter. :wink:

Du machst den Fehler, dass du dir einzelne Spiele wie Battlefield in Extremsituationen rauspickst und dabei das große Ganze außer Acht lässt.
AVG sind einfach Nutzlos hier der 9100f hat gute AVG FPS in PUBG aber die Frametimes sind eine Katastrophe.

Über 100fps AVG dafür 48 Lows: https://youtu.be/am2LnxN7rFs?t=381

Call of Duty 90fps AVG 51 Lows https://youtu.be/am2LnxN7rFs?t=87

y33H@
2020-05-21, 15:05:07
Bei 95W, 119W und 28 sec hat das EWMA halt nicht so krass reingehauen, daher wurde das erst mit CML-S wirklich relevant. In Spielen liegt der 10900K bei 40W bis 110W, das streut extrem ...

Platos
2020-05-21, 15:05:39
Man darf nicht Threads und echte Kerne vermischen. Die 8 Threads haben bei Spielen in der Vergangenheit ab und an was gebracht, die Kerne nicht. Jedenfalls keinen Vorteil ggü. den Threads/HT.

[...]

Der 6700k hat auch 14% mehr Basistakt und 2MB mehr Cache als der 6600k.

Das ist deine Argumentation? Oben behauptest du mal ohne jegliche Quellen, 8 Kerne seien nicht von Vorteil und unten sagst du, die Taktrate sei Schuld?

Fällt dir was auf? Die Taktrate bei 6- bzw. 8-Kerner vor Coffe Lake takteten allesamt deutlich niedriger. Und zwar um einiges deutlicher, wie der vom 6600k zu 6700k

Du hast deine Argumentation gerade selbst entkräftet.

Abgesehen davon ist es völlig wurscht, ob der i7 bisschen mehr Takt und Cache hat. Denn es gibt in den Tests, hättest du sie gelesen und würdest nicht einfach irgendwas behaupten ohne Belege, auch einige Beispiele, in denen eben der i5 und i7 viel näher auf sind. Wo ist also da deine Taktrate und Cache?

Und selbst wenn man die 14% abzieht, es sind trotzdem noch 15% übrig und das kommt nicht von 2MB cache. Aber wie gesagt: Es gibt Spiele, die kein wirklichen Unterschied zeigen zwischen den beiden, also es ist ganz klar belegt dadurch, dass die Mehranzahl an Threads dafür verantwortlich sind

Und wenn ein Spiel von 8 logischen Kernen profitiert, profitiert es ganz sicher auch von 8 physischen Kernen.

Ex3cut3r
2020-05-21, 15:09:27
Wozu sollte AMD senken? Die neuen .

Weil AMD immer senkt und Intel nie. :freak:

Ryzen 4000 kommt in ein paar Monaten, spätestens dann senkt Amd die Preise, war auch so beim Ryzen 3000 Launch. Intel senkt eigentlich nie die Preise. 9900k rls. vor fast 2 Jahren immer noch gleicher Preis ^^

Allgemein sind Intel CPUs auch irgendwie Wert Stabiler, warum weiß ich aber nicht. AMD hat wohl immer noch den Ruf des "Ramsch Händlers" Selbst seine Community will es immer noch Ultra Billig -> B450/B350 für 80-110€ und Support am liebsten auch noch für Ryzen 5000. :freak:

Ich werde auch nicht so richtig warm mit meiner (AMD Konfig) 4770k, Z87 Wechsler. Die Bootzeit dauert mir viel zu lange. Chipsatz Treiber lies sich ohne Gefrickel nicht installieren (das habe ich davor in 7 Jahre Haswell nicht einmal erlebt)

Blediator16
2020-05-21, 15:17:50
Bis auf Desktop, wo Intel im DIY Markt eh kaum relevant ist heute, überall die Preise zu von Premium zu Ramsch gesenkt. HEDT irrelevant und Server wurden sie auch kalt erwischt und mussten senken + "financial horsepower" ;)

Preisstabil sind sie nur bei den DAUs, die es nicht besser wissen.

w0mbat
2020-05-21, 15:18:01
Wenn der i5-10600K noch etwas im Preis fällt, auf um die 280€, dann könnte er eine wirklich gute Option für einen Spiele-PC werden. 6C/12T mit guter "Spiele-IPC", man sollte 4,8GHz schaffe ohne ne 360er zu brauchen und für LGA1200 wird es mit RKL noch upgrades geben.

Schnoesel
2020-05-21, 15:18:03
AMD hat die UVP des 3900X bereits auf 410$ gesenkt. Und zu zookerX sag ich jetzt nix mehr. Wer noch mit avg FPS argumentiert ach was solls. Leben und leben lassen.

zockerX
2020-05-21, 15:26:19
AVG sind einfach Nutzlos hier der 9100f hat gute AVG FPS in PUBG aber die Frametimes sind eine Katastrophe.
In der Grafik werden die Frametimes dargestellt nicht AVG. :rolleyes:

Das ist deine Argumentation? Oben behauptest du mal ohne jegliche Quellen, 8 Kerne seien nicht von Vorteil und unten sagst du, die Taktrate sei Schuld?
Ist schon aufgefallen, dass du Spiele mit Anwendungen vermischst?

Und selbst wenn man die 14% abzieht, es sind trotzdem noch 15% übrig und das kommt nicht von 2MB cache.

Wo hab ich das behauptet? Ich habe nur deine Milchmädchenrechnung zerlegt. Die ist nämlich vollkommener Unsinn.

Abgesehen davon ist es völlig wurscht, ob der i7 bisschen mehr Takt und Cache hat. Denn es gibt in den Tests, hättest du sie gelesen und würdest nicht einfach irgendwas behaupten ohne Belege, auch einige Beispiele, in denen eben der i5 und i7 viel näher auf sind. Wo ist also da deine Taktrate und Cache?
Wenn du den Test gelesen hättest, wüsstest du, dass der 6700k in ALLEN Anwendungen schneller ist. Und wenn du noch genauer hingesehen hättest, dann wüsstest du, dass die praktisch alle Multicore sind und wahrscheinlich von HT profitieren und somit nicht repräsentativ sind.
Dass Spiele schnell ins GPU-Limit rennen muss ich hoffentlich nicht erwähnen. Ebenso die Auswirkungen.


Ganz nebenbei: 27-14=13
Aber gut, du machst das ja mehr so Pi mal Daumen. :rolleyes:

gnomi
2020-05-21, 15:28:21
Es bleiben gute Spiele CPU's , aber technisch ist da ja schon länger wenig los bei Intel.
Sandy Bridge war super und damals geschenkt günstig. Haswell war gut bei der Effizienz.
Coffee Lake wieder gut bis sehr gut mit den 6 Kernen zum Preis von Sandy Bridge. (300-330)
Der 8 Kerner ein Jahr später war dann schon sehr auf Kante und teuer mit seinen 500 Euro. Aber noch Nice to Have, da in guten Boards lauffähig und das Maximum an Performance.

Für Bestandskunden kann man jedoch jetzt nur empfehlen, auf AMD zu wechseln.
Für Neukunden und für Spiele könnten 1060 & 1070 vielleicht noch interessant sein. Es bleiben ja wie gesagt gute Prozessoren.
Alles in allem kann Intel aber kaum noch kaschieren, dass da bald mal eine Neuentwicklung her muss.

Benutzername
2020-05-21, 15:28:33
Weil AMD immer senkt und Intel nie. :freak:

Ryzen 4000 kommt in ein paar Monaten, spätestens dann senkt Amd die Preise, war auch so beim Ryzen 3000 Launch. Intel senkt eigentlich nie die Preise. 9900k rls. vor fast 2 Jahren immer noch gleicher Preis ^^


Ja, wenn Zen3/Ryzen 4000 draußen ist. Aber im Moment sehe ich keinen Grund für eine Senknung. Zumal "human malware" sowieso alles über den Haufen wirft und das Angebot begrenzt.




Allgemein sind Intel CPUs auch irgendwie Wert Stabiler, warum weiß ich aber nicht. AMD hat wohl immer noch den Ruf des "Ramsch Händlers" Selbst seine Community will es immer noch Ultra Billig -> B450/B350 für 80-110€ und Support am liebsten auch noch für Ryzen 5000. :freak:


Naja, andere Kundschaft. Intel verkauft primär an Kompletterchner Hersteller. Die Selbstbastler sidn da unter ferner liefen. die sind nur wichtig für die image Pflege, weil das eine laute Minderheit ist und hohe Gamingbenchmarks sich halt immer gut machen. Aber gleichzeitig kann intel hart den Sockel wechseln, weil das den Lenovos, Dells und Co ziemlich egal ist mit denen intel sein Geschäft macht. die wollen nur innerhalb einer Generation mit einem Mainboarddesing verschiedene CPUs anbieten. Und wie ich in der ganzen Affäre um B450 geernt habem acht es die Modellpflege auch einfacher einfach per Sockelwechsel CPUs auszuschließen.

Dagegen setzt AMd immernoch erheblich mehr ab bei Selbstbauern und kleinen PC Händlern. Dann hat AMD jahre, jahrzehntelang eine billigpreis Strategie fahren müssen um überhaupt was zu verkaufen. Das beibt länger haften in den Köpfen. Und intel hat schon immer sich als den seriösen Büroausstatter präsentiert im Gegensatz zu seinen ganzen x86-Nachbauern. Und die seriösen OEMs bieten ja auch fast nur intel an. Da weiß auch kein Otto Normal warum die nur intel anbieten. Daß intel den OEMs gute Preise macht und manchmal besticht und auch mal erpresst weiß kaum einer da draußen. Ich kann da nix schlechtes draran finden kein X*70 Mobo kaufen zu wollen, wenn man die ganzen Anschlüsse nicht braucht. Ich schätze die B550, wenn sie denn mal kommen, werden sich auch so um die hundert EUro bewegen mit ausreißern nach oben für die Fat4l1ty MAX Strix Aorus Racing RGB-Kirmes. Das ist ja das zugrundeliegende Problem. B550 kam nicht an den Start, also haben sich die Mobo-Hersteller mit B450 beholfen. Warum hat da eigentlich noch niemand auf ASMedia eingedroschen?


Naja, zurück zu intel. Jahrelang war intel auch das bessere aNgebot, wenn man es sich leisten konnte und das hat dann natürlich auf den Gebrauchtmarkt durchgeschalgen plus der generelle Ruf der bessere x86 Hersteller zu sein. Ich finde die Gebrauchtpreise die immernoch gezahlt werden auch überzogen, aber der Markt gibt es offenbar her.

Platos
2020-05-21, 15:40:31
Ist schon aufgefallen, dass du Spiele mit Anwendungen vermischst?

Nein, ich vermische nicht Anwendung und Spiele. Ansonsten bennene die genaue Stelle. Wie gesagt, die genannten Next-Gen Spiele waren 27% oder mehr Prozent besser.


Wo hab ich das behauptet? Ich habe nur deine Milchmädchenrechnung zerlegt. Die ist nämlich vollkommener Unsinn.

Zerlegt? Du behauptest wild Zeug, dass du nicht belegen kannst. Aber ich sehe, jetzt versuchst du zu verbergen, dass du kein einzigen Beleg/Hinweis dafür hast, dass man von 8 Threads damals nicht schon proftieren konnte, indem du anfängst auf 2% unterschied rumzureiten oder sonstiges, was nicht von Belang ist für die grundsätzliche Aussage, dass man von 8 Threads schon damals profitiert hatte.


Wenn du den Test gelesen hättest, wüsstest du, dass der 6700k in ALLEN Anwendungen schneller ist. Und wenn du noch genauer hingesehen hättest, dann wüsstest du, dass die praktisch alle Multicore sind und wahrscheinlich von HT profitieren und somit nicht repräsentativ sind.
Dass Spiele schnell ins GPU-Limit rennen muss ich hoffentlich nicht erwähnen. Ebenso die Auswirkungen.

Ich rede von Spielen, bei denen die beiden CPUs z.T ähnlich auf sind. Ich weiss nicht, was du jetzt mit Anwendungen kommt. Und dann beweise doch einfach mal, dass sie dort im GPU limit waren. Wie gesagt: Beweise, Quellen, liefere sie mal. Das einzige, was du hier tust, ist behaupten!


Ganz nebenbei: 27-14=13
Aber gut, du machst das ja mehr so Pi mal Daumen. :rolleyes:

Dein ernst? Du sagst mir, ich rechne Pi mal Daumen, während dem du alles wild ohne Quellen behauptest?

Ach ja: Wenn du im nächsten Kommentar nicht sachlich bleiben kannst und belege lieferst, dann kriegst du keine Antwort mehr. Ich habe besseres zu tun, als jemandem zu antworten, der nur Behauptungen aufstellt und nichts beweisen kann.

Ex3cut3r
2020-05-21, 15:41:50
Nächstes Jahr gibts ja endlich PCIe 4.0 bei Intel. Während es AMD dann schon seit 2 Jahren kann. Zusätzlich sind dann auch Ampere und Big Navi mit PCIe 4.0 raus. Also spätestens dann muss Intel endlich 4.0 anbieten. Nur leider gibt es schon wieder einen 10 Kerner Downgrade auf Max 8/16. KA was die Bosse von Intel jahrelang gemacht haben, wahrscheinlich mit der Sekretärin gevögelt, andernfalls kann ich mir so ein Miss Management auf Jahre nicht erklären.

zockerX
2020-05-21, 15:57:11
Nein, ich vermische nicht Anwendung und Spiele. Ansonsten bennene die genaue Stelle. Wie gesagt, die genannten Next-Gen Spiele waren 27% oder mehr Prozent besser.
Es sind satte 3%:
https://www.computerbase.de/2015-08/intel-core-i5-6600k-i7-6700k-test-benchmark-skylake/7/

27% sind es in MT-Anwendungen:
https://www.computerbase.de/2015-08/intel-core-i5-6600k-i7-6700k-test-benchmark-skylake/6/#diagramm-gesamtrating-anwendungen-windows

Zerlegt? Du behauptest wild Zeug, dass du nicht belegen kannst. Aber ich sehe, jetzt versuchst du zu verbergen, dass du kein einzigen Beleg/Hinweis dafür hast, dass man von 8 Threads damals nicht schon proftieren konnte, indem du anfängst auf 2% unterschied rumzureiten oder sonstiges, was nicht von Belang ist für die grundsätzliche Aussage, dass man von 8 Threads schon damals profitiert hatte.
Du hast die Quelle doch selbst geliefert aber offensichtlich nicht durchgelesen. Es ist schon traurig genug, dass ich DICH an DEINE EIGENE Quelle erinnern muss.

Ich rede von Spielen, bei denen die beiden CPUs z.T ähnlich auf sind. Ich weiss nicht, was du jetzt mit Anwendungen kommt. Und dann beweise doch einfach mal, dass sie dort im GPU limit waren. Wie gesagt: Beweise, Quellen, liefere sie mal. Das einzige, was du hier tust, ist behaupten!
LOL, ich soll deren Ergebnisse beweisen. Als nächstes dann die Quadratur des Kreises?

Und wie ich auf Anwendungen komme? Kleine Erinnerungshilfe:

Edit: Bei CB war der 6700k im Schnitt 27% besser in Anwendungen, wie der 6600k. Anwendungen beinhalten aber auch solche synthetische Benchmarks wie Cinebench.

Waren wohl ein paar Bier zu viel für dich. :biggrin:

dildo4u
2020-05-21, 15:59:24
Nächstes Jahr gibts ja endlich PCIe 4.0 bei Intel. Während es AMD dann schon seit 2 Jahren kann. Zusätzlich sind dann auch Ampere und Big Navi mit PCIe 4.0 raus. Also spätestens dann muss Intel endlich 4.0 anbieten. Nur leider gibt es schon wieder einen 10 Kerner Downgrade auf Max 8/16. KA was die Bosse von Intel jahrelang gemacht haben, wahrscheinlich mit der Sekretärin gevögelt, andernfalls kann ich mir so ein Miss Management auf Jahre nicht erklären.

Intel wollte Milliarden von Smartphone Chips verkaufen dorthin ging das R&D Budget hin, das zusammen mit dem Fokus ein Konkurrenz Fähiges 5G Modem zu bauen war den Investoren wichtiger als eine Nische wie Desktop CPUs.
Der Plan ist erst im vergangen Jahr komplett zusammen gefallen und eine Neu Ausrichtung dauert richtig Lange bei einer so großen Firma.

https://www.theverge.com/2019/7/25/8909671/apple-intel-5g-smartphone-modems-acquisition

Ex3cut3r
2020-05-21, 16:10:05
Nur auf ein Pferd zu setzen als Big Player ist schon ziemlich lächerlich. Ich sage ja die Bosse müssen mit Ihren Millionen auf dem Konto zufrieden gewesen sein, dazu 100% Edelnutten jeden Tag. :biggrin:

zockerX
2020-05-21, 16:22:54
Nur auf ein Pferd zu setzen als Big Player ist schon ziemlich lächerlich. Ich sage ja die Bosse müssen mit Ihren Millionen auf dem Konto zufrieden gewesen sein, dazu 100% Edelnutten jeden Tag. :biggrin:
Es ist in jedem Fall sehr riskant. Der Fokus auf Mobile Plattformen war nicht verkehrt, da das ein riesiger und v.a. wachsender Markt ist. Dass dieses eine Pferd am Ende aber verreckt ist, lässt Intel ganz blöd dastehen. Das Ergebnis ist daher ein GAU.

Platos
2020-05-21, 16:34:46
Es sind satte 3%:
https://www.computerbase.de/2015-08/intel-core-i5-6600k-i7-6700k-test-benchmark-skylake/7/

27% sind es in MT-Anwendungen:
https://www.computerbase.de/2015-08/intel-core-i5-6600k-i7-6700k-test-benchmark-skylake/6/#diagramm-gesamtrating-anwendungen-windows

Es geht hier darum, ob diese Konsolengen. einen Einfluss hatte und du kommst hier mit dem Durchschnitt, der zahlreiche PC-Only Spiele und auch Cross-Gen Titel beinhaltet, die noch auf der PS3 heraus kamen (was ich alles klar geschrieben habe). Und, das ist der Durchschnitt der avg FPS, ich rede von den minimum FPS. Avg FPS sind Wertlos. Und du schaust auch 1080p Benchmarks an, ich rede von damaligen Next-Gen Spielen in 720p und deren min FPS.

Du warst ja der, der von Anfang an impliziert hatte, die PS4 hätte auf dem PC bei den Threads nichts/wenig bewirkt. Also du hast als aller erstes diese Aussage geliefert, also bist auch du der, der sie mit Quellen belegen muss.

Und natürlich nicht mit Cross-Gen Titel oder PC-Only titel oder avg FPS in 1080p, wo 2015 sicherlich die GPU ins limit kam.

Slipknot79
2020-05-21, 16:52:00
*gähn* kann ich überspringen diese CPU Generation. (y)

zockerX
2020-05-21, 17:05:11
Es geht hier darum, ob die Konsole damals einen Einfluss hatte und du kommst hier mit dem Durchschnitt, der zahlreiche PC-Only Spiele und auch Cross-Gen Titel beinhaltet, die noch auf der PS3 heraus kamen (was ich alles klar geschrieben habe). Und, das ist der Durchschnitt der avg FPS, ich rede von den minimum FPS. Avg FPS sind Wertlos. Und du schaust auch 1080p Benchmarks an, ich rede von damaligen Next-Gen Spielen in 720p und deren min FPS.
Im gestrigen Test werden auch die Frametimes behandelt und da sieht der i3 9100F alles andere als schlecht aus.
Ich hatte schon einmal erwähnt, dass die PS3 mehr als 4 Kerne hatte (7 müssten nutzbar gewesen sein), weshalb auch bei Titeln, die auf der PS3 rauskamen es hätte deutliche Vorteile geben müssen.
Wenn du dir eine neue CPU für 300€ kaufst um dann auf 640x480 bei niedrigen Details zu spielen (denn darauf basierten die Tests auf die du anspielst), dann wirst du damit ziemlich alleine dastehen. So ziemlich jeder Spieler spielte damals mit hohen Details oder mehr auf Full HD oder mehr. Damit sind deine Tests vollkommen irrelevante Theorie, wie du am gestrigen Test siehst. Und wenn selbst ein 3300X (ja, 4c/8t) einen 3600X nass macht (https://www.computerbase.de/2020-05/amd-ryzen-3-3100-3300x-test/2/#abschnitt_benchmarks_in_spielen_full_hd_und_uhd), dann ist endgültig alles gesagt. Insbesondere über die Vergangenheit. Du wirst jetzt wieder verzweifelt deine 640x480 bei min. Details rauspicken. Erspar dir besser die Peinlichkeit und hol dir stattdessen ne Konsole.

Du warst ja der, der von Anfang an impliziert hatte, die PS4 hätte auf dem PC bei den Threads nichts/wenig bewirkt. Also du hast als aller erstes diese Aussage geliefert, also bist auch du der, der sie mit Quellen belegen muss.
Dann zeig mal ein realitätsnahes Leistungsrating, dass deine Aussage beweist. Du wirst keins finden. Nicht umsonst schneiden die 4-Kerner auch heute noch sehr gut ab. Aus dem CB-Fazit:
Den Ryzen 5 2600 schlägt der Ryzen 3 3300X haushoch in Spielen und Single-Core-Szenarien

Und natürlich nicht mit Cross-Gen Titel oder PC-Only titel oder avg FPS in 1080p, wo 2015 sicherlich die GPU ins limit kam.
Wenn du von vorne herein alles ausschließt, was willst du dann eigentlich sehen? Du lässt nur eine realitätsferne Kombination zu. Welche das genau ist, weiß ich aber immer noch nicht so genau, da du bei Spielen eigentlich alles ausschließt.

Benutzername
2020-05-21, 17:14:12
Es ist in jedem Fall sehr riskant. Der Fokus auf Mobile Plattformen war nicht verkehrt, da das ein riesiger und v.a. wachsender Markt ist. Dass dieses eine Pferd am Ende aber verreckt ist, lässt Intel ganz blöd dastehen. Das Ergebnis ist daher ein GAU.

Und AMD hat ja in der Zeit auch keinen Druck gemacht, also konnte man es ruhiger angehen lassen und noch einen Skylake rausbringen; und sich in der Situation nach neuen Märkten umzusehen ist eigentlich schlau. Nur doof, daß es nicht so lief wie gewünscht. Daß 10 nm nicht läuft macht nur alles schlimmer.

-------------------------
*gähn* kann ich überspringen diese CPU Generation. (y)

das war eigentlich vorher schon klar, daß da nicht viel Unterschied kommen konnte. Es ist faszinierend welchen Aufwand intel treibt mit dem die abschleifen und den ganzen Optimierungen im thermal management und so weiter um wirklich alles aus den Chips zu quetschen. Aber die paar % gegenüber der 9er Serie bringt nicht so viel, daß man neu kaufen müsste. Und man braucht ein neues teures Board dazu.


Und daß intel es eine "Generation" nennt ist auch nur Marketing. Ist ja letztendlich getuntes Skylake in 14 nm. Also eigentlich alles dieselbe Generation im Sinne von Kernentwicklung.

Platos
2020-05-21, 17:30:41
Im gestrigen Test werden auch die Frametimes behandelt und da sieht der i3 9100F alles andere als schlecht aus.
Ich hatte schon einmal erwähnt, dass die PS3 mehr als 4 Kerne hatte (7 müssten nutzbar gewesen sein), weshalb auch bei Titeln, die auf der PS3 rauskamen es hätte deutliche Vorteile geben müssen.
Wenn du dir eine neue CPU für 300€ kaufst um dann auf 640x480 bei niedrigen Details zu spielen (denn darauf basierten die Tests auf die du anspielst), dann wirst du damit ziemlich alleine dastehen. So ziemlich jeder Spieler spielte damals mit hohen Details oder mehr auf Full HD oder mehr. Damit sind deine Tests vollkommen irrelevante Theorie, wie du am gestrigen Test siehst. Und wenn selbst ein 3300X (ja, 4c/8t) einen 3600X nass macht (https://www.computerbase.de/2020-05/amd-ryzen-3-3100-3300x-test/2/#abschnitt_benchmarks_in_spielen_full_hd_und_uhd), dann ist endgültig alles gesagt. Insbesondere über die Vergangenheit. Du wirst jetzt wieder verzweifelt deine 640x480 bei min. Details rauspicken. Erspar dir besser die Peinlichkeit und hol dir stattdessen ne Konsole.


Dann zeig mal ein realitätsnahes Leistungsrating, dass deine Aussage beweist. Du wirst keins finden. Nicht umsonst schneiden die 4-Kerner auch heute noch sehr gut ab. Aus dem CB-Fazit:



Wenn du von vorne herein alles ausschließt, was willst du dann eigentlich sehen? Du lässt nur eine realitätsferne Kombination zu. Welche das genau ist, weiß ich aber immer noch nicht so genau, da du bei Spielen eigentlich alles ausschließt.

Du hast als erstes impliziert, die PS4 hätte bezüglich dem Thema nicht viel bewirkt und ich habe dir 2 Beispiele geliefert. Wie üblich, hat der, der die Behauptung aufstellt, den Beweis zu liefern und nicht die anderen.

Das es nur 2 Tests hat, hat auch nichts mit "auschliessen" im Sinne von Cherry Picking zu tun. Man kann schlicht nicht PC Only Titel oder Cross-Gen Titel dafür heranziehen, ob die PS4 was bewirkt. Das sollte logisch sein.

Es hatte schlicht nur die beiden Spiele in dem Test, die nur auf PS4/Xbox und PC rauskamen.
Und avg FPS sind nunmal nichtsaussagend, das ist eigentlich standart mittlerweile (früher leider nicht überall und deshalb noch schwieriger, viele tests zu finden)

Und ja, falls ich noch Tests finde, dann verlinke ich sie auch. Nur leider hat man früher oftmals nur avg FPS untersucht.

Aber wie gesagt, du hast die Behauptung aufgestellt, somit musst du sie belegen, nicht ich.

Und diesen Test von dir mit PubG liefert ja gar kein Vergleich. Ich behaupte ja nicht, dass man mit diesen CPUs nicht spielen kann.
Edit: Und der 3300x hat ja auch 4 Kerne in einem CCX (und nur ein CCX) und hat somit einen enormen Vorteil. Das sieht man ja wunderbar, da der 3100 das nicht hat.

zockerX
2020-05-21, 18:19:45
Du hast als erstes impliziert, die PS4 hätte bezüglich dem Thema nicht viel bewirkt und ich habe dir 2 Beispiele geliefert. Wie üblich, hat der, der die Behauptung aufstellt, den Beweis zu liefern und nicht die anderen.
Du hast absolut realitätsferne Beispiele geliefert. Gehen wir eine Seite weiter, bleibt davon kaum noch was übrig, nur bei einem einzigen Spiel:
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/36200-skylake-core-i7-6700k-und-core-i5-6600k-im-test.html?start=10

Das es nur 2 Tests hat, hat auch nichts mit "auschliessen" im Sinne von Cherry Picking zu tun. Man kann schlicht nicht PC Only Titel oder Cross-Gen Titel dafür heranziehen, ob die PS4 was bewirkt. Das sollte logisch sein.
Du musst den Gesamtmarkt betrachten, alles andere ist vollkommener Unsinn und reinstes Cherry Picking. Was bringt es mir wenn sagen wir nur jedes 20. Spiel entsprechend optimiert wird?

Es hatte schlicht nur die beiden Spiele in dem Test, die nur auf PS4/Xbox und PC rauskamen.
Nochmal, spielt keinerlei Rolle. Oder spielst du ausschließlich Spiele, die nur auf PS/XB und PC rauskommen? Also.

Und avg FPS sind nunmal nichtsaussagend, das ist eigentlich standart mittlerweile (früher leider nicht überall und deshalb noch schwieriger, viele tests zu finden)
Deswegen hast du auch seriöse Beispiele mit Frametimes bekommen, die du offenbar immer noch ignorierst.

Aber wie gesagt, du hast die Behauptung aufgestellt, somit musst du sie belegen, nicht ich.
Du hast die Behauptung aufgestellt, die PS4 hat viel bewirkt, kannst aber nur Cherry Picking als Beweis liefern, indem du dir einzelne Spiele rauspickst. Ich warte immer noch auf ein relitätsnahes Gesamtrating. Von mir hast du welche bekommen, auf deine warte ich immer noch. Wer ist also in der Belegpflicht?

Und diesen Test von dir mit PubG liefert ja gar kein Vergleich.
Ich wüsste nicht wo ich das explizit verlinkt hätte. Kann sein dass das Spiel irgendwo dabei war, aber wenn dann nur eines von vielen. Und erst recht habe ich nicht auf speziell dieses Spiel verwiesen. Aber wenn du einen Test möchtest, bitte sehr:
https://www.computerbase.de/2018-04/ryzen-2600-2700-fortnite-pubg-overwatch/2/#abschnitt_prozessorbenchmarks_in_1920__1080
Der i3 8300 schneidet gar nicht mal so schlecht ab für seine 4t.

Edit: Und der 3300x hat ja auch 4 Kerne in einem CCX (und nur ein CCX) und hat somit einen enormen Vorteil. Das sieht man ja wunderbar, da der 3100 das nicht hat.
Er hat 4 Kerne und zeigt, dass diese noch lange nicht so tot sind wie von dir behauptet.

hardtech
2020-05-21, 18:31:30
KA was die Bosse von Intel jahrelang gemacht haben, wahrscheinlich mit der Sekretärin gevögelt, andernfalls kann ich mir so ein Miss Management auf Jahre nicht erklären.

die offizielle Begründung lautet 14nm.

Platos
2020-05-21, 18:36:47
@zockerX: Also noch ein letztes Mal: Du Behauptest etwas, also ist es dein Job, es zu beweisen. Ich habe dir darauf hin Gegenbeispiele genannt. Es ist aber völlig egal, ob ich das Gegenteil beweisen kann oder nicht, denn du musst es beweisen, nicht ich das Gegenteil. Du hast die Behauptung aufgestellt, du musst sie beweisen. Punkt.

Auch das wird wieder Jahre dauern bis man mehr als nur Einzelfälle hat. Multicoreunterstützung mit (mehr als) 4 Kernen wurde schon 2006 prophezeit als die PS3 rauskam, 2013 waren es dann 8 Kerne. Was daraus wurde wissen wir alle.

zockerX
2020-05-21, 18:52:56
@platos
Wenn du nicht lesen und verstehen kannst, kann dir niemand helfen. Ich bin mehrfach drauf eingangen und habe Tests verlinkt. Dass die nicht in dein Cherry Picking passen weil man da ausschließlich die handvoll bestimmter Spiele oder absurde Testbedingungen verwenden darf, die deine Behauptung untermauern, ist das dein Problem und nicht meins.
Auch hier zeigt sich wieder, dass du kein realitätsnahes Gesamtrating liefern kannst, sondern nur wilde Behauptungen ohne jegliche Beweise.

Platos
2020-05-21, 18:59:41
Du hast bisher keinen einzigen Beweis geliefert, dass man von mehr als 4 Threads nicht profitiert. [Edit: Aufgrund der Konsole PS4/XBox One]

Absurde Testbedinung? Du suchst dir 2 Prozessoren, die nicht mal gleich aufgebaut sind :D

zockerX
2020-05-21, 19:17:19
Du hast bisher keinen einzigen Beweis geliefert, dass man von mehr als 4 Threads nicht profitiert. [Edit: Aufgrund der Konsole PS4/XBox One]
Und du noch keinen dass man richtig profitiert. Wobei, ich habe schon mehr als genug Beweise geliefert. Du auch, wenn auch zu meinen Gunsten. Wie lange sollen wie das dämliche Spiel nun weiterspielen?

Absurde Testbedinung? Du suchst dir 2 Prozessoren, die nicht mal gleich aufgebaut sind :D
Wenn sie gleich wären, gäbe es nur einen...

Ich würde vorschlagen werde du erst mal wieder nüchtern. Vielleicht kommt dann mal was Brauchbares von dir anstatt dieses ewige Rumgeeiere.

Complicated
2020-05-21, 19:27:45
Ihr könnt das beenden, denn dass von mehr als 4 Threads nicht profitiert wird ist einfach Unsinn und ein Beweis dafür wurde auch nicht verlinkt. Um das zu widerlegen reicht ein einziger Titel der profitiert. Und die gibt es zuhauf.

Und dass man "richtig" profitiert ist undefiniert und somit nicht zu beweisen. Eine rabulistische Diskussionsform ist allerdings sehr deutlich zu erkennen bei dieser Formulierung die beispielhaft für die letzten Beiträge ist.

Der persönliche Angriff am Ende ist zudem auch unnötig.

Monsta
2020-05-21, 19:33:28
4sec googlen und da sehe ich das der 3300x in Bf5 langsamer als der 3600 ist.

min frames 30%.

Da scheinen die mehr Threads wohl doch was zu bringen.

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/53013-amd-ryzen-3-3300x-und-ryzen-3-3100-im-test-kleine-ryzen-fuer-gamer-ganz-gross.html?start=10

Tesseract
2020-05-21, 19:58:19
Ich hatte schon einmal erwähnt, dass die PS3 mehr als 4 Kerne hatte (7 müssten nutzbar gewesen sein), weshalb auch bei Titeln, die auf der PS3 rauskamen es hätte deutliche Vorteile geben müssen.

nein. die PS3 hat einen klassischen core und 7 spezielle streamingprozessoren die eher richtung GPU als CPU gehen. die kann man zwar als "7 cores" zweckentfremden aber das ist kein allgemeines multithreading sondern eine sehr spezielle optimierung für genau diesen chip und für ganz spezifische tasks.

chaospanda
2020-05-21, 21:03:35
Die gleiche leidige Diskussion gab es, als der Umbruch von 1C zu 2C im Mainstream-Bereich kam am und als es dort von 2C auf 4C ging... Bei letzterem gab es dann ja noch AMDs 3-Kerner, als "Übergang". Im Grunde genommen haben 6-Kerner heute die gleiche Stellung. Sie bilden den weichen Übergang von 4C auf 8C.

HT/SMT war früher Mist/heute lohnt es sich. Nicht nur Hardware wandelt sich, Software tut es im Mittel auch - nur im Zweifel etwas langsamer bzw. verzögert. Einfach immer dann, wenn die Hardwarebasis der (potentiellen) Anwender eine kritische Masse in der Breite erreicht hat.

Aber das ist und bleibt hier einfach nur hart OffTopic.

Ansonsten: https://www.computerbase.de/2017-02/cpu-skalierung-kerne-spiele-test/

Zwar schon etwas älter, aber die Aussagekraft hat sich eher noch hin zu 8 Kernen verschoben weg von 4 Kernen...

Badesalz
2020-05-21, 21:26:05
4C/4T die im Übrigen zu Release von Ps4 mit 8 Kernen noch topaktuell waren sind so tot wie es nur geht Das wäre in der Tat interessant, wenn jemand beim 3300X das SMT ausknipsen würde um mal zu schauen wie tot das alles mittlerweile ist...

Die gleiche leidige Diskussion gab es, als der Umbruch von 1C zu 2C im Mainstream-Bereich kam am und als es dort von 2C auf 4C ging...In welchem Paralleluniversum auch immer. Hier auf der Erde gab es sie bis einschliesslich 4C nicht.

Das ist so ein leidiges Killerargument den man dann nach ~8 Jahren immer ausbudelt um seine Meinung zu untermauern. Die allgemein universelle Waffe, sozusagen ;)

chaospanda
2020-05-21, 21:29:00
Das wäre in der Tat interessant, wenn jemand beim 3300X das SMT ausknipsen würde um mal zu schauen wie tot das alles mittlerweile ist...
Schau dir zB den CB-Test zum 3300x an und erweitere die Tabelle in der Ansicht. Da findest du den 3200G (als 4Kerner ohne SMT). Das dürfte dir einen Eindruck vermitteln...

In welchem Paralleluniversum auch immer. Hier auf der Erde gab es sie bis einschliesslich 4C nicht.
Dann hast du das ganze Rumgeweine zu Zeiten des E8400 / X3 720 bzw. dem Switch zum Q2D / Phenom (I und II) nicht mitbekommen?

Badesalz
2020-05-21, 21:30:28
Das dürfte dir einen Eindruck vermitteln...Nicht wirklich? :|

chaospanda
2020-05-21, 21:36:53
Das ist doch mehr als offensichtlich...

Wenn das nötige Kleingeld da ist, ist es schlicht nicht mehr sinnvoll, auf 4/4 zu gehen...

Es hat Gründe, wieso Intel jetzt mit der Gieskanne HT verteilt hat.

Tesseract
2020-05-21, 21:47:45
Es hat Gründe, wieso Intel jetzt mit der Gieskanne HT verteilt hat.

das liegt vor allem am ständigen wiederaufwärmen von skylake. takt geht kaum noch, jede generation +2 kerne für die selbe preisklasse war ihnen zu viel, deswegen ist man n-core +SMT -> (n+2)-core -SMT -> (n+2)-core +SMT gegangen.

chaospanda
2020-05-21, 22:05:35
Man hat bereits 2017 sehen können, dass 4/8 sinnvoller sind im direkten Vergleich zu 4/4. CPUs mit HT altern einfach besser als jene ohne.

Warum sollte das jetzt plötzlich wieder anders sein? Selbst bei den Comet Lake Tests sieht man das...

=Floi=
2020-05-21, 22:12:05
Allgemein sind Intel CPUs auch irgendwie Wert Stabiler, warum weiß ich aber nicht.

das ist aber ab jetzt veraltet!
Früher blieb es ja bei 4/8 und höchstens noch 6/12. Die ipc war noch gut genug und der takt ging über die jahre auch eher leicht nach unten.

Ab Ryzen kommen jetzt die 8 kerner und die alten 8700k, 6700k und 7700k brechen als gebrauchte ein. Der 7700k wird vom 3300X gebügelt.
Je mehr software von 8 echten kernen profitiert, desto stärker brechen die preise für die alten prozessoren ein. Einen 2/4 kauft heute auch keiner mehr.

hardtech
2020-05-21, 23:07:28
https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/

hab mal den test von PCGH überflogen. deren Fazit liest sich ja völlig anders als das der anderen Seiten.
nach dem motto: bis auf fehlende pcie 4.0 support nichts auszusetzen.
leistungsaufnahme... nicht so kritisch.
preis... naja egal, Intel halt.

also bei denen scheint alles in Ordnung zu sein. sprechen eine Empfehlung aus.

was läuft da in der Redaktion bei Thilo und raff?

Badesalz
2020-05-21, 23:07:29
das ist aber ab jetzt veraltet!
[...]
Ab Ryzen kommen jetzt die 8 kerner und die alten 8700k, 6700k und 7700k brechen als gebrauchte ein. Der 7700k wird vom 3300X gebügelt.
Je mehr software von 8 echten kernen profitiert, desto stärker brechen die preise für die alten prozessoren ein. Einen 2/4 kauft heute auch keiner mehr.Es sei denn man versucht heute z.B. einen 3770k für unter 100€ zu bekommen...

zockerX
2020-05-21, 23:09:50
Leute, es ging darum, ob die PS4 einen positiven Einfluss auf mehr als 4 Kerne/Threads hatte. Und zwar ab 2013 und nicht ab 2020. Und das war definitiv nicht der Fall. Das hat man in dem Skylake Test von 2015 sehr deutlich gesehen und das sieht man auch im Kaby Lake Test von 2017 sehr deutlich:
https://www.computerbase.de/2017-01/intel-kaby-lake-test-core-i7-7700k-i5-7600k/3/

Würden Spiele so stark profitieren, müsste der AMD 1700 dank der vielen Kerne und Threads abgehen wie Schmitts Katze. Genau das Gegenteil ist der Fall. Leider gibt es kaum aktuelle Tests, hier einer von 2019 mit dem 1800X:
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_benchmarks_in_games_fhd__uhd
Wie viel langsamer der 1700er sein müsste, kann man sich ausrechnen.

Dass es Einzelfälle gibt, wo HT was bringt, stand nie zur Debatte:
Man darf nicht Threads und echte Kerne vermischen. Die 8 Threads haben bei Spielen in der Vergangenheit ab und an was gebracht, die Kerne nicht. Jedenfalls keinen Vorteil ggü. den Threads/HT.

Jetzt, im Jahr 2020 ist die PS4 7 Jahre alt und längst am Ende. Dass es heute mehr Spiele gibt, die profitieren sollte klar sein, es hält sich aber in Grenzen, wie der gestrige Test zeigt. Mit einem i3 9100, der Stellvertretretend für 4c/4t ist, steht man heute in etwa so da wie mit einem AMD 2700 (8c/16t). Und das in AAA Titeln. Das soll der positive Einfluss der PS4 sein? Wenn die PS5 auch so einen positiven Einfluss hat, dann könnt ihr euch entspannt zurücklehnen. 8c/16t braucht ihr dann nämlich erst ca. 2027+.

Was offenbar gerne vergessen wird: es wird nur ein kleiner Teil an AAA-Titeln getestet (normalerweise die technisch anspruchvollsten), der Rest der Spielelandschaft geht vollkommen unter, geht aber trotzdem in die Gesamtmasse ein und ist garantiert nicht so anspruchsvoll, denn die Kerne liegen brach. Warum das so ist? Man muss auch mal über den Tellerrand schauen. Ein Spieleentwickler will Spiele verkaufen. Das schafft ausschließlich dann, wenn sein Spiel auf möglichst vielen PCs und Notebooks läuft. Da die Entwickler heutzutage bekanntlich nur selten optimieren, wird auf den kleinsten gemeinsamen Nenner hin programmiert. Und das sind heute bestenfalls 4c/4t, früher 2c/2-4t. Wenn das Spiel dann auf mehr Threads deutlich besser läuft, dann war das die Ausnahme, denn es musste auch auf weniger Threads problemlos laufen. Und mit guter Optimierung hat man es wie gesagt schon lange nicht mehr, abgesehen von einzelnen Spieleschmieden.

Was auch gerne vergessen wird: die CPU-Tests werden immer mit der schnellsten erhältlichen GPU gemacht, heute also eine 2080Ti, früher gerne eine Titan. Das sind Karten aus dem Enthusiastenbereich, die auch hier nur eine Minderheit haben wird. Bei einer langsameren Karte kommt man viel schneller ins GPU-Limit und die CPU langweilt sich. Mit einer lahmen GPU verhungert halt auch die beste CPU. Und da sind wir dann wieder bei der praxisnähe. Die ist in den CPU-Tests nämlich nur bedingt gegeben.

Anders gesagt: wer 2013 einen i7 statt i5 genommen hat, hat für fast alle Spiele Geld verpulvert.

Das ist doch mehr als offensichtlich...

Wenn das nötige Kleingeld da ist, ist es schlicht nicht mehr sinnvoll, auf 4/4 zu gehen...

Es hat Gründe, wieso Intel jetzt mit der Gieskanne HT verteilt hat.
Heute kauft man für Spiele sicher nicht 4c/4t, wo die PS4 mausetot ist und die PS5 fast da. Darum ging es aber nie. 2013 hast du damit den besten Deal gemacht. Und auch ein paar Jahre später bist du bei Skylake und Kaby Lake bei einer Neuanschaffung damit auch nicht schlecht gefahren.

hardtech
2020-05-21, 23:19:24
@zocker
hast du keine Hobbies?
dein offtopic stört ungemein.

Radeonfreak
2020-05-21, 23:30:08
https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/

hab mal den test von PCGH überflogen. deren Fazit liest sich ja völlig anders als das der anderen Seiten.
nach dem motto: bis auf fehlende pcie 4.0 support nichts auszusetzen.
leistungsaufnahme... nicht so kritisch.
preis... naja egal, Intel halt.

also bei denen scheint alles in Ordnung zu sein. sprechen eine Empfehlung aus.

was läuft da in der Redaktion bei Thilo und raff?

Ist mir auch aufgefallen. Die Ryzen sind auch langsamer als sie sollten.

Vielleicht eine kleine Finanzspritze.

maximus_hertus
2020-05-21, 23:39:25
Schau dir die Werte von PCI-E 3.0 and und man sieht keinen Bedarf, sondern sogar noch Spielraum in der Bandbreite. Und die notwendige Bandbreite brauchen Higendbeschleuniger der 1000+ Euro Klasse. Bei PCI-E 4.0 SSDs siehst du nur die höhere sequenzielle Transferrate. Nichts lädt schneller, nichts kann dadurch schneller werden. Externe Medien hängen bei 400mb/s oder 1000mb/s (M.2, verbrennend heiß).
Klug ist es eine NVME SSD zu nehmen, denn die hat man wirklich noch viele Jahre im Rechner. Ich tippe auf einen Vorteil durch NVME als durch PCI-E 4.0.



Niemand kauft sich einen x570 für Zen3, denn die Leistung der meisten CPUs reicht heute aus. Die Faustregel eine Generation zu überspringen gilt immer noch. Die Frickellösungen gibt es heute und niemand weiss wie gut/schlecht es wird.



Genau das mache ich und komme zu einer anderen Schlussfolgerung.




Das ist auch kein Problem, wenn man das Board praktisch nicht voll ausfährt.


5600XT. Jetzt gehe mal 2-3 Jahre in die Zukunft und was dann mit 8GB Karten passiert...

Lass die Software sich in Ruhe entwickeln, in einigen Jahren wird es für einige Titel sehr spürbare Vorteile geben.

Ansonsten könnte man 2 m.2 SSDs einbauen, die jeweils die gleiche Geschwindigkeit hätten wie eine PCIe 3.0 x4 SSD, da 2 PCIe 4.0 Lanes reichen.

Warum sollte man sich 2020 kein X570 Board holen bzw. warum sollte man sich ein altes 470er Board kaufen?

Badesalz
2020-05-21, 23:41:35
@zocker
hast du keine Hobbies?
dein offtopic stört ungemein.Hast du keinen Friseur? Warum ist das OT?

@maximus_hertus
Wenns nach den Konsollen geht wird der Trend eher dazu gehen eine 5 GB/s NVMe zu haben, als eine PCIe 4.0 Graka ;)

Die kommen aber eh automatisch, also ist es eh egal.

hardtech
2020-05-21, 23:45:39
Hast du keinen Friseur? Warum ist das OT?

das mit Friseur kapier ich nicht.

ot weil... >>> Comet Lake - Review-Thread

diese Romane und Quervergleiche zur Playstation und was 2013 war oder nicht war jucken doch net die bohne.

zieht sich wie Kaugummi dieser Exkurs des besagten Herren.

Badesalz
2020-05-21, 23:52:45
Wir sind doch grad durch damit :up:

@all
Was habt ihr denn eigentlich von der PCGH erwartet? Oder den sonstigen Verdächtigen? Daß ihr immer und immer wieder aufs Neue über sowas erstaunt sein könnt, da staune ich jedes Mal darüber...

hardtech
2020-05-21, 23:58:44
naja ich kenne die Redaktion aus praktischen Zeiten. ist zwar etwas länger her, aber dafür ging es damals wohl ehrlich zu.
dieser test liest sich bloss so falsch.
keine Kritik am preis.
keine kritik am Stromhunger.
dabei ist die 10. Generation an der kotzgrenze. pcgh verliert kein Wort darüber. schon verdächtig.

zockerX
2020-05-22, 00:03:00
5600XT. Jetzt gehe mal 2-3 Jahre in die Zukunft und was dann mit 8GB Karten passiert...

Lass die Software sich in Ruhe entwickeln, in einigen Jahren wird es für einige Titel sehr spürbare Vorteile geben.

Ansonsten könnte man 2 m.2 SSDs einbauen, die jeweils die gleiche Geschwindigkeit hätten wie eine PCIe 3.0 x4 SSD, da 2 PCIe 4.0 Lanes reichen.

Warum sollte man sich 2020 kein X570 Board holen bzw. warum sollte man sich ein altes 470er Board kaufen?
Die 5600XT hat zu wenig Speicher, genauso wie die RTX2060 (non Super). Und auch bei 8GB Karten wird dir in 2-3 Jahren PCIe 4.0 nichts bringen, da es die Karten nicht unterstützen (Ausnahme: 5700, die aber im Vergleich zu Pascal, Turing und Polaris kaum Verbreitung hat). Und bei der neuen Generation würde ich zwingend mehr als 8GB nehmen, womit sich das Thema PCIe 4.0 auch wieder erst einmal erledigt. Echten Speicher wird PCIe 4.0 nicht ansatzweise ersetzen können.

Was SSDs angeht, stellt sich die Frage ob man überhaupt mehrere PCIe SSDs benötigt, oder ob günstigeres SATA nicht auch reicht.
Ansonsten müsste Comet Lake doch 2 SSDs mit PCIe 3.0 x4 nutzen können. Oder nicht? Selbst Skylake konnte das, auch wenn dann 2 von 6 SATA-Steckplätzen weggefallen sind.

Was 2020 gegen X570 spricht: der Lüfter. Laut, Staubfänger und Verschleißteil.

Complicated
2020-05-22, 07:09:12
Mein Lüfter hat sich auf meinem X570 noch nicht einmal eingeschaltet seit September. Trotz PCIe 4.0 GPU und SSD.

w0mbat
2020-05-22, 08:32:44
Ansonsten müsste Comet Lake doch 2 SSDs mit PCIe 3.0 x4 nutzen können. Oder nicht? Selbst Skylake konnte das, auch wenn dann 2 von 6 SATA-Steckplätzen weggefallen sind.
Auch Skylake konnte das nicht. Bei Intel haben die CPUs nur 20 PCIe Gen3 lanes. x16 für die GPU und x4 für den Chipsatz (DMI 3.0).

Slipknot79
2020-05-22, 09:18:47
Mein Lüfter hat sich auf meinem X570 noch nicht einmal eingeschaltet seit September. Trotz PCIe 4.0 GPU und SSD.

Vllt ist er kaputt. :redface:

w0mbat
2020-05-22, 11:16:03
Vllt ist er kaputt. :redface:
:freak:

Complicated
2020-05-22, 11:43:02
Ich habe lediglich die Lüfterkurve im BIOS eingestellt und dort mal die Lautstärke bei 100% getestet. Und mit Benchmarks der SSD habe ich versucht ihn zu triggern und auf Temperatur zu bringen. Nur wird die kritische Temp eben nie erreicht auf dem Sensor, dass dies nötig wäre. Mein Lian Li ist gut durchlüftet und die RX 5700, sowie der CPU-Kühler sorgen für ausreichend Bewegung im Gehäuse, so dass dies nie nötig ist.

Das Ding ist in Befürchtung vor zu engen und schlecht belüfteten Gehäusen bei OEMs eine Absicherung. Im Retail kauft doch jeder eher ein Gehäuse das entsprechend ein x570 und Komponenten ausreichend belüften kann.

BlacKi
2020-05-22, 11:59:56
ist doch mittlerweile OT deswegen mal spoiler.

vl hätte die community so einen druck aufbauen müssen wie man das bei zen3 und b450 gemacht hat. :D

Benutzername
2020-05-22, 16:33:47
Ich habe lediglich die Lüfterkurve im BIOS eingestellt und dort mal die Lautstärke bei 100% getestet. Und mit Benchmarks der SSD habe ich versucht ihn zu triggern und auf Temperatur zu bringen. Nur wird die kritische Temp eben nie erreicht auf dem Sensor, dass dies nötig wäre. Mein Lian Li ist gut durchlüftet und die RX 5700, sowie der CPU-Kühler sorgen für ausreichend Bewegung im Gehäuse, so dass dies nie nötig ist.

Das Ding ist in Befürchtung vor zu engen und schlecht belüfteten Gehäusen bei OEMs eine Absicherung. Im Retail kauft doch jeder eher ein Gehäuse das entsprechend ein x570 und Komponenten ausreichend belüften kann.

Nicht vergessen, daß die x570 boards auch problemlos in Jakarta im Hochsommer funktionieren sollen im mittelprächtig schlecht belüfteten Gehäuse. Hier im 3dc dürften Gehäuse mit vielen Lüftern die Regel sein. woanders in der Welt glaube ich eher nicht.


Aber zurück zu comet Lake.


ist doch mittlerweile OT deswegen mal spoiler.

vl hätte die community so einen druck aufbauen müssen wie man das bei zen3 und b450 gemacht hat. :D


Naja so OT ist die Fredauslastung eigentlich nicht. Comet Lake bringt ja jetzt HT für alle Modelle. Aber keine Ahnung wie man da die Spielehersteller zu besserem Ausnutzen bringen kann, wenn schnell hingeschlampertes ausreicht. Und die installierte Basis auch immer noch bedacht werden will.

eratte
2020-05-22, 18:02:43
Wo ist eigentlich der Druck der Community bei den ganzen Minilüfter auf den VRMs vieler Z490 Plantinen?

TechPowerUp hat die VRMs aufgeheizt allerdings auf einem Benchtable:

The goal was to keep the VRM testing as fair as possible, so I chose to keep the stock 4.9 GHz frequency and simply boosted the voltage to 1.38 V in order to get the desired power output of about 250 W.


5 Boards getestet nur das ASUS ROG STRIX Z490-E kommt ohne Lüfter aus.

BlacKi
2020-05-22, 18:10:59
was meinst du? praktisch keins hat lüfter.

y33H@
2020-05-22, 18:11:46
Da braucht's erst mal ne Liste welche Z490 überhaupt VRM Lüfter haben ...

eratte
2020-05-22, 18:15:03
4 von 5 getesteten sind also praktisch keins? Nur weil du die nicht siehst sind sie doch vorhanden.

Einfach mal die Reviews von TechPowerUp anklicken, tut nicht weh und eine AdBlockersperre haben sie auch nicht.

zockerX
2020-05-22, 22:44:24
Hier ist ein Beispiel mit 2 von den Minilüftern:
https://www.techpowerup.com/review/asrock-z490-taichi/15.html

Käme mir nicht ins Haus.
Man muss aber auch erwähnen, dass die getesteten Boards allesamt aus der 300€+ Klasse sind. Wäre für mich erstens auch ein KO-Kriterium und zweitens stellt sich die Frage, ob da wirklich so viele Lüfter haben oder ob man das Problem umgehen kann. Trotzdem sehr ärgerlich wenn man beim Kauf darauf achten muss. Besonders perfide is, dass die Dinger verdeckt sind und man sie auf Produktbildern nicht sehen kann.

chaospanda
2020-05-23, 08:46:44
Ich hatte das Pro4M X570 von ASRock im H400 von NZXT und die GPU hat fleißig heiße Luft drauf gepustet unter Last. Der Lüfter lief nahezu immer, egal, was ich bei der Lüftersteuerung von dem Ding eingestellt hatte (abseits von Perma-Aus). Auch nervig war das einmalige Anlaufen bei Systemstart. Man hat es schlicht nicht wegbekommen. Dieses Surren hat mich einfach irre gemacht. (Genau der gleiche Mist wie beim Miniquirl von der AC LF II. Wer so etwas designed, hat was an den Ohren. -.-)

Würde es - wie früher - gescheite 3rd-Party-Kühler geben - wäre das alles halb so wild gewesen. Gewechselt und gut ist, aber der Markt ist aktuell leider so gut wie tot. :(

Von daher bleibe auch ich dabei, wer es wirklich wirklich in allen Lebenslagen nahezu unhörbar haben will, kauft nix, wo man mit solchen Minilüftern leben muss. Das gilt aus meiner Sicht auch für die Z490-Lüfter-Varianten...
Aber vllt. hilft das auch, dass Thermalright und Co die dicken Chipsatzkühler ala HR-05 wieder ausbuddeln. Einen gewissen Style hat(te) es einfach.

dildo4u
2020-05-23, 09:18:23
Hier ist ein Beispiel mit 2 von den Minilüftern:
https://www.techpowerup.com/review/asrock-z490-taichi/15.html

Käme mir nicht ins Haus.
Man muss aber auch erwähnen, dass die getesteten Boards allesamt aus der 300€+ Klasse sind. Wäre für mich erstens auch ein KO-Kriterium und zweitens stellt sich die Frage, ob da wirklich so viele Lüfter haben oder ob man das Problem umgehen kann. Trotzdem sehr ärgerlich wenn man beim Kauf darauf achten muss. Besonders perfide is, dass die Dinger verdeckt sind und man sie auf Produktbildern nicht sehen kann.
Komplett verständlich 10900K zieht im Bereich vom 18 Core Intel nur kann man dort wesentlich mehr Kohle für das Boards nehmen. https://www.guru3d.com/articles_pages/intel_core_i9_10900k_processor_review,5.html
Die kleinen Lüfter werden deutlich billiger sein als schwere Kupfer/Alu Blocks zu verbauen.


lqxVCzYlDCA

Platos
2020-05-23, 12:27:34
Momentan sind die Preise eh lächerlich. Der i5 Cometlake kostet fast so viel, wie vor ein paar Jahren der i7 mal gekostet hat usw.

Die Boards werden auch immer teurer, sowohl bei Intel als bei AMD.

Lowkey
2020-05-23, 13:04:05
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/

177 Euro CPU drückt auf den 3600. Geht nun endlich der lang erhoffte Preiskrieg los?

Passendes Mainboard von Asrock für 108 Euro (https://www.mindfactory.de/product_info.php/ASRock-B460M-PRO4-Intel-MATX-So-1200-retail_1362123.html)

3600 + B450 vs 10400f + B460?

gmb
2020-05-23, 13:20:56
Wahrscheinlich ist das eh schon bekannt, dann nochmal:

How many times do I have to say this? Intel's guidelines for PL2 and Tau are not specifications, they're guidelines! Intel doesn't care what mobo vendors set these to: they can be 9999s and 999W; Intel doesn't care. They actively encourage mobo vendors to overengineer to get more
https://twitter.com/IanCutress/status/1264121279285809155

Ich kann mich da noch an die damaligen 9900K Tests erinnern, wo z.B. die PCGH einen 9900K auf 95W gelockt hat, die default Watt Werte vom Mobo wurden einfach manuell herabgesetzt oder komplett deaktiviert der PL2, weil das doch außerhalb der Spezifikation wäre usw. Einfach nur lol.

dildo4u
2020-05-23, 13:28:00
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/

177 Euro CPU drückt auf den 3600. Geht nun endlich der lang erhoffte Preiskrieg los?

Passendes Mainboard von Asrock für 108 Euro (https://www.mindfactory.de/product_info.php/ASRock-B460M-PRO4-Intel-MATX-So-1200-retail_1362123.html)

3600 + B450 vs 10400f + B460?
Jup da sieht man das alles über 4Ghz weit jenseits des Sweet Spots ist, zum Glück wird sich das Ghz Rennen vermutlich mit Rocket Lake geben.


eM5rtd61K2o

Ravenhearth
2020-05-23, 14:00:02
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/

177 Euro CPU drückt auf den 3600. Geht nun endlich der lang erhoffte Preiskrieg los?
Aus dem Fazit:
Der Mitbewerber AMD Ryzen 5 3600 ist in Schlagdistanz in Anwendungen, während Intel in Spielen die gewohnte große Stärke ausspielt.
AMD ist 13-15% schneller in Anwedungen -> in Schlagdistanz
Intel ist in Spielen 4-5% schneller -> große Stärke

:crazy:

Linmoum
2020-05-23, 14:25:43
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/

177 Euro CPU drückt auf den 3600. Geht nun endlich der lang erhoffte Preiskrieg los?

Passendes Mainboard von Asrock für 108 Euro (https://www.mindfactory.de/product_info.php/ASRock-B460M-PRO4-Intel-MATX-So-1200-retail_1362123.html)

3600 + B450 vs 10400f + B460?
Letzteres fällt schon deswegen raus, weil kein RAM-OC möglich. Komplett sinnbefreit einfach nur dieser Zwang zu Z-Boards dafür.

Davon ab lustig, dass der 10400F laut CB bei den min. fps sogar von einem 3300X für deutlich weniger Geld eingeholt wird. ;D Spricht noch weniger für ihn, wenn man mit 0815-Günther einen Teil der potentiellen Zielgruppe betrachtet. Der wird auch in Zukunft mit 4C/8T seine Ansprüche mehr als erfüllt ansehen.

Auch lustig, dass CB den 10400F mit einer RAM-Config bencht, die auch nur auf einem deutlich teureren Z-Board (2666CL14) möglich ist. Auf einem non-Z ist bei 2666CL17 Schluss und das treibt die Performance noch mal ein Stück runter. Da hätte man, zumindest als Vergleich, ein der Preisklasse angemessenes Board raussuchen müssen. Die meisten kaufen sich ja auch keinen 3600 und ein 300€ teures X570.

Tesseract
2020-05-23, 14:33:53
außerdem steht B550 und damit PCIe 4.0 für deutlich unter 150€ kurz bevor.

Schnoesel
2020-05-23, 14:49:44
Ja der 10400f ist in Ordnung die Plattform dazu ist es aber nicht. Da bekommst mit einem 3600er + B450 + RAM OC (3600Cl16) mehr bang für den buck. Oder du kaufst dir ein Z Board für ne non K CPU. Das könnte dann neben RAM OC noch CPU OC und PCIe 4.0 aber die CPU kanns nicht. Das ist echt lächerlich von Intel.

Ich sage ja die haben bei weitem noch nicht genug gelitten.

Tesseract
2020-05-23, 14:54:37
comet lake kann kein PCIe 4.0, auch die Z boards und K CPUs nicht.

dildo4u
2020-05-23, 14:58:53
Sind die Benches nicht mit Stock DDR4 Ram Speed, das wäre ok dazu braucht man das Z490 nicht.

Schnoesel
2020-05-23, 14:59:03
@tesseract

Angeblich ja schon in Verbindung mit Rocket Lake. Comet Lake kanns halt nicht. Das ist jetzt natürlich ein grundsätzliches Problem von Comet Lake nicht speziell des 10400f. Musst dennoch mitzahlen.

https://www.computerbase.de/2020-04/pcie-4.0-z490-mainboards-gigabyte/

Linmoum
2020-05-23, 15:00:27
comet lake kann kein PCIe 4.0, auch die Z boards und K CPUs nicht.Wenn man dem ein oder anderen Hersteller glauben schenkt, dann können es die Boards schon. Nur müssen diese halt auf RKL-S warten. ;)

zockerX
2020-05-23, 15:44:58
Aus dem Fazit:

AMD ist 13-15% schneller in Anwedungen -> in Schlagdistanz
Intel ist in Spielen 4-5% schneller -> große Stärke

:crazy:
Ganz so verrückt ist das nicht. Spiele sind Echtzeitberechnungen, Anwendungen idR nicht. Daher sind Spiele mMn stärker zu gewichten. 5% sind aber in der Tat keine "große Stärke".

Davon ab lustig, dass der 10400F laut CB bei den min. fps sogar von einem 3300X für deutlich weniger Geld eingeholt wird. ;D Spricht noch weniger für ihn
Da der 3300X auch schneller als der 3600X ist, spricht für Letzteren demnach auch wenig.

Lowkey
2020-05-23, 15:50:49
Es gibt den Stockvergleich wie im Test.
Dann kommt der max. OC unlimited Test (fehlt halt).
Dann kommt der P/L Vergleich mit Sonderangeboten und B-ware.
Und der Konter von AMD folgt in den nächsten 2 Monaten sowieso (3600XT?).

Bei Intel ist die Qualität bzw. das OC in der ersten Woche am Besten und bei AMD wird die Qualität mit jedem Monat besser. Der 3300x zeigt die Richtung und erste 3600 scheinen die 4600mhz zu knacken. Ein gebinnter 3600xt könnte 4600 allcore vermutlich halten. Und dann kommt auch schon der 4600.

Eigentlich eine schlechte Zeit um eine CPU zu kaufen.

Complicated
2020-05-23, 15:58:00
"In Schlagdistanz" wenn man deutlich schneller ist, ist völliger Unsinn in der Formulierung. Egal wie du Spiele gewichtest (wobei ich da deinem Argument nicht mal im Ansatz zustimme, dass Echtzeitanwendungen mehr Gewicht verdienen. Warum eigentlich?).

y33H@
2020-05-23, 16:41:34
Auch lustig, dass CB den 10400F mit einer RAM-Config bencht, die auch nur auf einem deutlich teureren Z-Board (2666CL14) möglich ist. Auf einem non-Z ist bei 2666CL17 Schluss und das treibt die Performance noch mal ein Stück runter. Wieso sollte man auf einem B460 die Latenzen nicht einstellen können?

w0mbat
2020-05-23, 16:53:21
Ganz so verrückt ist das nicht. Spiele sind Echtzeitberechnungen, Anwendungen idR nicht. Daher sind Spiele mMn stärker zu gewichten. 5% sind aber in der Tat keine "große Stärke".
Huh? Es ist doch genau andersrum: der Vorsprung des Ryzen in den Anwendungen ist realitätsnah, die 5% die der i5 in Spielen vorne liegt kommen aus der Kombination 1080p + 2080 Ti.

zockerX
2020-05-23, 18:48:55
"In Schlagdistanz" wenn man deutlich schneller ist, ist völliger Unsinn in der Formulierung. Egal wie du Spiele gewichtest (wobei ich da deinem Argument nicht mal im Ansatz zustimme, dass Echtzeitanwendungen mehr Gewicht verdienen. Warum eigentlich?).
Ob ein Video ein wenig länger zum konvertieren braucht ist mir ziemlich egal, ob ein Spiel jedoch langsamer und somit weniger flüssig läuft, hingegen nicht. Jedenfalls nicht, wenn ich mich zwischen normalen Anwendungen und Echtzeitberechnungen entscheiden muss.

Huh? Es ist doch genau andersrum: der Vorsprung des Ryzen in den Anwendungen ist realitätsnah, die 5% die der i5 in Spielen vorne liegt kommen aus der Kombination 1080p + 2080 Ti.
Da ist was dran. Daher habe ich derartiges in einem früheren Beitrag angemerkt. Leider werden für solche CPUs keine zusätzlichen Tests mit realistischeren GPUs wie einer 2060S gemacht.

Lowkey
2020-05-23, 19:06:01
Es paßt doch alles. Die reine CPU Leistung ist nun bekannt. Jetzt kommt es auf die Einzelperson an, ob sie mehr spielt oder mehr anwendet. Das ist wie mit den Panels: spielst du auf Pro => TN, willst du Filme und tollen Schwarzwert => VA und willst du Farben => IPS.

Willst du bei deiner CPU P/L, ein 10w System, max FPS, 4k oder die Farbe passende zu deinen LED Lüftern?

Die allgemeine Stimmung verliert sich in Extremen: 10th Intel zieht 300w Strom und Gaming ist auf AMD CPUs kaum machbar. ;) Dabei sind es nur leichte Schwerpunkte nach persönlichen Vorlieben. Der Kauf einer Intel CPU ist genauso wenig falsch wie der Kauf einer AMD CPU.

Complicated
2020-05-23, 19:09:17
Und weil dir das egal ist sollte das so gewichtet werde - du siehst, dass das Argument gerade nicht stärker geworden ist für eine allgemeine Forendiskussion. Du darfst ja persönlich Wert legen worauf du willst, doch daraus Forderungen für die Allgemeinheit aufzustellen ist wenig einleuchtend (eine Gewichtung ist für die Allgemeinheit).

Und völlig seltsam ist deine Erwiderung zum Thema "Schlagdistanz" - vielleicht liest du noch einmal worum es da überhaupt geht. Du bist im falschen Kontext, mal wieder.

Linmoum
2020-05-23, 19:15:25
Jetzt kommt es auf die Einzelperson an, ob sie mehr spielt oder mehr anwendet.Versteh ich nicht so recht diesen Satz.

3600 und 10400(F) haben eine quasi identische Spieleleistung, bei der Anwendungsperformance ist der 3600 allerdings ein Stück weiter vorne. Da trennt sich die Spreu noch nicht vom Weizen, das kommt erst bei der Plattform bzw. dem Gesamtpaket.

Der 10400(F) kann nicht übertaktet werden, was bei einer CPU mit (für Intel-Verhältnisse) nur 4.3GHz Boost prädestiniert wäre. Dazu fehlt RAM-OC komplett, wenn man nicht ein sehr teures Z-Board nimmt. Wie viele Leute tun das auf beiden Seiten, wenn sie eine gute, aber günstige CPU suchen? Solche Leute werden auch zwei Jahre später nicht plötzlich zu 600€-Käufern.

Ich sehe wenig bis gar nichts, was für eine non-K-CPU spricht. Intel sollte vielmehr anfangen, diese einfach nur dämliche Fragmentierung des eigenen Line-Ups bzw. der einzelnen SKU zu beenden. Sowohl beim OC der CPU, als auch beim Speicher und der Voraussetzung von teuren Boards. Das braucht heute niemand mehr.

SKYNET
2020-05-23, 20:49:49
Versteh ich nicht so recht diesen Satz.

3600 und 10400(F) haben eine quasi identische Spieleleistung, bei der Anwendungsperformance ist der 3600 allerdings ein Stück weiter vorne. Da trennt sich die Spreu noch nicht vom Weizen, das kommt erst bei der Plattform bzw. dem Gesamtpaket.

Der 10400(F) kann nicht übertaktet werden, was bei einer CPU mit (für Intel-Verhältnisse) nur 4.3GHz Boost prädestiniert wäre. Dazu fehlt RAM-OC komplett, wenn man nicht ein sehr teures Z-Board nimmt. Wie viele Leute tun das auf beiden Seiten, wenn sie eine gute, aber günstige CPU suchen? Solche Leute werden auch zwei Jahre später nicht plötzlich zu 600€-Käufern.

Ich sehe wenig bis gar nichts, was für eine non-K-CPU spricht. Intel sollte vielmehr anfangen, diese einfach nur dämliche Fragmentierung des eigenen Line-Ups bzw. der einzelnen SKU zu beenden. Sowohl beim OC der CPU, als auch beim Speicher und der Voraussetzung von teuren Boards. Das braucht heute niemand mehr.


ram OC geht auch ohne Z board ;)

Badesalz
2020-05-23, 21:56:40
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/

177 Euro CPU drückt auf den 3600. Geht nun endlich der lang erhoffte Preiskrieg los?Der 3300X drückt auf den 3600 :ulol: Der kostet ~130€...

Lowkey
2020-05-23, 22:11:52
Bei mir persönlich spielt der 3300x und der 10000er keine Rolle, weil die Angebote fehlen. Den normalen Einkaufs-Preis klammer ich komplett aus. Der 3600 im Angebot macht den 3300x uninteressant.

@Linmoum

Alle CPUs haben keine Einschränkung bei Games und Anwendungen. Du kannst mit jeder CPU alles machen. Was nimmst du dann als Kriterium? Im FHD Test ist der Intel 5% vor dem AMD. Das ist nun keine echtes Problem, aber mittlerweile genau die homöopathische Prise, über die sich die ganze Diskussion zwischen der Hardware dreht.

Ich gebe dir aber vollkommen recht, dass das Marketing und Verhalten von Intel nicht angepaßt ist. AMD fiel auf die Nase und macht es von Jahr zu Jahr besser.

hardtech
2020-05-23, 22:25:07
Huh? Es ist doch genau andersrum: der Vorsprung des Ryzen in den Anwendungen ist realitätsnah, die 5% die der i5 in Spielen vorne liegt kommen aus der Kombination 1080p + 2080 Ti.

super antwort!

meine rede ist, dass man unter realen bedingungen testen sollte, sofern man spiele unter genau diese einordnet.
keiner kauft sich die schnellste geafikkarte und zockt spiele am 27“ fullhd monitor.

1440p ist besser. da rücken die cpus näher zusammen. ultrahd knn selbst die 2080ti nicht alles packen. insofern ginge 1440p für mich als real durch.

hardtech
2020-05-23, 22:39:36
Alle CPUs haben keine Einschränkung bei Games und Anwendungen. Du kannst mit jeder CPU alles machen. Was nimmst du dann als Kriterium? Im FHD Test ist der Intel 5% vor dem AMD. Das ist nun keine echtes Problem, aber mittlerweile genau die homöopathische Prise, über die sich die ganze Diskussion zwischen der Hardware dreht.

sehr gut ausgedrückt. sehe ich genau so.

naja man könnte einen blindtest machen.
plattform intel und plattform amd
>> summe preis für board, cpu, kühler

diese plattformen testet man gegeneinander.
bei einem 3300x vs 10400 würden leute keinen unterschied bemerken, wenn der fps counter in der ecke ausgeschaltet ist.

dies liegt daran, dass die unterschiedliche leistung nicht darüber entscheidet, ob ein spiel von spielbar zu unspielbar wechselt, da der unterschied in der leistung viel zu klein ist.

insofern hilft die ganze disskussion nicht wirklich.
am ende sieht es doch so aus:
kauf für zukunft hat sich noch nie gelohnt. kaufe für hier und jetzt und wechsele dabei board und cpu auf einmal. dann gibts auch keine kompatibilitätsdiskussionen.
ich behaupte mal, dass jemand ohne spezialanwendungen mit einem b550 und 3600 nichts falsch macht.
auch der käuft von damals hat mit dem kauf eines 8700k nichts falsch gemacht, ist diese plattform zumindest für spiele und anderen anwendungen ausreichend performant.

viel schlimmer finde ich das erhöhte allgemeine preisniveau:
gute netzteile danals ab 60€, heute eher 100€
mittelklasse grafikkarten damals ab 250€, heute eher 400€
boards, die heute tw. über 1.000€ im mainstream kosten, sowas ging vor kurzem eher bis 300€
cpu-kühler, die um die 80€ kosten, früher eher 1/2
... die liste ist sehr lang

dazu die ewigen 30€/tb preise. da tut sich wenig.
die ssd preise pro tb sind auch seit 1 jahr fest.

ich schweife ab...

Badesalz
2020-05-23, 22:55:21
Bei mir persönlich spielt der 3300x und der 10000er keine Rolle, weil die Angebote fehlen. Den normalen Einkaufs-Preis klammer ich komplett aus. Der 3600 im Angebot macht den 3300x uninteressant.Wenn man keine Frametimes glätten muss..., und sonst 7-zip und Cinebench weglässt, ist der 3300X öftersmal schneller als der 3600.

"Die Angebote" machen mich jetzt nicht so heiss. Ich hätte den Vorteil von mehr als 8 Threads, 3x im Monat. Den Vorteil der feststellbar höheren IPC hätte ich dauernd.

Lowkey
2020-05-23, 23:05:09
Meine Theorie auf Basis der AMD CPUs, die sich in meinem Besitz befanden, ist die:

Der 3300x ist fabrikneu und damit bester Qualität. Der 3600 im Test ist bestimmt vom Sommer 2019 und damit uralt. In den Foren und im Internet ließt man öfters nun von sehr guten 3600ern, die mehr Mhz packen. Wenn ich nun den nagelneuen 3600er kaufe, dann müßte er mit dem 3300x auf Augenhöhe sein. Und dann schwingt das Willhaben-Pendel eher zum 3600. Das ist dann auch nur eine 52 zu 48 Entscheidung. 1 Punkt gibt es für den Wiederverkaufswert des 3600.

Lehdro
2020-05-23, 23:30:50
ram OC geht auch ohne Z board ;)
Quelle? Finde nur gegenteilige Aussagen in den Tests.

Daredevil
2020-05-24, 01:18:51
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/

177 Euro CPU drückt auf den 3600. Geht nun endlich der lang erhoffte Preiskrieg los?

Passendes Mainboard von Asrock für 108 Euro (https://www.mindfactory.de/product_info.php/ASRock-B460M-PRO4-Intel-MATX-So-1200-retail_1362123.html)

3600 + B450 vs 10400f + B460?
Dit ist schon nett, wenn Intel aber mal nicht so ein Kackhaufen wäre, würden sie einfach nen K dahinter machen und die Sache wäre als schnellste Gaming CPU geritzt. :(

BlacKi
2020-05-24, 01:48:08
wenn Intel aber mal nicht so ein Kackhaufen wäre
und wenn apple nicht apple wäre... worauf willst du hinaus? ich glaub eben das intel keinen preiskampf braucht um seine produkte zu verticken.

Daredevil
2020-05-24, 01:50:29
Ganz offensichtlich finde ich künstliche Einschränkungen fürs OC nicht so geil, das fand ich noch nie.
Ein 6/12er ohne Limit wäre wie ein E4300 C2D, ein Full of Win und für Bastler in dem Bereich ein Grund, keinen Ryzen zu nehmen.
Aber nöööö, Intel ist halt Intel. :<)

MiamiNice
2020-05-24, 02:28:12
naja man könnte einen blindtest machen.
plattform intel und plattform amd
>> summe preis für board, cpu, kühler

diese plattformen testet man gegeneinander.
bei einem 3300x vs 10400 würden leute keinen unterschied bemerken, wenn der fps counter in der ecke ausgeschaltet ist.

dies liegt daran, dass die unterschiedliche leistung nicht darüber entscheidet, ob ein spiel von spielbar zu unspielbar wechselt, da der unterschied in der leistung viel zu klein ist.


Halte ich ganz klar dagegen. Ja, nach Spiel merkst Du das auch ohne FPS Counter instant. Maßgeblich Games mit einem massiven ST CPU Limit. Anno 1800 im Lategame, Escape from Tarkov direkt nach Mapstart, Renngames im MP, viele VR Games nur mal paar Beispiele zu nennen. In dieser Art von Game rennt ein von Hand getunter Intel jedem verfügbaren Ryzen im zweistelligen % Bereich weg. Und ich spreche hier von 20-40%, immer im CPU Limit natürlich.
Ich würde in jedem dieser Games auch ohne Counter erkennen ob ich an einer Maschiene mit guter Gaming CPU oder einem Ryzen sitze.
Bei der Masse an "AAA" Games da draußen hast Du aber durchaus recht.

Jeder kann ja seine Meinung kundtun, meiner Meinung nach ist Ryzen (noch) keine gute Gaming CPU. Jedes Game schwankt zwischen GPU und CPU Limit. Ein Ryzen bremst aufgrund von internen Latenzen, langsamen Speicher und langsamer Fabric einfach in kritischen CPU limitierten Szenen / Spielen. Und das mit dem maximal Takt kommt auch noch irgendwie dabei, er ist noch zu hart an der Kante gebaut und leistet dabei zu wenig. Deswegen kaufen auch noch so viele Intel CPUs, ich scheine da nicht alleiniger Meinung zu sein.
Zen3 scheint allerdings die CPU zu werden die Intel das Wasser abgraben wird. Den der wird scheinbar so gut das sich der Umstieg endlich leistungs technisch lohnt.

=Floi=
2020-05-24, 03:22:55
Ganz offensichtlich finde ich künstliche Einschränkungen fürs OC nicht so geil, das fand ich noch nie.
Ein 6/12er ohne Limit wäre wie ein E4300 C2D, ein Full of Win und für Bastler in dem Bereich ein Grund, keinen Ryzen zu nehmen.
Aber nöööö, Intel ist halt Intel. :<)

aber wo wären wir heute, wenn jede 4. cpu offen wäre?! Es gäbe sehr oft keinen grund upzugraden.
Aus wirtschaftlicher sicht lebt intel heute von ihrer damaligen taktik, ja nicht zu viel freizugeben. Man könnte nicht mit +30% werden, wenn die alten cpus nicht auch schon so hoch und lange geboostet hätten.
Im mobile sektor oder bei den I3/I5 hat man damals die taktraten extrem klein gehalten.


miami
er hat beide 6 kerner in dieser preisklasse vergleichen! 20% merkt man gar nicht. Hör auf mit solchen hirngespinsten. Du redest dir noch immer den 9900k schön. Ob zB 100 oder 120fps ist sowas von egal. Normal begrenzt man die fps dann sowieso um energie zu sparen und saubere frames zu haben.

Und btw. irgendwelche scheiß latenzen sind mir sowas von egal. Von mir aus kann die cpu intern 1 sekunde warten, wenn die fps hoch und gleichmässing sind :ugly:
Das ist wie 4 oder 5 radschrauben beim auto.

DavChrFen
2020-05-24, 04:07:43
aber wo wären wir heute, wenn jede 4. cpu offen wäre?! Es gäbe sehr oft keinen grund upzugraden.
Aus wirtschaftlicher sicht lebt intel heute von ihrer damaligen taktik, ja nicht zu viel freizugeben. Man könnte nicht mit +30% werden, wenn die alten cpus nicht auch schon so hoch und lange geboostet hätten.
Im mobile sektor oder bei den I3/I5 hat man damals die taktraten extrem klein gehalten.

Es gab auch damals schon K-CPUs. Die auch durchaus von Gamern gekauft wurden. Und wieso ist nun mobile auf einmal relevant?

miami
er hat beide 6 kerner in dieser preisklasse vergleichen! 20% merkt man gar nicht. Hör auf mit solchen hirngespinsten. Du redest dir noch immer den 9900k schön. Ob zB 100 oder 120fps ist sowas von egal. Normal begrenzt man die fps dann sowieso um energie zu sparen und saubere frames zu haben.

20% sind IMHO sehr viel. Das ist typisch mehr als von einer CPU-Generation auf die nächste. Und ab und zu auch der Unterschied, ob ein Spiel gerade noch ruckelt oder nicht.

@OnTopic: Git es schon Test mit einer Cusom-Loop Wasserkühlung und max OC? Würde mich interessieren, ob der auch gegen eine Taktmauer läuft oder ob einfach nur die Abhärme das Problem ist.

MiamiNice
2020-05-24, 04:16:04
miami
er hat beide 6 kerner in dieser preisklasse vergleichen! 20% merkt man gar nicht. Hör auf mit solchen hirngespinsten. Du redest dir noch immer den 9900k schön. Ob zB 100 oder 120fps ist sowas von egal. Normal begrenzt man die fps dann sowieso um energie zu sparen und saubere frames zu haben.

Und btw. irgendwelche scheiß latenzen sind mir sowas von egal. Von mir aus kann die cpu intern 1 sekunde warten, wenn die fps hoch und gleichmässing sind :ugly:
Das ist wie 4 oder 5 radschrauben beim auto.

Sei mir nicht bös, aber teste das mal gegen. In den Spielen die da oben stehen, bei Bedarf gebe ich Dir gerne eine Liste. Bzw. stehen da ja schon genug Games.

dildo4u
2020-05-24, 04:34:21
Bang for Bug die beste Anno CPU ist 3300X, hält 60fps wie sinnvoll mehr sind bei diesem Game sehe ich nicht wirklich.


https://www.golem.de/news/ryzen-3-3300x-3100-im-test-amd-legt-intels-200-euro-klasse-lahm-2005-148268-2.html

Selbst wenn man Intel Loyalist ist weiß ich nicht wie man heiß auf 50€ Rabatt auf ein 3 Jahre alten 8700k sein soll.

https://geizhals.de/intel-core-i5-10600k-bx8070110600k-a2290983.html

Intel ist entweder nicht in der Lage oder will keine Markanteile im dem Segment zurückholen.

Dorn
2020-05-24, 08:12:39
Den der wird scheinbar so gut das sich der Umstieg endlich leistungs technisch lohnt.Umstieg von was einer Rübe?

Comedy Lake ist für mich die beste Gaming CPU Reihe. Aber 14nm und die Mainboards können nix neues. Langweilig. Sowas darf man im Sinne des Fortschritts nicht unterstützen.

novl
2020-05-24, 09:17:18
Umstieg von was einer Rübe?

Comedy Lake ist für mich die beste Gaming CPU Reihe. Aber 14nm und die Mainboards können nix neues. Langweilig. Sowas darf man im Sinne des Fortschritts nicht unterstützen.

Sehe ich leider ähnlich, ich gurke hier noch immer auf meinem 6700k herum und habe vor einiger Zeit auf eine RTX 2080 aufgerüste. Die Spiele, welche mir einen signifikanten(!) CPU Upgrade Vorteil bieten würden (RTS, Simulation) sind nicht mein Genre.

Dorn
2020-05-24, 09:56:09
Sehe ich leider ähnlich, ich gurke hier noch immer auf meinem 6700k herum und habe vor einiger Zeit auf eine RTX 2080 aufgerüste. Die Spiele, welche mir einen signifikanten(!) CPU Upgrade Vorteil bieten würden (RTS, Simulation) sind nicht mein Genre. Dito 6700K@4,2GHz AllCore.
Im Herbst wird dieser dann 5 Jahre...:freak: Werde dann wohl auf ein Ryzen 4xxx setzen da ich gerne wenigstens PCI Express 4 mitnehmen möchte. Noch mind. ein Jahr auf DDR 5 zu warten, ne ne. Obwohl der 6700K für mich noch dicke ausreicht.

Würde ich mir zum ersten mal ein PC zusammen bauen wäre es evtl. Comet Lake.

Badesalz
2020-05-24, 10:00:34
Ein Ryzen bremst aufgrund von internen Latenzen, langsamen Speicher und langsamer Fabric einfach in kritischen CPU limitierten Szenen / Spielen.Nur wo sind die Leute die sich darüber beschweren?

@Dorn
Es gibt schlimmeres. Kumpel mit seiner custom und 8700k mit 5Ghz auf allen Kernen... meinte letztens, er weiß es nicht, ob er jemals nochmals upgraden wird :ulol: ;)

chaospanda
2020-05-24, 10:09:53
Nur wo sind die Leute die sich darüber beschweren?

Ohne direkten Vergleich wird es schwierig, solche Unterschiede zu "fühlen".

Ich hab in meiner Bibliothek z.B. ein Game, was ich nach wie vor regelmäßig anwerfe, das noch mit DX9 läuft. Will ich max. FOV, brechen mir die Frames weg, weil die CPU (3600) an seine Grenze kommt. Das MC-Potential geht da einfach komplett baden und SC-Performance wird benötigt. Das nervt schon gewaltig/war mir bis dahin auch schlicht nicht bekannt. Es gibt also durchaus Szenarien, wo der Griff zu AMD nur bedingt hilft beim Upgrade. :(

Ich hoffe da auf Renoir/Vemeer. Ansonsten bleibt nur der Griff zu Intel und da ist der 10400 bzw. der 10700 eine sehr konkurrenzfähige Option, wie ich finde.

Badesalz
2020-05-24, 10:30:57
Ohne direkten Vergleich wird es schwierig, solche Unterschiede zu "fühlen".Soll heissen, es fällt den Besitzern nicht auf?
Welcher Art Nachteil ist das dann? Der Direktvergleich-Nachteil? :|

Könnte sein, daß ein Meer an Gamern nicht zwangsläufig die beste Gaming-CPU haben will, sondern eine gute Gaming-CPU? Bisher baut man sich solche Rigs mit einem 3600 und gut ist :usweet:
https://www.anandtech.com/show/15787/amd-ryzen-5-3600-review-amazons-best-selling-cpu

Ich hab in meiner Bibliothek z.B. ein Game, was ich nach wie vor regelmäßig anwerfe, das noch mit DX9 läuft. Will ich max. FOV, brechen mir die Frames weg, weil die CPU (3600) an seine Grenze kommt.
Das MC-Potential geht da einfach komplett baden und SC-Performance wird benötigt. Das nervt schon gewaltig/war mir bis dahin auch schlicht nicht bekannt. Es gibt also durchaus Szenarien, wo der Griff zu AMD nur bedingt hilft beim Upgrade. :(Erstmal, heißt das Game Voldemort? Oder warum sollte sein Name nicht genannt werden dürfen?
Zweitens, wäre es möglich, daß dagegen aktuell eh nur das helfen würde?
https://www.tomshardware.com/news/amd-ryzen-3-3100-overclock-6ghz

Ich hoffe da auf Renoir/Vemeer. Ansonsten bleibt nur der Griff zu Intel und da ist der 10400 bzw. der 10700 eine sehr konkurrenzfähige Option, wie ich finde.Das ist für dich gesichert - wodurch, wenn denn? - daß dein obiges Szenario mit einem 10700 signifikant-ausreichend besser laufen wird?

basix
2020-05-24, 11:24:29
Nur wo sind die Leute die sich darüber beschweren?

@Dorn
Es gibt schlimmeres. Kumpel mit seiner custom und 8700k mit 5Ghz auf allen Kernen... meinte letztens, er weiß es nicht, ob er jemals nochmals upgraden wird :ulol: ;)

Ich als HSW-E Besitzer dachte damals auch nicht, dass ich das System bis 2021 / 2022 behalten werde (Start mit 5820K). Ein 5820K war damals in Spielen in etwa gleich schnell wie ein 4790K. In der PCGH Ausgabe 5/2020 war ein sehr stark übertakteter 5820K (4.7G / 4.05G L3 / 3133er Speicher mit 14-15er Latenzen) fast so schnell wie ein 9900K ;D

X99 bot ausserdem mit m.2 Slots und DDR4 auch nach heutigem Stand moderne Features und PCIe 4.0 benötigt man bis jetzt noch nicht. Vor DDR5, PCIe 4.0+ und USB 4.0 werde ich nicht umsteigen. Wenn ich Glück habe, erhalte ich wieder eine sehr langlebige Plattform: DDR5, PCIe 4.0 / 5.0 (32 Lanes?), USB 4.0, 3-4 m.2 Slots. Ob es ein Intel oder AMD wird, wird das Produktangebot entscheiden ;)

MikePayne
2020-05-24, 12:17:55
Halte ich ganz klar dagegen. Ja, nach Spiel merkst Du das auch ohne FPS Counter instant. Maßgeblich Games mit einem massiven ST CPU Limit. Anno 1800 im Lategame, Escape from Tarkov direkt nach Mapstart, Renngames im MP, viele VR Games nur mal paar Beispiele zu nennen. In dieser Art von Game rennt ein von Hand getunter Intel jedem verfügbaren Ryzen im zweistelligen % Bereich weg. Und ich spreche hier von 20-40%, immer im CPU Limit natürlich.
Ich würde in jedem dieser Games auch ohne Counter erkennen ob ich an einer Maschiene mit guter Gaming CPU oder einem Ryzen sitze.
Bei der Masse an "AAA" Games da draußen hast Du aber durchaus recht.

Jeder kann ja seine Meinung kundtun, meiner Meinung nach ist Ryzen (noch) keine gute Gaming CPU. Jedes Game schwankt zwischen GPU und CPU Limit. Ein Ryzen bremst aufgrund von internen Latenzen, langsamen Speicher und langsamer Fabric einfach in kritischen CPU limitierten Szenen / Spielen. Und das mit dem maximal Takt kommt auch noch irgendwie dabei, er ist noch zu hart an der Kante gebaut und leistet dabei zu wenig. Deswegen kaufen auch noch so viele Intel CPUs, ich scheine da nicht alleiniger Meinung zu sein.
Zen3 scheint allerdings die CPU zu werden die Intel das Wasser abgraben wird. Den der wird scheinbar so gut das sich der Umstieg endlich leistungs technisch lohnt.


Märchenstunde? Offensichtlich. Zen 2 ist eine einwandfreie Allround CPU, ich kenne niemand der mit einem Ryzen gegen einen Atomkraftwerk 9900k verliert (nur weil der einen super duper Intel hat mit 14nm Gedächtnistechnologie, gilt für die 10xxx Series genauso). 5Ghz schön und gut, aber wenn das Teil dann 250/300W frisst soll das bei Intel gut sein? AMD hätte man zerrissen. ST Performance interessiert einen Dreck im Jahre 2020. Bitte mal die Realitäten sehen und nicht tote Pferde bis zum getno reiten, danke.

Plus:

Dabei ist es beachtenswert, wie nahezu durchgehend die Zen-2-basierten Ryzen 3000 Prozessoren derzeit schon unterhalb ihrer Listenpreise angeboten werden (welche eigentlich nach Umrechnungskurs und MwSt-Aufschlag in Euroland eher etwas höher ausfallen sollten). Derzeit werden in Deutschland die Prozessoren-Modelle von Ryzen 5 3600X bis Ryzen 9 3900X (ergo mit der Ausnahme des Ryzen 9 3950X) im Schnitt um -17% niedriger angeboten als der US-Listenpreis "vorgibt". Ein deutlich umgekehrtes Bild ergibt sich dagegen bei den ersten Preisnotierungen zu Comet Lake-S, wobei hier schon die für Intel günstigeren Tray-Preise zum Einsatz kamen: Derzeit kosten die K-Modelle von Comet Lake-S immerhin um durchschnittlich +14% mehr, als es der US-Listenpreis "vorgibt". Natürlich ist klar, das man die US-Listenpreise nicht direkt auf Euro-Straßenpreisen abbilden sollte, aber die eindeutige Relation ergibt hierbei den springenden Punkt: AMDs Zen 2 klar niedriger als der Listenpreis, Intels Comet Lake klar höher – was in der Summe bedeutet, das in diesem Fall die Listenpreise nicht den Vergleichsmaßstab bilden können. (3DC News vom 22.5.)

Daredevil
2020-05-24, 12:28:29
Kein 8 Kerner zieht beim Gaming 250w, weil Null Auslastung.

MikePayne
2020-05-24, 12:35:08
Kein 8 Kerner zieht beim Gaming 250w, weil Null Auslastung.

Wir können jetzt auf Korinthenkacker machen - Du weisst genau was ich meine. Was Intel da abzieht, hat AMD schon durch mit der FX-9xxx Series.

Und ich möchte auch keine CPU, die je nach Lust und Laune (wie mobil CPUs) dann nach einiger Zeit einen Durchhänger bekommt.

https://www.computerbase.de/2020-05/intel-core-i9-10900k-i5-10600k-test/2/

ComputerBase hat sich deshalb abermals dazu entschieden, die neuen CPUs in zwei Konfigurationen zu testen:

Ohne Limits, d.h. immer mit maximal erlaubtem Turbo, was beim Core i9-10900K bis zu 310 Watt Package-Power (Prime95) bedeutet.
Mit PL2 und PL1 bei ausreichend zeitlichem Abstand zwischen den Benchmarks, um Tau auszuschöpfen
Die Botschaft ist damit allerdings klar: Selbst der zweite Testlauf der Redaktion stellt einen Best Case mit Limits dar. Würde der gesamte Parcours mit nur minimalen Pausen zwischen den Benchmarks durchlaufen werden, wäre zumindest der Core i9-10900K nochmals langsamer. Und allein die Reihenfolge der Benchmarks würde dann einen Unterschied machen.

Am Ende sind es im Extremfall zwei unterschiedliche Prozessoren, die ein einzelner Core i9-10900K hervorbringt. Die eine, die sich stets so viel sie will genehmigen darf, die andere, die nach 5 Sekunden über der 125-Watt-Marke direkt wieder auf den Wert zurückfällt. Dass sich so etwas massiv in der Leistung niedersachlägt, ist schon in der Theorie klar und hat die Praxis im Test deutlich gezeigt.

Slipknot79
2020-05-24, 12:38:51
Wenn du vorhast ständig Cinebech laufen zu lassen und der Stromverbrauch für dich wichtig ist, dann ist die 9th und 10th tatsächlich nix für dich. Dann kannst du ruhig zu AMD greifen, ist sicher die richtige Wahl.

zockerX
2020-05-24, 12:45:54
Sehe ich leider ähnlich, ich gurke hier noch immer auf meinem 6700k herum und habe vor einiger Zeit auf eine RTX 2080 aufgerüste. Die Spiele, welche mir einen signifikanten(!) CPU Upgrade Vorteil bieten würden (RTS, Simulation) sind nicht mein Genre.
Gerade diese Spiele nutzen mehr als 4 Kerne normalerweise gar nicht. Da geht dann alles über den Takt/IPC.

MikePayne
2020-05-24, 12:50:58
Wenn du vorhast ständig Cinebech laufen zu lassen und der Stromverbrauch für dich wichtig ist, dann ist die 9th und 10th tatsächlich nix für dich. Dann kannst du ruhig zu AMD greifen, ist sicher die richtige Wahl.

Ich bevorzuge high fps Gaming mit gleichzeitigem Streaming in (für Twitch Verhältnisse) guter Quali, ohne extra Streaming PC. Und da performt der (in meinem Fall) 3800X besser als erwartet. Ein vergleichbares Intel Sys hätte deutlich mehr gekostet, ohne bedeutendes Performanceplus (wenn überhaupt und würde overtime mehr Strom verbrauchen, ausser die Kiste idelt 24/7).

Daredevil
2020-05-24, 12:56:44
Wir können jetzt auf Korinthenkacker machen - Du weisst genau was ich meine. Was Intel da abzieht, hat AMD schon durch mit der FX-9xxx Series.

Wenn Miami mit Gaming Leistung argumentiert und du mit 300w Stromverbrauch, hast du selbst die Flinte ins Korn geworfen. :D
Sein Punkt ist valide und nachvollziehbar, deiner ist schlicht falsch.

Streaming und Number Crunching ist ein anderer Task als Gaming, da hast du natürlich recht, darum ging es aber nicht.
Und das beide beides gut können, hat er auch nicht bezweifelt, hier geht es um den Weg „Gut“ bis „Sehr gut“.

MikePayne
2020-05-24, 12:58:26
Wenn Miami mit Gaming Leistung argumentiert und du mit 300w Stromverbrauch, hast du selbst die Flinte ins Korn geworfen. :D
Sein Punkt ist valide und nachvollziehbar, deiner ist schlicht falsch.

Streaming und Number Crunching ist ein anderer Task als Gaming, da hast du natürlich recht, darum ging es aber nicht.

Auch beim Gaming verbraucht er obv mehr (eben keine 300W max), nur im Idle weniger. Nice try.
Witzig, dass man das diskutieren muss (das der Intel mehr Strom verbraucht (ausser Idle...) zeigt jeder Test).

chaospanda
2020-05-24, 13:00:51
Soll heissen, es fällt den Besitzern nicht auf?
Welcher Art Nachteil ist das dann? Der Direktvergleich-Nachteil? :|

Nun ja. Wozu sonst braucht es denn sonst diese ganzen Reviews, wenn nicht zum Vergleich zu dem, was man selbst gerade hat oder sucht, damit man besser wählen kann, ob man noch wartet mit einer Anschaffung oder nicht. :conf2:


Könnte sein, daß ein Meer an Gamern nicht zwangsläufig die beste Gaming-CPU haben will, sondern eine gute Gaming-CPU? Bisher baut man sich solche Rigs mit einem 3600 und gut ist :usweet:
https://www.anandtech.com/show/15787/amd-ryzen-5-3600-review-amazons-best-selling-cpu

Ich habe auch nicht gesagt, dass man damit zu keinem Zeitpunkt glücklich werden kann bzw. wird. =)


Erstmal, heißt das Game Voldemort? Oder warum sollte sein Name nicht genannt werden dürfen?

Der Gedanke kam mir beim Verfassen schlicht - war also keine Absicht. Es ist GW2.


Zweitens, wäre es möglich, daß dagegen aktuell eh nur das helfen würde?
https://www.tomshardware.com/news/amd-ryzen-3-3100-overclock-6ghz

Du hast den Text gelesen? LN2 ist jetzt nun wirklich nicht was für 24/7. Da ich mit Kernanzahl, Takt und Mods schon getestet habe (sowie andere Spieler mit anderen Konfigurationen ihre Erfahrungen auch kund tun), würde ich sagen, dass ich auf Basis der mir bekannten Informationen Schlussfolgerungen ziehen kann.


Das ist für dich gesichert - wodurch, wenn denn? - daß dein obiges Szenario mit einem 10700 signifikant-ausreichend besser laufen wird?
Für mich persönlich? Ja. Ich werde schauen, ob mein persönliches Bottleneck hier durch Renoir oder Vermeer zu beheben ist und wenn nicht, wird Comet Lake eine Chance bekommen. Ist es sinnvoll? Für den einen ja, für den anderen vermutlich nicht. Da wir hier aber von einem Hobby sprechen... :whistle::sneak:

Daredevil
2020-05-24, 13:03:04
Auch beim Gaming verbraucht er obv mehr (eben keine 300W max), nur im Idle weniger. Nice try.
Witzig, dass man das diskutieren muss (das der Intel mehr Strom verbraucht (ausser Idle...) zeigt jeder Test).
Zeig doch mal her, ich hab noch keinen Test gesehen, wo AMD deutlich effizienter ist im Gaming.
( Angesichts dessen, dass er 14% mehr im CB Durchschnitt leistet )

aufkrawall
2020-05-24, 13:03:06
Für DX9-Gammel würd ich mal DXVK probieren, boostet in Borderlands 2 selbst mit Nvidia die fps um mitunter 50%.

MikePayne
2020-05-24, 13:13:23
https://www.pcgameshardware.de/CPU-CPU-154106/Specials/CPU-Verbrauch-Der-Effizienz-Index-fuer-Prozessoren-1341682/

Der i5 9400F kann mithalten ja. Bei der 10xxxx Series wird es nicht besser.

War das erste was Google bei mir ausgespuckt hatte, findet sich sicher mehr.

dildo4u
2020-05-24, 13:16:55
10400F taktet niedrig genug das er unter oder auf 3600 Level ist.

https://youtu.be/lqxVCzYlDCA?t=397

Daredevil
2020-05-24, 13:24:45
https://www.pcgameshardware.de/CPU-CPU-154106/Specials/CPU-Verbrauch-Der-Effizienz-Index-fuer-Prozessoren-1341682/

Der i5 9400F kann mithalten ja. Bei der 10xxxx Series wird es nicht besser.

War das erste was Google bei mir ausgespuckt hatte, findet sich sicher mehr.
Guck doch mal hier
https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/

8k 3800X 65w Gaming Last im Schnitt
10c 10900k 70w Gaming Last im Schnitt

In Division ist der 10900k 28% schneller in den MinFPS.
Wo ist AMDs Gaming Effizienz? Ich sehe sie noch nicht.


Deswegen ja die Frage, wo du das gesehen hast. Ich hab’s nämlich noch nicht.

MikePayne
2020-05-24, 13:26:11
10400F taktet niedrig genug das er unter oder auf 3600 Level ist.

https://youtu.be/lqxVCzYlDCA?t=397

https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/4/

Jo, das ist die beste der neuen Intel CPUs. Aber ohne K wird der hier im Forum eh misstrauisch beäugt (auch wenn es sicher paar Interessenten dafür geben wird, vor allem außerhalb vom 3DC) :freak:

Aber das war es dann auch schon.

Guck doch mal hier
https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/

8k 3800X 65w Gaming Last im Schnitt
10c 10900k 70w Gaming Last im Schnitt

In Division ist der 10900k 28% schneller in den MinFPS.
Wo ist AMDs Gaming Effizienz? Ich sehe sie noch nicht.

Cherrypicking mit einer 600€ CPU vs 330€ CPU. Geh mal an die frische Luft^^

Linmoum
2020-05-24, 13:29:29
Zeig doch mal her, ich hab noch keinen Test gesehen, wo AMD deutlich effizienter ist im Gaming.
( Angesichts dessen, dass er 14% mehr im CB Durchschnitt leistet )
Wo guckst du denn immer für Verbrauchsmessungen? Da sollte die erste Anlaufstelle doch immer klar Igor sein.

https://i.gyazo.com/08dfa3a6a4eb4c9ed944ded1913be335.png
https://www.igorslab.de/intel-core-i9-10900k-im-vielseitigkeits-test-wo-liegen-staerken-und-schwaechen-des-letzten-14-nm-boliden-seiner-art/8/

Und so viel schneller ist der 10900K halt nicht. Die PCGH-Werte sind aktuell sowieso zu ignorieren bei dem Kauderwelsch-Review und Fehlern, die (wegen Zeit und so) gemacht wurden.

Daredevil
2020-05-24, 13:31:53
Ein 3950X ist in dem Fall nicht besser, ebenso wenig ein 3900x, weil mehr Kerne.
Ich habe bewusst die schnellere 8c CPU gegen die „ineffiziente“ 10c CPU verglichen, damit du merkst, dass deine Aussage im Gaming einfach nicht zutrifft.

Ich gehe jetzt an die frische Luft, du suchst mir den Test, wo du tolle Zen2 Effizienz gesehen hast, weil du hast ja gesagt, das sieht man in -jedem- Test. :)

@ Linmoum
Danke.
Auch hier sehe ich aber nichts, was Payne beschrieben hat. Weder ist Zen2 dort deutlich effizienter ( Da weniger Leistung ), noch ist Intel ein Strommonster im Gaming.

250/300w. Nun.

aufkrawall
2020-05-24, 13:38:03
Aus der Erinnerung hervorgekramt: In SotTR 720p ("Worst case" Multicore-Last bei Spielen) zog der 3600X @Stock vielleicht minimal mehr als mein leicht undervolteter 6700k, ist dabei mit getuntem RAM aber locker 20-30% schneller.
Würde der 3600X mit UV für Allcore 4,1GHz betrieben werden, sähe es sicherlich noch besser aus.

MikePayne
2020-05-24, 13:40:31
Ein 3950X ist in dem Fall nicht besser, ebenso wenig ein 3900x, weil mehr Kerne.
Ich habe bewusst die schnellere 8c CPU gegen die „ineffiziente“ 10c CPU verglichen, damit du merkst, dass deine Aussage im Gaming einfach nicht zutrifft.

Ich gehe jetzt an die frische Luft, du suchst mir den Test, wo du tolle Zen2 Effizienz gesehen hast, weil du hast ja gesagt, das sieht man in -jedem- Test. :)

@ Linmoum
Danke.
Auch hier sehe ich aber nichts, was Payne beschrieben hat. Weder ist Zen2 dort deutlich effizienter ( Da weniger Leistung ), noch ist Intel ein Strommonster im Gaming.

250/300w. Nun.


:freak:

Eigentlich müsste man Intels 10. Generation zumindest beim i9-10900K eher als 9,5-te Generation bezeichnen, denn neben kleineren Evolutionen beim Boost, der Voltage und dem Unterbau hat sich eigentlich nicht viel getan. Mehr Takt und zwei Kerne mehr werden jedoch bei vollem Einsatz dann auch bei der Leistungsaufnahme bitter abgestraft. Das kann und darf man nicht außer Acht lassen, wenn es um ein objektives und faires Urteil geht.

Ja, diese CPU kann man durchaus kaufen. Zumindest als Gamer, wenn das Geld locker sitzt und die Steckdose an der Wand im Gegenzug fest genug verschraubt ist. Denn das größte Manko der CPU ist sein überalterter Fertigungsprozess. Core-Architektur hin oder her, die eher grob wirkenden 14-nm hinterlassen ihre Spuren, sowohl energetisch als auch thermisch. Das wiederum ist schade, denn ich hätte genau diese CPU samt aller nochmaligen Verbesserungen gern mal in 10 nm gesehen. Da es Intel aber nicht geschafft hat, bleibt nur der dusselige Reim mit der Fahrradkette.

[...]

Die kleineren Modelle wirken zumindest von hier aus und ohne echten Test deutlich appetitlicher und interessanter. Wie lecker die dann wirklich sind, müsste man natürlich noch herausfinden. Der Core i9-10900K ist da im Vergleich eher das Leuchtturm-Modell, das aber ob seiner herausgefundenen Nachteile sicher die eine oder andere Kritik einstecken werden muss, da bin ich mir sehr sicher.

Man kann den Intel Core i9-10900K sicher sogar schön finden, wenn man das letzte Quäntchen Performance aus seinem Setup quetschen möchte und einen auch die PCIe-3.0-Umgebung nicht abschreckt. Denn der Z490-Unterbau ist auch nicht viel moderner als der Fertigungsprozess, allerdings alles andere als preiswert. Man kann mit dem Core i9-10900K sicher noch eine ganze Weile seine Freude haben, mit dem lokalen oder überregionalen Energieversorger als Trittbrettfahrer. Wer lieber allein fährt, der kauft sich einen 8-Kerner oder einen Ryzen.


https://www.igorslab.de/intel-core-i9-10900k-im-vielseitigkeits-test-wo-liegen-staerken-und-schwaechen-des-letzten-14-nm-boliden-seiner-art/9/

;D

Danke @Linmoum für den Link

chaospanda
2020-05-24, 13:54:16
Für DX9-Gammel würd ich mal DXVK probieren, boostet in Borderlands 2 selbst mit Nvidia die fps um mitunter 50%.
Hiho :)

Unter Windows habe ich zumindest für 2 Patches lang mal einen DX12-Mod zum Laufen bekommen. Der hatte den CPU Overhead gut wegbekommen. Aber das hatte ganze 3 Wochen funktioniert und dann war es das wieder. Den Luxus eines Updates auf DX11 oder 12 wird es nicht geben. Ist halt nicht WoW. :frown:

DXVK unter Windows wollte bisher nicht. Unter Linux habe ich es aber noch nicht getestet.

Ansonsten ist es nunmal so, dass die GW2 Engine unter Windows Intel CPUs favorisiert. Was wenig verwunderlich ist, da es aus einer Zeit kommt, wo AMD sprichwörtlich 0 Relevanz hatte und die 4-Kerner das Maß der Dinge im Mainstream waren. Kann man blöd finden, aber ändert am Grundproblem schlicht nichts. Es gibt einfach Fälle, da braucht es schlicht mehr Takt auf weniger Kernen.

Daredevil
2020-05-24, 13:57:12
:freak:



https://www.igorslab.de/intel-core-i9-10900k-im-vielseitigkeits-test-wo-liegen-staerken-und-schwaechen-des-letzten-14-nm-boliden-seiner-art/9/

;D

Danke @Linmoum für den Link
Erfind einfach das nächste mal weniger „Fakten“. Danke :)

aufkrawall
2020-05-24, 14:01:44
Wobei 5GHz halt auch nur 16% mehr Takt sind als 4,3GHz. Und teuren RAM, um die höheren Latenzen des größeren Ringbus von 6/8/10C vs. 4C auszugleichen, braucht es dann mitunter auch noch, damit die reale Skalierung nicht wegschmilzt. Und taktbereinigt ist man häufig gar nicht mehr vor AMD.
Ich würds mir wirklich gut überlegen, so viel Geld für einen vermutlich nicht relevanten Unterschied bei der Spielbarkeit auszugeben. Mir erscheint es durch die Aufrüstbarkeit Zen 3s arg sinnfrei.

Daredevil
2020-05-24, 14:04:57
Natürlich ist Intel ne Luftpumpe neben AMD und deren Lineup, der Aufpreis ist in keinem Verhältnis zur Performance, darum ging es Miami in dem Moment aber nicht, da ging es um MaxFPS in -jedem- Spiel und die gibts halt nicht bei den allgemein „vernünftigen“ AMD Prozessoren.

Siehe:
ffKHk-M_8eY

MikePayne
2020-05-24, 14:16:01
Erfind einfach das nächste mal weniger „Fakten“. Danke :)

Ohne Worte.

https://media.giphy.com/media/3og0INyCmHlNylks9O/giphy.gif

chaospanda
2020-05-24, 14:22:25
Wobei 5GHz halt auch nur 16% mehr Takt sind als 4,3GHz. Und teuren RAM, um die höheren Latenzen des größeren Ringbus von 6/8/10C vs. 4C auszugleichen, braucht es dann mitunter auch noch, damit die reale Skalierung nicht wegschmilzt. Und taktbereinigt ist man häufig gar nicht mehr vor AMD.
Das bestreite ich auch nicht. :)

Ich weiß auch, dass es schon ein sehr spezielles "Problem" ist. Ein Downgrade in Threads ziehe ich z.B. aus Prinzip nicht in Betracht. Ich brauch aber auch keine 10/20 oder 16/32 CPUs. So 6/12 bzw. 8/16 scheint denke ich ein ganz guter Weg für gescheite Frametimes für die nächste Zeit. Das wird zumindest von dem einen oder anderen Test gestützt. So falsch dürfte diese Annahme dementsprechend nicht sein. :)

Ich würds mir wirklich gut überlegen, so viel Geld für einen vermutlich nicht relevanten Unterschied bei der Spielbarkeit auszugeben. Mir erscheint es durch die Aufrüstbarkeit Zen 3s arg sinnfrei.
Deswegen bin ich auch entspannt und warte, was die nächsten Monate bzw. zum Jahreswechsel noch kommt.

Das schöne ist ja zum Glück, das ich kann aber nicht muss. :)

Tesseract
2020-05-24, 14:51:18
da ging es um MaxFPS in -jedem- Spiel

ich möchte an dieser stelle einwerfen, dass die testparkours der bekannten reviewer fast alle starke überschneidungen aus einer relativ kleinen gruppe an spielen haben - die oft nicht mal in den top 50 der meistgespielten spiele auftauchen - und wir über den rest eigentlich sehr wenig wissen, ganz besonders wenn es um so dinge wie optimierte timings vs größere caches im high-fps-bereich geht.

Daredevil
2020-05-24, 15:32:33
ich möchte an dieser stelle einwerfen, dass die testparkours der bekannten reviewer fast alle starke überschneidungen aus einer relativ kleinen gruppe an spielen haben - die oft nicht mal in den top 50 der meistgespielten spiele auftauchen - und wir über den rest eigentlich sehr wenig wissen, ganz besonders wenn es um so dinge wie optimierte timings vs größere caches im high-fps-bereich geht.
Ja klar, es wird immer mal Ausnahmen geben, die sind mir persönlich aber jetzt in dem Vergleich nicht bekannt.
Also bei den GPUs gibt es Überflieger, wo AMD so richtig rockt, z.B. Wolfenstein, kennst du ein Spiel wo Ryzen überdurchschnittlich besser ist?

Ich vergleiche ja auf mehreren Portalen und schaue mir auch gerne sowas hier an und dabei deckt sich halt das ganze, dass Comet Lake generell am *schnellsten agiert und in manchen Spielen deutlich besser performt. ( Siehe Digital Foundry Video )

EgOPglxyNok

Für alle draußen mit starken Ego Problemen:
* Was immer noch nicht bedeutet, dass ein Ryzen langsam ist, die CPU für Spiele nicht zu gebrauchen ist oder ich Comet Lake generell empfehlen würde.

Linmoum
2020-05-24, 15:46:24
Erfind einfach das nächste mal weniger „Fakten“. Danke Er hat keine Fakten erfunden, da er vom Verbrauch

Auch beim Gaming verbraucht er obv mehr (eben keine 300W max), nur im Idle weniger. Nice try.
Witzig, dass man das diskutieren muss (das der Intel mehr Strom verbraucht (ausser Idle...) zeigt jeder Test).

gesprochen hat. Und die Realität hat Igor klar dargelegt. Danke. ;)

Natürlich ist Intel ne Luftpumpe neben AMD und deren Lineup, der Aufpreis ist in keinem Verhältnis zur Performance, darum ging es Miami in dem Moment aber nicht, da ging es um MaxFPS in -jedem- Spiel und die gibts halt nicht bei den allgemein „vernünftigen“ AMD Prozessoren.

Siehe:
https://youtu.be/ffKHk-M_8eY
Es gibt heute noch Leute, denen es um max. fps geht? Verrückte Welt, sollte eigentlich komplett irrelevant sein für sich betrachtet, ohne die wichtigen min. fps mit einzubeziehen.

dildo4u
2020-05-24, 15:47:59
Ja klar, es wird immer mal Ausnahmen geben, die sind mir persönlich aber jetzt in dem Vergleich nicht bekannt.
Also bei den GPUs gibt es Überflieger, wo AMD so richtig rockt, z.B. Wolfenstein, kennst du ein Spiel wo Ryzen überdurchschnittlich besser ist?

Ich vergleiche ja auf mehreren Portalen und schaue mir auch gerne sowas hier an und dabei deckt sich halt das ganze, dass Comet Lake generell am *schnellsten agiert und in manchen Spielen deutlich besser performt. ( Siehe Digital Foundry Video )

https://youtu.be/EgOPglxyNok

Für alle draußen mit starken Ego Problemen:
* Was immer noch nicht bedeutet, dass ein Ryzen langsam ist, die CPU für Spiele nicht zu gebrauchen ist oder ich Comet Lake generell empfehlen würde.


310 vs 170€, macht deutlich mehr Sinn das Geld in die GPU zu stecken.

https://www.mindfactory.de/product_info.php/AMD-Ryzen-5-3600-6x-3-60GHz-So-AM4-BOX_1313643.html

https://geizhals.de/intel-core-i5-10600k-bx8070110600k-a2290983.html?hloc=at&hloc=de


Reicht für 5700XT statt 5600 ergibt +30%. https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440

Ex3cut3r
2020-05-24, 15:48:28
Also was gibt da zu Diskutieren? Der neue Intel ist ganz klar die beste Gaming CPU die man akutell bekommen kann. Punkt. Mit OC und schnellen/optimierten RAM warscheinlich mit sogar großen Abstand zu allem was bisher am Markt war. Punkt.

Trotzdem, ist die Plattform ohne PCIe 4.0 und kommender CPUs die wieder keinen 10/20 Threader bekommen. Richtig Doof.

AMD bietet insgesamt das bessere Paket. Punkt. Wer aber trotzdem, CPU, Board ständig wechseln will, kann gerne zum Intel greifen. Alle anderen sind mit Ryzen und X570/B550 auf der besseren Seite. Punkt.

Und noch was, der Intel verbratet keine 200W im Gaming, das kommt nur von AMD Fanboys um falsche Gerüchte zu verbreiten. Auch die Temps sind im Gaming überhaupt nicht kritisch. Beim Rendern und Co. können tatsächlich mal 250W mal bei rauskommen. Aber selbst 95 Grad sind nicht kritisch wenn diese halt nicht 24/7 anliegen.

Digital Foundry Spielwahl ist halt IMO auch "fragwürdig" Das die z.B. immer noch Crysis 3 anwerfen, sry, aber das Game habe ich damals 2013 1-2 mal durchgespielt. Und seitdem nie wieder angefasst, grade das wird aber bei jedem CPU Launch immer mal wieder rausgeholt. Genauso Far Cry 5, dass das nach SC und guten RAM/Latenzen schreit, sollte man langsam mal wissen, siehe FC5 Bench Thread hier im Formum. Wie wärs es mal, wenn die mal ihren Spiele Parkour auf Games von 2017-2020 updaten wurden?

Tesseract
2020-05-24, 15:53:16
kennst du ein Spiel wo Ryzen überdurchschnittlich besser ist?


chimera squad z.B. (https://www.computerbase.de/2020-04/xcom-chimera-squad-benchmark-test/2/)

interessant vor allem deswegen weil es nur <=4 threads nutzt.