PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Comet Lake - Review-Thread


Seiten : 1 [2] 3 4

aufkrawall
2020-05-24, 16:03:57
Bei den Russen allerdings nicht:
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/xcom-chimera-squad-test-gpu-cpu

Wobei es auch aufzeigt, wie absurd die Diskussion ist, wenn man anhand eines Rundenstrategiespiels im dreistelligen fps-Bereich argumentiert.

Tesseract
2020-05-24, 16:21:37
der punkt war nicht ob man die fps in diesem spiel dringend braucht sondern dass man nicht von ein paar wenigen titel auf alle schließen kann und wenn zwei tester abweichende ergebnisse liefern zeigt das noch deutlicher, dass es unbedingt ein breiteres testfeld von mehr reviewern geben sollte. müssen ja nicht unbedingt mehr titel pro review sein aber zumindest mehr abswechslung als immer wieder das selbe zeug. ganz besonders bei ashes of the singularity damals war das völlig absurd: das ding wurde wahrscheinlich von mehr leuten als benchmark verwendet als es überhaupt gespielt wurde.

aufkrawall
2020-05-24, 16:55:10
Schon klar. Imho ist aber auch klar, dass bei Zen 2 keine großartigen Überraschungen mehr lauern. Das Teil performt im Schnitt schon ziemlich vorhersagbar, wenn man das z.B. mal mit GCN bei GPUs vergleicht. Dass Skylake bei ST generell so überlegen wäre, ist noch aus Zen 1-Zeiten hängen geblieben und seit Zen 2 eher ein Vorurteil.

Effe
2020-05-24, 17:14:27
Also was gibt da zu Diskutieren? Der neue Intel ist ganz klar die beste Gaming CPU die man akutell bekommen kann.
Welcher denn? Der 10900K bestimmt nicht, denn 10 Kerne sind für Gaming unnötig und zu teuer. Der 10700K ist kaum anders als der 9900K, mit acht Kernen auch keine reine Gaming-CPU.

Mit sechs Kernen im Sweetspot der 10600K, ist quasi der 8700K, aber deutlich teuerer als sein AMD-Pendent 3600X.
Interessant wird es erst darunter mit den 10500 +10400ern (XYZ), dort liegt man dann gleich auf mit AMD.

Dass Intel etwas schneller ist, bestreitet doch auch niemand. Nur zu welchem Preis? (unnötige neue, veraltete Plattform; Höherer Preis; mehr Kühlaufwand)

Mit OC und schnellen/optimierten RAM warscheinlich mit sogar großen Abstand zu allem was bisher am Markt war.

Und noch was, der Intel verbrät keine 200W im Gaming, das kommt nur von AMD Fanboys um falsche Gerüchte zu verbreiten. Auch die Temps sind im Gaming überhaupt nicht kritisch.

Mit erwähntem OC sehr wohl. Und mit 10 Kernen ist man auch bei einer Workstation-CPU, wird diese dementsprechend benutzen und damit kühlen müssen.


Punkt. Punkt. Punkt. Punkt.
Mit dem Fuß noch aufstampfen... :freak:

Benutzername
2020-05-24, 17:19:41
Guck doch mal hier
https://www.pcgameshardware.de/Core-i9-10900K-CPU-276151/Tests/Comet-Lake-10600K-Benchmarks-Review-Specs-1349507/

8k 3800X 65w Gaming Last im Schnitt
10c 10900k 70w Gaming Last im Schnitt

In Division ist der 10900k 28% schneller in den MinFPS.
Wo ist AMDs Gaming Effizienz? Ich sehe sie noch nicht.


Deswegen ja die Frage, wo du das gesehen hast. Ich hab’s nämlich noch nicht.

Ist das nicht genau der Unterschied Ringbus gegen separate Chiplets mit Sterntopologie? Letzteres hat mehr latenz und so geringere minfps. Insofern absolut so zu erwarten. Wäre seltsam gewesen, wenn es nicht so gewesen wäre. Sieht ja bei vorherigen Skylake Aufgüssen Ausgaben prinzipiell genauso aus.




Es gibt heute noch Leute, denen es um max. fps geht? Verrückte Welt, sollte eigentlich komplett irrelevant sein für sich betrachtet, ohne die wichtigen min. fps mit einzubeziehen.


Über zwei Jahrzehnte starren auf maxfps und ⌀fps hinterlässt halt Spuren in der Allgemeinheit und "was jeder weiß".

=Floi=
2020-05-24, 17:20:06
Ich hab in meiner Bibliothek z.B. ein Game, was ich nach wie vor regelmäßig anwerfe, das noch mit DX9 läuft. Will ich max. FOV, brechen mir die Frames weg, weil die CPU (3600) an seine Grenze kommt. Das MC-Potential geht da einfach komplett baden und SC-Performance wird benötigt. Das nervt schon .

dann nenn doch einfach das game

Effe
2020-05-24, 17:25:14
Hat er: GW2

Lowkey
2020-05-24, 17:29:29
Will endlich mal 200w in Games sehen!

gmb
2020-05-24, 18:21:01
Digitalfoundries hat sich die CPUs mit DDR4-3600 angesehen, hier kann man schon stellenweise ordentliche Unterschiede sehen.

https://abload.de/img/10tkw0.jpg

https://abload.de/img/2kwjs7.jpg
https://www.youtube.com/watch?v=ffKHk-M_8eY

Lowkey
2020-05-24, 18:29:57
Je höher der Speichertakt, desto mehr geht Intel ab?

Was sind das für FPS Einbrüche bei den AMD CPUs, die sie da thematisieren? (https://youtu.be/ffKHk-M_8eY?t=749)

The year is 2090
Humanity colonized most of the Solar System
New quantum cpu comes out
Digital Foundry: All right let's look at Crysis 3 performance

Ex3cut3r
2020-05-24, 19:00:31
Welcher denn? Der 10900K bestimmt nicht, denn 10 Kerne sind für Gaming unnötig und zu teuer. Der 10700K ist kaum anders als der 9900K, mit acht Kernen auch keine reine Gaming-CPU.

Mit sechs Kernen im Sweetspot der 10600K, ist quasi der 8700K, aber deutlich teuerer als sein AMD-Pendent 3600X.
Interessant wird es erst darunter mit den 10500 +10400ern (XYZ), dort liegt man dann gleich auf mit AMD.

Dass Intel etwas schneller ist, bestreitet doch auch niemand. Nur zu welchem Preis? (unnötige neue, veraltete Plattform; Höherer Preis; mehr Kühlaufwand)


Mit erwähntem OC sehr wohl. Und mit 10 Kernen ist man auch bei einer Workstation-CPU, wird diese dementsprechend benutzen und damit kühlen müssen.


Mit dem Fuß noch aufstampfen... :freak:
Und 10 Kerne hin oder her, er ist trotzdem die schnellste CPU fürs Gaming. (Wahrscheinlich aufgrund des gesteigerten Cache)

Schau dir mal die Strommesswerte von Igor eine Seite hier zurück an, im Gaming wird nichtmal 100W verbraten, soviel dazu.

EDIT: Hier bitte:

https://i.gyazo.com/08dfa3a6a4eb4c9ed944ded1913be335.png

Je höher der Speichertakt, desto mehr geht Intel ab?

Was sind das für FPS Einbrüche bei den AMD CPUs, die sie da thematisieren? (https://youtu.be/ffKHk-M_8eY?t=749)

Ja, das ist in der Tat sehr interessant und kann ich bei meinem 3700X auch fesstellen in wenigen Games, trotz 3440x1440 Auflösung. Ich denke das kommt vom CCX und den schlechten Latenzen, mein 4770K hatte das nicht, hatte mit geilen DDR3 auch "nur" eine 43ms Latzenz.

Effe
2020-05-24, 19:09:39
Und 10 Kerne hin oder her, er ist trotzdem die schnellste CPU fürs Gaming. (Wahrscheinlich aufgrund des gesteigerten Cache)
Welcher denn nun? Wer ist er? Es gibt etliche "neue" CPUs.

Ex3cut3r
2020-05-24, 19:10:17
Welcher denn nun? Wer ist er? Es gibt etliche "neue" CPUs.

Na das Topmodell natürlich, das hat den meisten Cache bekommen. Was denn sonst?
Nur einer hat 10 Kerne. :confused:

Effe
2020-05-24, 19:23:54
Ein Zehnkerner als Gaming-CPU? Really? Wenn Du immer von maximaler Leistung ausgehst, warum hast Du dann nicht den 3950X gekauft? Der boostet auch am höchsten auf AM4.

Der 10-Kerner ist genau so sinnloser Overkill für Gaming wie 3900 oder 3950X.

Ex3cut3r
2020-05-24, 19:25:25
Ok wenn du meinst. Das ist mir zu blöd. Die Topmodelle haben meistens den besten Takt out of the box + meisten Cache. Übertakte doch deine 6 Kern CPU erstmal auf 5,5 ghz damit du die Topmodelle besiegen kannst. Bin mal gespannt.

aufkrawall
2020-05-24, 19:30:50
Digitalfoundries hat sich die CPUs mit DDR4-3600 angesehen, hier kann man schon stellenweise ordentliche Unterschiede sehen.

https://abload.de/img/10tkw0.jpg

https://abload.de/img/2kwjs7.jpg
https://www.youtube.com/watch?v=ffKHk-M_8eY
Die interessanteste Szene in FC5 zeigen sie natürlich nicht, und das ist die wegen niedrigster fps die allerletzte Kamera-Einstellung (Edit: Bzw. die vorletzte, bevor auf den See geschwenkt wird.).
Geht da in 720p sowohl mit dem 6700k als auch dem 3600X (beide vergleichbare 3200 CL14 Fast Timings) auf ~99fps runter. Wow.

Tesseract
2020-05-24, 19:32:04
im Gaming wird nichtmal 100W verbraten

nicht "im gaming" sondern bei teillast und sobald spiele keine rücksicht mehr auf jaguar nehmen müssen werden nicht nur mehr cores sowohl bei amd als auch intel stärker skalieren, auch der verbrauch wird in richtung video encoding gehen. ist ja wohl klar, dass eine CPU wenig verbraucht wenn sie wenig zu tun hat und primär durch kritische pfade wenigen cores bzw. subsystemen limitiert wird.

Ex3cut3r
2020-05-24, 19:34:07
nicht "im gaming" sondern bei teillast und sobald spiele keine rücksicht mehr auf jaguar nehmen müssen werden nicht nur mehr cores sowohl bei amd als auch intel stärker skalieren, auch der verbrauch wird in richtung video encoding gehen. ist ja wohl klar, dass eine CPU wenig verbraucht wenn sie wenig zu tun hat und primär durch kritische pfade wenigen cores bzw. subsystemen limitiert wird.

Gut, gilt für den 3900X ja dann genauso. Ich bleibe dabei, beim Gaming werden keine 200W Worst Case verbraten werden. Das ist nur Panikmache der AMD Fanboys. ob jetzt 150W (AMD im Gaming oder 200W im Gaming (Intel) die 50W machen jetzt einen Weltunterschoed aus? Also bitte? Immerhin dreht ja auch Kreise im Gaming um die Konkurrenz.

Das AMD FX Argument ist nicht vergleichbar, der hat zwar viel verbraten, hat aber auch keine Performance gehabt.

Außerdem darf man den Fertigungsunterschied nicht vergessen, 200W Worst Case im Gaming für 14nm, 50W mehr als die 7nm Konkurrenz, finde ich sogar außerordentlich gut. Wenn Intel 7nm zur Verfügung hätte, wo wären wir dann? :freak:

Mal sehen was AMD mit Ryzen 4000 rausholt.

Tesseract
2020-05-24, 19:35:28
ja, natürlich gilt das für den 3900X genauso. der hat aber mit 12 cores auch mehr wachstumspotenzial.

Effe
2020-05-24, 19:40:37
Ok wenn du meinst. Das ist mir zu blöd. Die Topmodelle haben meistens den besten Takt out of the box + meisten Cache. Übertakte doch deine 6 Kern CPU erstmal auf 5,5 ghz damit du die Topmodelle besiegen kannst. Bin mal gespannt.
Ich habe einen 3700X und bin die nächsten Jahre gut versorgt. Und wenn ein teurer Prozessor mehr FPS bringt, na und? Für Gaming einen Zehnkerner zu empfehlen, ist unnötig.

Ex3cut3r
2020-05-24, 19:42:14
Ich habe einen 3700X und bin die nächsten Jahre gut versorgt. Und wenn ein teurer Prozessor mehr FPS bringt, na und? Für Gaming einen Zehnkerner zu empfehlen, ist unnötig.

Gut, solange man nicht im CPU Limit ist, ist ja auch in Ordnung. Leider hat DF oben im Video aber sehr gut gezeigt, dass man mit einem Ryzen 3000 selbst in 4K mit einer 2080Ti öfter mal im CPU Limit ist.

aufkrawall
2020-05-24, 19:49:44
Gut, solange man nicht im CPU Limit ist, ist ja auch in Ordnung. Leider hat DF oben im Video aber sehr gut gezeigt, dass man mit einem Ryzen 3000 selbst in 4K mit einer 2080Ti öfter mal im CPU Limit ist.
Hab mich vertan, das Video zeigt doch die kritische Szene in 8:48min.
Aber wie schon gesagt, geht es mit dem 3600X meines Bruders dabei mit 3200 CL14 Fast Timings nicht auf ~77fps runter wie DFs 3700X mit 3600 CL16, sondern eher 97-99fps. :freak:
Ich kanns aber nochmal überprüfen...

Effe
2020-05-24, 19:50:33
Solange keine unspielbaren FPS da sind, kein Problem. Und DX11 ist eben am Ende, nicht erst bei dem Game.

Tesseract
2020-05-24, 19:51:25
Gut, solange man nicht im CPU Limit ist, ist ja auch in Ordnung. Leider hat DF oben im Video aber sehr gut gezeigt, dass man mit einem Ryzen 3000 selbst in 4K mit einer 2080Ti öfter mal im CPU Limit ist.
auch das wird sich eher umdrehen. nachdem beide konsolen zen 2 bekommen werden alle größeren titel in den nächsten ~7 jahren primär auf die eigenheiten von zen 2 zugeschnitten sein, auch wenn intel und amd schon 4+ generationen weiter sind. das ist einfach marktrealität.

Lowkey
2020-05-24, 20:02:45
Gibt es denn Aussagen von Programmiern diverser Studios, dass sie nun auf AMD umgestiegen sind?

Tesseract
2020-05-24, 20:11:06
was meinst du mit "umgestiegen"?

SKYNET
2020-05-24, 20:30:55
Je höher der Speichertakt, desto mehr geht Intel ab?

Was sind das für FPS Einbrüche bei den AMD CPUs, die sie da thematisieren? (https://youtu.be/ffKHk-M_8eY?t=749)


keine ahnung, habe crysis 3 ja grad durch gespielt gehabt, und mit 1080Ti und 3600er samt speicher auf 3800 konnte ich nix feststellen, was da angeblich gewesen sein soll.... und ich spiele in 1920*1200, also wo die CPU deutlich mehr zum tragen kommt als 1440p wie die das da hatten:confused:

Effe
2020-05-24, 20:41:44
Gibt es denn Aussagen von Programmiern diverser Studios, dass sie nun auf AMD umgestiegen sind?
Das Studio von Doom und Wolfenstein, ID-Software, hat doch stark für Ryzen getrommelt.

Ex3cut3r
2020-05-24, 21:01:19
Hab mich vertan, das Video zeigt doch die kritische Szene in 8:48min.
Aber wie schon gesagt, geht es mit dem 3600X meines Bruders dabei mit 3200 CL14 Fast Timings nicht auf ~77fps runter wie DFs 3700X mit 3600 CL16, sondern eher 97-99fps. :freak:
Ich kanns aber nochmal überprüfen...

keine ahnung, habe crysis 3 ja grad durch gespielt gehabt, und mit 1080Ti und 3600er samt speicher auf 3800 konnte ich nix feststellen, was da angeblich gewesen sein soll.... und ich spiele in 1920*1200, also wo die CPU deutlich mehr zum tragen kommt als 1440p wie die das da hatten:confused:

Ihr habt ja auch bestimmt die Subtiminings getunt ergo +15-20%
DF ja nicht.

aufkrawall
2020-05-24, 21:07:08
keine ahnung, habe crysis 3 ja grad durch gespielt gehabt, und mit 1080Ti und 3600er samt speicher auf 3800 konnte ich nix feststellen, was da angeblich gewesen sein soll.... und ich spiele in 1920*1200, also wo die CPU deutlich mehr zum tragen kommt als 1440p wie die das da hatten:confused:
Wäre ja auch in anderen Tests erkennbar gewesen mit entsprechend schlechten low fps. Ist es aber nicht. Bez. W3 hat er auch immer noch nicht kapiert, was Shader Compile Stutter ist und erzählt stattdessen irgendwas von Streaming.
Und zum Crysis 3 Cutscene-Gewichse fällt mir nur noch :facepalm: ein.
Das hat auf jeder CPU merkbares Stuttering und läuft umso schlechter, je näher man am CPU-Limit. Ist alles nicht so kompliziert...

Badesalz
2020-05-24, 21:09:08
Nun ja. Wozu sonst braucht es denn sonst diese ganzen ReviewsDIESE Frage stell ich mir schon seit Jahren. Hast du vielleicht eine brauchbare Antwort schon gefunden?
Vor allem halt, daß es vielleiht noch 2-3 Reviewteams gibt die noch nicht korrumpiert sind.

Ich habe auch nicht gesagt, dass man damit zu keinem Zeitpunkt glücklich werden kann bzw. wird.Darum ging es nicht. Es ging darum, daß man damit zu jedem Zeitpunkt glücklich wird ;)

@Daredevil
Ich mag Paynes Dramaturgie zwar auch nicht besonders, aber so wie du den Link von Linmoum schnell wegwischen möchtest, da bin ich nicht der Meinung, daß sowas erhobenen Hauptes gelingen kann...

y33H@
2020-05-24, 21:19:26
2-3 weltweit? :freak: du hast falsche Vorstellungen ...

Badesalz
2020-05-24, 21:29:33
1-2? :frown:

y33H@
2020-05-24, 21:40:36
Andere Richtung ^^

Radeonfreak
2020-05-24, 21:42:52
4?

Badesalz
2020-05-24, 21:48:17
Ok. Vielleicht sehe ich das auch zu pesymistisch. 4 scheinen dann doch realistisch.

Jedenfalls, wenn man die "Reviewteams" meint, die davon auch nur teils leben...

davidzo
2020-05-24, 21:50:18
Das Studio von Doom und Wolfenstein, ID-Software, hat doch stark für Ryzen getrommelt.

Ja, John Carmack nutzt nen Threadripper 3990x. Wahrscheinlich primär zum entwickeln, weniger zum spielen. Wobei ein downgrade im spielen wie bei threadripper 1+2 ist das nicht mehr. Der performt wahrscheinlich genau so gut wie jeder 3600 oder 9400F auch, also nur Prozentpünktchen schlechter als ein 9900/10900K, erst recht in 4K oder VR loads. Würde mich nicht wundern wenn daher bei ID auch sehr viele Mitarbeiter Ryzen benutzen. Das scheint aber eine längere Partnerschaft zu sein, ID hat 2017 auch schon Tech 7 auf die Summit ridge 8-cores optimiert und presamples von vega gehabt.

zockerX
2020-05-24, 22:09:22
nicht "im gaming" sondern bei teillast und sobald spiele keine rücksicht mehr auf jaguar nehmen müssen werden nicht nur mehr cores sowohl bei amd als auch intel stärker skalieren, auch der verbrauch wird in richtung video encoding gehen. ist ja wohl klar, dass eine CPU wenig verbraucht wenn sie wenig zu tun hat und primär durch kritische pfade wenigen cores bzw. subsystemen limitiert wird.
Das Thema hatten wir schon. Bereits bei Jaguar wurde das erwartet aufgrund dessen 8 Kerne. Kann sein, dass sich das ein wenig mehr zu lasten von Intel verschiebt, aber an dem Grundsatz wird sich wenig ändern. Bis das soweit ist, sind beide CPUs längst überholt.

Ja, John Carmack nutzt nen Threadripper 3990x. Wahrscheinlich primär zum entwickeln, weniger zum spielen. Wobei ein downgrade im spielen wie bei threadripper 1+2 ist das nicht mehr. Der performt wahrscheinlich genau so gut wie jeder 3600 oder 9400F auch, also nur Prozentpünktchen schlechter als ein 9900/10900K, erst recht in 4K oder VR loads. Würde mich nicht wundern wenn daher bei ID auch sehr viele Mitarbeiter Ryzen benutzen. Das scheint aber eine längere Partnerschaft zu sein, ID hat 2017 auch schon Tech 7 auf die Summit ridge 8-cores optimiert und presamples von vega gehabt.
Carmack ist seit 2013 nicht mehr bei id. Momentan konzentiriert er sich auf AI.

Benutzername
2020-05-24, 22:35:21
Das Studio von Doom und Wolfenstein, ID-Software, hat doch stark für Ryzen getrommelt.

Ich vermute mal, iD software möchte iDtech7 für die nextgen Konsolen verticken. Dabietet sich das ja an.

=Floi=
2020-05-24, 23:18:54
Hat er: GW2

https://github.com/megai2/d912pxy
https://www.buffed.de/Guild-Wars-2-Spiel-17072/News/Add-On-DirectX-1274211/

mal das ausprobiert?

chaospanda
2020-05-24, 23:32:49
https://github.com/megai2/d912pxy
https://www.buffed.de/Guild-Wars-2-Spiel-17072/News/Add-On-DirectX-1274211/

mal das ausprobiert?
Wie ich in einem auf den von dir zitierten Beitrag folgenden Beitrag bereits geschrieben habe, hatte ich dieses Addon bereits ausprobiert. Es hat eine kurze Zeit funktioniert und dann nicht mehr. Es ist also keine Lösung und auf Dauer einfach nur nervig, wenn es durch Micropatches wieder nicht geht und man quasi bei jedem Spielstart hofft, dass es nicht wieder zerschossen ist sollte es denn irgendwann mal wieder laufen.

Badesalz
2020-05-24, 23:50:48
Genauso Far Cry 5, dass das nach SC und guten RAM/Latenzen schreit, sollte man langsam mal wissenWarum sollte man genau das damit nicht testen wollen? Das testet nicht alleine nur den RAM mit, sondern auch die MCs der CPUs.

Was soll man so testen? Das auf core-flood am besten zugeschnittene? Also immer nur Cinebench und 7-zip?

=Floi=
2020-05-25, 00:12:29
Das ganze wird eigentlich immer absurder, weil man im gaming betrieb auch mit einer langsameren cpu super fährt und im normalfall dank der höheren auflösungen die gpu limitiert.
So gesehen sinkt die relevanz für eine ultra tolle cpu immer mehr.

Tesseract
2020-05-25, 00:24:28
Bereits bei Jaguar wurde das erwartet aufgrund dessen 8 Kerne.

die situation war damals eine völlig andere: viele engines waren ursprünglich für ST geschrieben und dann sehr grob auf 2-4 threads umgewurstelt. inzwischen hat fast jede engine threadpools die mit unzähligen tasks gefüttert werden. spiele skalieren nicht deswegen nur bis zu ~6 cores weil sie nicht mehr "können" sondern weil sie einfach zu wenig last erzeugen. wenn man den corecount immer weiter erhöht bleibt man irgendwann am langsamsten task hängen auf den alle warten müssen und das geht bei geringer gesamtlast sehr schnell.

zockerX
2020-05-25, 00:59:19
@Tesseract
Das kann eigentlich nicht sein, da bereits die X360 3 Kerne hatte und die PS3 noch mehr. Das passt daher eher in die Zeit der X360.
Das von dir angesprochene Problem mit der Kernerhöhung aber geringer Gesamtlast wird auch bei den neuen Konsolen bestehen bleiben. Mit HT/SMT kann man das eventuell ein wenig ausbügeln, aber das Grundproblem bleibt dasselbe: der - wie du ihn nennst - langsamste Task bremst den Rest aus, der dann vor sich herdümpelt. Das Problem kennt man von Simulatoren seit man dort versucht auf mehrere Kerne aufzuteilen.
Daher werden auch 10 Kerne bei Spielen nichts bringen. Wenn ein 10-Kerner schneller ist als ein 8-Kerner, dann ist das eine absolute Ausnahme oder es kommen andere Faktoren wie IPC, Takt, Cache zum Tragen. Selbst mit 6 schnellen Kernen wird man die nächste Konsolengeneration mMn sehr, sehr gut überstehen (damit meine ich dann auch zukünftige CPUs). Mit 4 sehr, sehr schnellen Kernen wird man die meisten Spiele auch gut spielen können, auch wenn die CPU am Limit läuft. Besonders dann, wenn man nicht die krassesten AAA-Titel einbezieht. 8C16T gleichmäßig auszulasten dürfte in Spielen weitern ziemlich schwer werden (einzelne Szenen vielleicht ausgenommen). Bis jetzt hatte man bereits mit weitaus weniger Threads Probleme. Sieht man daran wie gut 4 KErner noch mithalten.

Gipsel
2020-05-25, 01:08:49
@Tesseract
Das kann eigentlich nicht sein, da bereits die X360 3 Kerne hatte und die PS3 noch mehr.Die PS3 hatte nur einen einzigen PowerPC-Kern. Die SPEs in Cell kann man da nicht einfach als Kerne rechnen. Die funktionieren anders und sind eher als Beschleuniger (Co-Prozessoren, grob wie Compute auf einer GPU, allerdings anders angesteuert und ohne direkten Speicherzugriff) zu begreifen.

Tesseract
2020-05-25, 01:23:46
die PS3 noch mehr.
ich habe dir schon in einem anderen post gesagt, dass das ganz einfach nicht stimmt.

Das von dir angesprochene Problem mit der Kernerhöhung aber geringer Gesamtlast wird auch bei den neuen Konsolen bestehen bleiben.
nein wird es nicht. wenn man auf jaguar keine rücksicht mehr nehmen muss kann man die gesamtlast locker vervierfachen und verschiebt das problem in ganz andere regionen.
still dir vor cinebench hätte ein bestimmtes feld mit einem teureren effekt, das einen core ganze 2 minuten beschäftigt. sobald der corecount so hoch ist, dass alle anderen felder auf allen anderen cores in unter 2 minuten fertig sind skaliert es einfach nicht mit mehr cores weiter. wenn sich die rechenzeit der anderen felder allerdings vervierfacht und der ganze frame nach den 2 minuten noch lange nicht fertig ist skaliert es plötzlich doch obwohl sich die anzahl der felder ("tasks") nicht verändert hat.

Rampage 2
2020-05-25, 01:45:08
Übertakte doch deine 6 Kern CPU erstmal auf 5,5 GHz damit du die Topmodelle besiegen kannst. Bin mal gespannt.

Einige gute Exemplare des 8086K (die Limited Edition-Version des 8700K) sollen 5.5 GHz stabil schaffen können - mit entsprechender Kühlung. Einige sogar angeblich 5.6 GHz. Dennoch ist der 9900K die sinnvollere Wahl, denn er hat mehr Cores/Threads und weiterhin einen hohen Takt (5.0-5.2 GHz) und zukünftige Games werden von mehr Cores/Threads Gebrauch machen. Für ST-Games & Workloads ist die 8086K aber weiterhin das NonPlusUltra:smile:

Zen 2 ist eine einwandfreie Allround CPU, ich kenne niemand der mit einem Ryzen gegen einen Atomkraftwerk 9900k verliert

Die ultimative Allround-CPU für Gaming (!) ist der 9900K/KS bzw. jetzt der 10700/10900K - weil sie alle 3 Eigenschaften von 3 Welten haben:

Hohe IPC (Skylake-IPC) + Hoher Takt + viele Kerne (8+)

Perfekt für Spiele (also auch ältere Spiele; s.w.u.) - sofern die IPC von Zen 2 mittlerweile sogar höher ist als die von Skylake, dann kann Z2 in ST-Games/Szenarien seinen Takt-Nachteil damit ausgleichen. Also höchstens (!) Gleichstand bei ST.


5Ghz schön und gut, aber wenn das Teil dann 250/300W frisst soll das bei Intel gut sein? AMD hätte man zerrissen.

AMD hat man damals nicht wegen des Verbrauchs, sondern wegen der Effizienz (Verhältnis Verbrauch zu Leistung) zerrissen - wegen der grottigen Bulldozer-IPC (hoher Takt, aber keine entsprechende Leistung). Ähnliche Geschichte wie beim Pentium 4/Netburst damals. Der 9900K säuft zwar auch wie ein Loch - aber er liefert auch die entsprechende Leistung für den Verbrauch, wegen der guten Skylake-IPC. Das lässt sich also schlecht vergleichen;)


ST Performance interessiert einen Dreck im Jahre 2020.

Ich weiß, dass ihr genervt sein werdet, dass ich immer die gleichen Beispiele nenne, aber:

Es gibt immer noch Use-Cases und ältere Spiele mit veraltetem Grundgerüst (Spiele-Engine), die mit Multithreading gar nichts oder nur wenig anfangen können, aber dennoch weiterhin sehr beliebt sind und/oder noch gespielt werden. Die kriegst du nur mit höherem Takt oder höherer IPC (oder Beides) flotter:

Arma 3: brutalst CPU-limitiert, aber gleichzeitig nur schlechtes MT (2C/4T ?) -> profitiert von jedem MHz mehr CPU- und Speichertakt oder höherer IPC!

Crysis 1: eigentlich sehr stark GPU-limitiert, aber mittlerweile bekomme ich zunehmend das Gefühl, dass die CPU die eigentliche Bremse ist; trotz fast 5 GHz Takt (Spiel nutzt nur 2C/4T (?) wie A3). Aber bei über 10 Mio. Polygonen/Frame wundert mich das eigentlich nicht mehr... ;D

Just my 2 Cents...

R2

Platos
2020-05-25, 02:41:17
Die meisten Aktuellen (grossen AAA) Games können eig. alle mit 8 Threads umgehen (und auch vernünftig auslasten). Von daher bringt ein 8-Kerner auch jetzt schon (deutlich) mehr Perfomance, wie ein 4-Kerner (Auch 4c/8t vs 8c/8t). Heisst nicht, dass man mit einem 4c/8t in 3 Jahren unmöglich mehr ein Spiel spielen kann, man wird nur deutlich bessere Perfomance mit anderen Prozessoren haben. Und ja, nicht nur in 720p Tests, auch in 1080p Ultra, siehe unten.

Und die PS4 Jaguar CPU war schon bei Release 2013 ne schlechte CPU. Die jetzigen Konoslen-CPUs sind das aber bei weitem nicht.

Und bevor hier wieder manche das Gefühl haben, mehr als 4 Kerne bringen nichts, dann bitte 2 Test und das sogar in 1080p Ultra:

Mit 8 Threads kann mittlerweile so ziemlich jedes AAA Spiel umgehen (Ohne HT):
vVjdhXAdKE0

Und der Unterschied ist auch deutlich bei 4c/8t vs 8c/16t in den 1%Low sichtbar (mit HT):
EXtMjxC0M4U

Sobald die alten Konsolen nicht mehr unterstützt werden, werden auch die Spielewelten CPU-lastiger werden. Egal ob jetzt nun die von einem Spiel genutzten Threadanzahl (auf dem PC) steigt oder nicht, die CPU-Last wird steigen in allen (AAA) Spielen, die nur noch auf den neuen Konsolen (und PC) kommen. Das ist so sicher wie das Amen in der Kirche, die CPU Leistung der neuen Konsolen wird ausgenutzt werden und zwar so richtig.

Und wie gesagt, egal mit wie vielen Threads man am PC was anfangen kann, diese erhöhte CPU-Last muss bewältigt werden können und da wird ein 4c/8t einfach deutlich schlechter abschneiden. Schon jetzt schneidet ein 4c/8t in spielen (die "nur" mit 8 Threads was anfangen können) gegen einen 8c/16t deutlich schlechter ab.

Ps: Das ist keine "man wird mit 4c/8t nicht mehr spielen können"-Untergangspredigung. D.h nicht, dass es deswegen unspielbar ist, aber Spiele profitieren deutlich von 8 Kernen, auch wenn sie "nur" mit 8 Threads umgehen können, auch gegen 4c/8t und das heute Schon. Umso deutlicher wird das ausfallen, wenn die CPU-Last steigen wird.

Tarkin
2020-05-25, 08:00:05
https://www.youtube.com/watch?v=csFwlKgZCzM&feature=youtu.be

Do Not Buy: Intel i5-10400 (wegen 2.666MT/S Ram) ... oder man ist so irre, und kauft sich ein Z490 Board

Spoiler: Teilweise AMD 3300X od 1600AF schneller!!

y33H@
2020-05-25, 08:10:34
In fast allen Spielen schneller als AMD ... wie erwartet.

dildo4u
2020-05-25, 09:25:24
Er erklärt es doch im Video es ist noch nicht klar welchen Ram Takt man bei den billig Boards einstellen kann, also kann man noch kein Fazit ziehen.
Wenn 2933 möglich ist würde es zu einem Budget System passen und es wäre recht performant.

Lowkey
2020-05-25, 10:00:25
Die meisten Aktuellen (grossen AAA) Games können eig. alle mit 8 Threads umgehen... Viel Text

Ja, die Konsoleros müssen bei allen Spielen die Software von PC auf Konsole stark auf deren Hardware optimieren. Die CPU Leistung, die benötigt wird, wird steigen. Da stimme ich dir voll zu.

Aber diverse Tests vor Jahren haben festgestellt, dass man mit einer dicken CPU keine kleine CPU simulieren kann. Der Cache spielt weniger eine Rolle, aber die kleinen CPUs dürften stärker ausfallen.

Die Kernskalierung ist nicht immer linear. Ich untescheide immer noch zwischen Kernsupport und Kernnutzen. Wegen 10% mehr FPS wird man kaum von einem Multicore Nutzen sprechen. Und wie du sagst bleiben die Spiele auch auf 4 Kernen spielbar.

Badesalz
2020-05-25, 10:58:43
Schon jetzt schneidet ein 4c/8t in spielen (die "nur" mit 8 Threads was anfangen können) gegen einen 8c/16t deutlich schlechter ab.Die Entwicklung ist schon irre...

"Schon jetzt" laufen 8 Threads auf 8 virtuEllen Cores deutlich schlechter als auf 8 echten Cores? Wer hätte sowas vor paar Jahren noch vermutet :uclap:

w0mbat
2020-05-25, 11:15:11
der8auer hat mit delidding deutlich mehr heraus geholt als gedacht, bis zu 10C.

Dr.Doom
2020-05-25, 11:21:48
der8auer hat mit delidding deutlich mehr heraus geholt als gedacht, bis zu 10C.
Bei einem 10-Kerner auch nicht weiter verwunderlich.

Opprobrium
2020-05-25, 11:22:53
der8auer hat mit delidding deutlich mehr heraus geholt als gedacht, bis zu 10C.

Sind da noch mehr Kerne unter dem Deckel versteckt ;)

Tarkin
2020-05-25, 11:40:13
In fast allen Spielen schneller als AMD ... wie erwartet.

äh... welches Video hast du angeschaut? :freak:

Bei dem von mir verlinkten, ist der 3600er (und der 3300X) praktisch in allen Games vorne... nur bei Red Dead Redemption ist der 3300X leicht hinten und der 3600 wurde nicht gebencht.

Tesseract
2020-05-25, 11:45:21
"Schon jetzt" laufen 8 Threads auf 4 echten und 4 SMT Cores deutlich schlechter als auf 8 echten Cores?

es gibt keine "echten" und "SMT" cores. mit SMT laufen 2 threads auf einem core wobei jeder thread vollen zugriff auf alle ressourcen hat sofern diese frei sind.

aufkrawall
2020-05-25, 11:47:18
Hab mich vertan, das Video zeigt doch die kritische Szene in 8:48min.
Aber wie schon gesagt, geht es mit dem 3600X meines Bruders dabei mit 3200 CL14 Fast Timings nicht auf ~77fps runter wie DFs 3700X mit 3600 CL16, sondern eher 97-99fps. :freak:
Ich kanns aber nochmal überprüfen...
Jo, alles korrekt. Geht an der Stelle mit maximalen Details & HD-Texturen in 720p im CPU-Limit auf ~100fps runter.
Etwas wie 3600 CL16 mit Timings via XMP-Profil ist völlig witzlos als OC-Test für Ryzens, auch mit Zen 2 noch.

Badesalz
2020-05-25, 12:01:52
es gibt keine "echten" und "SMT" cores. mit SMT laufen 2 threads auf einem coreWie auch immer man das beschreibt, hoffe ich doch trotzdem stark, daß die Punchline der Aussage dadurch nicht verloren ging :|

Oder müssen wir nun doch kurz ~8 Jahre zurück um das durchzukauen was "schon jetzt" stattfindet :usweet:
wobei jeder thread vollen zugriff auf alle ressourcen hat sofern diese frei sind.Ergo, die Threads teilen sich diese, sobald SMT relevant wird...

Schnoesel
2020-05-25, 12:10:53
äh... welches Video hast du angeschaut? :freak:

Bei dem von mir verlinkten, ist der 3600er (und der 3300X) praktisch in allen Games vorne... nur bei Red Dead Redemption ist der 3300X leicht hinten und der 3600 wurde nicht gebencht.

Schätze er hat die Werte des 10400@3200 MHZ RAM genommen. Aber dafür brauchst ja ein Z Board. Gutes Video, dass das ganze Dilemma darstellt.

Tesseract
2020-05-25, 12:18:14
Wie auch immer man das beschreibt, hoffe ich doch trotzdem stark, daß die Punchline der Aussage dadurch nicht verloren ging :|
das ist keine punchline, das ist inhaltsloses getrolle.

Ergo, die Threads teilen sich diese...
genau das habe ich geschrieben? alle 8 virtuellen cores sind gleichwertig, ergo ergibt deine aussage keinen sinn.

w0mbat
2020-05-25, 12:29:15
Es ist doch relativ offensichtlich, dass er einfach nur sagen will, dass 8 threads auf 8C schneller sind als 8 threads auf 4C/8T.

Badesalz
2020-05-25, 12:31:03
das ist keine punchline, das ist inhaltsloses getrolle.Wenn du das so sagst wird das schon nicht stimmen. Bringt mal nicht soviel Gefühlsduselei in eine sachliche Diskussion.

alle 8 virtuellen cores sind gleichwertig, ergo ergibt deine aussage keinen sinn.War das jetzt wirklich das was ich unbedingt unterstreichen wollte? Wie man die Kerne korrekt bezeichnet? Kannst du 1x non-binar denken und sich nicht damit am meisten beschäftigen was andere nur nebenbei erwähnt haben? Hab ich deiner Korrektur widersprochen? NEIN? Dann halt den Ball kleinwenig flacher.

@w0mbat
Das hat er schon verstanden... Da ist irgendeine Art von Ärger, daß jemand Platos Offenbarung auf den Boden der Tatsachen zurückholte.
Ein echter Technikaufklärer :|

Platos
2020-05-25, 13:01:00
Die Entwicklung ist schon irre...

"Schon jetzt" laufen 8 Threads auf 4 echten und 4 SMT Cores deutlich schlechter als auf 8 echten Cores? Wer hätte sowas vor paar Jahren noch vermutet :uclap:

Hättest du mein Post ernsthaft durchgelesen, wüsstest du, was damit gemeint ist. Das bezieht sich nämlich darauf, dass schon jetzt 8 Threads in den meisten, aktuellen AAA Titel genutzt werden. Steigt die CPU-Last in Zukunft an (die Threadanzahl bliebe aber am PC gleich), wird sich auch der Unterschied zwischen 4c/8t und 8c/8t (trotzdem) vergrössern. Damit will ich sagen, auch wenn trotz zukünftig 16/14 Konsolenthreads die genutzten Threads am PC nicht steigen würden (wie von manchen behauptet hier), wird sich der Unterschied zwischen einem 4c/8t und 8c/8t trotzdem vergrössern, da die Konsolen eine höhere CPU-Last bringen werden (und 8 Threads schon jetzt Standard sind). Es macht durchaus Sinn von "schon" zu sprechen, wenn einige hier behaupten, Spiele würden in Zukunft nicht von viel mehr als einem 4c/8t profitieren, wenn jetzt "schon", also vor den Next-Gen Konsolen, die meisten AAA Spiele mit 8 Threads umgehen und mehr oder weniger vernünftig auslasten können.

Ja, die Konsoleros müssen bei allen Spielen die Software von PC auf Konsole stark auf deren Hardware optimieren. Die CPU Leistung, die benötigt wird, wird steigen. Da stimme ich dir voll zu.

Aber diverse Tests vor Jahren haben festgestellt, dass man mit einer dicken CPU keine kleine CPU simulieren kann. Der Cache spielt weniger eine Rolle, aber die kleinen CPUs dürften stärker ausfallen.

Die Kernskalierung ist nicht immer linear. Ich untescheide immer noch zwischen Kernsupport und Kernnutzen. Wegen 10% mehr FPS wird man kaum von einem Multicore Nutzen sprechen. Und wie du sagst bleiben die Spiele auch auf 4 Kernen spielbar.

Warum mit einer dicken CPU eine kleine Simulieren? Das suggeriert, dass die dicke CPU ein Ersatz für die kleine CPU wäre. Das ist aber nicht der Fall. PC-Only Spiele mal vernachlässigt, werden heutige AAA-Spiele meistens primär auf Konsole optimiert und dann auf PC geportet. Wenn, dann ist es also die kleine CPU, die eine dicke simulieren muss.

Kernnutzen: Ja, aber in den verlinkten Tests sieht man doch bei den 1%Low jetzt schon deutliche Unterschiede zwischen 4c/8t und 8c/16t (und da die Spiele nicht mit mehr als 8Threads was anfangen können, ist ein 8c/16t quasi ~das Selbe dort wie ein 8c/8t).

Dieser Diskussion würde es gut tun, wenn nicht alle von 2 verschiedenen Dingen sprechen:biggrin: Die einen sprechen hier davon, dass man von mehr Kernen profitieren kann und die anderen sprechen davon, dass man mit 4c/8t noch spielen kann. Das sind 2 unterschiedliche Dinge, die sich gegenseitig überhaupt nicht ausschliessen. Vor allem ist spielbar ein subjektiver Begriff, eine Diskussion erübrigt sich (darüber) also. Ein Vorteil kann man zwar auch subjektiv als keinen ansehen, aber ich für meinen Teil sehe 20-30% als Vorteil an.

MiamiNice
2020-05-25, 13:09:59
Bang for Bug die beste Anno CPU ist 3300X, hält 60fps wie sinnvoll mehr sind bei diesem Game sehe ich nicht wirklich.


https://www.golem.de/news/ryzen-3-3300x-3100-im-test-amd-legt-intels-200-euro-klasse-lahm-2005-148268-2.html

Selbst wenn man Intel Loyalist ist weiß ich nicht wie man heiß auf 50€ Rabatt auf ein 3 Jahre alten 8700k sein soll.

https://geizhals.de/intel-core-i5-10600k-bx8070110600k-a2290983.html

Intel ist entweder nicht in der Lage oder will keine Markanteile im dem Segment zurückholen.

Wir sprachen hier von getunten CPUs und Du haust so einen billig Bench von Golem hier durch mit kastrierten CPUs?!?
Auch wenn Golem was anderes schreibt, was auch logo ist da die nur standard testen, man merkt es.
Man muss es nur richtig machen und dann ist der Unterschied auch gewaltig, wie ja z.b. auch CB getestet hat.

Badesalz
2020-05-25, 13:15:16
@Platos
Keine Ahnung was du meinst. Ich bezog mich auf jene Textpassage, die imho "schon jetzt" als Meinungsverstärker dienen sollte, so aber bereits zig Jahre eine gleichbleibende Gültigkeit hat.
Bleib sachlich bitte. Zu der Meinung selbst, bis auf den Verstärker, hab ich nichts geschrieben.

@MiamiNice
"Getunte CPUs" sind zwar real, aber quantitativ trotzdem eine Forenfilterblase. Komm damit klar.

Ja. Der Unterschied ist dann in allem mögliche gewaltig. So gewaltig, daß man nun dazu übergegangen ist, das gleiche mit 2 setups zu testen. Gewaltig... :uclap:

Bis denne euch.

Platos
2020-05-25, 13:25:28
@Platos
Keine Ahnung was du meinst. Ich bezog mich auf jene Textpassage, die imho "schon jetzt" als Meinungsverstärker dienen sollte, so aber bereits zig Jahre eine gleichbleibende Gültigkeit hat.
Bleib sachlich bitte. Zu der Meinung selbst, bis auf den Verstärker, hab ich nichts geschrieben.



Wo bin ich nicht sachlich? Und du kommst hier mit irgendwelchen Smileys, die meine Aussage ins Lächerliche ziehen sollen.

Abgesehen davon habe ich dir gerade erklärt, worauf sich das "schon jetzt" bezieht. Du willst es irgendwie einfach nicht verstehen, oder? Ich denke, es ist ziemlich klar, dass sich "schon" darauf bezieht, dass manche einem zukünftigen Vorteil von 4c/8t oder generell von 8 Threads absprechen und ich sage, dass es jetzt schon so ist und in Zukunft nur noch stärker wird.

MiamiNice
2020-05-25, 13:28:49
@MiamiNice
"Getunte CPUs" sind zwar real, aber quantitativ trotzdem eine Forenfilterblase. Komm damit klar.


Ja, es ist unglaublich hart statt der 2666er Rams welche mit 4000+ zu kaufen und im Bios das XMP Profil zu aktivieren. Ist schon eine riesige Filterblase zumal viele Mainboards das als standard Setting aktiv haben und wohl niemand mehr 2666er kauft. Ergo würde ich sagen das viel häufiger mit OC gearbeitet wird, als die meisten meinen würden.

Ich gehe mich dann mal schämen.
Trotzdem kann man keinen Bench hier zu standard CPUs durchjagen und meinen da, macht 60 FPS, reicht.
Ich gehe ja auch nicht in ein Auto Forum und behaupte ich fahre einen Trabi, schafft 100 auf der Bahn, reicht.
Ist genau die selbe Logik -.-

aufkrawall
2020-05-25, 13:38:19
Tja, trotzdem schafft eine 190€ CPU von AMD mit gutem 3200er RAM 100fps Minimum in Far Cry 5.
Klar, Intel ist mit schnellem RAM deutlich schneller, aber was hat man davon im GPU-Limit?

Für welches Spiel konkret kauft man sich also den teuren Intel? Der ganze AAA-Kram mit DX12/Vulkan fällt quasi schon mal durchweg aus.
Anno 1800 Late Game? Und wie schnell/langsam ist hier Zen 2 überhaupt mit gescheit getweaktem RAM? Und auf einem hochgezüchteten Intel läuft es trotz des Vorsprungs nicht zäh?

Badesalz
2020-05-25, 13:45:51
Wo bin ich nicht sachlich? Und du kommst hier mit irgendwelchen Smileys, die meine Aussage ins Lächerliche ziehen sollen.Jene eine, war es ja auch :wink:

@aufkrawall
Ich meine laut Anand schaft das schon AMDs 130€ CPU (?)

Aber mal nicht so hart. Man sollte nicht verschweigen, daß auch mit AAA auf Medium in 720p, diese Teile uneinholbar schnell sind...

Platos
2020-05-25, 14:00:52
Kann man dich denn ernst nehmen, wenn du hier von sachlicher Diskussion redest und das selbst kein Stück kannst?

Ps. Das ist eine rhetorische Frage.

Mortalvision
2020-05-25, 14:05:24
@ RAM

Bei Intel bist du ohne Z Board aufgeschmissen. Guckt mal, eines der besten H370 Bretter nur mit 2666 MHz Support

https://geizhals.de/msi-h370-gaming-pro-carbon-7b16-001r-a1795743.html?hloc=de

Und umgekehrt fängt Z490 erst ab 150€ an und lohnt ohne Einsatz einer K CPU dann halt garnicht.

Da sollte Intel wirklich mal den Gashahn öffnen, um den eigenen non K Modellen etwas mehr Power zu ermöglichen.

zockerX
2020-05-25, 14:55:07
Die PS3 hatte nur einen einzigen PowerPC-Kern. Die SPEs in Cell kann man da nicht einfach als Kerne rechnen. Die funktionieren anders und sind eher als Beschleuniger (Co-Prozessoren, grob wie Compute auf einer GPU, allerdings anders angesteuert und ohne direkten Speicherzugriff) zu begreifen.
Was kann man mit den SPEs dann beispielsweise machen? Wie ist deren Leistung ggü. dem "richtigen" Kern?

Abgesehen davon wirst du mir zustimmen, dass die X360 3 Kerne hat. Und soviel ich weiß haben sich die PC-Versionen von Multiplattformtiteln eher an der X360-Version als an der PS3-Version orientiert. Daher wäre beim PC bereits ab 2005/2006 Unterstützung von 3 Kernen zu erwarten gewesen. War es aber nicht, der C2D konnte mit dem C2Q mithalten und war aufgrund des etwas höheren Takts eher etwas schneller.


nein wird es nicht. wenn man auf jaguar keine rücksicht mehr nehmen muss kann man die gesamtlast locker vervierfachen und verschiebt das problem in ganz andere regionen.
still dir vor cinebench hätte ein bestimmtes feld mit einem teureren effekt, das einen core ganze 2 minuten beschäftigt. sobald der corecount so hoch ist, dass alle anderen felder auf allen anderen cores in unter 2 minuten fertig sind skaliert es einfach nicht mit mehr cores weiter. wenn sich die rechenzeit der anderen felder allerdings vervierfacht und der ganze frame nach den 2 minuten noch lange nicht fertig ist skaliert es plötzlich doch obwohl sich die anzahl der felder ("tasks") nicht verändert hat.
Du beschreibt ja genau das Problem. Das Bild ist beim Cinebench trotzdem erst nach 2 Minuten fertig obwohl alle Felder bis auf eins sagen wir in 30 Sekunden fertig sind. Hier bringt dir die Parallelisierung also ziemlich wenig. Übertragen auf Spiele bedeutet das, du hast statt den von der Rechenleistung theoretisch möglichen 200 FPS nur 50 FPS.
Dein Beispiel mit der Vervierfachung Berechnung der anderen Felder im Cinebench wirst du auf ein Spiel nicht übertragen können. Cinebench skaliert naturbedingt sehr gut mit Threads, solange die Anzahl der Felder höher als die Anzahl der Threads ist (am Besten um ein Vielfaches). Bei Spielen geht das nicht so einfach, jede Szene ist anders, die GPU limitiert oft und Dinge wie Physik, Nachladen/Streaming, und alle möglichen Berechnungen gleichmäßig auf mehrere Threads oder gar Kerne zu verteilen ist schwer und wird immer schwerer mit steigender Kern- und Threadzahl. Daher können wenige schnelle Kerne auch noch so gut mithalten.

Die meisten Aktuellen (grossen AAA) Games können eig. alle mit 8 Threads umgehen (und auch vernünftig auslasten). Von daher bringt ein 8-Kerner auch jetzt schon (deutlich) mehr Perfomance, wie ein 4-Kerner (Auch 4c/8t vs 8c/8t).
Wäre das tatsächlich so, würde in Gesamtratings von AAA-Spielen ein 2700X einen 7700K um locker 50% schlagen. Tatsächlich ist es so, dass die in etwa gleichauf sind, auch bei Frametimes.

Ex3cut3r
2020-05-25, 15:06:42
Ja, es ist unglaublich hart statt der 2666er Rams welche mit 4000+ zu kaufen und im Bios das XMP Profil zu aktivieren. Ist schon eine riesige Filterblase zumal viele Mainboards das als standard Setting aktiv haben und wohl niemand mehr 2666er kauft. Ergo würde ich sagen das viel häufiger mit OC gearbeitet wird, als die meisten meinen würden.


Das ist aber teilweise auch Intels Schuld, der Intel IMC ist so gut, dass eigentlich immer mehr als 4000+ RAM bei einer K CPU drin sind, und trotzdem erklären Sie 2933 als Ihr Standard an. Ergo testen die Tester mit Standard -> 2933. Sie hätten bei Comedian Lake mal wengistens 3200er als neuen Standard erklären sollen.

Schnoesel
2020-05-25, 15:31:45
Die 2933Mhz RAM gelten ja nur bei I7 und I9. I5 und I3 sind immer noch bei 2666Mhz RAM.

Complicated
2020-05-25, 15:31:55
Abgesehen davon wirst du mir zustimmen, dass die X360 3 Kerne hat. Und soviel ich weiß haben sich die PC-Versionen von Multiplattformtiteln eher an der X360-Version als an der PS3-Version orientiert. Daher wäre beim PC bereits ab 2005/2006 Unterstützung von 3 Kernen zu erwarten gewesen.
Nein, du ziehst falsche Schlußfolgerungen, da du annimmst Kerne seien in jeder Architektur das selbe. Die POWER-Architektur der PS3 ist überhaupt nicht kompatibel mit x86 des PC. Das ist erst seit AMD x86 "Jaguar" der Fall.

aufkrawall
2020-05-25, 16:15:06
Schon 2016 hat BF1 auch auf mit AMD-GPU via DX11 Last auf zig Cores klatschen können und brauchte auch 8T, um gescheit zu laufen.
Es gibt zudem auch einige andere Spiele, wo die 6C-Intels ohne HTT bei den low fps mittlerweile verkacken. Warum muss diese leidige Diskussion immer wieder und wieder durchgekaut werden?

Ex3cut3r
2020-05-25, 16:19:03
Schon 2016 hat BF1 auch auf mit AMD-GPU via DX11 Last auf zig Cores klatschen können und brauchte auch 8T, um gescheit zu laufen.
Es gibt zudem auch einige andere Spiele, wo die 6C-Intels ohne HTT bei den low fps mittlerweile verkacken. Warum muss diese leidige Diskussion immer wieder und wieder durchgekaut werden?

Nein, wegen mir nicht, ich habe mir 2013 schon einen i7 gekauft, obwohl mir damals auch gesagt wurde, für was? Nimm einen i5.

MiamiNice
2020-05-25, 16:37:04
Das ist aber teilweise auch Intels Schuld ...

Teilweise? Ich würde sagen das ist komplett Intels Schuld. Aber darum ging es nicht. Die Diskussion hier verläuft so:

Neuer Intel, ist schneller
Nein braucht man nicht, da nicht viel schneller.
Mit richtigem Ram ist Intel generell 20-40% im CPU Limit und bei CPU intensiven Spielen schneller.
Jo, spielt eh keiner mit mehr als mit 60 FPS und 60 FPS sind genug. AMD reicht.

Sind wir hier im Forum von Feinkost Albrecht? Braucht man nicht? Waaaaat?
Brauchen? Was braucht man schon? Essen, Trinken und Liebe z.b. Einen Computer hat man noch nie gebraucht, oder das Auto. Wir nutzen es weil wir es können.

-----

Mal ganz davon ab das ich mehrere Spiele gepostet habe wovon sogar eins mit AMD CPU quasi unspielbar ist wegen Engine lags aufgrund von zu wenig ST Power (Escape from Tarkov). Gilt btw auch für Intel CPUs, allerdings verschwindet der Spuck bei um 5Ghz und schnellem RAM.
Und seit wann brauchen wir keine Leistung mehr? Wer meint das 60 FPS reichen ist bei PC Gaming sowieso komplett verkehrt, da gibt es auch Konsolen.

aufkrawall
2020-05-25, 16:49:00
Mal ganz davon ab das ich mehrere Spiele gepostet habe wovon sogar eins mit AMD CPU quasi unspielbar ist wegen Engine lags aufgrund von zu wenig ST Power (Escape from Tarkov).
Mit wie vielen fps läuft das denn auf Zen 2 mit RAM-Tuning?

Lowkey
2020-05-25, 16:52:46
Die Zen 2 Ram-Tuning Leistung müsste man aus dem Artikel von vor ein paar Tagen auf CB (https://www.computerbase.de/2020-05/spieleleistung-test-intel-core-i9-9900k-amd-ryzen-9-3900x-ram-oc/2/#abschnitt_testsysteme_und_testmethodik) ableiten können.

5%?




Aber Intel > AMD in Games.
Aber wen interessieren die paar Prozent?
Aber Intel <300watt in Games
Aber Intel <100watt in Games
Aber Kerne sind Nutzlos
Aber bestimmte Spiele profitieren von Kernen
Aber 2080ti wird fast vom 3300x ausgelastet.
Aber 10600F ist toller
Aber 10600F wurde auf z490 getestet
Aber <z490 kann kein Memory OC?
Aber Binning bei 10900K ist besser
Aber Intel kostet mehr als AMD bei den Mainboards
Aber nicht alle spielen mit PC
Aber die Tester sind alle gekauft
Jetzt testen sie schon wieder in 720p, alles unreal.

Preisdiskussionen vs reine Leistungsdiskussionen vs Klassendiskussionen und alles überschneidet sich.

Schnoesel
2020-05-25, 16:56:43
Seid froh dass es etwas zu diskutieren gibt. Sonst würden wir uns heute über das lahme Performance + eines Comet Lake I7 4C/8T als schnellste Intel Consumer CPU unterhalten.

aufkrawall
2020-05-25, 17:17:56
Die Zen 2 Ram-Tuning Leistung müsste man aus dem Artikel von vor ein paar Tagen auf CB (https://www.computerbase.de/2020-05/spieleleistung-test-intel-core-i9-9900k-amd-ryzen-9-3900x-ram-oc/2/#abschnitt_testsysteme_und_testmethodik) ableiten können.

5%?

Ist das die neue Bibel der Intel-Jünger?

Schnoesel
2020-05-25, 17:56:35
Das kann sogar in einem Titel 0% sein in einem anderen wiederum 15%. Da es keine Daten zum Game gibt worum es explizit ging (Escape from Tarkov) liegt der Sinn des Beitrages von 5% anhand ein paar Spielen ohne Tarkov eigentlich genau worin?

MikePayne
2020-05-25, 18:33:07
Aber darum ging es nicht. Die Diskussion hier verläuft so:

Neuer Intel, ist schneller
Nein braucht man nicht, da nicht viel schneller.
Mit richtigem Ram ist Intel generell 20-40% im CPU Limit und bei CPU intensiven Spielen schneller.
Jo, spielt eh keiner mit mehr als mit 60 FPS und 60 FPS sind genug. AMD reicht.

Sind wir hier im Forum von Feinkost Albrecht? Braucht man nicht? Waaaaat?
Brauchen? Was braucht man schon? Essen, Trinken und Liebe z.b. Einen Computer hat man noch nie gebraucht, oder das Auto. Wir nutzen es weil wir es können.

-----

Mal ganz davon ab das ich mehrere Spiele gepostet habe wovon sogar eins mit AMD CPU quasi unspielbar ist wegen Engine lags aufgrund von zu wenig ST Power (Escape from Tarkov). Gilt btw auch für Intel CPUs, allerdings verschwindet der Spuck bei um 5Ghz und schnellem RAM.
Und seit wann brauchen wir keine Leistung mehr? Wer meint das 60 FPS reichen ist bei PC Gaming sowieso komplett verkehrt, da gibt es auch Konsolen.

1. Ich spiele (ausser Civ) nichts mit 60 fps limit, warum auch?

100 fps ist für mich minimum, besser 144fps+, das bringt meine Kombo auch so in den meisten Fällen (trotz stream encoding).

2. EFT ist einfach ein programmierter Codemüllhaufen (auch schon gespielt), nochmals (technisch) schlechter als PUBG (Bugs/networkcode usw + eine extraportion Cheater), das in irgendeiner Form als Bsp zu bringen ist fail. Und das läuft übrigens auch mit >100 fps (sofern man nicht alles auf maximum klatscht, was in MP games eh immer meh ist).

3. Wer braucht hier keine Leistung?

Die übertakteten Intel Dinger sind an ihrer Kotzgrenze, jeder weiss das.

Klar kann man sich damit das letzte Prozent ST Leistung noch holen - für hohe Aufpreise. Aber kein Intel oder AMD der letzten Jahre hat in irgendeiner Form eine zu lahme ST performance, das das irgendwo beim Gaming hart limitiert (eher die GPU oder uralt CPUs mit nur 2-4 Kernen ohne SMT). Oder das man nur mit einem 9900K/10900K klarkommt (der rest ist ja crap, so kommt es rüber), ist mehr als weit hergeholt.

Lowkey
2020-05-25, 18:53:05
Ist das die neue Bibel der Intel-Jünger?

Es ist einer der sehr wenigen Tests mit OC vs OC. Bei CFL vs Zen1+ gab es dazu nur Videos.

Von mir würdest du natürlich ein LIKE bekommen, wenn du es nochmal nachmißt ;)



Ich werf mal was ganz anderes in den Raum. Die 10900k sind angeblich gebinnt. Also laufen sie kaum wegen der Hitze/Verbrauch am Limit mittels OC (wo 8700k mal 5500mhz Allcore schaffte). In meiner Theorie müßte die CPU mit gemäßigtem Takt ein ziemlich gutes Watt/FPS Verhältnis erziehlen. Wenn man dann die CPU auf 10c setzt, wären die FPS/Frametime bestimmt optimal und eventuell kommt die CPU mit 6-8 Kernen im OC höher - falls die Temperatur der limtierende Faktor ist.

Ex3cut3r
2020-05-25, 19:30:22
Die Zen 2 Ram-Tuning Leistung müsste man aus dem Artikel von vor ein paar Tagen auf CB (https://www.computerbase.de/2020-05/spieleleistung-test-intel-core-i9-9900k-amd-ryzen-9-3900x-ram-oc/2/#abschnitt_testsysteme_und_testmethodik) ableiten können.


Bitte nicht diesen Idioten Test verlinken, der Ersteller hat hier selbst hier im Forum bestätigt, dass er keinen DRAM Calculator für Ryzen benutzt, weil der gute Herr meint, er könne es selber besser, das Problem ist nur, man darf gar nicht alles soweit wie möglich senken, sondern einige Timings muss man im richtigen Verhältnis kürzen, sonst verliert man sogar Leistung. Und ohne B-Die RAM auf Ryzen auch sowieso fragwürdig.

Dazu kommt dann sowas hier:

https://abload.de/img/unbenanntzlj1m.png

aufkrawall
2020-05-25, 19:40:44
Von mir würdest du natürlich ein LIKE bekommen, wenn du es nochmal nachmißt ;)

Ich habe vor wenigen Posts Far Cry 5 von DF nachgemessen, + ~30% min fps mit 3200 CL14 optimiert vs. deren 3600 CL16 (?) unoptimiert. Ist deine Aufmerksamkeitsspanne wirklich so kurz?

teezaken
2020-05-25, 20:09:37
Jo, alles korrekt. Geht an der Stelle mit maximalen Details & HD-Texturen in 720p im CPU-Limit auf ~100fps runter.
Etwas wie 3600 CL16 mit Timings via XMP-Profil ist völlig witzlos als OC-Test für Ryzens, auch mit Zen 2 noch.
Hab mal mit meinem 3700X gelocked auf 3600MHz CPU-Takt und 3600MHz CL16 + Subtimings getestet.
An den selben Stellen wie im Video von Digitalfoundry habe ich trotz des geringen Taktes mehr FPS.
(Meine CPU ist aber auch auf Effizienz getrimmt und Probleme habe bei meinen Spiele echt gar keine, hängt aber natürlich immer vom Nutzer ab.)
https://abload.de/thumb/screenshot15ejaa.png (https://abload.de/image.php?img=screenshot15ejaa.png)

aufkrawall
2020-05-25, 20:12:00
Die min-fps im DF-Video in 1440p waren offenbar auch mit dem 9900k noch knapp im CPU-Limit.
Hier geht der 8700k mit 5GHz OC und 4200er CL16 RAM in 1080p auch auf nur 125fps Minimum runter:
BjgyuzSDkn8
Sagenhafte 25% Mehrperformance zum xfachen Preis. ;D

Hab mal mit meinem 3700X gelocked auf 3600MHz CPU-Takt und 3600MHz CL16 + Subtimings getestet.
An den selben Stellen wie im Video von Digitalfoundry habe ich trotz des geringen Taktes mehr FPS.
(Meine CPU ist aber auch auf Effizienz getrimmt und Probleme habe bei meinen Spiele echt gar keine, hängt aber natürlich immer vom Nutzer ab.)
https://abload.de/thumb/screenshot15ejaa.png (https://abload.de/image.php?img=screenshot15ejaa.png)
lol! Bei denen ist irgendwas völlig Arsch, was die fps versaut. Aber statt dass die dem auf den Grund gehen, lassen sie sich lieber noch über angebliche, "mysteriöse" Ruckler mit Ryzens aus. :freak: ;D
Könnten auch die "Pros" aus der CB-Community gemacht haben. :ulol:

hq-hq
2020-05-25, 20:18:29
2. EFT ist einfach ein programmierter Codemüllhaufen (auch schon gespielt), nochmals (technisch) schlechter als PUBG (Bugs/networkcode usw + eine extraportion Cheater), das in irgendeiner Form als Bsp zu bringen ist fail. Und das läuft übrigens auch mit >100 fps (sofern man nicht alles auf maximum klatscht, was in MP games eh immer meh ist).


Die übertakteten Intel Dinger sind an ihrer Kotzgrenze, jeder weiss das.



ein Pluspunkt für die Intels wenn schlecht optimierte Games besser laufen :biggrin:


und jetzt laufen auch die Intels an der Kotzgrenze nur dank 14nm+++++++ mit teils pornösem Mehrverbrauch :freak: (jetzt müssen auch die Anwender ins Schwitzen kommen)

MiamiNice
2020-05-25, 20:24:19
Bitte nicht diesen Idioten Test verlinken, der Ersteller hat hier selbst hier im Forum bestätigt, dass er keinen DRAM Calculator für Ryzen benutzt, weil der gute Herr meint, er könne es selber besser, das Problem ist nur, man darf gar nicht alles soweit wie möglich senken, sondern einige Timings muss man im richtigen Verhältnis kürzen, sonst verliert man sogar Leistung. Und ohne B-Die RAM auf Ryzen auch sowieso fragwürdig.

Dazu kommt dann sowas hier:

https://abload.de/img/unbenanntzlj1m.png

Ein Stück weiter wird es sogar genauer:

2.666 MHz, 19-19-19-39-2T, 1.2V (i9 -9900K)
3.200 MHz, 22-22-22-42-2T, 1.2V (R9 3900X)
3.200 MHz, 14-14-14-34-2T, 1.35V
3.600 MHz, 16-16-16-36-2T, 1.35V
4.133 MHz, 17-17-17-37-2T, 1.4V (i9-9900K)
3.733 MHz, 14-14-15-14-34-1T, 1.45V (R9 3900X)

So weit ich das sehe hat man den Ryzen ans Limit getrieben (Takt und Ram) und beim Intel eher nur halbe Sache gemacht. So wo wohl beim Takt als auch beim Ram blieb man ein gutes Stück unter den Möglichkeiten.

Das Fazit ist doch auch sehr fair:

In jedem Spiel wurde die Leistung durch schnelleren RAM verbessert. Auffällig sind die spürbaren Verbesserungen der Frametime-Werte durch RAM-OC. Diese Verbesserungen sind nur durch schnellere Prozessoren, nicht jedoch durch flottere Grafikkarten erreichbar. Für denjenigen, der möglichst glatte Frametimes haben möchte, lohnt sich also ein genauerer Blick auf die verfügbaren Speicher-Kits.

Für Enthusiasten, die gewillt sind, tief in die Materie einzusteigen und sich meist im CPU-Limit bewegen – sei es durch die Spielewahl oder die Ansprüche an die berechneten Bilder pro Sekunde – kann ein Intel-Prozessor mit schnellem RAM nach wie vor Sinn ergeben. Für Leute, die sich mit OC nicht beschäftigen wollen oder die beispielsweise durch eine hohe Auflösung sowieso meistens im GPU-Limit sind, bietet sich dagegen ein AMD-System mit geeignetem Speicher sehr an. Gerade das oftmals deutlich bessere Preis-Leistungs-Verhältnis ist und bleibt hier ein starkes Argument für Ryzen.

Warum wird daruf rumgeritten?

aufkrawall
2020-05-25, 21:30:28
Warum wird daruf rumgeritten?
Wo du es gerade erwähnst: Kommt da eigentlich noch was von dir bez. Tarkov? Ich mein: Ist schon klar, dass du dir das aus den Fingern gesaugt hast. Aber Höflichkeit und so.
Ist ja nicht so, dass es nicht zig Reports im Netz zu katastrophaler Performance im Spiel gäbe, mit quasi egal welcher Hardware...

Lowkey
2020-05-25, 22:11:28
@aufkrawall: denk an deinen Blutdruck!

Eigentlich schade, dass es keinen Intel DRAM Calc gibt. Und dann könnte man direkt fragen, warum nur 4133mhz getestet wird, wo es doch schon schneller geht? Am Endergebnis wird sich nicht viel ändern.

Ich bin gespannt auf den 3800XT.

hq-hq
2020-05-25, 22:17:16
@aufkrawall: denk an deinen Blutdruck!

Eigentlich schade, dass es keinen Intel DRAM Calc gibt. Und dann könnte man direkt fragen, warum nur 4133mhz getestet wird, wo es doch schon schneller geht? Am Endergebnis wird sich nicht viel ändern.

Ich bin gespannt auf den 3800XT.


na wenn dann sollte es schon maximal ausgefahren werden, gutes Board, guter RAM, gute CPU 4500+ und vielleicht sogar cl17 17 17 34

allerdings ist 4133 cl17 17 17 34 dann wenigstens noch von allen erreichbar evtl. auch mit 32gb ram.... also bei coffee lake, comet lake ist bestimmt noch mehr drin :wink:

Badesalz
2020-05-25, 22:34:22
weil der gute Herr meint, er könne es selber besser, das Problem ist nur, man darf gar nicht alles soweit wie möglich senken, sondern einige Timings muss man im richtigen Verhältnis kürzen, sonst verliert man sogar LeistungUnd wenn er brauchbar vom Fach wäre wüsste er das sogar LÄNGST, weil das war spätestens auch schon bei DDR3 so und das galt und gilt auch oder vor allem den second Timings und nicht nur den Milchmädchenrechnungen bei den first Timings.

Ex3cut3r
2020-05-25, 22:52:17
Ein Stück weiter wird es sogar genauer:



So weit ich das sehe hat man den Ryzen ans Limit getrieben (Takt und Ram) und beim Intel eher nur halbe Sache gemacht. So wo wohl beim Takt als auch beim Ram blieb man ein gutes Stück unter den Möglichkeiten.

Das Fazit ist doch auch sehr fair:



Warum wird daruf rumgeritten?

Du weißt doch was Subtimings sind oder? Stehen die da irgendwo? Nein. Hat er dafür den DRAM Calculator angeworfen? Nein. Warum? Wie gesagt, er meinte es weiß es besser. Meine Vermutung: Nicht angeworfen, weil es so ein Tool für Intel CPUs nicht gibt.

Und wenn er brauchbar vom Fach wäre wüsste er das sogar LÄNGST, weil das war spätestens auch schon bei DDR3 so und das galt und gilt auch oder vor allem den second Timings und nicht nur den Milchmädchenrechnungen bei den first Timings.
This. ;)

Ich habe es so verstanden, dass er bei Intel und AMDs CPUs nur die Hauptimings gekürtzt hat, die Subtimings blieben auf AUTO. Die Aussage hat er hier vor 2-3 Tagen selbst so geschrieben, ich finde es nur grade nicht.

Ohne penible genaues Subtimins tuning kann man RAM Tunig auf Ryzen zumindest vergessen. Selbst 3200 CL16 mit Subtimings angepasst, bringt mehr als jeder 3800er CL14 ohne Subs angepasst.

Da wurde IMO klar von einem Intel Enthusiasten wissentlich AMD schlechter dargestellt. Punkt.

MiamiNice
2020-05-25, 23:33:06
Wo du es gerade erwähnst: Kommt da eigentlich noch was von dir bez. Tarkov? Ich mein: Ist schon klar, dass du dir das aus den Fingern gesaugt hast. Aber Höflichkeit und so.
Ist ja nicht so, dass es nicht zig Reports im Netz zu katastrophaler Performance im Spiel gäbe, mit quasi egal welcher Hardware...

?
Tarkov Discord, Hardware Channel ist Dein Freund (sicherlich ist auch deren Forum gut genug dafür) z.b.
Ich muss mir nichts aus den Fingern saugen, ich gebe weiter was ich lese und mitbekomme.
Quasi Storys von Mates.
Bei mir läuft das Game btw. ziemlich gut.

Du weißt doch was Subtimings sind oder? Stehen die da irgendwo? Nein. Hat er dafür den DRAM Calculator angeworfen? Nein. Warum? Wie gesagt, er meinte es weiß es besser. Meine Vermutung: Nicht angeworfen, weil es so ein Tool für Intel CPUs nicht gibt.


Ich würde jetzt unterstellen das er bei beiden Systemen identisch verfahren ist.
Das Intel System wurde hat er ja auch nicht wirklich ausgereitzt.
Scheint mir zumindest beim Intel nur standard OC über die MB Settings zu sein und es war bei 4133er und 47x Cache Ende.
Beim Ryzen, kein Plan wie das OC dort funzt.

Badesalz
2020-05-26, 00:00:46
Beim Ryzen, kein Plan wie das OC dort funzt.Ok. Sowas ist auch kein Beinbruch oder eine direkte Disqualifizierung bei Gesprächen über die Leistung.
Allerdings, allerdings bist du auch bei jeder Diskussion dabei wo es darum geht die Systeme gegenüber zu stellen. Ist das jetzt der Grund für diese extrem einseitige Beurteilung der Ergebnisse, weil dein Wissen sich sozusagen auf 50% dessen beschränkt was man für eine objektive Beurteilung brauchen würde und dir eben die anderen 50% fehlen um das alles vernünftig einzuschätzen?

Ohne penible genaues Subtimins tuning kann man RAM Tunig auf Ryzen zumindest vergessen. Selbst 3200 CL16 mit Subtimings angepasst, bringt mehr als jeder 3800er CL14 ohne Subs angepasst.Und auch das ist nichts neues. Auch das war schon zu Sandy und Ivy so (!) Das weiß ICH sehr genau :wink:

Heißt, wenn man so ein Intelheini ist, dann sollte man das schon wissen. Und das weiß man garantiert. Auch wegen Ryzen weiß man das natürlich :up:

Da aber
- im Gegensatz zu DDR3 mit seinen 9 erreichbaren 2nd Timings, die DDR4 Subtimings nicht mehr eine halbe sondern eine ganze Wissenschaft sind und man sich das nicht einfach so an einem Abend aneignen kann

- sie bei AMD und Intel erschwerend nicht identisch sind

- es keinen Intel DDR4 Calculator gibt

lässt man lieber die Finger davon. Weil, da kann man eben nur verlieren und genau das gilt es zu vermeiden.

aufkrawall
2020-05-26, 00:45:48
Bei mir läuft das Game btw. ziemlich gut.
Hattest du auch schon zu Borderlands 3 gemeint, das auf ausnahmslos jedem PC in Situationen mit vielen Loot-Drops etc. wie Müll läuft. :cool:
Umgekehrt gibt es genau so Stimmen im Netz, bei denen Tarkov problemos auf Ryzens laufen soll. Ich wüsste gerade nicht, warum deine anekdotischen Eindrücke schwerer zu gewichten wären, wenn du genau 0 Fakten und Substanz lieferst.

hq-hq
2020-05-26, 00:50:02
Da aber
- im Gegensatz zu DDR3 mit seinen 9 erreichbaren 2nd Timings, die DDR4 Subtimings nicht mehr eine halbe sondern eine ganze Wissenschaft sind und man sich das nicht einfach so an einem Abend aneignen kann

- sie bei AMD und Intel erschwerend nicht identisch sind

- es keinen Intel DDR4 Calculator gibt

lässt man lieber die Finger davon. Weil, da kann man eben nur verlieren und genau das gilt es zu vermeiden.

bei Intel ist das keine Wissenschaft, z.B. ein etwas teureres Asus Z390 Strix stellt dir automatisch gute Subtimings ein (zumindest mit dafür "freigegebenen" B-Die Kits), so viel kann man da nicht mehr drehen - eher runterdrehen, die VCCIO und SA Spannung :freak:

MiamiNice
2020-05-26, 01:37:47
Hattest du auch schon zu Borderlands 3 gemeint, das auf ausnahmslos jedem PC in Situationen mit vielen Loot-Drops etc. wie Müll läuft. :cool:
Umgekehrt gibt es genau so Stimmen im Netz, bei denen Tarkov problemos auf Ryzens laufen soll. Ich wüsste gerade nicht, warum deine anekdotischen Eindrücke schwerer zu gewichten wären, wenn du genau 0 Fakten und Substanz lieferst.

Wenn Du mal ehrlich bist forderst Du etwas was schwer ist zu beweisen / benchen ist. Zumal wir hier nicht von FPS sprechen, die man ja messen kann, sondern Engine Lags / stottern. Du hast aber durchaus recht, ich maße mir an Aussagen zu treffen die man so nicht belegen kann. Kannst Du (und natürlich jeder andere) nutürlich gewichten wie Du möchtest. Ich für mich, spiele mein halbes Leben am PC, ebenso die meisten Mates mit denen ich game. Erfahrung hat man oder hat man nicht, auf meine Erfahrung musst Du natürlich nichts geben. Ich finde allerdings sicher auch einen Bench in Tarkov in denen noch ein Ryzen 1 oder ein 4770k ziemlich gut performed, das gibt aber nicht das Gefühl wieder während man spielt. Ebenso sieht es mit einigen anderen Dingen aus, z.b. Projekt Cars in VR MP mit maximaler Besetzung. Oder eben andere eher nicht primär GPU lastige forderene Dinge.

Ich finde es auf der anderen Seite auch ziemlich unglücklich immer Beweise zu verlangen wenn sogar eine der größten deutschen Webseiten so einen Test veröffentlich hat. Und ich muss dabei sagen, das ich selbst von CB nichts halte, aber dies hier User gebencht haben, imo besser als wenn es dort die Redaktion macht. So einen Test würde ich mir von Raff wünschen, der weiß zumindest wie man die Systeme bis ans Ende ausreizt (für einen "OC" Test vielleicht nicht ganz unwichtig).

Wie dem auch seit, der Beleg oder eine regelrechte Bestätigung ist doch schon der CB Test. Selbst wenn es bei beiden Systemen noch Potenzial gibt, ist die Richtung doch mehr als klar. Kommentare wie braucht man nicht, läuft eh mit 60 FPS, kann ich persönlich nicht ernst nehmen. Ich mein wofür sind wir den dann alle hier eigentlich? Und noch ein anderer Punkt ist und vielleicht sollte ich nicht so direkt fragen^^ "Meinst Du ich bin blöd" oder vielleicht besser: Meinst Du ich verbringe hier meine Freizeit und poste Schmarn wenn ich mit einem Ryzen besser gamen könnte? Dann würde ich einen kaufen, AMD huldigen, und meine freie Zeit in VR verbringen. Ohne Witz :smile:

Borderlands lief bei mir btw. ziemlich gut bzw. habe ich es auch nur negativ wegen dem Publisher und dem Content in Erinnerung. Hatte ich nicht sogar Videos gepostet? Ist jetzt schon ein wenig her. Worauf willst Du hinaus?

bei Intel ist das keine Wissenschaft, z.B. ein etwas teureres Asus Z390 Strix stellt dir automatisch gute Subtimings ein (zumindest mit dafür "freigegebenen" B-Die Kits), so viel kann man da nicht mehr drehen - eher runterdrehen, die VCCIO und SA Spannung :freak:

Das meinte ich auch. So ziemlich die komplette Intel Konfig bei CB im Test kann ich direkt im ROG Mainboard von "OC Berühmtheiten" auswählen. Incl. drölfzig diversen Timing Profilen selbst welche von irgendwelchen Weltrekorden, gar mit über 2V Spannung auf den DIMMs.
Mir scheint es als hätte sich der Tester sehr an "Out of the Box OC" oder "OC für jedermann" gehalten wobei er allerdings dann auf jeden Fall das AMD Tool hätte nutzen müssen. Den das ist absolut DAU tauglich und es kennt und nutzt jeder.

Wo du es gerade erwähnst: Kommt da eigentlich noch was von dir bez. Tarkov? Ich mein: Ist schon klar, dass du dir das aus den Fingern gesaugt hast. Aber Höflichkeit und so.
Ist ja nicht so, dass es nicht zig Reports im Netz zu katastrophaler Performance im Spiel gäbe, mit quasi egal welcher Hardware...

Wow, das sah ich jetzt erst. Mir ist ziemlich egal ob Du höflich (ich komme mit der direkten Art gut klar) bist oder Dein Blutdruck explodiert. Wenn das für Dich so ein emotionales Thema ist, stellst mich besser auf ignore.
So lange man nicht so uneingeschränkt mit einem Ryzen spielen kann wie mit einem Intel, taugt es mir nicht und ich habe auch keinen Stress damit es kundzutun.
20-30% mehr power im CPU Limit sind Dir nicht genug von CB, das ist OK. Mir ist es mehr als genug. Das in Tarkov reihenweise AMD Kisten gegen Intel Kisten getauscht wurden, kann man nachlesen, ich schrieb Dir sogar wo Du es findest. Ich muss das hier nicht schreiben um irgendwas zu schreiben, ich saug es daher nicht aus den Fingern, nur weil ich keinen Link poste. Den Postcounter kann man auch im OffTopic erhöhen ^^
Ich finde es unverschämt von mir Beweise zu verlagen, für etwas was mehr als nur offentlichtlich ist und dann pochst auch noch auf Höflichkeit und der nächste auf Blutdruck?!?
Ernsthaft, was stimmt bei Dir nicht? Höflich gefragt? Und bitte denk an Deinen Blutdruck, nicht das Du wegen HW die Welt verlässt. Ernsthaft, blödes Problem :ubeer:

aufkrawall
2020-05-26, 02:29:29
Wenn Du mal ehrlich bist forderst Du etwas was schwer ist zu beweisen / benchen ist.

Nö, einfach 1-2 Runden zocken und Capture inkls. AB-Overlay mitlaufen lassen. Reicht völlig aus, wenn gescheit durchgeführt. Gibt auch auf YT einige Videos auch mit Intel, die im Grunde lächerliche fps inkls. Einbrüche für hochgezüchtete ST-Brecher bei der Gammel-Grafik zeigen.


Zumal wir hier nicht von FPS sprechen, die man ja messen kann, sondern Engine Lags / stottern.

Ergibt keinen Sinn, würde man im Frame Time-Graphen sehen. Bzw. gibt es quasi ohnehin kein Spiel mit dieser schrottigen Unity-Engine, was wirklich sauber laufen würde.
Das geht schon wegen der komplett idiotischen Garbage Collection nicht.


Oder eben andere eher nicht primär GPU lastige forderene Dinge.

Das ist doch schon wieder nur esoterisches Gelaber. Performance ist messbar und Zen 2 ist häufig sehr gut bei den low fps dabei.


Meinst Du ich verbringe hier meine Freizeit und poste Schmarn wenn ich mit einem Ryzen besser gamen könnte? Dann würde ich einen kaufen, AMD huldigen, und meine freie Zeit in VR verbringen. Ohne Witz :smile:

Selbst wenn der Intel nur 1% schneller in ST wäre, würdest du ihn immer noch für einen überzogenen Preis kaufen. Das kannst du ja auch gerne tun, ist dein Geld.
Trotzdem sind viele Benchmarks fragwürdig (komisch niedrige fps bei DF, komisch ausbleibende Skalierung bei CB...) und das Bild vom Gaming-Krüppel, das du mit irgendwelchen nebulösen Aussagen vermitteln willst, nicht stichfest.

Irgendwie auch nicht sonderlich glaubwürdig, wenn du die miesen Frametimes von kaputten Spielen gar nicht bemerkst, aber die allerallerschnellste CPU ansonsten gerade gut genug für dich ist...

MiamiNice
2020-05-26, 02:57:12
Irgendwie auch nicht sonderlich glaubwürdig, wenn du die miesen Frametimes von kaputten Spielen gar nicht bemerkst, aber die allerallerschnellste CPU ansonsten gerade gut genug für dich ist...

Meinst Du es wäre irgendwie in Bereich der Möglichkeit das ich weiß was ich mache? So zumindest auf mein Arbeitsgerät bezogen welches ich seit knapp 30 Jahren nuzte und selbst baue. Im mein, auch mein Geld wächst nicht auf Bäumen. Der CB Test, die Tendenz, und schau mal auf meinen Speicher, der endet nicht bei 4133 Mhz. Und ich spiele kaum bis gar keine AAA Games mehr, sprich eher schlecht optimierte Spiele weil nicht so viel Geld da ist.

Badesalz
2020-05-26, 10:33:18
bei Intel ist das keine Wissenschaft, z.B. ein etwas teureres Asus Z390 Strix stellt dir automatisch gute Subtimings ein (zumindest mit dafür "freigegebenen" B-Die Kits)War das jetzt ein Scherz? Sollte der so schlecht sein?

@all
Apropos B-Dies. Machte die noch sonst wer ausser Samsung?
https://www.golem.de/news/ddr4-speicher-samsung-stellt-b-dies-fuer-ryzen-overclocking-ein-1905-141053.html

"Meinst Du ich bin blöd""It's a trap!"

@aufkrawall
Ist die fortlaufende Aufklärung der Völker gegenüber den Fanboys, in der Quantität überhaupt von Nöten? Wenn ich mir hier das Unterforum angucke ist es genau umgekehrt wie zu schlechten AMD-Zeiten. Nun ist das Intel-Forum quasi tot, gegenüber den anderen.

Weswegen also die Mühen? Solange die Blauen keine neuen Architekturen auf neuen Prozessen vorstellen ist die Sache doch glasklar. Selbst Torvalds hat sich für seine allmodconfigs diese Woche einen 3970X zusammengebaut :usweet:

Megamember
2020-05-26, 13:21:33
3600X vs 10600K mit identischen Systemen:

tOq6Deqc-N0

In Games wird AMD ziemlich überfahren.

JVC
2020-05-26, 13:46:42
In Games wird AMD ziemlich überfahren.
Darum der vermeintliche 3600XT mit 4,7Ghz Boost ?
(bin gespannt wie gut/schlecht sie dieses mal den Boost erreichen)

Schade das sie in dem tollenTest nicht über 4,2Ghz hinaus kommen konnten...
Hab schon ein paar 3600 ohne X gesehen die 4,4 AC packen...

M.f.G. JVC

Linmoum
2020-05-26, 13:49:31
Der 10600K kostet (boxed) über 300€, selbst Tray sind es über 280€. Der ist für den 3600(X) sowieso komplett irrelevant. Ganz andere Preisklassen.

aufkrawall
2020-05-26, 13:50:30
Wie dumm muss man eigentlich sein, um überhaupt keine min/low fps-Werte anzugeben?

w0mbat
2020-05-26, 14:00:36
In Games wird AMD ziemlich überfahren.

Echt?

Metro Last Light
10600K = 212
3600X = 194

SotTR
10600K = 139
3600X = 122

RotTR
10600K = 184
3600X = 147

FC5
10600K = 141
3600X = 114

Das sind avg. FPS. Wir wissen dass das zwei Jahre alte FC5 Intel-CPUs liebt. Wieso testet er zwei mal Tomb Raider? Wie sehen die min. FPS aus, bzw. die frametimes?

Zudem kostet der Intel über 60% mehr und muss, um mit dem schnellen RAM kompatibel zu sein, mit einem teuren Z490 Mobo betrieben werden. Ach ja, der 3600X ist fast ein Jahr alt.

Es gilt immer noch: Intel ist schneller beim gaming. Das liegt am ringbus vs IF. Wieso erstaunen sich hier weiterhin Menschen, wenn eine 60% teurere Intel CPU in einem teuren OC Mobo gegen eine ein Jahr alte AMD CPU ins 1080p gaming gewinnt? Zumal der AMD auch überall dreistellig ist.

Ich raff es nicht...

Asaraki
2020-05-26, 14:03:29
Wie dumm muss man eigentlich sein, um überhaupt keine min/low fps-Werte anzugeben?

Sehr dumm, oder man versucht einfach das zu liefern, was die Zuschauer auch gerne sehen würden? K.a. ob man mit "zu realistischen" Tests heute die grossen Zahlen abgreifen kann

zockerX
2020-05-26, 14:05:21
Intel B460/H470-Chipsätze: RAM-OC ist untersagt, CPU-OC wird geduldet
https://www.computerbase.de/2020-05/intel-b460-h470-chipsatz-ram-power-limit/

JVC
2020-05-26, 14:09:27
Intel B460/H470-Chipsätze: RAM-OC ist untersagt, CPU-OC wird geduldet
https://www.computerbase.de/2020-05/intel-b460-h470-chipsatz-ram-power-limit/
Interessant. Also braucht man keine K CPUs mehr ? komisches "geduldetes" OC ...
Aber warum haben sie so "angst" vor Ram OC ?

M.f.G. JVC

Ex3cut3r
2020-05-26, 15:40:03
In Games wird AMD ziemlich überfahren.

Ehrlich jetzt? JaysTwoCents? :biggrin:
Ich schaue ihn nicht, aber gibt er mittlerweile auch Min.FPS Werte an?


War das jetzt ein Scherz? Sollte der so schlecht sein?

@all
Apropos B-Dies. Machte die noch sonst wer ausser Samsung?
https://www.golem.de/news/ddr4-speicher-samsung-stellt-b-dies-fuer-ryzen-overclocking-ein-1905-141053.html

Schau mal aufs Datum. :wink:
War eine Falsch Meldung damals.

Wie dumm muss man eigentlich sein, um überhaupt keine min/low fps-Werte anzugeben?
YouTuber Schrott halt. Selbstdarsteller in Reinkultur mit oberflächlichen HW Wisssen verpackt mit "sarkastischen" Humor für 13-Jährige. Da schau ich mir lieber Raff und Igor an.

La Junta
2020-05-26, 15:52:59
Es gilt immer noch: Intel ist schneller beim gaming. Das liegt am ringbus vs IF. Wieso erstaunen sich hier weiterhin Menschen, wenn eine 60% teurere Intel CPU in einem teuren OC Mobo gegen eine ein Jahr alte AMD CPU ins 1080p gaming gewinnt? Zumal der AMD auch überall dreistellig ist.

Ich raff es nicht...
Nun das Problem ist des öfteren ,das manche das Gefühl haben die eigenen Bedürfnisse sind allgemeingültig für alle .
Ich lese meistens nur und schreibe kaum was da es nichts bringt , siehe die Diskusionen mit Miami .
Fakt ist aber dass die Intels in Games schneller sind , aber das eben nicht für jedermann gleich wichtig ist . In jedem Review ist es die gleiche Erkentniss , aber eben manche müssen dies wieder mit Verschwörungtheorien wiederlegen .
PS: Ich spiele auch im GPU Limit und ja ich war nicht unglücklicher mit dem Ryzen als jetzt mit dem 9900K . Aber die X570er Lüfter mag ich nicht und die B450er waren mir zuwenig . Ich empfehle trotzdem den meisten ein Ryzen Rechner und habe dies schon früher gemacht ( wo der Preis eine Rolle spielte , lieber ne potente Graka mit einem 1600er , als ein i7 mit ner lowend Graka) .
Es ändert aber trotzdem nichts daran das Miami recht hat und die Intels nunmal schneller sind in Games , egal wie gebencht wird .

MFg Junta

aufkrawall
2020-05-26, 16:10:15
Jo, solche Ergebnisse sind voll die "Verschwörungstheorie":
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/maneater-test-gpu-cpu2
Cherry Picking geht auch anders herum...

La Junta
2020-05-26, 16:15:07
Und selbst in deinem Link sind die Ryznes nicht schneller ....
Es zeigt nur das es eben nichts bringt mit Leuten zu diskutieren die einfach ihre Meinung duchboxen wollen mit allen Mitteln .

Ex3cut3r
2020-05-26, 16:15:21
Intel ist schneller, wer sagt was anderes? Trotzdem ist der Unterschied mit Subtimings Optimierten B-Die verschwindend gering. Warum sollte man dann noch zum viel teuren Intel greifen? Leider können die ganzen bezahlten "Experten" das nicht darstellen. Ryzen 3000 ist jetzt auch schon wieder 1 Jahr alt, mal sehen was der Refresh in ein paar Wochen macht und Ryzen 4000 Ende/Anfang des Jahres.

La Junta
2020-05-26, 16:19:08
Intel ist schneller, wer sagt was anderes? Trotzdem ist der Unterschied mit Subtimings Optimierten B-Die verschwindend gering. Warum sollte man dann noch zum viel teurer Intel greifen? Leider können die ganzen bezahlten "Experten" das nicht darstellen.
Genau das was ich sage . Die meisten empfehlen ja auch einen Ryzen , obwohl Intel schneller ist in Games . Aber wenn die nunmal die leistung in Games testen und da Intel gewinnt , dann ist es nunmal so . Deren Empfehlungen sind ja trotzdem meistens die Ryzens aus diversen Gründen .
MFg Junta

Edit : Ryzen 4000 wird wahrschienlich selbst in Games schneller sein und dann wird die pro Intel Seite das ganze wegdiskutieren wollen :D .

aufkrawall
2020-05-26, 16:31:03
Und selbst in deinem Link sind die Ryznes nicht schneller ....
Es zeigt nur das es eben nichts bringt mit leuten zu diskutieren die einfach ihre Meinung duchboxen wollen mit allen Mitteln .
Dein Post ist ein gutes Beispiel dafür, wie es mit der Datenlage nicht so genau genommen wird.
In dem Test ist genau eine Intel-CPU schneller bei den min fps als sämtliche Ryzens, und zwar um <1%. :freak:
Ausnahmslos alle anderen Ryzen 3ks sind schneller als alle anderen Intel-CPUs. So viel zu den Fakten und dem angeblichen Bemühen von Verschwörungstheorien, du solltest vielleicht mal an deiner Wahrnehmungsgabe feilen...

La Junta
2020-05-26, 16:36:13
Dein Post ist ein gutes Beispiel dafür, wie es mit der Datenlage nicht so genau genommen wird.
In dem Test ist genau eine Intel-CPU schneller bei den min fps als sämtliche Ryzens, und zwar um <1%. :freak:
Ausnahmslos alle anderen Ryzen 3ks sind schneller als alle anderen Intel-CPUs. So viel zu den Fakten und dem angeblichen Bemühen von Verschwörungstheorien, du solltest vielleicht mal an deiner Wahrnehmungsgabe feilen...
Ich sollte eher aufhören mit Dir zu diskutieren da es nichts bringt . Im gegnsatz zu dir hatte ich jegliche CPU bei mir eingebaut und auch selbst getestet und muss nicht jeden Tag Stundenlang Russische Tests durchsuchen um herauszufinden das ich Recht habe .Wenn für dich die Min. FPS in Maneater das wichtigste ist und der Beweiss das AMD schneller ist , dann ist es nunmal so . Meine Wahrnehmung ist zudem ok , mein Russisch weniger ...
Ich verstehe es einfach nicht wie Menschen bei sowas wie Hardware so Enthusiastisch und voreingenommen sein können .....

aufkrawall
2020-05-26, 16:38:46
Der glaubt immer noch, dass irgendjemand behauptet, AMD wäre in Spielen schneller. :hammer:

zockerX
2020-05-26, 16:45:33
Der glaubt immer noch, dass irgendjemand behauptet, AMD wäre in Spielen schneller. :hammer:
Dabei tust du genau das die ganze Zeit... :rolleyes: :freak:

x-force
2020-05-26, 17:22:06
Dabei tust du genau das die ganze Zeit... :rolleyes: :freak:

#touche

als vernünftiger mensch kann man nur eine sache aus der ganzen geschichte lernen:
stock benches sind für den arsch, lassen jede menge leistung ungenutzt liegen und interessieren nur daus.

entweder amd und intel konzentrieren sich demnächst darauf das potential des rams via automatik ordentlich abzuschöpfen, oder das geheule über den einfluß des redakteurs auf (sub)timing wird niemals enden

MiamiNice
2020-05-26, 17:49:41
Interessant. Also braucht man keine K CPUs mehr ? komisches "geduldetes" OC ...
Aber warum haben sie so "angst" vor Ram OC ?

M.f.G. JVC

Vermutlich weil es den meisten Programmen ziemlich egal ist ob die mit 5 oder 5,1 Ghz betrieben werden. Rechnerisch ist das ja auch mega wenig in %.
Mehr kann auch mit Takt OC kaum noch raus holen da die CPUs schon fast an der Grenze ihrer Möglichkeiten verkauft werden (was für beide Lager gleichermaßen gilt). Willst Du das es in Deiner Kiste richtig rums macht musst Du daher den Speicher übertakten und da kannst dann auch noch im zweistelligen % Bereich Leistung raus holen.

Ergo: OC über Takt lohnt nicht bzw. kaum mehr deswegen gibt man sich als edlen Helden und schaltet es frei. Das "richtige" OC lässt man sich weiter feierlich bezahlen.

Benutzername
2020-05-26, 19:13:39
Genau das was ich sage . Die meisten empfehlen ja auch einen Ryzen , obwohl Intel schneller ist in Games . Aber wenn die nunmal die leistung in Games testen und da Intel gewinnt , dann ist es nunmal so . Deren Empfehlungen sind ja trotzdem meistens die Ryzens aus diversen Gründen .
MFg Junta


Hauptgrund Preisleistungsverhältnis. intel ist für da Gebotene zu teuer und man ist sowieso meistens im GRafikkartenlimit. Was die CPU Wahl doch relativiert. Also eigentlich wie immer. *schulterzuck*


Edit : Ryzen 4000 wird wahrschienlich selbst in Games schneller sein und dann wird die pro Intel Seite das ganze wegdiskutieren wollen :D .

wird am ende so wie immer sein: es kommt darauf an, wie die Spiele programmiert sind/sein werden. intel hat ja genug Geld um zum Beispiel Berater zu den Spielestudios zu fliegen, die dann natürlich helfen für intel zu optimieren.

Oder es ist einfach Zufall wie manchmal die Routinen der SPiele zusammenkommen und entweder die eine oder andere CPU bevorzugen.

--------------------------------------------

Interessant. Also braucht man keine K CPUs mehr ? komisches "geduldetes" OC ...
Aber warum haben sie so "angst" vor Ram OC ?

M.f.G. JVC

Zum einen, weil man auch viel falsch mchen kann beim RAm OC und zum anderen weil intel und die Mobo-Herstleler natürlich die Z490 boards verkaufen wollen.

------------------------------


Zurück zum Thema Comet Lake, hat eigentlich schon mal jemand die 12 meistverkauften Spiele oder die meistgepielten Spiele durchgetestet? War hier ja als Kritik aufgekommen, daß die meisten Bencher dieselben Spiele testen udn diese Spiele nicht unbedingt den häufig gespielten Spielen entsprechen.

aufkrawall
2020-05-26, 19:14:16
Dabei tust du genau das die ganze Zeit... :rolleyes: :freak:
Wenn du meine Beiträge wirklich so interpretierst, zeugt das nur von deinem beschränkten Fanboy-Weltbild. :cool:

zockerX
2020-05-26, 19:59:37
Zurück zum Thema Comet Lake, hat eigentlich schon mal jemand die 12 meistverkauften Spiele oder die meistgepielten Spiele durchgetestet? War hier ja als Kritik aufgekommen, daß die meisten Bencher dieselben Spiele testen udn diese Spiele nicht unbedingt den häufig gespielten Spielen entsprechen.
Was soll das bringen? Selbst die 12 meistverkauften Spiele stellen bei der Unmenge an Spielen nur einen winzigen Teil dar. Viel interessanter wäre es eine repräsentative Auswahl für den Gesamtmarkt zu finden, was wiederum praktisch unmöglich sein dürfte.

Wenn du meine Beiträge wirklich so interpretierst, zeugt das nur von deinem beschränkten Fanboy-Weltbild. :cool:
Damit hast du es - wie erwartet - selbst bestätigt. :rolleyes:

aufkrawall
2020-05-26, 20:06:59
Damit hast du es - wie erwartet - selbst bestätigt. :rolleyes:
Gar nichts habe ich bestätigt. Mein Hauptpunkt war, dass das Leistungsplus in Spielen in der Praxis kaum durchschlägt. Ich habe nach konkreten Zahlen gefragt und von Miami kam nur diffuser Stuss wie "Lags" o.ä.
Aber warum red ich überhaupt mit Mr. "8T sind der Goldstandard auf Lebenszeit"... ;D

hq-hq
2020-05-26, 20:56:34
War das jetzt ein Scherz? Sollte der so schlecht sein?




das ist die einfache Wahrheit, wo ich mich beim Gigabyte z370 hd3p abgemüht hab gehts bei Asus auf Knopfdruck :freak:

Badesalz
2020-05-26, 22:35:12
In Games wird AMD ziemlich überfahren.Zum Glück um ganze Welten weniger als die ~104€ Preisunterschied hätten implizieren können... :ulol:

@hq-hq
Man ej... Tue doch nicht so kindisch. Weil es Boards gibt mit Profilen aus der Szene für paar bestimmte Riegel, macht das die DDR4 Subtimings nicht zu weniger Wissenschaft als es noch bei DDR3 der Fall war. Das ist soweit ok, daß es sowas überhaupt auch mal gibt, das hat aber mit meiner Aussage kaum etwas zu tun. OK? Danke :mad:

MiamiNice
2020-05-26, 22:41:38
Dafür das da nur mit standard Settings gebencht wird, und der Ryzen technologisch wesentlich fortschrittlicher ist, und der Intel wahrscheinlich noch einiges an Luft haben wird schlägt er sich für nur 104€ mehr ziemlich gut gegen den Ryzen. Addiert man die höheren Plattform und Ram Preise mit ein (wobei guter Ryzen Ram auch nicht günstig sein wird) + den endgültigen Vorteil den die Intel CPU dann hat, es ist schließlich ein K (man zahlt extra für OC Option also wird die genzutzt), erhält man ein schelleres "Grund"System für 200-300€ mehr. Für Gamer keine schlechte Investition. Aktuell wären mir die Kröten das Wert wenn ich dafür kein Mesh oder IF im PC haben muss und beim RAM so gut wie keine Grenzen gesetzt sind.

JVC
2020-05-26, 22:58:31
Aktuell wären mir die Kröten das Wert wenn ich dafür kein Mesh oder IF im PC haben muss ...
Das kann ich sogar nachempfinden, mag die auch nicht unbedint :mad:

Könnte der Letzte "echte" Gaming CPU sein...
Wobei so gesehen klingt BIG/little vielleicht ja doch nicht so ungeschickt ...

M.f.G. JVC

Badesalz
2020-05-26, 22:59:38
Dafür das da nur mit standard Settings gebencht wird, und der Ryzen technologisch wesentlich fortschrittlicher ist, und der Intel wahrscheinlich noch einiges an Luft haben wird schlägt er sich für nur 104€ mehr ziemlich gut gegen den Ryzen.Solange z.B. ein brauchbares Ei ~36 Cent kostet und nicht 2€, solange also 104€ soviel wert sind wie sie es grad sind, schlägt sich der Intel überhaupt nicht gut für diese Kohle.

-=Popeye=-
2020-05-27, 00:27:04
Meine Fresse... was hier schon wieder für ein Dill gelabert wird.

Das beide Plattformen ordentlich von Speicher-OC profitieren sollte mittlerweile klar sein. Die einen brauchen Tools und die anderen machen es manuell, EGAL.

Hinzu kommt das sich die Speicherbestückung und Plattformen unterscheiden.

1. 2x8GB verhalten sich anders als 4x8GB oder 2x16GB Module
2. Speicher OC ist CPU und Mainboard abhängig, und...
3. man kann ins OC-Klo greifen oder einfach nur OC-Glück haben.

Also beruhigt euch wieder, beide Plattformen bieten Vor- und Nachteile.

MiamiNice
2020-05-27, 08:41:49
Solange z.B. ein brauchbares Ei ~36 Cent kostet und nicht 2€, solange also 104€ soviel wert sind wie sie es grad sind, schlägt sich der Intel überhaupt nicht gut für diese Kohle.

Wert ist relativ relativ. Einmal essen gehen zu 2. übersteigt den Aufpreis der CPU. Also ist der Aufpreis relativ günstig dafür das das Produkt schneller ist.

Kann ich auch so argumentieren.

Oder noch besser:

Zur normalen Lebenszeit eines solchen Untersatzes nämlich 3-5 Jahre sind die 104€ monatlich so wenig, das man unbedingt das schnellere System nehmen sollte. Und wir sprechen hier gleich von einem bis 30% schnellerem System.
Ich würde da auf jedenfall zuggreifen für nur 104€ mehr. Also quasi nix.
Als Gamer sicht ist es sogar als Sparfuchs dämlich diese monatlich 2,50€ nicht mehr zu latzen. Den der Performance Gewinn ist mehr Wert als 2,50€.

Badesalz
2020-05-27, 10:50:34
Kann ich auch so argumentieren.Ja klar kannst du das. Das machst du aber bei weitem nicht so pfiffig wie ich. Sorry :wink:

Ich würde da auf jedenfall zuggreifen für nur 104€ mehr. Also quasi nix.Das dürfte echt die endgültige Stelle sein, wo man sich nicht mehr fragen sollte, ob das klinisch relevant ist. Die 104€ steck ich lieber mit in ein ROG Strix B550-E Gaming (279$).
Auf welchem übrigens in der Tat das beste an Silizium steckt was Intel in den letzten Jahren rausgebracht hat. Der I225-V (B2).

Und auf welchen ich Ende 2021 das beste stecke was bis dato als x86 Silizium rauskam. Den 4600X.

Megamember
2020-05-27, 11:39:48
Auf welchem übrigens in der Tat das beste an Silizium steckt was Intel in den letzten Jahren rausgebracht hat. Der I225-V (B2).

.

Apropos bestes Silizium. Den Lan chip habe ich auf meinem Giga Z490i und ich habe das Problem das ich ihn nach jeden reboot (nicht Kaltstart) manuell deaktivieren und wieder aktivieren muss. Ansonsten erkennt er meinen Netzwerkanschluss nicht. Weiss jem. wo das Problem sein könnte?

Badesalz
2020-05-27, 11:45:21
Das kann ausschliesslich Bios oder Treiber sein.

Oder du hast doch den halbkaputten B1 bekommen? :usweet:

Benutzername
2020-05-27, 12:30:01
Das kann ausschliesslich Bios oder Treiber sein.


Das kann irgendwo im Zusammenspiel Treiber, Chip, Windows haken.



Oder du hast doch den halbkaputten B1 bekommen? :usweet:

Ich dachte das B1 Stepping von dem Netzwerkchip ist nicht verkauft worden? :confused:

Badesalz
2020-05-27, 12:31:37
Nö eigentlich sollte der auf keinem Board auftauchen. Das sit richtig :tongue:

Das kann irgendwo im Zusammenspiel Treiber, Chip, Windows haken.Gut eingekreist :ulol:

Megamember
2020-05-27, 13:11:37
So siehts in der Syssteuerung aus. Dürfte Version 2 sein.

https://abload.de/img/lans5kjg.jpg (https://abload.de/image.php?img=lans5kjg.jpg)

Naja, dann werd ich auf Bios oder Treiberupdate warten müssen...

MiamiNice
2020-05-27, 13:39:45
Das dürfte echt die endgültige Stelle sein, wo man sich nicht mehr fragen sollte, ob das klinisch relevant ist. Die 104€ steck ich lieber mit in ein ROG Strix B550-E Gaming (279$).
Auf welchem übrigens in der Tat das beste an Silizium steckt was Intel in den letzten Jahren rausgebracht hat. Der I225-V (B2).

Und auf welchen ich Ende 2021 das beste stecke was bis dato als x86 Silizium rauskam. Den 4600X.

Jetzt machst Du Dich echt lächerlich. Ein Gamer geht her und kauft den CPU für 104€ mehr und eine 2080 dazu. In welcher Welt lebst Du eigentlich? Wir sprechen hier über Kundschaft die High End kauft und nicht von irgendwelchen Sparfüchsen. Dein P/L Gedöns kannst im AMD Thread ablassen, da interessieren sich die Menschen seit neusten dafür.
Hier geht es um Gamer und die zahlen sehr gerne für Hardware.

Daredevil
2020-05-27, 14:36:57
Hm aber eigentlich ganz interessant, das ganze auch so zu betrachten, mal abgesehen von der GPU.
i7-10700K + 3200er Ram CL16
512€
i5-10600K + 4000er Ram CL17
489€

Was sollte man an der Stelle lieber nehmen als Gamer und Intel CPU.
Wenn man maximal ST Performance will und dass Budget das gleiche sein soll, nimmt man doch eher dann nen sehr schnellen Hexa Core, wa?
Also an der Stelle nicht nur nen Hexacore + MaxGPU, sondern auch Hexacore und MaxRAM?

Ex3cut3r
2020-05-27, 14:42:52
Jetzt machst Du Dich echt lächerlich. Ein Gamer geht her und kauft den CPU für 104€ mehr und eine 2080 dazu. In welcher Welt lebst Du eigentlich? Wir sprechen hier über Kundschaft die High End kauft und nicht von irgendwelchen Sparfüchsen. Dein P/L Gedöns kannst im AMD Thread ablassen, da interessieren sich die Menschen seit neusten dafür.
Hier geht es um Gamer und die zahlen sehr gerne für Hardware.

Wenn es um Gamer geht, soll er sich bitte einen 3600 kaufen und das restliche Geld in die GPU stecken bitte. Und keine überteuerte Intel CPU, wovon man ab 1440p eh nix bemerkt. Und wenn man Encodier, Content Creator ist, soll er sich bitte einen 3900X, 3950X oder gleich Threadripper holen, also eigentlich braucht kein Mensch mehr Intel. ;D

Achso, ich vergaß, es sei denn man ist E-Sportler und spielt die Kiddie Baller Games in 720p und profiliert sich mit anderen 13-Jährigen im Score Table.

zockerX
2020-05-27, 14:53:27
Jetzt machst Du Dich echt lächerlich. Ein Gamer geht her und kauft den CPU für 104€ mehr und eine 2080 dazu. In welcher Welt lebst Du eigentlich? Wir sprechen hier über Kundschaft die High End kauft und nicht von irgendwelchen Sparfüchsen. Dein P/L Gedöns kannst im AMD Thread ablassen, da interessieren sich die Menschen seit neusten dafür.
Hier geht es um Gamer und die zahlen sehr gerne für Hardware.
Lass ihn doch, der macht sich schon die ganze Zeit lächerlich.

maximus_hertus
2020-05-27, 15:36:03
Jetzt machst Du Dich echt lächerlich. Ein Gamer geht her und kauft den CPU für 104€ mehr und eine 2080 dazu. In welcher Welt lebst Du eigentlich? Wir sprechen hier über Kundschaft die High End kauft und nicht von irgendwelchen Sparfüchsen. Dein P/L Gedöns kannst im AMD Thread ablassen, da interessieren sich die Menschen seit neusten dafür.
Hier geht es um Gamer und die zahlen sehr gerne für Hardware.

Redest du von Gamern oder von Sparfüchsen? Jetzt, Mitte 2020, eine Vanilla 2080? Echt jetzt?

Entweder die richtige Gaming KArte: Titan RTX mit 24GB oder die Sparbrot Variante 2080 Ti. Alles andere ist unseriös und hat was AMD-haftes.

Megamember
2020-05-27, 16:10:12
Was sollte man an der Stelle lieber nehmen als Gamer und Intel CPU.
Wenn man maximal ST Performance will und dass Budget das gleiche sein soll, nimmt man doch eher dann nen sehr schnellen Hexa Core, wa?


Als reiner Gamer würde ich den Hexa nehmen. Hab auch zwischen 10600 und 10700 geschwankt und nach bin beim 10600 gelandet weil der Unterschied in Spielen wirklich marginal ist und fast immer nur mit dem Taktunterschied zusammenhang, der Preisunterschied allerdings mit 150€ weniger marginal. Ausserdem gibts mit dem (bei mir) weniger Hitzeprobleme im ITX Gehäuse.

dildo4u
2020-05-27, 17:19:49
NqCGHHOZYcA

B3AA_9xs2GE

Daredevil
2020-05-27, 17:30:50
Ausserdem gibts mit dem (bei mir) weniger Hitzeprobleme im ITX Gehäuse.
Jo das kommt ja noch dazu.
Wenn man ( so wie ich ) ein Egoproblem mit Allcore Takt hat, kühlt es sich mit 6 Kernen natürlich leichter, als mit 8 Kernen im Allcore. ( Der für Spielen ja so oder so... semirelevant ist )

Den Ryzen 1600 habe ich auf 1.5v gestellt und dann habe ich die Kiste bei 4.1Ghz spielen gekühlt mit nem Deepcool Assassin.
Wenn ich den Ryzen 2700X auf 1.5v Stelle, brennt mir hier die Bude ab, also weniger Takt im Allcore, oder weniger Kerne. :D
(Aktuell 8C ohne HTT bei 4.2Ghz, weil es muss schon mehr sein als beim 1600... )

Tarkin
2020-05-27, 17:40:31
https://youtu.be/NqCGHHOZYcA

https://youtu.be/B3AA_9xs2GE

120 USD CPU auf einem 400 USD Motherboard - tolle Wurst. :freak:;D

x-force
2020-05-27, 17:43:32
als würde das board in relevanter weise die cpu performance bestimmen

maximus_hertus
2020-05-27, 17:57:23
als würde das board in relevanter weise die cpu performance bestimmen

In dem Falle schon, da die Intels wohl mit 3200 MHz getestet worden sind. JEdoch ist nicht davon auszugehen, dass ein i3 Käufer ein Z490 Board kaufen wird. Mit allen anderen Boards gibt es maximal 2666 MHz RAM-Takt, was 5-10% Performance kosten wird. So wird aus einem knappen Sieg auf einmal eine knappe Niederlage (oder umgekehrt, je nach Sichtweise).

Ich halte es auch für durchaus Sinnvoll, die CPUs mit Stock Settings zu testen. Z490 ist ja ok, aber beim i3 bitte 2666 MHz RAM-Takt. Dann wird es realistischer.

dildo4u
2020-05-27, 17:57:42
als würde das board in relevanter weise die cpu performance bestimmen

Klar der i3 Test wurde mit DDR4 3200 gemacht,die Werte wäre mit einem Budget Board geringer.

dargo
2020-05-27, 17:59:46
Oh man... pubertierende Pickeldudes bei ihren täglichen 3DC-Grabenkriegen. Anstatt sich zu freuen, dass Intel nun auch preiswerte CPUs im Portfolio hat was für den Endkunden nur ein Gewinn sein kann. :facepalm: Der i5-10400(F) ist im Prinzip die Budget-CPU für Games schlechthin wie ein R5 3600. Nur halt für paar Taler mehr was sich mit der Zeit eher angleichen dürfte. Plattformkosten jetzt mal außen vor.

btw.
Wo ist eigentlich der Unterschied zwischen i5-10400F und non F? Sehe gerade non F hat ne iGPU dabei.

dildo4u
2020-05-27, 18:02:54
Mit und ohne IGP.

Schnoesel
2020-05-27, 18:25:05
@dargo

Da du eine CPU nun mal nicht ohne die Plattform laufen lassen kannst kannst du sie halt eben nicht isoliert betrachten. Der 10400F wäre toll mit einer anderen Plattform, so ist es eben ein Krüppel. Und daran ist nur Intel höchstselbst Schuld mit ihrer Segementierung um auch noch die letzte Kröte rauszupressen. In OEMs wird das teil eh massenhaft landen.

Platos
2020-05-27, 18:28:14
Oh man... pubertierende Pickeldudes bei ihren täglichen 3DC-Grabenkriegen. Anstatt sich zu freuen, dass Intel nun auch preiswerte CPUs im Portfolio hat was für den Endkunden nur ein Gewinn sein kann. :facepalm: Der i5-10400(F) ist im Prinzip die Budget-CPU für Games schlechthin wie ein R5 3600. Nur halt für paar Taler mehr was sich mit der Zeit eher angleichen dürfte. Plattformkosten jetzt mal außen vor.

btw.
Wo ist eigentlich der Unterschied zwischen i5-10400F und non F? Sehe gerade non F hat ne iGPU dabei.

Respekt, mal ein Vernünftiger Kommentar hier. Das ist ja in diesem Thread irgendwie ne Seltenheit.

Denniss
2020-05-27, 18:47:15
Z-Board ist selbst bei einem 10400 Pflicht denn durch 2666 verliert der einiges an Leistung. HWUB hat den sowohl mit 3200 als auch 2666 (spec) getestet. Wenn ich mich recht entsinne sogar euf einem Z-Board mit korrekten Powerlimits.

Ex3cut3r
2020-05-27, 18:55:29
@dargo

Da du eine CPU nun mal nicht ohne die Plattform laufen lassen kannst kannst du sie halt eben nicht isoliert betrachten. Der 10400F wäre toll mit einer anderen Plattform, so ist es eben ein Krüppel. Und daran ist nur Intel höchstselbst Schuld mit ihrer Segementierung um auch noch die letzte Kröte rauszupressen. In OEMs wird das teil eh massenhaft landen.

Und was hält einen davon ab in Zukunft den 10400F mit einem H470 oder B460 Board zu paaren? :confused:

Langlay
2020-05-27, 18:58:05
Und was hält einen davon ab in Zukunft den 10400F mit einem H490 Board zu paaren? :confused:

Der 3600 ist in dem Fall beim Zocken genauso gut, in Anwendungen leicht schneller und unterm Strich etwas billiger.

Mit dem H490 ist der 10400F halt auf DDR2666 beschränkt.

Und wenn du einer bist der selber auch im mal Hand anlegt ist der 3600 eh der bessere Deal. Wenn du einen aus 2020 kriegst stehen die Chance für >=4.2 GHz(Boostclock vom 3600) Allcore ziemlich gut.

x-force
2020-05-27, 19:26:04
Mit dem H490 ist der 10400F halt auf DDR2666 beschränkt.


Klar der i3 Test wurde mit DDR4 3200 gemacht,die Werte wäre mit einem Budget Board geringer.


wen interessiert das, wenn ein z-chipsatz schon zu release ab 140€ erhältlich ist?

ein vernünftiges b450 kostet auch mindestens 100, was b550 kostet werden wir noch sehen

Linmoum
2020-05-27, 19:36:45
wen interessiert das, wenn ein z-chipsatz schon zu release ab 140€ erhältlich ist?
Es gibt aktuell genau ein µATX von GB für 134€, der Rest startet erst bei 155€ aufwärts.

Oder anders gesagt: Der 10400F ist nur unwesentlich teurer als ein Z490. Wohlgemerkt reden wir hier von der <200€-Preisklasse.

ein vernünftiges b450 kostet auch mindestens 100, was b550 kostet werden wir noch sehenErsteres ist aber mal völliger Bullshit und da man für RAM-OC weder B550 noch X570 braucht, ist letzteres auch einfach nur irrelevant.

Es gibt etliche Leute da draußen, denen ein 65€ Mainboard vollkommen ausreicht. Gerade für den Budget-Bernd von nebenan, der einfach nur etwas zocken will und nicht viel Geld dafür hat. Wenn dann doch mehr Geld vorhanden ist, kann man bei den GPUs eine Preisklasse weiter oben zugreifen, wovon man deutlich mehr hat, statt mehr als das doppelte für ein MB zu zahlen, nur weil Intel so bescheuert ist und einem Z-Boards aufzwingen will, wenn man den RAM entsprechend übertakten will.

Solche absurd dämlichen Entscheidungen sollte man nicht auch noch unterstützen und Intel für diese Produktpolitik belohnen.

zockerX
2020-05-27, 20:03:50
Es gibt aktuell genau ein µATX von GB für 134€, der Rest startet erst bei 155€ aufwärts.
Inzwischen 132€ und das vor ein paar Tagen noch bei 139€. :wink:
Wenn ich mir Z390 Boards anschaue, dann fangen die bei 103€ an (ATX natürlich. Ich denke beim Z490 ist noch genug Luft nach unten. Einfach ein wenig abwarten.

Complicated
2020-05-27, 20:09:09
Für 160,- € gibts auch gute X570 Boards ;)

x-force
2020-05-27, 20:29:15
Ersteres ist aber mal völliger Bullshit und da man für RAM-OC weder B550 noch X570 braucht, ist letzteres auch einfach nur irrelevant.

Es gibt etliche Leute da draußen, denen ein 65€ Mainboard vollkommen ausreicht.

nur weil es hinkt, ist es noch lange kein vernünftiger vergleich...ich bezweifel aber, daß deine rote brille dich überhaupt in die lage versetzt das ganze etwas objektiver zu betrachten

Thunder99
2020-05-27, 20:30:01
Ich finde es immer noch krass wie Intel ungeschoren davon kommt ihre CPU soweit abweichen zu lassen von der offiziellen TDP Angabe. Die kann man echt rauchen... (Bei AMD nicht anders aber nicht so extrem im Default Modus).

Und wegen Testen sollte man nach meiner Meinung immer mit der offiziellen RAM Geschwindigkeit machen und dann vergleichen. Alles andere ist in einer separaten Betrachtung zu thematisieren.

Just my 2 cents

x-force
2020-05-27, 20:47:49
Ich finde es immer noch krass wie Intel ungeschoren davon kommt ihre CPU soweit abweichen zu lassen von der offiziellen TDP Angabe.

in der praxis bestimmt der idle und halblast verbrauch aber zum größten teil die stromrechnung. das bedeutet ganz konkret, daß die intels unterm strich aufs jahr betrachtet bei den meisten leuten weniger verbrauchen. :biggrin:

wer den ganzen tag 10+ threads mit avx auslastet, hat mit comedy lake eh daneben gegriffen

Badesalz
2020-05-27, 21:18:43
Jetzt machst Du Dich echt lächerlich. Ein Gamer geht her und kauft den CPU für 104€ mehr und eine 2080 dazu.Ein Gamer? Du meisnt ein Forengamer (?) Das mit der 2080, das gibt die heilige Statistik von Steam irgendwie nicht her. Wenn wir denn schon dabei sind uns lächerlich zu machen...
Deine Forenblase interessiert draußen keine Sau :uconf3:

Anstatt sich zu freuen, dass Intel nun auch preiswerte CPUs im Portfolio hat was für den Endkunden nur ein Gewinn sein kann. :facepalm: Der i5-10400(F) ist im Prinzip die Budget-CPU für Games schlechthin wie ein R5 3600.Die "Budget-CPU für Games" ist eigentlich der 3300X ;)

hq-hq
2020-05-27, 22:02:34
@hq-hq
Man ej... Tue doch nicht so kindisch. Weil es Boards gibt mit Profilen aus der Szene für paar bestimmte Riegel, macht das die DDR4 Subtimings nicht zu weniger Wissenschaft als es noch bei DDR3 der Fall war. Das ist soweit ok, daß es sowas überhaupt auch mal gibt, das hat aber mit meiner Aussage kaum etwas zu tun. OK? Danke :mad:

Vermutlich macht es sich bei Comet Lake ebenso bezahlt einen Blick in die Memory QVL zu werfen und beim RAM mehr auszugeben.

Neben Asus wird es bestimmt noch andere geben die den Usern bei den Timings mit Profilen unter die Arme greifen. Low End Boards oder Einsteigerboards meidet man einfach, dann wirds auch bei Comet Lake mit der Wissenschaft klappen.

y33H@
2020-05-27, 22:02:53
Ich finde es immer noch krass wie Intel ungeschoren davon kommt ihre CPU soweit abweichen zu lassen von der offiziellen TDP Angabe. Die kann man echt rauchen... (Bei AMD nicht anders aber nicht so extrem im Default Modus).
Was soll denn groß passieren? Es wurde in allen Tests benannt und jeder kann sich sein Mainboard einstellen wie er will, alles halb so wild.

Badesalz
2020-05-27, 22:19:09
Vermutlich macht es sich bei Comet Lake ebenso bezahlt einen Blick in die Memory QVL zu werfen und beim RAM mehr auszugeben.Wenn jetzt die meisten Boards diese Community-XMP :usweet: haben, dann ja.
Sonst ist QVL nur eine Garantie, daß es mit den Daten aus dem Riegel sauber läuft. Und nicht, daß ein Riegel brauchbar (und stabil) ausgereizt wird (ohne den MC mit der Spannung zu vergewaltigen)

"wird es bestimmt" ist Knochenorakel...

Ex3cut3r
2020-05-27, 23:38:16
Neben Asus wird es bestimmt noch andere geben die den Usern bei den Timings mit Profilen unter die Arme greifen. Low End Boards oder Einsteigerboards meidet man einfach, dann wirds auch bei Comet Lake mit der Wissenschaft klappen.

Was sollen diese tollen RAM Profile bringen? Ist das sowas wie AUTO-OC? Wenn ja, kannst du das in die Tonne werfen. Ich wage einfach mal ganz stark zu bezweifeln, dass die RAM Profile so tolle Arbeit machen was die Timings angeht ohne vollständigen DRAM Bericht vom Thaiphoon Burner ausgelesen und ohne DRAM Calculator mit den richtigen genauen Memory Typ. Die Profile sind sicherlich weit weg vom Limit, was man mit Samsung B-Die eigentlich rausholen kann. Ergo -> Für Intel ist machbares Max DRAM Tuning einfach nicht möglich, enweder man ist ein absoluter Spezialist oder man studiert die Scheiße erstmal.

Kann man den DRAM Calculator nicht einfach trotzdem für Intel benutzen? Ich wurde es probieren. Thaiphoon Burner vollständigen DRAM Bericht ausspucken lassen, dann den DRAM Calculator öffnen und einfügen. Dann z.B. DDR4 4200 auswählen und auf Calculate Fast klicken. Processor einfach Zen 2 auswählen und Memory Typ, natürlich den richtigen auswählen, wie Hynix, B-Die usw. Screenshot mit Handy und ab ins Bios. :D

Blediator16
2020-05-27, 23:44:54
https://www.techpowerup.com/267757/psa-there-are-two-steppings-of-non-k-10th-gen-core-i5-in-circulation-only-one-comes-with-stim

PSA: There are Two Steppings of Non-K 10th Gen Core i5 in Circulation, Only One Comes with STIM

Stellt euch mal vor. Intel mit der immer selben Architektur und Fertigung verkackt es trotzdem. Da sagt mal einer AMD scheißt immer komplett rein :D

davidzo
2020-05-28, 00:21:50
https://www.techpowerup.com/267757/psa-there-are-two-steppings-of-non-k-10th-gen-core-i5-in-circulation-only-one-comes-with-stim

PSA: There are Two Steppings of Non-K 10th Gen Core i5 in Circulation, Only One Comes with STIM

Stellt euch mal vor. Intel mit der immer selben Architektur und Fertigung verkackt es trotzdem. Da sagt mal einer AMD scheißt immer komplett rein :D

Was ist denn da verkackt? Das stand eigentlich in jedem brauchbaren Review dass es von den 6-core i5s zwei varianten geben wird: Den salvage 10-core DIE und den nativen 6-core den es bei coffee-lake schon gab. Macht ja auch sinn, denn soviele 10core dies die gesalvaged werden müssen wie i5s gibts nunmal nicht. Und für die K-CPUs nimmt man eben die mit S-Tim.
In einigen Tests soll der native 6 core sogar etwas schneller gewesen sein (latenzärmer) und etwas sparsamer. S-tim hat also nicht nur Vorteile. Einen schlechten 10.core Die kann man vermutlich auch nicht so gut übertakten wie einen guten 6-core, da hilft auch S-tim dann nicht mehr. Die guten 10-core gehen sowieso in die K-CPUs.

MiamiNice
2020-05-28, 01:26:53
Achso, ich vergaß, es sei denn man ist E-Sportler und spielt die Kiddie Baller Games in 720p und profiliert sich mit anderen 13-Jährigen im Score Table.

Kennst Du Dich da aus? Ich jedenfalls nicht. Ich spiele tatsächlich Spiele für erwachsene und i.d.R. auch mit anderen Erwachsenen. Ich habe leider nicht mehr so die Reflexe für derartiges ;D
Aber Lags, wie auch immer geartet, machen mich noch immer rasend. Und ich bin der Meinung man kann jede wie auch immer laufende Software, mit Hardware erschlagen. Und das erschlagen klappt aktuell noch mit Intel besser, da muss man kein Kikie Baller Gamer sein?
Was sind eigentlich für Dich Kiddy Baller Games? Für mich wären das Battlefiel, Call of Duty, quasi jeder Shooter von EA, Overwatch, CS GO. So was halt. Für Dich?

Ein Gamer? Du meisnt ein Forengamer (?) Das mit der 2080, das gibt die heilige Statistik von Steam irgendwie nicht her. Wenn wir denn schon dabei sind uns lächerlich zu machen...
Deine Forenblase interessiert draußen keine Sau :uconf3:


Dann schau doch mal was in den Rechner der Leute steckt die CPUs in der Preisklasse kaufen über die wir gerade sprachen.
Und vergleich das dann mal mit Deiner Angabe.
Oder es es abzukürzen: Jemand der 300€ für einen CPU ausgibt, ca. 150 für ein MB und noch mal, was, 150-200€ für den Speicher, ist gewillt auch für die GPU mehr auszugeben. Die meisten kaufen eh Ryzen weil günstig. Die die das hier kaufen, und noch als "K", wissen warum und wieso und sind wohl gewillt die Kosten zu tragen.

Darum weiß ich auch gar nicht warum sich die AMD Leute hier so echauffieren. Der DIY Markt ist doch eh zu 80% in der Hand von AMD. Es gibt gar keinen Grund hier zu missionieren oder sich den eigenen Kauf zu rechtfertigen. Es gibt genug andere Leute da draußen die genau der selben Meinung seid wie ihr. So viel mehr rote Sympatisanten als andere, ich glaube selbst Apple erblasst da vor Neid. Die, die das hier kaufen, wissen warum. Da hilft es auch nicht auf die Jagt nach dem blauen Oktober zu gehen ;) Und die Jungs die das hier kaufen, kaufen auch ganz sicher eine AMD CPU, wenn die Umstände passen.

Ex3cut3r
2020-05-28, 01:31:05
Valorant, Fortnite, Overwatch sind so für mich die Kiddie Games schlecht hin monentan.

Mit einem 3700X + PCIe 4.0 NVME + 32GB RAM hast du keine Lags mehr, da kann ich dich beruhigen, allerdings hilft das auch nicht gegen Engine bedingte Lags und/oder Streaming Ruckler.

=Floi=
2020-05-28, 02:35:18
.

du redest dir dein system schon wieder schön. Hör endlich auf damit.
3-5 jahre, klar sicher mit deinen 16gb ram. :rolleyes:
Wo der 3700k zu langsam wird, wird es auch der 9900k sein. Nebenbei würde ich keinen € drauf wetten, dass der 9900k so schnell bleibt, weil die böse fabric in MC einfach besser skaliert. Deswegen ist auch cinnebench so gut.


Nebenbei geht es mit der kaufentscheidung pro amd nicht nur um die 100€, sondern gegen die (miserable) produkpolitik von intel!
Ich kauf doch nicht das teurere produkt, nur damit mir die performance durch sicherheitspatches genommen werden kann. Intel hätte längst eine neue architektur mit stand 2020 und nicht 2000 nachreichen können.
Auch was lanes, caches und andere sachen angeht, könnten sie dem consumer um den preis mehr bieten. :rolleyes:

dargo
2020-05-28, 07:00:37
Die "Budget-CPU für Games" ist eigentlich der 3300X ;)
Wegen 38€ weniger wäre es komplett bescheuert für Games einen 3300X zu holen. Zumindest wenn man länger die CPU nicht wechseln will.

woodsdog
2020-05-28, 08:22:35
Wegen 38€ weniger wäre es komplett bescheuert für Games einen 3300X zu holen. Zumindest wenn man länger die CPU nicht wechseln will.

wenn die 38€ aber >= 10% vom gesammt Budget darstellen und deswegen die Graka 8 statt 4GB VRAM haben kann, ist der 3300X definitiv der bessere Deal.

Tellerrand und so.

Lowkey
2020-05-28, 08:48:13
Vermutlich macht es sich bei Comet Lake ebenso bezahlt einen Blick in die Memory QVL zu werfen und beim RAM mehr auszugeben.

Neben Asus wird es bestimmt noch andere geben die den Usern bei den Timings mit Profilen unter die Arme greifen. Low End Boards oder Einsteigerboards meidet man einfach, dann wirds auch bei Comet Lake mit der Wissenschaft klappen.

Ich hatte nicht wenige Mainboards in den letzten Jahren und nicht in einem Fall hat ein OC Profil gepaßt. Das geht dann so weit, dass die QVL den Markt in Taiwan abdeckt, nicht aktuell ist und nicht wirklich für den Speichermarkt in der EU gilt. Da steht das Modul auf der Liste, aber nur Singlechannel, wie mir später der Support mitteilt. Leider haben sie das Kit nicht und können einen Fix erst in Monaten anbieten.

Intel Memory OC sieht derzeit eher so aus, dass man bestehende Profile von anderen Usern abschreibt und nach und nach austestet. Das kostet sehr viel Zeit im Vergleich zu einer CPU und irgendwann stellt man nur noch 5 + 2-3 Werte ein.

Die einzige Lösung ist es entweder den monatelangen Verkaufsschlager zu nehmen oder direkt mehr Geld in die B-DIEs zu stecken. Die Liste im HWLUXX hilft weiter.

Lowkey
2020-05-28, 08:52:05
Wegen 38€ weniger wäre es komplett bescheuert für Games einen 3300X zu holen. Zumindest wenn man länger die CPU nicht wechseln will.

Diverse Kinder drehen jeden Euro um. Da tut es der 3300X mit der 570 4gb noch eine Weile. In der Summe eines Komplettsystems sind die kleinen Aufpreise von 4 auf 6 Kerne oder 4gb auf 8gb natürlich winzig und rein rational sollte man das optimale Mainstreamsystem kaufen, damit man effektiv über die Jahre an Geld spart. Alternativ ist der 3300X / 570 4GB auch schnell gewechselt, auch wenn nicht jeder User ein Verkäufer ist.

Badesalz
2020-05-28, 09:59:14
Dann schau doch mal was in den Rechner der Leute steckt die CPUs in der Preisklasse kaufen über die wir gerade sprachen.
Über die sprachen wir nicht. Wir sprachen von dem "Gamer". Den findet man auf Steam und nicht in irgendwelchen Forenfilterblasen.

Wegen 38€ weniger wäre es komplett bescheuert für Games einen 3300X zu holen. Zumindest wenn man länger die CPU nicht wechseln will.Da macht man einfach einen Realitätsabgleich, wenn man es kann :) Erzählten mir also paar Bubs letztens, die "Nicht-pläysi" Zocker drehen jetzt in der Schule durch deswegen. Weil damit, und einer 1660 (nicht der Super), kann man Fortnite ENDLICH jetzt in FHD auf Medium zocken, mit >120fps. Und das wäre einfach nur geil für das Geld, weil für viele davon, mit dem 3300X Vadder auf der anderen Seite die 1660 eher absegnen könnte. Alle aufgeregt und so :ulol:
Wer zum Geier ist ein dargo? ;)

Sonst wüsste ich erstmal aber auch selbst nicht warum man 38€ mehr für eine öfters langsamere CPU ausgeben sollte...
https://www.youtube.com/watch?v=ALQ1YuBaxLs

Das Teil macht 8 Threads, und die liefern auch.

Blediator16
2020-05-28, 15:00:49
Was ist denn da verkackt? Das stand eigentlich in jedem brauchbaren Review dass es von den 6-core i5s zwei varianten geben wird: Den salvage 10-core DIE und den nativen 6-core den es bei coffee-lake schon gab. Macht ja auch sinn, denn soviele 10core dies die gesalvaged werden müssen wie i5s gibts nunmal nicht. Und für die K-CPUs nimmt man eben die mit S-Tim.
In einigen Tests soll der native 6 core sogar etwas schneller gewesen sein (latenzärmer) und etwas sparsamer. S-tim hat also nicht nur Vorteile. Einen schlechten 10.core Die kann man vermutlich auch nicht so gut übertakten wie einen guten 6-core, da hilft auch S-tim dann nicht mehr. Die guten 10-core gehen sowieso in die K-CPUs.

Hast recht. Jeder Hinz und Kunz wird sich irgendwelche Reviews durchlesen und evtl. entdecken, dass deren CPU doch nicht so geil ist.

Man braucht da absolut nichts schönreden. Verkackt ist es von Intel bei so alten CPUs bei der Fertigung. Wie Unfähig kann man nur sein?

TurricanM3
2020-05-28, 15:02:00
Weiß hier jemand warum ausgerechnet das Apex XII nicht lieferbar ist?

ehm, also der unterschied zwischen NVMe und SATA SSD ist bei gewissen games in den ladezeiten schon recht deutlich... und ich rede von ner "alten" 3.0 NVMe die nur knapp über 2.5GB/s macht...


Ist das nun wirklich so? Als ich damals zum NVME launch getestet hatte, lag das fast schon eher im Rahmen der Messungenauigkeit.
Hast mal nen Link?

MiamiNice
2020-05-28, 17:26:45
du redest dir dein system schon wieder schön. Hör endlich auf damit.
3-5 jahre, klar sicher mit deinen 16gb ram. :rolleyes:
Wo der 3700k zu langsam wird, wird es auch der 9900k sein. Nebenbei würde ich keinen € drauf wetten, dass der 9900k so schnell bleibt, weil die böse fabric in MC einfach besser skaliert. Deswegen ist auch cinnebench so gut.


Nice try, Floi, aber vergebens :wink:
Umgekehrte Psychologie funktioniert hier nicht ;D

Weiß hier jemand warum ausgerechnet das Apex XII nicht lieferbar ist?


Ich vermute selber Grund wie letzten Apex Release? Da hat es ja auch Monate gedauert.

Über die sprachen wir nicht. Wir sprachen von dem "Gamer". Den findet man auf Steam und nicht in irgendwelchen Forenfilterblasen.

Genau wir sprachen von Gamen und dem Video des 300€ Intel CPU. Kannst ja noch mal nach schlagen.

Badesalz
2020-05-28, 21:34:12
Ist das nun wirklich so? Als ich damals zum NVME launch getestet hatte, lag das fast schon eher im Rahmen der Messungenauigkeit.
Hast mal nen Link?Ich hätte einen... 860evo vs. 970evo
https://www.youtube.com/watch?v=2AYextvB9l4

@MiamiNice
Ich glaub du bist raus. Irgendwann wirds halt selbst mir zu blöd ;) Ciao.

MiamiNice
2020-05-29, 00:51:47
Ich denke eher das Du raus bist :wink:

Lowkey
2020-05-29, 12:57:10
Hatten wir schon die beien Steppings?


https://tpucdn.com/img/YRJH6DrAoPS5Zm1z_thm.jpg

https://www.techpowerup.com/267757/psa-there-are-two-steppings-of-non-k-10th-gen-core-i5-in-circulation-only-one-comes-with-stim


Q0 will man also haben.

y33H@
2020-05-29, 12:59:12
Ja, schon bei der Ankündigung vor paar Wochen.

G1 ist für den 10400(F) vermutlich besser.

Lowkey
2020-05-29, 13:01:40
Vermutlich spielt es überhaupt keine Rolle.

Mit einem Auge verfolge ich den OC Thread im HWluxx. (https://www.hardwareluxx.de/community/threads/intel-comet-lake-s-sockel-1200-oc-ergebnis-thread-kein-quatschthread.1269650/)

Die ersten Ergebnisse sind besser als erwartet.

robbitop
2020-05-29, 13:03:10
@neues Stepping
Ich bin da etwas skeptisch. CML ist schon die xte Iteration und prügelt nun die Kerne jenseits der 5 GHz und das mit irrwitziger Leistungsaufnahme. Gesetz des senkenden Grenzertrags. Die x+1e Generation wird da sicherlich keine großen Sprünge mehr hinlegen - bzw würde mich das ziemlich überraschen.

TurricanM3
2020-05-29, 13:04:48
Ich vermute selber Grund wie letzten Apex Release? Da hat es ja auch Monate gedauert.

Welcher Grund war das denn letztes Mal? :biggrin:

@Badesalz
Thx, ist ja echt gar nicht so wenig.

y33H@
2020-05-29, 13:05:04
Ich meine auch nicht OC sondern interne Latenzen bzw Hops von Core zu Core den Ringbus entlang.

MiamiNice
2020-05-29, 13:11:34
Vermutlich spielt es überhaupt keine Rolle.

Mit einem Auge verfolge ich den OC Thread im HWluxx. (https://www.hardwareluxx.de/community/threads/intel-comet-lake-s-sockel-1200-oc-ergebnis-thread-kein-quatschthread.1269650/)

Die ersten Ergebnisse sind besser als erwartet.


Alter Falter, das hätte ich auch nicht erwartet. 5300 Mhz allcore über 10 Cores, ungeköpft ohne das man groß am V-Core drehen muss. Ich glaub das Teil rennt auch mit 5,5 Ghz geköpft.
Das ist ziemlich nett.

10900K|R15|2341cb|5454MHz|1.4V Bios <3

Welcher Grund war das denn letztes Mal? :biggrin:



Wenn ich mich recht entsinne wurde es nicht fertig wegen der Spannungsversorgung.

Ex3cut3r
2020-05-29, 13:48:00
Ja, ist ziemlich geil was das OC angeht. Allerdings kann ich diese HWLUXX User Berichte nie bei mir oder im Freundeskreis feststellen. Allerdings bestellen wir auch nur 1xmal eine CPU und behalten diese, im Luxx wird gerne mal wenn das OC Ergebnis nicht wie erwünscht war, 5 CPUs bestellt und 4 zurückgeschickt. :biggrin: :freak:

Megamember
2020-05-29, 13:51:44
Wäre bei HWLUXX auch vorsichtig. Da tummeln sich die meisten Freaks mit Asus Vcore schummel Boards, exotischer Wakü und selektierten samples.
Mein 10600K macht die 5GHZ zum Beispiel nicht mit unter 1,3V. 4,8 mit 1,2V oder so.

Lowkey
2020-05-29, 13:56:23
Es ist Glück im Spiel und dann bist du auch mal auf Platz 1.

Intel hat doch die 10900k gebinnt und alles was nicht paßt wird i5 oder i7.

MiamiNice
2020-05-29, 14:01:54
Irgendwie juckt es nun doch im Portmonee :mad:

Ex3cut3r
2020-05-29, 14:11:59
Irgendwie juckt es nun doch im Portmonee :mad:

Tu es. Macht doch Sinn für dich, vor allem da du in 3440x1440 stark CPU Limitiert bist mit deiner Krücke aka 9900k. :biggrin:
MB muss aber auch neu. Macht also 550€ CPU + 400 MB? 950€? Ach was...machen wir gleich 1000€ draus? Man lebt schließlich nur einmal. Und vlt. auch gleich nochmal 16GB dazu? Weil 16GB Only 2020 nicht den Ansprüchen eines Enthusiasten wie du es eigentlich bist nicht würdig sind? Und wenn wir schon dabei sind auch noch eine PCIe 4.0 NVME als Sahnehäubchen oben drauf....ach neee.... sry geht ja nicht. ;D ;D

https://geizhals.de/intel-core-i9-10900k-bx8070110900k-a2291009.html?hloc=de

https://geizhals.de/asus-rog-maximus-xii-hero-wi-fi-90mb12r0-m0eay0-a2287043.html?hloc=de

https://geizhals.de/asus-rog-maximus-xii-formula-90mb1370-m0eay0-a2286935.html?hloc=de

https://geizhals.de/g-skill-trident-z-rgb-dimm-kit-16gb-f4-4600c18d-16gtzr-a1869248.html

MiamiNice
2020-05-29, 14:45:07
Na, eigentlich eher wegen der Schallmauer 5,5Ghz.
Solche Dinge machen mich halt geil, ebenso wie die erste 5 Ghz CPU die im PC gewesen ist. Ich würde btw. nicht auf 16 GB updaten wollen. Zum einen brauchen die Games die ich spiele das nicht, zum anderen muss dann der Takt runter, heißt das Update wäre sinnlos.

Ex3cut3r
2020-05-29, 14:49:44
Ich würde btw. nicht auf 16 GB updaten wollen. Zum einen brauchen die Games die ich spiele das nicht, zum anderen muss dann der Takt runter, heißt das Update wäre sinnlos.

Plot Twist. Da du auch mit DDR4 2666mhz in 3440x1440 mit einem 9900k GPU Limitiert bist, macht dein ach so toller 4600mhz Takt auch keinen Unterschied. :freak:

Und schade das du nicht wechselt, irgendwie passt dein Geldbeutel in letzer Zeit nicht mehr zu deinen "Groß" Maul. ;)

Daredevil
2020-05-29, 14:51:51
Irgendwie juckt es nun doch im Portmonee :mad:
Hol dir dochn Chiller, dann geht deine jetzige Kiste nochmal ein wenig höher. :)
Long Term Invest und so.

woodsdog
2020-05-29, 15:28:58
ist ja echt ein WAHNSINNS OC da mit 5,3GHz oder WaKü kochend mit 5,5GHz an der Absoluten Kotzgrenze... von base 4,9GHz... 8%, 10%, 12% IRRE sach ich dir... von 5+GHz 8700/9900k ists klein einstellig... :freak:

Worüber reden wir hier? Das ist doch lächerlich.
Wer von einem 9900k auf den 10900k umsteigt, darf sich nicht wundern, wenn er nur noch als Intel Fanboy bezeichnet wird

TurricanM3
2020-05-29, 15:31:08
Wenn ich mich recht entsinne wurde es nicht fertig wegen der Spannungsversorgung.


Das Apex XII ist aber fertig und wird im Ausland wohl ausgeliefert. Im Luxx haben es schon welche erhalten. Ich will es aber nicht irgendwo in Tschechien bestellen, sondern am liebsten Amazon. Wenn da mal was mit ist, hab ich keinen Stress.
In DE bietet es auf Geizhals heute nun gar kein Händler mehr an. Verstehe ich nicht...

Daredevil
2020-05-29, 15:33:19
Naja ich sag mal so, wenn ich mir extra nen Intel schnappe, damit ich 5Ghz+ OC bewerkstelligen kann ( Weil alles drunter zu nah an einem OC Ryzen ist ), dann müssen diese 5Ghz auch so weit wie möglich ausgeschöpft werden.

Ich hätte kein Problem damit, meinen 2700X@4.2Ghz in die Rente zu schicken und die Plattform zu wechseln für einen Intel Hexacore, wenn dort halt mindestens 5.2Ghz anliegen und der Aufpreis ( aktuell ) nicht ~200-250€ betragen würden.
Da hätte der Deepcool Assassin auch mal was zu tun. :)

Aber wenn Ryzen jetzt tatsächlich refreshed und ~5-10% SC Leistung drauflegt oder Taktpotential frei gibt, ist Intel halt zum Großteil wieder irrelevant, selbst mit OC.

Ex3cut3r
2020-05-29, 15:47:05
Das Apex XII ist aber fertig und wird im Ausland wohl ausgeliefert. Im Luxx haben es schon welche erhalten. Ich will es aber nicht irgendwo in Tschechien bestellen, sondern am liebsten Amazon. Wenn da mal was mit ist, hab ich keinen Stress.
In DE bietet es auf Geizhals heute nun gar kein Händler mehr an. Verstehe ich nicht...

Muss es denn unbedingt das sein? Ein Hero ist doch auch schon vollkommen übertrieben. Oder nicht?

Nimm doch das Gigabyte Xtreme: https://geizhals.de/gigabyte-z490-aorus-xtreme-a2290911.html?hloc=de

Oder das MSI Godlike: https://geizhals.de/msi-meg-z490-godlike-7c70-005r-a2288527.html?hloc=de

TurricanM3
2020-05-29, 15:49:51
Ich will explizit ein Board mit nur 2 RAM-Bänken wegen OC. Vier Module werde ich wegen der Nachteile sowieso nicht nutzen. Das bringt mir nichts, hat nur Nachteile für mich.
EDIT:
Wenn ich wüsste das das Bios taugt, würde auch auch das EVGA Z490 Dark nehmen. Leider aber ist das normalerweise nicht so gut wie bei Asus.

Daredevil
2020-05-29, 15:54:11
Wie groß isn so der Unterschied zwischen 4 und 2 Speicher Bänke?

Ex3cut3r
2020-05-29, 16:01:34
Ach Göttchen als die paar Mhz mehr RAM Takt jetzt der ueber Knaller wären, sry, aber Ihr Enthusiasten habt eindeutig einen Knall. Du spielst doch in 2560x1440. Außerdem wechselt doch bei Rocket Lake sowieso wieder.

-=Popeye=-
2020-05-29, 16:07:04
Wie groß isn so der Unterschied zwischen 4 und 2 Speicher Bänke?

Grobe Richtung

ASUS ROG X (Z370) Hero, Code, Formula, Extreme
2x8GB: 4.000 - 4.200 Mhz
4x8GB: 4.133 - 4.300 Mhz
2x16GB: 3.466 - 3.733 Mhz

ASUS ROG X (Z370) Apex + Strix Z370-I (ITX) + Strix Z390-I (ITX)
2x8GB: 4.400 - 4.700 Mhz
2x16GB: 3.733 - 4.000 Mhz

ASUS ROG XI (Z390) Hero, Code, Formula, Extreme
2x8GB: 4.000 - 4.200 Mhz
4x8GB: 4.266 - 4.400 Mhz
2x16GB: 3.466 - 3.733 Mhz

ASUS ROG XI (Z390) Apex, Gene
2x8GB: 4.500 - 4.800 Mhz
2x16GB: 4.000 - 4.133 Mhz

ASUS Strix Serie Z370/Z390 mit 4-Dimm Layout (-E, -F, -G, -H,)
2x8GB: 3.800 - 4.000 Mhz
4x8GB: 4.133 - 4.266 Mhz
2x16GB: 3.200 - 3.600 Mhz

ASRock Z370/Z390 Extreme4, Gaming K6, Taichi
sowie viele MSI Modelle
2x8GB: 4.133 - 4.400 Mhz
4x8GB: 3.800 - 4.133 Mhz
2x16GB: 3.600 - 3.800 Mhz

Gigabyte Z370/390 Platinen
2x8GB: 4.000 - 4.133 Mhz
4x8GB: 4.000 - 4.266 Mhz
2x16GB: 3.466 - 3.600 Mhz

Quelle (https://www.hardwareluxx.de/community/threads/intel-coffee-lake-ram-oc-thread-guides-und-tipps.1230518/)

zockerX
2020-05-29, 16:17:57
Grobe Richtung
Ich glaube er meinte Boards mit 2 Bänken vs. Boards mit 4 Bänken. TurricanM3 will ja "explizit ein Board mit nur 2 RAM-Bänken wegen OC".

TurricanM3
2020-05-29, 16:18:05
Wir sind halt alle unterschiedlich. Mir macht tweaken Spaß und ich möchte gezielt darauf die Hardware ausrichten. Zuviel Leistung gibt es nicht, hab noch genug Fälle in denen ich mir mehr Power wünsche oder gewünscht hätte. Oftmals hapert es leider an der engine.

Lehdro
2020-05-29, 16:20:22
Grobe Richtung

Hat das einen tieferen Sinn warum so oft 4x8 GiB besser takten als 2x 8 GiB?

TurricanM3
2020-05-29, 16:25:25
Liegt an T-Topology.

MiamiNice
2020-05-29, 16:38:29
Statt dem Apex geht btw. auch das Gene, wenn man auf PCI-E Steckplätze verzichten kann. Hat auch nur 2 Bänke und ein ähnliches Layout wie das Apex. Ist der kleine Bruder und kostet 200 Bucks weniger.
Also jetzt nicht @Turri (der weiß das selbst), sondern @Rest im Thread.

Ex3cut3r
2020-05-29, 16:38:43
Die Boards auf X570 und Z490 haben aber 97% alle Daisy Chain.
Sowie ich das sehe, gibt es momentan kein Z490 Gene.

MiamiNice
2020-05-29, 16:46:28
Deswegen sprach Turri auch vom Apex und ich vom Gene.

Ach Göttchen als die paar Mhz mehr RAM Takt jetzt der ueber Knaller wären, sry, aber Ihr Enthusiasten habt eindeutig einen Knall. Du spielst doch in 2560x1440. Außerdem wechselt doch bei Rocket Lake sowieso wieder.

Wenn Du dem grundsätzlichen Tenor des unbeliebten CB Artikels folgst und die Werte aus der Tabelle abliest die Popeye gepostet hat. Wenn Du nur für einen Moment annehmen könntest das dies alles ein Fakt ist, wirst Du verstehen warum es so einen Unterschied macht.

€: Das hat auch imo nicht viel mit Enthusiasmus zu tun. Fakt ist einfach das Du den Ram Speed brauchst um beim Intel keine Power Brach liegen zu lassen. Es reicht ja auch die schnellen Riegel zu kaufen und das XMP zu laden, um einen Intel CPU massiv Beine zu machen. Ist ja beim Ryzen auch so, das RAM Tool bringt massiv Performance. Der Intel skaliert dagegen super mit dem Takt des RAMs und dem Teiler des IMCs. Würde der Ryzen sicher auch aber hier limitiert einfach der IF.

Ex3cut3r
2020-05-29, 16:50:18
Deswegen sprach Turri auch vom Apex und ich vom Gene.



Wenn Du dem grundsätzlichen Tenor des unbeliebten CB Artikels folgst und die Werte aus der Tabelle abliest die Popeye gepostet hat. Wenn Du nur für einen Moment annehmen könntest das dies alles ein Fakt ist, wirst Du verstehen warum es so einen Unterschied macht.

Der Test war in 720p gemacht. Nicht in 3440x1440 oder 2560x1440. Warum auch, in diesen Auflösungen ist man GPU Limitiert. Weißt du was ein GPU Limit ist? Anscheinend nicht.

MiamiNice
2020-05-29, 16:59:43
Der Test war in 720p gemacht. Nicht in 3440x1440 oder 2560x1440. Warum auch, in diesen Auflösungen ist man GPU Limitiert. Weißt du was ein GPU Limit ist? Anscheinend nicht.

Weiß Du das so gut wie jedes Spiel zwischen CPU und GPU Limit schwankt und das es Spiele gibt die ein dauerndes CPU Limit haben? Ich stehe nicht darauf das meine FPS absacken wenn eine Szene statt GPU eben CPU limitiert ist.

TurricanM3
2020-05-29, 17:23:30
In nahezu allen der letzten Games die ich intensiver gespielt habe, war ich oft genug nicht im GPU-Limit und hätte mir mehr FPS gewünscht. Ich frag mich aber wohin die Diskussion hier führen soll. Jeder soll doch das kaufen / nutzen wonach ihm ist. Der eine macht es aus Spaß, der andere braucht diverse Gründe. Letzteren fehlt da aber oftmals die Toleranz für erstere. Was damit erreicht werden soll, erschließt sich mir nicht.

Lowkey
2020-05-29, 17:26:11
Mein Gene XI schafft mit 32gb (2x16gb) max 4000mhz. Also selbst Kits mit XMP laufen nicht richtig, auch wenn sie auf der QVL stehen. Asus hat 2 Bios Updates veröffentlicht, aber keins lößt das Problem.

Mit 2x8gb kommt man fast bei allen Asus Boards auf 4500mhz.


Der Test auf CB hat gezeigt, dass es Spiele wie Anno1800 gibt, die selbst in hoher Auflösung ins CPU Limit laufen. Das sind bestimmt mehr Spiele als die Spiele, die von 10-16 Kernen profitieren. Wahrscheinlich wäre es in Zukunft interessanter die Ausnahme-Spiele zu benchen als ein breites Spektrum an Casual Games.

x-force
2020-05-29, 17:27:59
Ich frag mich aber wohin die Diskussion hier führen soll.

daß du dem roten club beitrittst, damit die vorhanden mitglieder sich in ihrer kaufentscheidung bestärkt fühlen, denn sie besitzen ja "das beste" produkt.

da kommt das cb störfeuer natürlich ungelegen und man muß hier ein bisschen druck ablassen :biggrin:

Ex3cut3r
2020-05-29, 18:13:50
In nahezu allen der letzten Games die ich intensiver gespielt habe, war ich oft genug nicht im GPU-Limit und hätte mir mehr FPS gewünscht. Ich frag mich aber wohin die Diskussion hier führen soll. Jeder soll doch das kaufen / nutzen wonach ihm ist. Der eine macht es aus Spaß, der andere braucht diverse Gründe. Letzteren fehlt da aber oftmals die Toleranz für erstere. Was damit erreicht werden soll, erschließt sich mir nicht.

Namen bitte? PUBG? -> Software Schrott. Jedes AAA Game der letzen 3 Jahre mit DX12/Vulkan ist ab 1440p sogar mit einem Ryzen 1 1600 GPU Limitiert. Achso Anno irgendwas. Jaaa richtig. :rolleyes:

Weiß Du das so gut wie jedes Spiel zwischen CPU und GPU Limit schwankt und das es Spiele gibt die ein dauerndes CPU Limit haben? Ich stehe nicht darauf das meine FPS absacken wenn eine Szene statt GPU eben CPU limitiert ist.
Das ist wirklich Amüsant, du scheinst keine Ahnung zu haben. :biggrin:

Slipknot79
2020-05-29, 19:23:42
In nahezu allen der letzten Games die ich intensiver gespielt habe, war ich oft genug nicht im GPU-Limit und hätte mir mehr FPS gewünscht.

Also hast du doch nen Kack-PC? :redface:

TurricanM3
2020-05-29, 20:15:33
:biggrin:

Namen bitte? PUBG? -> Software Schrott. Jedes AAA Game der letzen 3 Jahre mit DX12/Vulkan ist ab 1440p sogar mit einem Ryzen 1 1600 GPU Limitiert. Achso Anno irgendwas. Jaaa richtig. :rolleyes:


Das ist wirklich Amüsant, du scheinst keine Ahnung zu haben. :biggrin:

Du hast doch sowieso deine Meinung. Die lass ich dir auch. Ist gar nicht böse gemeint. Hab einfach kein Interesse an solchen für mich sinnlosen Diskussionen.

MartinRiggs
2020-05-29, 20:21:26
Es ist schlimm das man sich für alles heutzutage rechtfertigen muss.

Ich hab mal an einem Gewinnspiel für Z490 teilgenommen, wenn ich es gewinne kommt ein Comet Lake.
Zwar völlig sinnfrei und auf der falschen Seite der Macht, aber geil :biggrin:

Lowkey
2020-05-29, 20:43:29
Werd doch Produkttester?

https://www.mindfactory.de/Highlights/Produkttester_gesucht_MSI_MEG_Z490_ACE

Du meinst das Gewinnspiel von Corsair/MSI ?

Ex3cut3r
2020-05-29, 20:52:09
:biggrin:



Du hast doch sowieso deine Meinung. Die lass ich dir auch. Ist gar nicht böse gemeint. Hab einfach kein Interesse an solchen für mich sinnlosen Diskussionen.

War Klar. Das da nix kommt.

dargo
2020-05-29, 20:56:34
Namen bitte? PUBG? -> Software Schrott. Jedes AAA Game der letzen 3 Jahre mit DX12/Vulkan ist ab 1440p sogar mit einem Ryzen 1 1600 GPU Limitiert. Achso Anno irgendwas. Jaaa richtig. :rolleyes:

Das kapieren die einfach nicht. Die spielen irgendeinen Softwaremüll @DX11 der letzten Jahre und denken die CPU würde limitieren. Dabei langweilt die sich tatsächlich zu tode weil miserables Multithreading oder Overhead zum Erbrechen.

-=Popeye=-
2020-05-29, 21:52:22
Ich glaube er meinte Boards mit 2 Bänken vs. Boards mit 4 Bänken. TurricanM3 will ja "explizit ein Board mit nur 2 RAM-Bänken wegen OC".

Echt jetzt?

Ich dachte, dass ist ersichtlich.

2 Dimms
ASUS ROG X (Z370) Apex + Strix Z370-I (ITX) + Strix Z390-I (ITX)
2x8GB: 4.400 - 4.700 Mhz
2x16GB: 3.733 - 4.000 Mhz

ASUS ROG XI (Z390) Apex, Gene
2x8GB: 4.500 - 4.800 Mhz
2x16GB: 4.000 - 4.133 Mhz

4 Dimms
ASUS ROG X (Z370) Hero, Code, Formula, Extreme
2x8GB: 4.000 - 4.200 Mhz
4x8GB: 4.133 - 4.300 Mhz
2x16GB: 3.466 - 3.733 Mhz

ASUS ROG XI (Z390) Hero, Code, Formula, Extreme
2x8GB: 4.000 - 4.200 Mhz
4x8GB: 4.266 - 4.400 Mhz
2x16GB: 3.466 - 3.733 Mhz

ASUS Strix Serie Z370/Z390 mit 4-Dimm Layout (-E, -F, -G, -H,)
2x8GB: 3.800 - 4.000 Mhz
4x8GB: 4.133 - 4.266 Mhz
2x16GB: 3.200 - 3.600 Mhz

ASRock Z370/Z390 Extreme4, Gaming K6, Taichi
sowie viele MSI Modelle
2x8GB: 4.133 - 4.400 Mhz
4x8GB: 3.800 - 4.133 Mhz
2x16GB: 3.600 - 3.800 Mhz

Gigabyte Z370/390 Platinen
2x8GB: 4.000 - 4.133 Mhz
4x8GB: 4.000 - 4.266 Mhz
2x16GB: 3.466 - 3.600 Mhz

Namen bitte? PUBG? -> Software Schrott. Jedes AAA Game der letzen 3 Jahre mit DX12/Vulkan ist ab 1440p sogar mit einem Ryzen 1 1600 GPU Limitiert. Achso Anno irgendwas. Jaaa richtig. :rolleyes:


Reichen und eigene Ansprüche sind immer noch zwei paar Schuhe.

Btw. er hat auch excessive Battlefield V gespielt, was richtiger Software Schrott ist.

edit: War deine Aussage nicht vorher das Ryzen Schrott bzw. der letzte Müll ist, und nie an Intel rankommt? Ich hab da noch sowas in der Erinnerung.:conf:

zockerX
2020-05-29, 22:51:50
Das kapieren die einfach nicht. Die spielen irgendeinen Softwaremüll @DX11 der letzten Jahre und denken die CPU würde limitieren. Dabei langweilt die sich tatsächlich zu tode weil miserables Multithreading oder Overhead zum Erbrechen.
Im Gegenteil, andere kapieren nicht, dass DX11 immer noch der absolute Standard ist und sich das so schnell auch nicht ändern wird. DX12 oder gar Vulkan muss man vergleichsweise immer noch mit der Lupe suchen und wenn ist die Umsetzung meist bestenfalls naja.

Benutzername
2020-05-29, 23:10:48
Namen bitte? PUBG? -> Software Schrott. Jedes AAA Game der letzen 3 Jahre mit DX12/Vulkan ist ab 1440p sogar mit einem Ryzen 1 1600 GPU Limitiert. Achso Anno irgendwas. Jaaa richtig. :rolleyes:



Bundesligamanager nicht vergessen. Wahrscheinlich der einzige Anwendungsfall für den Core i9-10900 :wink:

Oder Civilization zur Berechnung der Züge. Ansonsten sieht es echt dünn aus für so viele Kerne.



Der 10600k ist noch der daddel-relevanteste, finde ich, von den neuen 10er Cores und preislich noch okay. Und ein bisschen Luft für die Zukunft. Und billiger als der 9600k ist er auch noch. Dafür sind die Mobos unverhältnismäßg teuerer. Tja und die Auto-overclock Funktionen bei den neuen Mobos scheinen CPUs zu rösten. Aber alle Hersteller machen es, also machen es alle Hersteller. 1,5 V und ab dafür. Mehr Power! :uhammer2:

Die sollten mit dem Mist aufhören.


----------------

Im Gegenteil, andere kapieren nicht, dass DX11 immer noch der absolute Standard ist und sich das so schnell auch nicht ändern wird. DX12 oder gar Vulkan muss man vergleichsweise immer noch mit der Lupe suchen und wenn ist die Umsetzung meist bestenfalls naja.

Es kommen ja auch DX12 Versionen auch für ältere Spiele, wenn sie noch laufen. Eben wegen der massiven Vorteile. zB World of Warcraft, daß eigentlich ins Museum gehört technisch gesehen. PUBG hat auch einen DX12 Renderer.

zockerX
2020-05-29, 23:31:02
Es kommen ja auch DX12 Versionen auch für ältere Spiele, wenn sie noch laufen. Eben wegen der massiven Vorteile. zB World of Warcraft, daß eigentlich ins Museum gehört technisch gesehen. PUBG hat auch einen DX12 Renderer.
Das ist ja nur ein Bruchteil der Spiele. Und die Spiele, die DX11 und 12 bieten und gleichzeitig DX12 uneingeschränkt empfehlenswert ist, kann man praktisch an einer Hand abzählen. Ansonsten gibt es mit den DX12-Versionen oft Nachteile wie tw. schlechtere FPS oder weniger Stabilität. Auch nach 5 Jahren ist DX12 alles andere als angekommen. Soll es bitte auch nie, sondern Vulkan, das ganz klar besser ist.

Badesalz
2020-05-29, 23:55:22
@zockerX
Die Insider ;) sagen, daß man die Leistung von DX11 und DX12 nicht auf NV vergleichen sollte, weil die DirectX11 mit ihrem Treiber quasi hacken, um die Probs mit den draw calls abzumildern. Auf AMDs kann man das angeblich schon wesentlich besser sehen.

Was Vulcan angeht gibt es da eine kommerzielle Demo die sich Doom Eternal nennt und auch wenn sowas stumpfsinniges schon länger nicht mehr mein Genre ist, zeigt das sehr wohl wo welche Limits liegen und was alles bei wieviel FPS pro "Teraflop" möglich sind, wenn die API und die Engine TOP sind.

-=Popeye=-
2020-05-30, 00:06:35
Hier stand Unsinn.

Bitte löschen, Danke.

hq-hq
2020-05-30, 00:52:39
Das kapieren die einfach nicht. Die spielen irgendeinen Softwaremüll @DX11 der letzten Jahre und denken die CPU würde limitieren. Dabei langweilt die sich tatsächlich zu tode weil miserables Multithreading oder Overhead zum Erbrechen.


aber so ein dicker Comet Lake mit ordentlich RAM OC auf z.B. alten (und heute so günstigen) B-DIEs könnte aber in so einem Fall schon helfen oder :biggrin:

DX11 only wär mir jetzt egal wenn das Game Spaß macht

- ergibt doch keinen Sinn die (schwindende) Stärke von Intel so anzugreifen, es bleibt ja doch ein Pluspunkt wenn ein "müllig" programmiertes Game damit besser läuft


@Lowkey

hab mal nachgeschaut welches Board damals bei den Sub-Timings einen guten Job erledigt hat, das war ein ASUS ROG Maximus XI Extreme.
Natürlich zusammen mit einem B-Die Kit (und einem 9900k).

zockerX
2020-05-30, 01:12:12
@zockerX
Die Insider ;) sagen, daß man die Leistung von DX11 und DX12 nicht auf NV vergleichen sollte, weil die DirectX11 mit ihrem Treiber quasi hacken, um die Probs mit den draw calls abzumildern. Auf AMDs kann man das angeblich schon wesentlich besser sehen.
Die Insider ;) sagen auch, dass AMD seit Jahren kein Highend liefert und der Marktanteil gering ist. Wäre also schön wenn du mal wieder in die Realität der Praxis kommst anstatt immer an Theorien zu verharren. :wink:

MiamiNice
2020-05-30, 01:57:23
NV hackt deren eignene Treiber? Jetzt kann ich jedenfalls beruhigt schlafen gehen. Ich habe von 17 Uhr bis eben mit nem Mate gezoggt. Und ihr so :wink::tongue:
Aber man merkt der Frustlevel steigt ^^
Gn8


Das ist wirklich Amüsant, du scheinst keine Ahnung zu haben. :biggrin:

Ja, das ist wahrlich sehr amüsant. Schreibt man btw. klein :tongue:

Complicated
2020-05-30, 08:27:45
DX11 ist Nvidias eigener Treiber? Man kann auch das Fanboytum übertreiben.

Lowkey
2020-05-30, 08:50:38
@hq-hq

Nach dem z170 Extreme wollte ich so ein Board nicht und das Apex kam später. Mit dem Gene XI und B-DIE kommt man nur mit 8GB Riegeln hoch. Für 32gb braucht es dann ein Board mit 4x 8gb Riegeln. 16gb doppelseitig mit B-DIE kommen nicht so hoch.


Das Kernproblem jeder Hardware ist doch, dass es 3-4 Jahre dauert, bis die passende Software flächendeckend da ist. Und dann kostet die erforderliche Hardware nur einen Bruchteil.

dargo
2020-05-30, 08:50:39
Im Gegenteil, andere kapieren nicht, dass DX11 immer noch der absolute Standard ist und sich das so schnell auch nicht ändern wird.
Ich habe keine Ahnung was ihr so spielt. Wenn ich meine Games 2019/2020 so überblicke sehe ich kaum noch DX11. GRID 2019, SotTR, Division 2, Battlefield 5, Ghost Recon Breakpoit, Forza Horizon 4, Gears 5, Metro Exodus, Control, Detroit Become Human, Doom Eternal, Red Dead Redemption 2, Star Wars Jedi Fallen Order. Bis auf Letzteres alles mit DX12 bzw. Vulkan angespielt/durchgespielt und alles läuft bestens. Jedi Fallen Order ist zwar DX11, bis auf eine Stelle im Spiel (Bogano hieß glaube ich dieser Planet) gab es nichts was irgendwo im CPU-Limit lag. Korrekterweise ist es eher ein API bzw. Treiber-Overhead Limit. Aber wahrscheinlich spiele ich wieder die falschen Games. :rolleyes:

Und die Spiele, die DX11 und 12 bieten und gleichzeitig DX12 uneingeschränkt empfehlenswert ist, kann man praktisch an einer Hand abzählen.
What? Ich habe hier keinen einzigen Fall wo ich so eine Behauptung aufstellen würde. Was habt ihr für kaputte Systeme? Keine Frage... es gibt sicherlich einzelne Fälle wo eine DX12/Vulkan Implementierung nachträglich schlecht umgesetzt wurde. Aber wenn ein Spiel von Anfang an DX12 und/oder Vulkan zusätzlich bietet kenne ich hier keinen Fall wo in diesem Fall DX11 im Vorteil wäre.

Badesalz
2020-05-30, 10:52:06
Die Insider ;) sagen auch, dass AMD seit Jahren kein Highend liefert und der Marktanteil gering ist. Wäre also schön wenn du mal wieder in die Realität der Praxis kommst anstatt immer an Theorien zu verharren. :wink:Das interessiert nen feuchten, wenn überhaupt, wenn ein Laie Systemhacks ins Feld führt um Systeme zu vergleichen. Komm damit klar. DX12 läuft besser.

DX11 ist Nvidias eigener Treiber?Was quatscht du da für Schwachsinn?

MiamiNice
2020-05-30, 11:23:41
DX12 läuft besser.



Seit wann den das wo doch im jedem 2. Gametest steht läuft besser unter DX11?
Was geht den mit euch ab? Kommt ihr aus einer fernen Realität? :biggrin:
Mal im ernst - ist dieses Forum irgendwie multidimensional?

€: Irgendwie haben AMD User eine andere Wahrnehmung, anders ist das, für mich, kaum noch zu erklären. So permanent trollen und mit Unwissenheit glänzen kann doch kaum serious sein.

Macht auch keinen Sinn. Entspannten Tag euch allen :ubeer:

dargo
2020-05-30, 11:28:18
Seit wann den das wo doch im jedem 2. Gametest steht läuft besser unter DX11?
Was geht den mit euch ab? Kommt ihr aus einer fernen Realität?
Mal im ernst - ist dieses Forum multidimensional?
Das sagt der Richtige. ;D Vielleicht sollte man langsam Geforce-/ und Radeon-Systeme trennen wenn Nvidia es nicht auf die Reihe bekommt. Wobei ich mir größere Probleme unter DX12/Vulkan mit Turing kaum vorstellen kann. Pascal und Maxwell könnten hier durchaus größere Baustellen sein.

Edit:
Aber du kannst uns sicherlich mit Links erleuchten welche Gametests 2019 + 2020 von DX12/Vulkan abraten.

Paar Beispiele aus 2020:
https://www.computerbase.de/2020-04/ghost-recon-breakpoint-vulkan-benchmark/
https://www.computerbase.de/2020-03/the-division-2-warlords-of-new-york-benchmark-test/
https://www.computerbase.de/2020-02/rainbow-six-siege-benchmark-test/#abschnitt_directx_11_oder_vulkan__je_nach_hardware_unterschiedlich_gut
https://www.computerbase.de/2020-01/monster-hunter-world-iceborne-benchmark-test/2/#abschnitt_directx_11_vs_directx_12__amd_und_nvidia_schneiden_unterschiedlich_ab

MiamiNice
2020-05-30, 11:33:04
Vielleicht sollte man langsam Geforce-/ und Radeon-Systeme trennen

Du bist in einem Intel Thread ...
Mit anderen Worten: Hier braucht man keine AMD Karte, die CPUs haben auch so genug Power.

Hab nen sonnigen Tag :smile:

dargo
2020-05-30, 11:34:16
Du bist in einem Intel Thread ...

Wen willst du jetzt wieder verkackeiern?


€: Irgendwie haben AMD User eine andere Wahrnehmung, anders ist das, für mich, kaum noch zu erklären. So permanent trollen und mit Unwissenheit glänzen kann doch kaum serious sein.

Hättest du eine Radeon im System würdest du uns auch mit deinem Halbwissen nicht mehr beglücken.

MiamiNice
2020-05-30, 12:00:28
Ich habe tatsächlich Deine Links durchgeklickt. Großer es liegt einfach an anderen Spielen. Das Zeug was Du da verlinkt hast würde ich im Traum nicht spielen. Vielleicht sollte man die Diskussion in Zukunft anders führen. Ich kann Dir sagen in meiner Spieleauswahl ist es so wie ich und die anderen hier darlegen. Du schienst was anderes zu spielen, scheinbar auch alle anderen AMD User. Vielleicht wäre es interessant einen Thread zu eröffnen mit einem Poll um das mal zu klären. Könnte eventuell interessant sein.

Natürlich nur unter dem Umständen das Du nur nicht einfach irgendwelche Tests von Spielen postest die weder Du noch sonst jemand spielt.

Jetzt aber einen sonnigen Tag :)