Archiv verlassen und diese Seite im Standarddesign anzeigen : Kern-Skalierung in Games (Dualcore vs. Triplecore vs. Quadcore)
dargo
2012-05-07, 23:08:13
Das wundert mich generell bei vielen Spielen. In dargos Messungen sind die Triple-Cores meist extrem schlecht - obwohl z.B. die Phenom II X3 in vielen Reviews vergleichsweise gut gegenüber anderen DCs abschneiden.
Woran könnte das wohl liegen... :uponder:
Dieser Thread ist dir bekannt? :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213
Undertaker
2012-05-08, 08:41:34
Oh, nein, das hatte ich nicht mitbekommen. Das erklärt natürlich einiges. ;)
Hier wird das auch wieder angesprochen – Nvidia wurde erneut darauf hingewiesen:
http://extreme.pcgameshardware.de/nvidia-themenabend-05-2012/216818-ein-paar-fragen.html
MfG,
Raff
dargo
2012-05-08, 21:47:38
Hier wird das auch wieder angesprochen – Nvidia wurde erneut darauf hingewiesen:
http://extreme.pcgameshardware.de/nvidia-themenabend-05-2012/216818-ein-paar-fragen.html
Mir kommt das so vor als ob man es aussitzen will.
So ganz unrecht hat er aber nicht. Keiner wird sich aktuelles High-End (wenn man davon aktuell sprechen kann;)) mit einer Dualcore-CPU ohne HT kombinieren. Von daher erledigt sich das Problem auf Dauer von selbst. Schade nur für die ganzen User die noch nicht auf 4 Core/Thread CPU umsteigen wollen/können. Man muss natürlich dazu sagen, dass der NV-Treiber aus 4 Cores/Threads mehr rausholt als der AMD-Treiber. Schöner wäre es natürlich trotzdem wenn die Skalierung bei DCs/TCs bei NV dem AMD-Treiber ähneln würde.
Ronny145
2012-05-08, 21:52:06
Es sind doch nicht nur High-End GPUs betroffen, oder? Was ist mit Performance Karten? Diese krasse Benachteiligung darf einfach nicht sein.
Knuddelbearli
2012-05-08, 22:04:06
naja ich hatte zB nen phenom 2 x3 720 zusammen mit eienr 480 und ahbe mich dann lange gewundert wieso das soviel schlechter läuft als vorher mit der 5870 ( die eingegangen ist )
Nomadd
2012-05-13, 16:50:58
Hallo,
mal etwas OT:
wie heißt DIE Seite, wo man CPUs untereinander vergleichen kann?
Natürlich gibt es viele solcher Seiten, aber es gibt eine sehr bekannte, die auch oft hier gepostet wird. Da kann man dann einfach die entsprechenden CPUs auswählen und vergleichen...
Für einen Tipp bzw. Link wäre ich sehr dankbar ;)
Rubber Duck
2012-05-13, 17:00:26
Meinst du die:
http://www.anandtech.com/bench/Product/289
Nightspider
2012-05-23, 03:22:45
Hey dargo,
kannst du bitte einen Test von Diablo3 machen?
Das wäre toll. :)
dargo
2012-05-23, 13:13:33
Ist leider nicht mein Genre.
Zergra
2012-05-27, 15:20:03
Gab es so einen diese Test schon mit einer AMD Grafikkarte ? Habe mal gelesen das es an NV liegt ?
schreiber
2012-05-27, 15:57:46
Habe mal gelesen das es an NV liegt ?
Jup, das macht den Thread hier nahezu wertlos.
dargo
2012-05-27, 18:31:18
Gab es so einen diese Test schon mit einer AMD Grafikkarte ? Habe mal gelesen das es an NV liegt ?
Dass was an NV liegt? Die überproportionale Skalierung mit 4 Threads?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213
Zergra
2012-05-27, 19:51:32
Dass was an NV liegt? Die überproportionale Skalierung mit 4 Threads?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213
Aso stimmt das hatte ich mal gelesen, finde die 3 Kerne Lustig, AMD + NV ist soviel schlechter als Intel + NV oder AMD + Ati
Knuddelbearli
2012-05-27, 22:11:38
? nein ist quatsch
betrifft auch intel
unter 4 kerne ist AMD ( Graka ) immer! vorzuziehen
dargo
2012-05-27, 22:14:45
unter 4 kerne ist AMD ( Graka ) immer! vorzuziehen
Ich würds anders formulieren. Unter 4 Threads...
Ronny145
2012-05-27, 22:24:32
Ob die Nvidia Schwäche auch mobile GPUs betrifft? Im mobile Bereich sind Zweikerner noch eher anzutreffen, ein mobile SB/IVB Dualcore hat eigentlich gut power. Die Schwäche bei diesen CPUs wäre nicht so prickelnd.
dargo
2012-05-27, 22:43:02
Es ist reine Treibersache. Mich würde es schon etwas wundern wenn NV bei den Mobile-Treibern den Compiler anders ausrichten würde.
Knuddelbearli
2012-05-28, 01:31:49
jetzt wundert es mich zumindest nichtmehr wieso mein Notebook mit P8x00 und GT 9600M so abkackt. nächster kauf wird jedenfalls im notebook kein NV mehr ...
dargo
2012-05-28, 01:35:06
jetzt wundert es mich zumindest nichtmehr wieso mein Notebook mit P8x00 und GT 9600M so abkackt. nächster kauf wird jedenfalls im notebook kein NV mehr ...
Naja... man sollte ohne einen Gegentest nicht gleich den Teufel an die Wand malen. In Notebooks werden extrem kastrierte GPUs sowohl was die GPU als auch die Bandbreite angeht verbaut. Da ist es nicht verwunderlich, dass diese im Vergleich zu Desktopvarianten stark einbrechen.
Hugo78
2012-05-28, 03:01:22
Wenn NV mit Fokus auf mindestens 4 Threads optimiert und dabei mehr Leistung rausbekommt,
als wenn sie auch noch 2 und 3 Threads berücksichtigen, dann ist das nur logisch, weil zeitgemäss.
Denn selbst ein nur 1,2GHz langsamer, mobiler Stromspar Core-i3-330UM, also eine CPU der vorletzten Gen.,
als auch die damaligen Einsteiger CPUs a la Core i3-350M, die heute in 350€ Billig Notebooks stecken, sind schon 2C/4T.
Und für den Dektop wird sich heute auch keiner mehr einen Celeron oder Pentium kaufen, sofern er was zocken will.
Knuddelbearli
2012-05-28, 05:26:55
klar aber schlechter als ein HD4000 am desktop dürfte die 9600M nie sein :-/
Hugo78 du redest dir wohl alle pro nv ...
heute kauft sich das niemand mehr das stimmt, aber was ist mit den schon gekaufte notebooks?
ne 9500 ( was einer 9600M entspricht ) + Core2 sind heute sicher nicht up to date aber in 1300 mit medium und low details ist zumindest am desktop damit noch fast alles drinnen,
auf meinem notebook läuft aber nichtmal diablo3 mit allem auf minimum und jetzt habe ich zumindest einen verdacht woran das liegen könnte
wo bekommt man am besten nen schön alten treiber her? und ist beim downgraden was besonderes zu beachten?
Undertaker
2012-05-28, 10:18:39
Immer langsam. Also erstmal sind die Einbußen a) im CPU-Limit, b) vor allem bei Triple-Cores extrem und c) noch nicht ausführlich untersucht (sind solche alten GPUs überhaupt betroffen?).
Und ja, es ist durchaus denkbar das die HD 4000 der 9600M zum Teil doch schon spürbar überlegen ist. Eine 9600 GT aus dem Desktop ist erheblich schneller als das Mobilmodell.
Knuddelbearli
2012-05-28, 10:25:59
ja sagte ja selber die 9600M entspricht der 9500 ohne M
Undertaker
2012-05-28, 11:08:21
Überlesen. OK, die 9500 GT und 9600M GT liegen zumindest recht nahe beieinander (solange bei der 9600M kein DDR2 verbaut wurde, leider häufig der Fall). Sry für das OT-Gesabbel, dargo. ;)
dargo
2012-05-28, 11:43:41
Wenn NV mit Fokus auf mindestens 4 Threads optimiert und dabei mehr Leistung rausbekommt,
als wenn sie auch noch 2 und 3 Threads berücksichtigen, dann ist das nur logisch, weil zeitgemäss.
Das tun sie auch im Vergleich zu AMD-Karten.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9273195&postcount=71
Trotzdem hat das imo einen faden Beigeschmack weil der Einbruch mit 2-3 Threads schon sehr stark ist.
Immer langsam. Also erstmal sind die Einbußen a) im CPU-Limit...
Schau mal hier...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9317448&postcount=82
Der 2Ghz Lynnfield liefert mit 2 Threads nur 20fps. Da liegst du selbst mit deutlich schwächeren Grafikkarte als einer GTX480 immer noch extrem im CPU-Limit.
b) vor allem bei Triple-Cores extrem...
Nicht unbedingt. 4C/4T liefert in "The Run" größer Faktor 3 Frames als 2C/2T. Ok... bei 2C/2T könnte die Grundlast schon stark einwirken.
Undertaker
2012-05-28, 12:41:08
Schau mal hier...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9317448&postcount=82
Der 2Ghz Lynnfield liefert mit 2 Threads nur 20fps. Da liegst du selbst mit deutlich schwächeren Grafikkarte als einer GTX480 immer noch extrem im CPU-Limit.
Na hab ich doch auch geschrieben? :confused:
Wirklich sehr interessante Benchmarks übrigens. Der Unterschied zwischen 3C/3T und 3C/6T ist wirklich mal erstaunlich. Mich würde jetzt noch interessieren, ob ein 8C/8T SBe auch langsamer wäre als ein 4C/4T SBe, nur wer kann das schon testen. ;)
dargo
2012-05-28, 13:10:22
Mich würde jetzt noch interessieren, ob ein 8C/8T SBe auch langsamer wäre als ein 4C/4T SBe, nur wer kann das schon testen. ;)
Wäre in der Tat interessant. Ich würde aber drauf tippen, dass es nicht der Fall ist. Denn dann müsste ein AMD X6 auch langsamer sein als ein AMD X4, was nicht der Fall ist. Das liegt mit Sicherheit an der Threadverwaltung... echt und virtuell.
Edit:
Ich habe noch eine Idee.
Ich würde gerne mit 4C/5T und 4C/6T testen. Weiß aber nicht wie ich das einstellen soll. 3C/5T geht über msconfig. 4C/7T wird dann wohl auch gehen. Über den Taskmanager mit der Zugehörigkeit festlegen hatte ich ja starke Stotterer als ich 4C/4T zugewiesen habe (gebootet mit 4C/8T). Mir fällt aber gerade ein ich habe das Spiel nicht neu gestartet. Vielleicht kamen dadurch die Stotterer? :uponder: Beim Neustart vom Game wird wieder auf alle Cores zugegriffen.
Ex3cut3r
2013-06-03, 09:01:38
Hallo, ich bin grade von diesem Skalierungsproblem betroffen, bin von einer GTX 260 auf eine GTX 660 umgestiegen, ich benutze nur einen alten P2 X3 720 @ 3.6 ghz, Habe starke fps schwankungen in diversen Games, Tomb Raider 2013 z.B grenzwertig dümpelt mit 20 FPS rum, grafikkartenauslatung 25% dabei. Das ich im CPU limit bin ist mir klar, aber so stark, damit hatte ich dann nocht gerechnet und kam mir sehr komisch vor,
Die alte GTX 260 hatte das Prob wohl nicht, weil ich weiß das dort nie unter 35 Fps gekommen, und zwar nur auf dx10 dafür mit allem am anschlag und fxaa.
Werde die Grafikkarte einschicken, und danm berichten obs besser geworden ist mit Amd karte.
Vergleich zunächst mal die gleichen Einstellungen, denn zusätzliche Details bedeuten auch für die CPU mehr Aufwand. Aber vermutlich klemmt's echt an der Thread-Geschichte – 4 sollten's für eine GeForce schon sein.
MfG,
Raff
Ex3cut3r
2013-06-03, 09:34:06
Jo, genau das wirds wohl sein, aber in machen Games gehts ja noch, grid 2, bioshock infinte, far cry 3, Max Payne 3 liefen gut, crysis 3, erste Mission katastrophe, gut das frisst cpus zum frühstück, denke das könnte da normal sein, aber der nächste fall, war dann Tomb Raider 2013...
Nja wenn ich mir die bechmarks von dargo ansehe , sieht man es ja deutlich nvidia mit 3 kernen -> fail. ^^ :/
hätte ich das bloß vorher gewusst. Eine Nvidia werde ich so schnell nicht mehr einbauen...
naja danke dir Raff fürs comment.
Du könntest auch einfach deine CPU gegen was Modernes tauschen, dann rennt die GeForce. :D Wie wär's mit einem günstigen FX-6350? Der pumpt 6 Threads durch und ist damit ein guter Spielpartner für die GTX 660 http://www.pcgameshardware.de/FX-6350-CPU-256517/Tests/Test-AMD-FX-6350-FX-4350-1068215/
MfG,
Raff
Ex3cut3r
2013-06-03, 09:47:24
Passt der denn noch auf mein Board? mit ddr2 ram? ma770-ud3, sry für die dumme frage, könnte natürlich auch googeln. ^^
edit: ne der passt nicht mehr ^^ muss dann auch ein neues board und ram kaufen, und dafür habe ich momentan kein geld mehr.
ne die Amd graka wird erstmal bessere wahl sein, denke ich, werde wohl erst später cpu, ram mobo
tauschen können.
Bin ja jetzt auch nicht so einer der immer high fps haben muss, gebe mich auch mit 25/30 fps min ab, aber wie das aktuell mit nvidia graka ist, rutscht unter 22-18 fps ist das so, nicht tragbar selbst für mich, und da wird mit der amd graka hoffentlich vieles besser, in Verbindung mit dem tripple core.
Wenns danach auch nicht besser ist, beende ich meine pc gaming karriere :D ne quatsch dann heißts sparen für neue pc-teile ^^
Knuddelbearli
2013-06-03, 15:23:25
nein mit ddr2 leider nicht müsste man schauen was ein P2 X6 so kostet,
und ja NV karten bzw der Treiber hat mit 3 Threads ein problem, gibt dazu auch 2 Threads hier im Forum
Ex3cut3r
2013-06-03, 20:59:11
Könnte PCGH, da nicht nochtmal nachfragen? :D es kann doch nicht von Nvida sein, dass die das so stehen lassen, über Jahre schon...
dann wäre mein Problem gelöst :D
Aber wer weiß schon, wie das in Spiele Auflösung in 1080p aussieht? dargos Tests sind ja mit 800x600 gemacht.
Ich glaube ich werde die GTX, wohl aber doch behalten, und dann später mobo, ram, cpu austauschen. Ach KA, die letzen Tage, nach dem einbau der Graka waren echt hart für mich, normalerweise sollte man sich ja erfreuen, aber das könnte ich nicht so wirklich, danke Nvidia! ^^
dargo
2013-06-12, 13:26:46
Aber wer weiß schon, wie das in Spiele Auflösung in 1080p aussieht? dargos Tests sind ja mit 800x600 gemacht.
Kurze Nebenbemerkung... wenn deine CPU schon bei 800x600 aus dem letzten Loch pfeift ändert sich bei Full-HD daran gar nichts. Die fps könnten höchstens noch tiefer fallen wenn das GPU-Limit stärker ausfällt als deine min. fps der CPU.
Knuddelbearli
2013-06-12, 13:52:09
naja 800x600 ist aber 4:3 also nicht optimal
Jo, am besten man testet in 1.280x720, um den üblichen Sichtradius bei wenigen Bildpunkten zu erhalten. Dazu eine schnelle GeForce, um eine Frontend-Limitierung auszuschließen.
MfG,
Raff
Knuddelbearli
2013-06-12, 13:56:59
letzteres sehe ich nicht so, eine titan wird wohl eher selten mit einem dualcore verbaut werden. Und wenn dafür dann zB eine 660 aufgrund des Frontend limitiert ist es nunmal so
Tja, ich sehe das eng – entweder ich teste nur die CPU nebst Infrastruktur ... oder ich teste die Grafikkarte. Mischmasch betreibt man, wenn die exakte Leistung einer einzelnen Komponente nicht so wichtig ist oder wenn man (wie private Tester) keine andere Wahl hat.
MfG,
Raff
YfOrU
2013-06-12, 14:00:18
letzteres sehe ich nicht so, eine titan wird wohl eher selten mit einem dualcore verbaut werden. Und wenn dafür dann zB eine 660 aufgrund des Frontend limitiert ist es nunmal so
Interessiert aber nicht wenn es um die Ermittlung der reinen CPU Leistung geht. Bei der GPU verhält es sich genau umgekehrt. Anders ist es überhaupt nicht möglich später unbeeinflusste Schnittmengen zu bilden und genau darum geht es. Die Benchmarks der Teilkomponenten müssen dafür maximal unabhängig sein. Ansonsten müsste jede mögliche Konfiguration separat getestet werden -> nahezu unendlicher Aufwand.
Recht gebe ich dir in so weit das es grundsätzlich schön wäre exemplarisch drei ausgewählte Konfigurationen zur Illustration mitzutesten (Mainstream, Performance, Highend). Würde das Verständnis für die ermittelte Skalierung (Abhängigkeiten) in beide Richtungen (CPU und GPU) für viele Leser von Artikeln vereinfachen.
Knuddelbearli
2013-06-12, 14:23:32
es ging Raff um genau eine spezielle Schwachstelle der GPU, nicht um die Leistung allgemein.
und da sehe ich das eben nicht so, wenn es keine schnelle GPU mit dieser Schwachstelle gibt muss man halt die schnellstmögliche nehmen die diese Schwachstelle besitzt, und nicht diese Schwachstelle dann einfach komplett ignorieren
YfOrU
2013-06-12, 14:32:53
und da sehe ich das eben nicht so, wenn es keine schnelle GPU mit dieser Schwachstelle gibt muss man halt die schnellstmögliche nehmen die diese Schwachstelle besitzt, und nicht diese Schwachstelle dann einfach komplett ignorieren
Genau deshalb hilft hier nur die praktische Überprüfung der ermittelten optimalen Skalierung anhand von Beispielkonfigurationen.
dargo
2013-06-12, 16:36:57
naja 800x600 ist aber 4:3 also nicht optimal
Ist vernachlässigbar ob du jetzt 800x600 nimmst oder 800x450. Beim letzteren steigt eher die CPU-Last noch minimal an. Und selbst wenn sie das nicht tun sollte... ob die CPU jetzt zu 100% oder 98% limitiert ist auch wayne.
dargo
2013-06-29, 15:10:26
Crysis 3 ist fertig.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973307&postcount=3
Ein Paradebeispiel schlechthin fürs Multithreading. X-D Ein Dualcore mit 2 Threads ist gnadenlos am Ende. Selbst ein Quadcore @Lynnfield kratzt hier mit Mühe an den 30fps und das trotz OC @3,7Ghz. :usweet: Das dürfte das absolute Worst Case Szenario in Crysis 3 sein. :D
Undertaker
2013-06-29, 15:15:14
Heftig. :D Aber noch eine Bemerkung:
der Dualcore lässt sich nicht weit genug hochtakten. Hochgerechnet müsste er mit 6084Mhz takten.
Hmm, da habe ich meine Zweifel. Der Dual-Core ist ganz einfach stärker von der Grundlast-Problematik betroffen (überproportionale Taktskalierung!). Wie man an 4,0 GHz DC vs. 2,675 GHz TC sieht, ist die Performance bei gleichem Produkt aus Kernzahl und Takt absolut identisch. D.h. der Dual-Core dürfte imo "schon" bei 5,35 GHz die gleiche Leistung besitzen.
dargo
2013-06-29, 15:49:24
Hmm, da habe ich meine Zweifel. Der Dual-Core ist ganz einfach stärker von der Grundlast-Problematik betroffen (überproportionale Taktskalierung!). Wie man an 4,0 GHz DC vs. 2,675 GHz TC sieht, ist die Performance bei gleichem Produkt aus Kernzahl und Takt absolut identisch. D.h. der Dual-Core dürfte imo "schon" bei 5,35 GHz die gleiche Leistung besitzen.
Die Grundlast spielt bei diesen tiefen Frames schon ein große Rolle, das ist klar. Sieht man auch wunderbar an der überproportionalen Skalierung von QC vs. DC. Ich erinnere hier gerne auch daran, es ist kein Nvidia-Grafiktreiber. :wink: Es ist bei dem recht großen Abstand zu den 21,3fps vom QC etwas schwer mit der Hochrechnung. Aber wie kommst du jetzt genau auf die 5,35Ghz beim DC?
Edit:
Kleiner Nachtest:
3690Mhz @QC resultieren in 30,7 avg.fps. Ergo 44% mehr Frames bei 38% mehr Takt. Selbst hier macht sich die Grundlast noch recht gut bemerkbar. Ja... für die 21,3fps des 2675Mhz QC wird der DC weniger als 6084Mhz brauchen. Die Frage ist bloß wieviel genau?
Edit 2:
Das ist auch lustig, vorallem für die Fraktion "Full-HD wäre immer gpu-limitiert". :ulol:
Lynnfield @3,7Ghz
HD7970 @1050/1500Mhz
720p 1xAA/1xAF, max. Details
http://i.imagebanana.com/img/1fbn1cii/thumb/crysis32013062916254597.jpg (http://www.imagebanana.com/view/1fbn1cii/crysis32013062916254597.jpg)
1080p 4xMSAA/16xAF, max. Details
http://i.imagebanana.com/img/in0fclok/thumb/crysis32013062916262145.jpg (http://www.imagebanana.com/view/in0fclok/crysis32013062916262145.jpg)
Das muss ich mir mal antackern. :D
PS: mit einer Geforce Titan wäre diese Szene selbst in 1440p 4xMSAA/16xAF, max. Details bei mir vollkommen im CPU-Limit. X-D
Knuddelbearli
2013-06-29, 16:39:27
super arbeit dargo!
Wenn ich bisschen mehr Geld hätte würde ich dir ja nen Xenon 16 Kern spendieren XD
Undertaker
2013-06-29, 16:57:33
Die Grundlast spielt bei diesen tiefen Frames schon ein große Rolle, das ist klar. Sieht man auch wunderbar an der überproportionalen Skalierung von QC vs. DC. Ich erinnere hier gerne auch daran, es ist kein Nvidia-Grafiktreiber. :wink: Es ist bei dem recht großen Abstand zu den 21,3fps vom QC etwas schwer mit der Hochrechnung. Aber wie kommst du jetzt genau auf die 5,35Ghz beim DC?
Die 5,35 GHz wären genau die doppelte Taktrate des 2,675 GHz Quad-Cores, perfekte Skalierung vorausgesetzt. Dual auf Triple skaliert ja offensichtlich optimal (2,675 TC = 4,0 GHz DC). Interessant wäre jetzt noch der Quad-Core bei 2,0 GHz; wenn meine Vermutung stimmt, landet der ebenfalls bei ~14 fps. Die Grundlast hätte man so auch ausgeklammert, da die theoretische Gesamtleistung (Produkt aus Takt und Kernzahl) bei DC, TC und QC identisch ist.
dargo
2013-06-29, 17:04:26
Die 5,35 GHz wären genau die doppelte Taktrate des 2,675 GHz Quad-Cores, perfekte Skalierung vorausgesetzt. Dual auf Triple skaliert ja offensichtlich optimal (2,675 TC = 4,0 GHz DC). Interessant wäre jetzt noch der Quad-Core bei 2,0 GHz; wenn meine Vermutung stimmt, landet der ebenfalls bei ~14 fps. Die Grundlast hätte man so auch ausgeklammert, da die theoretische Gesamtleistung (Produkt aus Takt und Kernzahl) bei DC, TC und QC identisch ist.
Ah... jetzt klingelts. :tongue:
Wenn man sich länger mit dem Thema nicht beschäftigt hat fällt das Denken schwer. :D Das mit dem 2Ghz QC müssen wir lassen. Aus irgendeinem Grund bootet mein Rechner nicht mehr wenn der BCLK unter 133Mhz liegt. Früher gingen sogar 114Mhz. Deshalb habe ich auch die Mindesttaktrate von 20x 133,xxMhz genommen. Ich könnte zwar 15x 133,xxMhz nehmen, dann würden aber die Verhältnisse bei der Skalierung nicht mehr exakt passen. Wäre auch blöd.
super arbeit dargo!
Wenn ich bisschen mehr Geld hätte würde ich dir ja nen Xenon 16 Kern spendieren XD
Hehe... danke für die Blumen.
Bis Ende des Jahres dürfte ich einen i7 Haswell haben. Dann wird es massig CPU-Tests in Games 4C/4T vs. 4C/8T von mir geben. Eventuell nehme ich noch 2C/4T ins Testfeld dazu. 2C/2T ist langsam praktisch tot, das erspare ich mir dann. Und 3C/3T ist mittlerweile auch uninteressant.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.