PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : i5/i7 - Phenom II X6 Fakten statt Flames


Seiten : 1 2 3 [4] 5 6

boxleitnerb
2010-08-08, 12:28:51
Das Schlimmste finde ich nicht so sehr die Ergebnisse wie vielmehr die Tatsache, dass von den meisten Testern weder die Methoden noch die Ergebnisse hinterfragt werden. Man drückt aufs Knöpfchen und kopiert das, was rauskommt 1:1 in den Artikel. Es wird nicht auf Anomalien eingegangen, es gibt keine Kommentare zu den einzelnen Ergebnissen wo vielleicht auch mal bemerkt wird, dass das so eigentlich nicht sein kann. Schade!

dargo
2010-08-08, 12:33:23
Was ist denn da bitte nicht stimmig? Dirt2 profitiert eben von den sechs Kernen, sieht man ja auch an AMD.
Dafür hätte ich gerne einen Beweis. Aber nicht diesen Benchmarkschrott im Netz. Ich kann gerne mit meinem i5-750 testen. Einen Phenom 2 X6 User werden wir wohl hier im Forum auch finden, oder? Wer Interesse hat bitte über PN. :)

y33H@
2010-08-08, 14:39:45
Man muss bei den X6 einfach die "8core.xml" nehmen und *zack* ist ein X6 schneller als ein X4 bei gleichem Takt. Dafür muss man aber das Spiel samt Config kennen.

Gast
2010-08-08, 15:01:27
Warum geht das nicht automatisch?

Savay
2010-08-08, 15:09:18
ich würde mal darauf tippen das die erkennung dafür sicherlich 8 an das OS gemeldete Cores vorraussetzt! :wink: zwischenschritte wie 3 oder 6 kerne werden da sicherlich gerne übergangen (weils ja sooooooooooooo aufwendig ist :lol:) zumal die sowieso sehr selten sind. :)

Gast
2010-08-08, 15:33:37
Das Schlimmste finde ich nicht so sehr die Ergebnisse wie vielmehr die Tatsache, dass von den meisten Testern weder die Methoden noch die Ergebnisse hinterfragt werden.
Das ist Aufgabe des Lesers. Jeder kann doch lesen - oder? Man sieht was gebencht wurde. Man sieht wie gebencht wurde. Man sieht wer gebencht hat. Wer sich blind auf eine Balkengrafik verläßt hat es imho nicht besser verdient.

Man drückt aufs Knöpfchen und kopiert das, was rauskommt 1:1 in den Artikel. Es wird nicht auf Anomalien eingegangen, es gibt keine Kommentare zu den einzelnen Ergebnissen wo vielleicht auch mal bemerkt wird, dass das so eigentlich nicht sein kann. Schade!
Es ist eben tatsächlich so. Der mündige Leser will keine geschönten Ergebnisse. Wenn ein Tester alles das wieder verwirft, was er persönlich für unwahrscheinlich hält, dann bekommt man eine Balkengrafik, die das persönliche und völlig verzerrte Weltbild des Testers widerspiegelt. Berichterstattung muß objektiv bleiben. Wenn ich 3Dmark06 starte und der Lynnfield glatte 0 Punkte erreicht, dann ist das eben so. Da will ich keine subjektive Ursachenanalyse eines voreingenommenen Testers haben.

Ich möchte gar nicht wissen wie viele PCs, auf denen gebencht wird, mit Viren und Malware verseucht sind. Glaubt nur ja nicht daß es egal ist, auf was für einem System gebencht wird. Besonders bei Grakabenchmarks beschleicht mich manchmal das Gefühl, daß da einfach munter immer die Grafikkarten durchgetauscht werden ohne zuvor Windows von einem Image komplett neu einzuspielen. Einen ähnlichen Verdacht habe ich bei CPU-Benchmarks. Da wird einfach ein Sockel AM3-System genommen und dann werden dort munter die CPUs durchgetauscht. Zwischendurch regelmäßig CMOS-Reset (Stichwort: Mikrocode)? Fehlanzeige!

Ich habe überhaupt kein Mitleid mit Leuten, die solche Balkengrafiken aus dem Internet für bare Münze nehmen. Wenn ich sehe, wie mein alter E8400 AMDs neuesten 1090T in Dirt2 abledert, dann kann ich nur sagen: Das ist wirklich zuviel des guten - bei aller Selbstverblendung - irgendwo ist die Schmerzgrenze einfach überschritten. Hier hat man die Welt der FAKTEN verlassen und bewegt sich im intel-DISNEYLAND. Ich frage mich, warum es noch keine von lustigen Clowns gesungenen und getanzten Benchmarks mit Vogelgezwitscher im WWW gibt...
http://www.youtube.com/watch?v=V_IrdS-zu48
intel ist good to mii.... intel is good to miiiiiiiiiiiiiiiii....
http://www.freegifs.de/download.php?image=kotzen/kotzen_a7cd248d027ff0e6ca8c3fb594dce6d7.gif&host=2&id=16981


Man kann inzwischen fast auf den Gedanken kommen, daß der ein oder andere freiberufliche 'Redakteur' geradezu absichtlich solche Benchmarks ins Netz stellt, um in seinem Forum aber mal wieder so richtig für Alarm zu sorgen: jeder Klick zählt. :devil:

dildo4u
2010-08-08, 15:40:48
Man muss bei den X6 einfach die "8core.xml" nehmen und *zack* ist ein X6 schneller als ein X4 bei gleichem Takt. Dafür muss man aber das Spiel samt Config kennen.
Das wurde schon gepatcht muss man nicht mehr selber machen.

http://www.techpowerup.com/reviews/AMD/Phenom_II_X6_1055T/10.html

y33H@
2010-08-08, 15:43:05
Warum geht das nicht automatisch? Weil sechs Kerne nun mal keine acht sind, wobei acht hier für 8C oder 4C/8T steht. Eventuell patcht Codemasters ja die "8core.xml" für die X6 rein, denn aktuell (v1.1) nutzen die X6 die "4core.xml".
Besonders bei Grakabenchmarks beschleicht mich manchmal das Gefühl, daß da einfach munter immer die Grafikkarten durchgetauscht werden ohne zuvor Windows von einem Image komplett neu einzuspielen.Neues Image? Unnötig, kostet nur Zeit.

@ dildo4u

Nein!
Machines with 6 cores will now use the 4-core worker map rather than the single core map

dildo4u
2010-08-08, 15:45:43
Weil sechs Kerne nun mal keine acht sind, wobei acht hier für 8C oder 4C/8T steht. Eventuell patcht Codemasters ja die "8core.xml" für die X6 rein, denn aktuell (v1.1) nutzen die X6 die "4core.xml".

@ dildo4u

Nein!
Warum ist dann der 1090T schneller als der 3.4Ghz 965?

y33H@
2010-08-08, 15:55:15
Bei TPU? Entweder wegen Turbocore oder weil die Jungs schlau waren und die "8core.xml" genutzt haben.

dildo4u
2010-08-08, 15:58:47
Ah ok Turbo hab ich vergessen naja ich hoffe die patchen das für F1 2010 gleich rein bei 24 Autos könnte es schon wichtiger werden.

y33H@
2010-08-08, 16:00:20
Die Frage hebe ich mir für die GC auf :D

dr_AllCOM3
2010-08-08, 18:30:26
Computerbase empfiehlt i5 760: http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i5-760/36/#abschnitt_fazit_und_empfehlung
Diese völlig weltfremden 800x600 Tests sind sicher nur mit drin, um die Intels zu pushen.

y33H@
2010-08-08, 18:35:21
Diese Tests zeigen, was eine CPU kann. So wie Cinebench, keine GPU als Bremse. Spiel mal mit SLI/CF oder schlicht CPU-Killer wie GTA 4, dann hast du das gleiche Resultat. Schade, dass manche dies auch nach Jahren nicht verstehen (wollen).

dildo4u
2010-08-08, 18:38:26
Mir graut es jetzt schon vor den Sandy Bridge Test's."Die CPU kann ja gar nix in Spielen" etc dabei wird sie einfach selbst von GTX 480 heftig GPU limitiert sein. :rolleyes:

Vertigo
2010-08-08, 18:40:35
Diese Tests zeigen, was eine CPU kann. So wie Cinebench, keine GPU als Bremse. Spiel mal mit SLI/CF oder schlicht CPU-Killer wie GTA 4, dann hast du das gleiche Resultat. Schade, dass manche dies auch nach Jahren nicht verstehen (wollen).
Und Tests in praxisnahen Auflösungen zeigen, was eine CPU nicht kann. Z. Bsp. das GPU-Limit verschieben. Schade, dass manche dies auch in Jahren nicht verstehen werden.

y33H@
2010-08-08, 18:43:50
Wie soll eine CPU auch das GPU-Limit verschieben? Das kann sie nicht. "Praxisnahe Auflösungen" zeigen nur, welche CPU ins Grafiklimit rennt ... spannend *gähn*

Ich verstehe ergo deine Aussage nicht.

Undertaker
2010-08-08, 18:44:29
@Vertigo: Das behauptet auch keiner. Wenn ich aber untersuchen will, wo das GPU-Limit in einem Spiel liegt, hat das mit einem CPU-Test nichts mehr zu tun. Da kann ich auch Festplatten mit SuperPi benchen oder Grafikkarten mit Word.

Vertigo
2010-08-08, 18:55:44
Wie soll eine CPU auch das GPU-Limit verschieben?

Eben.

Das kann sie nicht. "Praxisnahe Auflösungen" zeigen nur, welche CPU ins Grafiklimit rennt ... spannend *gähn*

Ich verstehe ergo deine Aussage nicht.
Du hast behauptet, dass diese Tests (800*600) zeigen, was die CPU kann. Dass sich diese Ergebnisse eben nicht auf höhere/praxisnahe Auflösungen 1:1 übertragen lassen, verschweigst du dabei. Hättest Du im Nebensatz erwähnt, dass dies nur gilt, solange man nicht ans GPU-Limit gerät, könnte man das so stehen lassen. Aber gerade da man auch mit aktuellen High-End-Karten oft genug im GPU-Limit hängen bleibt, sollte man das im Zusammenhang imo schon erwähnen.
@Vertigo: Das behauptet auch keiner. Wenn ich aber untersuchen will, wo das GPU-Limit in einem Spiel liegt, hat das mit einem CPU-Test nichts mehr zu tun. Da kann ich auch Festplatten mit SuperPi benchen oder Grafikkarten mit Word.
Ich finde solche Tests schon okay um zu zeigen, was möglich wäre, wenn die GPU nicht limitiert. Aber für mich haben sie allenfalls akademischen Wert und lassen keinesfalls Aussagen über die Situation in höheren/praxisnahen Auflösungen zu. Dafür muss man wohl oder übel in diesen Auflösungen benchen. Und wenn dann alle CPUs im Rahmen der Messgenauigkeit gleichauf liegen, dann ist das eben so. Dann kann man auch nicht von den Ergebnissen in 800*600 ausgehend pauschalisieren.

y33H@
2010-08-08, 19:07:23
Hättest Du im Nebensatz erwähnt, dass dies nur gilt, solange man nicht ans GPU-Limit gerät, könnte man das so stehen lassen. Ich erachte es nicht als nennenswert, dass eine CPU im GPU-Limit ihre Leistung nicht mehr zeigen kann. Das setze ich in diesem Thread eigentlich voraus ;)

Gast
2010-08-08, 19:43:12
es sollte vlt. mal wer mit quad cf/sli in full hd benchen und die cpu auf standardtakt lassen, ich wäre wirklich neugierig ob die ergebnisse mit 800x600 dann wirklich gleich sind

dargo
2010-08-08, 20:04:26
es sollte vlt. mal wer mit quad cf/sli in full hd benchen und die cpu auf standardtakt lassen, ich wäre wirklich neugierig ob die ergebnisse mit 800x600 dann wirklich gleich sind
Quad CF/SLI? :freak:
Dafür reicht schon eine GTX470/480 oder vergleichbare ATI in Verbindung mit beispielsweise einem i5-750. Wie oft muss eigentlich dieses Thema noch durchgekaut werden, dass CPU-Limits auch in hohen Auflösungen auftreten? Es wird langsam langweilig.

Gast
2010-08-08, 20:26:59
Du hast behauptet, dass diese Tests (800*600) zeigen, was die CPU kann. Dass sich diese Ergebnisse eben nicht auf höhere/praxisnahe Auflösungen 1:1 übertragen lassen, verschweigst du dabei. Hättest Du im Nebensatz erwähnt, dass dies nur gilt, solange man nicht ans GPU-Limit gerät, könnte man das so stehen lassen. Aber gerade da man auch mit aktuellen High-End-Karten oft genug im GPU-Limit hängen bleibt, sollte man das im Zusammenhang imo schon erwähnen.
Die CPU Leistung ist unabhängig von der Grafikkarte.
Was die CPU Leistung mindert ist der RAM o.ä.

Ein i7 mit einer Geforce 6200 genauso stark wie mit einer GTX 480.

][immy
2010-08-08, 22:42:37
Die CPU Leistung ist unabhängig von der Grafikkarte.
Was die CPU Leistung mindert ist der RAM o.ä.

Ein i7 mit einer Geforce 6200 genauso stark wie mit einer GTX 480.
stimmt zwar schon, aber mit einer gtx 480 bekommt der prozessor auch mehr zu tun.
schließlich muss du davon ausgehen das viele berechnungen, das holen von texturen von der festplatte etc alles mehr oder minder über die CPU läuft.
d.h. desto besser die grafikkarte, umso mehr druck kommt auch bei der CPU an. und um genau dies festzustellen, macht SLI/Crossfire sinn, um die CPU richtig unter druck zu setzen.
unter 800x600 mit niedrigen details bekommt die cpu relativ wenig von dem druck mit und einige einheiten auf ihr idlen vielleicht nur vor sich hin. 3d-grafik läuft schließlich nicht nur auf der GPU ab, die CPU hat auch nach wie vor ihre aufgaben.

Gast
2010-08-08, 23:15:11
Quad CF/SLI? :freak:
Dafür reicht schon eine GTX470/480 oder vergleichbare ATI in Verbindung mit beispielsweise einem i5-750. Wie oft muss eigentlich dieses Thema noch durchgekaut werden, dass CPU-Limits auch in hohen Auflösungen auftreten? Es wird langsam langweilig.

ich hab nie behauptet dass ein cpu limit in hohen auflösungen nicht auftritt, es geht nur darum dass einige leute sagen dass amd cpus mit höheren auflösungen besser klarkommen und das geht eben nur mit viel grafikpower da sonst wieder ein gpu limit herrscht

Gast
2010-08-08, 23:24:42
Bei TPU? Entweder wegen Turbocore oder weil die Jungs schlau waren und die "8core.xml" genutzt haben.
Turbo geht doch nur bis 3 Kerne, das sollte bei 4 Worker Threads dann doch größtenteils nicht der Fall sein, oder ?

Hast Du eigentlich einmal mit der 8core XML gebencht ? Gibt es Unterschiede zur 4core Version mit einem 6core ?

HOT
2010-08-09, 09:29:57
Diese Tests zeigen, was eine CPU kann. So wie Cinebench, keine GPU als Bremse. Spiel mal mit SLI/CF oder schlicht CPU-Killer wie GTA 4, dann hast du das gleiche Resultat. Schade, dass manche dies auch nach Jahren nicht verstehen (wollen).
Also wenn ich mir die meisten 800x600 Benches so ansehe, sind das oft leider Schwachsinnsergebnisse... Das zeigt in Wirklichkeit nämlich garnix. Komischerweise sind die Intels nur da massiv schneller, während sie in Anwendungsbenchmarks und Spielebenches in höheren Auflösungen eher wenig vor den AMDs sind. Zudem sind da plötzlich CPUs vorne, die weniger Takt haben und solche Scherze... Man muss sich nur mal den Ergebniswust bei ArmA2 ansehen -> http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i5-760/18/
Toll und seeehr aussagekräftig... Vor allem, weil die Ergebnisse dann in der hohen Auflösung wieder stimmen. Die meisten Spiele sind sowieso derart CPU-Lastig, dass man ruhig die Grafiklast mit drinhaben kann.

MiamiNice
2010-08-09, 09:47:11
So langsam ist der Thread nur noch zu gebrauchen wen man Kopfweh haben will. Bei den letzten Post kann man nur noch Kopf <-> Tisch machen. Jetzt wird schon mit "Praxisnähe" argumentiert um die katastrohle Leistung der AMD CPU´s zu entschuldigen. Sind das die gleichen Leute die geschrien haben weil der Fermi so vierl Strom im Furmark schluckt? Wo war da die Praxisnähe?
CPU werden nunmal so gebencht weil man so das Leistungspotenzial erkennt und das wird auch nicht erst seit dem Nehalem so gemacht ...

Was ist den hier los? DAU Treffen im 3DC oder hat das CB Kiddy Forum Ausgang?

Gast
2010-08-09, 09:50:22
Langsam schlägt der Schwachsinn der hohen Auflösung aus CB auch hier wieder ein.

Echt jetzt Junge! Timedemos und Realitätsnah in einem Satz, wie geil ist das denn?

y33H@
2010-08-09, 10:42:53
Komischerweise sind die Intels nur da massiv schneller, während sie in Anwendungsbenchmarks und Spielebenches in höheren Auflösungen eher wenig vor den AMDs sind.Ach? Dann siehst du andere Benches als ich.
Komischerweise sind die Intels nur da massiv schneller, während sie in Anwendungsbenchmarks und Spielebenches in höheren Auflösungen eher wenig vor den AMDs sind. Zudem sind da plötzlich CPUs vorne, die weniger Takt haben und solche ScherzeSchon mal was von IPC gehört? Die Core i sind nun mal klar schneller.
Gibt es Unterschiede zur 4core Version mit einem 6core ? Hatte ich doch schon gesagt, wird schneller.

dargo
2010-08-09, 10:51:31
Hatte ich doch schon gesagt, wird schneller.
Hast du da mal genauere Zahlen im vollständigem CPU-Limit parat? 5% ist nämlich auch schneller. ;)

y33H@
2010-08-09, 10:53:54
Da ich eh endlich mal BC2 nachtesten wollte, werfe ich auch gleich CMRD2 an =)

dargo
2010-08-09, 10:54:57
Oki. =)

OT71
2010-08-09, 10:54:59
So langsam ist der Thread nur noch zu gebrauchen wen man Kopfweh haben will. Bei den letzten Post kann man nur noch Kopf <-> Tisch machen. Jetzt wird schon mit "Praxisnähe" argumentiert um die katastrohle Leistung der AMD CPU´s zu entschuldigen. Sind das die gleichen Leute die geschrien haben weil der Fermi so vierl Strom im Furmark schluckt? Wo war da die Praxisnähe?
CPU werden nunmal so gebencht weil man so das Leistungspotenzial erkennt und das wird auch nicht erst seit dem Nehalem so gemacht ...

Was ist den hier los? DAU Treffen im 3DC oder hat das CB Kiddy Forum Ausgang?


also ich bekomme nur kopfweh wenn ich deinen überheblichen schrott lese :rolleyes:

Gast
2010-08-09, 10:59:05
also ich bekomme nur kopfweh wenn ich deinen überheblichen schrott lese :rolleyes:
Achso, neuerdings ermittelt man die CPU Leistug durch Furmark und die GPU Leistung durch Excel. :lol:

DeadMeat
2010-08-09, 11:04:22
Also wenn man die Unterschiede fast nur bei niedriger Auflösung oder Benchmarks sehen kann, und man zusätzlich keine Enthusiast oder gar 2 Karten drinnen hat (mit anderen Worten nahes GPU Limit):
Welchen Grund gäbe es für mich dann 100+ Euro oder mehr für eine Core Plattform auszugeben (Außer evtl Verbrauch)?

Edit: Ernste Frage, ich Benche nicht und hab eine 5850 im Rechner, aktuelle AM3 Plattform mit 95w CPU.

Ronny145
2010-08-09, 11:09:38
Also wenn man die Unterschiede fast nur bei niedriger Auflösung oder Benchmarks sehen kann, und man zusätzlich keine Enthusiast oder gar 2 Karten drinnen hat (mit anderen Worten nahes GPU Limit):
Welchen Grund gäbe es für mich denn 100 Euro mehr für eine Core Plattform auszugeben (Außer evtl Verbrauch)?


Wenn Leistung gefragt ist kann sich der Core deutlich absetzen. Natürlich bietet AMD momentan meist das bessere P/L Verhältnis, anders geht es nicht. Schließlich muss AMD die langsamere CPU unters Volk bringen, geht nur über den Preis. In Starcraft 2 hält laut PCGH ein i5-750 ohne Turbo den 965BE in Schach, auch in HD Auflösung. Die beiden i5 Quadcores von Intel bieten so gesehen ein ähnlich gutes P/L Verhältnis.

Undertaker
2010-08-09, 11:22:15
Also wenn ich mir die meisten 800x600 Benches so ansehe, sind das oft leider Schwachsinnsergebnisse... Das zeigt in Wirklichkeit nämlich garnix. Komischerweise sind die Intels nur da massiv schneller, während sie in Anwendungsbenchmarks und Spielebenches in höheren Auflösungen eher wenig vor den AMDs sind.

Das ist nicht komisch, sondern nennt sich GPU-Limit. In Anwendungen sind die Unterschiede in erster Linie deshalb geringer, da dort das überlegene Cachesystem der Core-Reihe kaum Auswirkungen hat - erkennt man gut, wenn man sich die Unterschiede zwischen taktgleichen Phenon II und Athlon II Modellen in Spielen und Anwendungen betrachtet - Spiele gieren geradezu nach großen und schnellen Caches.

Die meisten Spiele sind sowieso derart CPU-Lastig, dass man ruhig die Grafiklast mit drinhaben kann.

Der Satz ist ein Widerspruch in sich :freak:. Wenn Spiele so CPU-lastig sind, würden wir exakt die 800x600 Ergebnisse auch in höheren Auflösungen sehen, da die Grafiklast eben keinerlei Einfluss hätte. Das ist teils der Fall, teils aber auch nicht - abhängig von der Kombination aus CPU, GPU, Spiel, Settings und konkreter Szene. Dort wo es der Fall ist, also eine vollständige CPU-Limitierung auftritt, können wir in vollkommen beliebiger Auflösung benchen. In anderen Fällen braucht es die niedrigst-mögliche, um somit das Performancepotential der CPU z.B. für eine zukünftige Kombination mit einer stärkeren GPU zu zeigen.

Headjunkie
2010-08-09, 11:38:32
An alle Leute mit 800x600 als realitaetsfern/unpraktisch:
Die gleiche Diskussion lief auf Seite 20-30 dieses Threads schonmal und ich glaube sagen zu koennen das am Ende sehr ueberzeugende Beweise gebracht wurden die gezeigt haben das 800x600 als Test funktioniert (ich war auch SEHR skeptisch, aber dargo und einige andere haben gute nachvollziehbare Tests gepostet).
Also einfach paar Seiten zurueckblaettern und lesen. Wenn dann noch Fragen/Diskussionsbedarf vorhanden ist, dann koenne ma weiter machen

puntarenas
2010-08-09, 11:48:39
Also wenn man die Unterschiede fast nur bei niedriger Auflösung oder Benchmarks sehen kann, und man zusätzlich keine Enthusiast oder gar 2 Karten drinnen hat (mit anderen Worten nahes GPU Limit):
Welchen Grund gäbe es für mich dann 100+ Euro oder mehr für eine Core Plattform auszugeben (Außer evtl Verbrauch)?

Zuunächst einmal musst du verstehen, dass es verschiedene Kategorien von Benchmarks gibt. Ein Benchmark sagt zunächst einmal nichts über das gesamte Spiel aus, er bildet nur eine bestimmte Szene ab. Seriöse Hardwaretester investieren viel Zeit und Sachverstand darin, eine geeignete, möglichst repräsentative Szene auszuwählen, in der die Hardware auch richtig gefordert wird und die verlässlich reproduzierbar ist. Selbst während einer kurzen Benchmarksequens schwankt die CPU- und GPU-Last gewaltig und es kann zu Überlagerungen kommen.

Leider ist die Mehrheit der Leser, die nun einmal anschafft und die Brötchen bezahlt, nicht in der Lage strukturiert zu denken oder zu abstrahieren. Deshalb stossen Messungen in geringer Auflösung (besser formuliert, bei minimierter Grafikkartenlast) auf große Ablehnung, was die Szenenauswahl hinsichtlich Repräsentativität und Belastbarkeit im Hinblick auf CPUs ungeheuer erschwert. Außerdem wollen viele Leser die eierlegende Wollmilchsau und erwarten von einem Prozessor-Review, dass es gleichzeitig ein "Spiele-Performancereport" mit "Grafikkartenanteilen" ist, weshalb gezielte Worst-Case-Szenarien auch abgelehnt werden.

Nun ist es ein Drahtseilakt, den Denkfaulen etwas zu präsentieren, das sie akzeptieren, ohne gleichzeitig die journalistische Integrität zu opfern. Im Grunde darf man einen Artikel über Prozessoren nicht mit Benchmarkergebnissen kompromitieren, die weitgehend GPU-limitiert sind, umgekehrt trifft das natürlich auf Grafikkartereviews ebenfalls zu. Selbstverständlich überlagern sich GPU- und CPU-Limit in der heimischen Systemkonfiguration regelmäßig und meist wird die Grafikkarte limitieren, nur bei Messungen von Einzelkomponenten muss man die behandelte Komponente möglichst isoliert betrachten. Der Leser müsste also im Rahmen einer Kaufberatung einmal eine belastbares CPU-Review und parallel dazu ein belastbares Grafikkartenreview zur Hand nehmen und darauf basierend seine Systemzusammenstellung wählen, anders ist eine kompetente Kaufentscheidung nicht zu treffen und davon ausgehend wird es ja noch komplizierter, weil du Abschätzen musst, wie dein zukünftiges Verhalten (beispielsweise Grafikkartenupdate zur Lebensdauer der CPU) ausfallen wird.

Mal plakativ, man kann einen Athlon kaufen, weil andere CPUs in Spielen laut geglättetem (unlauterem, weil irreführendem) Performancerating sowieso kaum leistungsfähiger sind. Wenn es dann mal klemmt und man durch ein Wunder helle genug ist, die Performanceeinbrüche der CPU zuzuordnen, rüstet man halt einen Phenom II 965BE nach, denn dieser ist ja augenscheinlich die allerbeste Spiele-CPU. Es wird irgendwann oder schon heute in irgendeiner Szene wieder klemmen, drücken wir also die Daumen, dass Zambezi (AM3 Bulldozer) kompatibel und schnell daherkommt. Dann rüstet man nochmal (für Geld) nach und landet womöglich performanceratinggeglättet auf dem Leistungsniveau von Sandy Bridge. In den Foren wird man jedes Mal Zuspruch erhalten, man habe alles richtig gemacht, ein glatter Mehrwert neben dem Spaß am Basteln.

Wer stattdessen einen Lynnfield kauft, der investiert in einen "toten Sockel". Es wird heute nur selten klemmen, morgen auch erst später (nehmen wir mal ein Polster von 30% IPC, wenn es dann eng wird übertakten wir womöglich auf 3,8Ghz) und wenn Bulldozer in der Single-Thread-Performance gleichzieht (egal ob über IPC- oder Taktsteigerungen), dann werden Spiele sich trotzdem nicht schlagartig auf 8 Kerne ausbreiten. Man wird mit dem Core i5/i7 Quad samt "totem Sockel" also auch Ende 2011 was Spiele angeht noch in den Leistungsregionen verweilen, die ein (für Geld) auf- und nachgerüstetes AMD-System dann mit reichlich Spekulation und Hoffnung zu liefern im Stande sein wird.

Irgendwie scheint mir irgendwer schlecht beraten zu sein und das Schlimme ist, dass es Methode hat. Wenn man seinen Rat auf Benchmarkergebnisse gründet, die völig ohne Substanz und irreführend sind, ist das kein Wunder. Wohl dem, der das Leistungsvermögen seiner CPU niemals benötigt oder inkritichen Situationen nicht bemerkt, dass er die falsche CPU gekauft hat, dennoch kann man grundsätzlich und nüchtern über das Leistungsvermögen einer CPU natürlich überhaupt Nichts aussagen, wenn die Ergebnisse durch andere Faktoren maßgeblich geglättet sind.

An alle Leute mit 800x600 als realitaetsfern/unpraktisch:
Die gleiche Diskussion lief auf Seite 20-30 dieses Threads schonmal und ich glaube sagen zu koennen das am Ende sehr ueberzeugende Beweise gebracht wurden die gezeigt haben das 800x600 als Test funktioniert (ich war auch SEHR skeptisch, aber dargo und einige andere haben gute nachvollziehbare Tests gepostet).
Ich glaube manchmal fast, dass regelmäßig einfach mal jemand ausprobieren möchte, ob der Trigger noch funktioniert. Hat geklappt.:ulol:

kruemelmonster
2010-08-09, 11:49:30
Habs mal boxleitnerb gleichgetan, im CB Forum mitgemischt und nach 3 Posts schon kein Bock mehr. Windmühlen und Scheuklappen so...

Wichtig; Ihr könnt alle [Benchmarks] die ihr findet posten nur bitte keine von PCGH

Wenn ich die Realität nicht sehe, sieht sie mich vllt auch nicht.

:crazy:

@puntarenas:

Wie immer schön geschrieben. :up:

OT71
2010-08-09, 12:03:16
Achso, neuerdings ermittelt man die CPU Leistug durch Furmark und die GPU Leistung durch Excel. :lol:

man, furmark x vram der grafikkarte = cpu leistung ;)

Gast
2010-08-09, 12:09:33
und wie auch dort schon mehrfach angeklungen ist. profitiert man in den meisten spielen davon kaum.

um es mal frei zu formulieren: ich entpacke nicht 24h/7t dateien, noch konvertiere ich video oder audiodateien 24h/7t. ich spiele auch nicht in ultra² auflösungen und highest² einstellungen. oho ich kann auch mal die auflösung/einstellungen herunterdrehen. der spass ist mir wichtiger als die feststellung, dass es in ein paar szenen etwas ruckelt. ich spiele auch nicht ausschließlich gta4 oder ähnliches und tue mir das "min-FPS-Desaster" damit auch nicht ständig an. so wie es hier klingt, ist bei euch jedes spiel das nicht mit 60 fps und mehr läuft von der cpu limitiert. dabei ist es gerade umgekehrt. die meisten spiele sind eben gpu-limitiert. spielt man sowieso schon an der 30 fps grenze macht es auch keinen unterschied ob man an einer "fiesen stelle" durch cpu a 24 fps oder cpu b 19 bekommt. da muss dann schon crossfire her und das haben hier sogar die wenigsten.

das alles ist nichts anderes als akademisches gelaber. insbesondere deshalb weil niemand weiß, was die engine alles macht, wenn die auflösung derart niedrig gewählt wird. sprich eine andere art der berechnung wählt als sonst und intel davon evtl. etwas mehr profitiert. da gibt es bei anwendungssoftware teils erhebliche unterschiede. da wird dann schon mal so bald eine amd cpu festgestellt wird, mmx einfach nicht genutzt. unabhängig davon ob die amd cpu mmx unterstützt oder nicht. der intel compiler hat da auch seine tücken. ;) und jetzt erzählt mir nicht, dass die spieleprogrammierer alles profis sind die für jede cpu optimieren und jede einstellung des intel compilers kennen.

MiamiNice
2010-08-09, 12:13:13
[ ] ich habe verstanden worum es bei CPU Test geht.

Schönen Tag noch Gast :rolleyes:

Iceman346
2010-08-09, 12:19:57
Habs mal boxleitnerb gleichgetan, im CB Forum mitgemischt und nach 3 Posts schon kein Bock mehr. Windmühlen und Scheuklappen so...

Ich lese grad den Kommentarthread zum i5-760 Test und ich bin jedes mal erstaunt über die Ausdauer von y33H@. Allen 5 Postings dem nächsten Typen der keine Ahnung hat wie man richtig bencht das gleiche erklären zu müssen würd mich irgendwann so sehr nerven das ichs aufgeben würd.

Schlammsau
2010-08-09, 12:20:10
Da ich jetzt auch stolzer Besitzer eines Turban bin, würde ich mich gerne an diversen Benchmarks beteiligen. Also.....

Gast
2010-08-09, 12:22:38
du hast aber scheinbar nicht verstanden, worauf es bei einer cpu ankommt. ich kann die leistung einer cpu nicht einfach auf benchmarks reduzieren und anschließend sagen cpu A ist besser als cpu B. es zählt das was am ende herauskommt. das ist bei spielen die anzahl an bildern pro sekunde. bei praxisrelevanten bedingungen! die aber nicht losgelöst vom gesamtsystem und der grafikkarte betrachtet werden kann. im servermarkt wird den tollen benchmarkfolien von intel oder amd auch kein glauben geschenkt. da wird in der praxis nachgeschaut was sache ist und dann ausgewählt.

Iceman346
2010-08-09, 12:30:01
du hast aber scheinbar nicht verstanden, worauf es bei einer cpu ankommt. ich kann die leistung einer cpu nicht einfach auf benchmarks reduzieren und anschließend sagen cpu A ist besser als cpu B.

Hier sagst du man soll CPUs nicht auf Benchmarks reduzieren und im nächsten Absatz...

es zählt das was am ende herauskommt. das ist bei spielen die anzahl an bildern pro sekunde. bei praxisrelevanten bedingungen!

willst du dann doch benchen. Was denn nun?

Und praxisrelevante Bedingungen in Spielen für einen CPU-Test sind höchste Grafikeinstellungen bei möglichst niedriger Auflösung um das GPU Limit zu entfernen. Punkt. Da gibt es nichts dran zu diskutieren, wer das verneint hat einfach seine grauen Zellen abgeschaltet.

Mr.Fency Pants
2010-08-09, 12:47:39
Was bei dem ganzen Gebenchmarke und der Diskussion hier vergessen wird ist, dass nicht jeder da eine Wissenschaft draus machen will. Vielen genügt es einfach zu wissen, dass eine CPU in ihren Einstellungen entsprechende Werte bringt. Ist mal nett zu sehen, was die CPU theoretisch drauf hat, wenn man das GPU Limit entfernt, wirklich wichtig ist das aber dich nur für Benchmarkfreaks, die lieber benchmarken als zocken.

Wenn 2 CPUs unter Zockbedingungen ähnliche fps liefern, dann ists kaum so, dass dann die eine bei 800x600 total gegen die andere abstinkt.

OT71
2010-08-09, 12:58:15
Hier sagst du man soll CPUs nicht auf Benchmarks reduzieren und im nächsten Absatz...



willst du dann doch benchen. Was denn nun?

Und praxisrelevante Bedingungen in Spielen für einen CPU-Test sind höchste Grafikeinstellungen bei möglichst niedriger Auflösung um das GPU Limit zu entfernen. Punkt. Da gibt es nichts dran zu diskutieren, wer das verneint hat einfach seine grauen Zellen abgeschaltet.

um darum gehts ja gar nicht, es geht darum das der dau user dann denkt wenn die cpu a unter 800x600 ca. 30% schneller ist, die cpu a auch in praxisrelevanten einstellungen 30% schneller ist....und das stimmt nicht.

was hier aber auch einige nicht dau user einem vermitteln wollen...:rolleyes:

Undertaker
2010-08-09, 13:07:30
Warum sollte das ein Nutzer denken? Wenn ein Veyron 400 schafft, ist man in der Stadt trotzdem nicht schneller als ein Golf TDI, was wohl auch jeder Käufer weiß.

Ein CPU-Test liefert eine Aussage über das Leistungspotential einer CPU in einer bestimmten Anwendungen. Das der Anwender dieses Potential auch nutzen kann - z.B. durch eine ausreichend starke GPU - liegt in seiner eigenen Verantwortung.

Gast
2010-08-09, 13:07:42
um darum gehts ja gar nicht, es geht darum das der dau user dann denkt wenn die cpu a unter 800x600 ca. 30% schneller ist, die cpu a auch in praxisrelevanten einstellungen 30% schneller ist....und das stimmt nicht

Hilfe, was muss ich hier wieder lesen?
Natürlich stimmt das! Eine CPU die bei Rohpowermessungen um 30% schneller ist, ist immer um 30% schneller.
Wenn der Wert geringer ausfällt ist das kein Indiz für die CPU Leistung, sondern einfach nur, das andere Komponenten vorher am Limit sind.

Eine CPU die mehr Rohpower hat, wird immer mehr Rohpower haben. Es gibt genügend CPU(KI) limitierte Stellen und da wird die Leistung auch ausgeschöpft. Selbst wenn man in 2560x1600 zockt, gibts auch mal Situationen wo auf KI/Physik ... berechnungen gewartet wird.
Du gehst ja offenbar davon aus, das es nicht so ist: Ein Pentium 4 Prozessor ist immer langsamer als ein Core i7, egal in welcher Auflösung man zockt.

Iceman346
2010-08-09, 13:24:19
Was bei dem ganzen Gebenchmarke und der Diskussion hier vergessen wird ist, dass nicht jeder da eine Wissenschaft draus machen will. Vielen genügt es einfach zu wissen, dass eine CPU in ihren Einstellungen entsprechende Werte bringt. Ist mal nett zu sehen, was die CPU theoretisch drauf hat, wenn man das GPU Limit entfernt, wirklich wichtig ist das aber dich nur für Benchmarkfreaks, die lieber benchmarken als zocken.

Man kann CPU und GPU Limit nicht einfach so trennen. Man kann versuchen an beides so nah wie möglich heran zu kommen indem man die Testbedingungen anpasst aber welche Komponente im "wahren Leben" dann limitiert wird ständig schwanken. Sicherlich wird das bei heutigen Spielen, Full-HD Auflösungen und AA/AF meist die Grafikkarte sein, aber eben nicht immer. Und in den Szenen ist es dann wichtig was die CPU theoretisch drauf hat.

Der Punkt ist eben, dass man bei Benchmarks zu erwarten hat, dass die fragliche Komponente getestet wird. Und das passiert in 1680x1050 + AA/AF Einstellungen in CPU-Tests nicht.

um darum gehts ja gar nicht, es geht darum das der dau user dann denkt wenn die cpu a unter 800x600 ca. 30% schneller ist, die cpu a auch in praxisrelevanten einstellungen 30% schneller ist....und das stimmt nicht.

was hier aber auch einige nicht dau user einem vermitteln wollen...:rolleyes:

Wie der Gast schon schreibt. Natürlich ist die CPU welche unter 800x600 30% schneller ist auch unter 1920x1200 30% schneller. Nur limitiert eine andere Komponente weshalb man von der Mehrleistung nichts bemerkt.

Tauscht man die Grafikkarte gegen ein stärkeres Modell aus sind die 30% Unterschied wieder da. Der Unterschied verschwindet nicht, nur weil man ihn nicht mehr sieht.

kruemelmonster
2010-08-09, 13:55:06
Tauscht man die Grafikkarte gegen ein stärkeres Modell aus sind die 30% Unterschied wieder da. Der Unterschied verschwindet nicht, nur weil man ihn nicht mehr sieht.

Genau das ist der springende Punkt, den viele einfach nicht verstehen (wollen?):

Zuviel CPU-Leistung gibt es nicht, und wenn ich heute mehr CPU-Leistung habe als mir CB-Balken suggerieren wollen, wird morgen meine nächste Grafikkarte immer noch adäquat bei Laune gehalten während der lokalpatriotische Käufer wieder zum Händler rennt und sich an der Zukunftssicherheit seiner Plattform erfreut.

OT71
2010-08-09, 14:15:46
Hilfe, was muss ich hier wieder lesen?
Natürlich stimmt das! Eine CPU die bei Rohpowermessungen um 30% schneller ist, ist immer um 30% schneller.
Wenn der Wert geringer ausfällt ist das kein Indiz für die CPU Leistung, sondern einfach nur, das andere Komponenten vorher am Limit sind.

Eine CPU die mehr Rohpower hat, wird immer mehr Rohpower haben. Es gibt genügend CPU(KI) limitierte Stellen und da wird die Leistung auch ausgeschöpft. Selbst wenn man in 2560x1600 zockt, gibts auch mal Situationen wo auf KI/Physik ... berechnungen gewartet wird.
Du gehst ja offenbar davon aus, das es nicht so ist: Ein Pentium 4 Prozessor ist immer langsamer als ein Core i7, egal in welcher Auflösung man zockt.


ok, dann hab ich mich etwas falsch ausgerückt....ich meinte das real keine 30% übrig bleiben....nur in fällen die besonders leistungsfodernd sind.

30% sinds ja immer, aber es kommen je nach komponenten hinten keine 30% mehr raus ;)

Vertigo
2010-08-09, 14:27:37
Genau das ist der springende Punkt, den viele einfach nicht verstehen (wollen?):

Zuviel CPU-Leistung gibt es nicht, und wenn ich heute mehr CPU-Leistung habe als mir CB-Balken suggerieren wollen, wird morgen meine nächste Grafikkarte immer noch adäquat bei Laune gehalten während der lokalpatriotische Käufer wieder zum Händler rennt und sich an der Zukunftssicherheit seiner Plattform erfreut.
Also ist es okay, Grafikkarten upzugraden, aber nicht CPUs? :|

Scheinbar ist für einige hier Benchmarken wichtiger/interessanter als Spielen. Für mich nicht und eben deswegen interessieren mich die netten FPS in 800*600 nur am Rande. Ein PC ist ein System und besteht eben aus mehr als der CPU. Wenn es in typischen Anwendungsfällen nicht die CPU-Leistung ist, die limitiert, dann haben (für mich) einfach andere Dinge eine höhere Priorität. Aber das wollen einige 800*600-Verfechter wohl nicht wahr haben.

Iceman346
2010-08-09, 14:46:32
Also ist es okay, Grafikkarten upzugraden, aber nicht CPUs? :|

Natürlich ist das ok. Nur wenn man für einen ähnlichen Preis eine CPU bekommt die in Spielen ~20% (i5-760 vs X4 965) oder gar ~40% Mehrleistung (i5-760 vs X6 1055) hat braucht man eventuell garnicht aufrüsten wenn der AMD Käufer bereits über einen CPU Tausch nachdenkt.

Wie man bei ähnlichen Preisen die nicht nur von der Leistung her schwächere sondern auch vom Stromverbrauch her hungrigere CPU kaufen kann ist einfach unverständlich für mich.

Scheinbar ist für einige hier Benchmarken wichtiger/interessanter als Spielen. Für mich nicht und eben deswegen interessieren mich die netten FPS in 800*600 nur am Rande. Ein PC ist ein System und besteht eben aus mehr als der CPU. Wenn es in typischen Anwendungsfällen nicht die CPU-Leistung ist, die limitiert, dann haben (für mich) einfach andere Dinge eine höhere Priorität. Aber das wollen einige 800*600-Verfechter wohl nicht wahr haben.

Natürlich ist ein PC ein System. Nur reden wir hier von CPU Tests. Nicht PC Tests und auch nicht Spieletests. Hier soll exakt eine Komponente des Systems "PC" getestet werden und wenn man das tun möchte muss man sämtliche Limitierungen welche durch andere Komponenten entstehen vermeiden.

Und auch wenn du es wahrscheinlich wieder ignorierst: Ein Spiel ist eine Abfolge von verschiedensten Situationen die niemals komplett gleich ablaufen. Und je nachdem was passiert limitiert mal die eine, mal die andere Komponente des Systems PC. Darum sollte es Ziel sein, im Rahmen eines bestimmten Budgets die stärksten Komponenten zu kaufen welche man sich leisten kann. Um aber zu wissen was diese sind braucht man aussagekräftige Tests. 1680x1050 + AA/AF Benchmarks haben im Bezug auf CPU-Leistung genau Null Aussagekraft.

kruemelmonster
2010-08-09, 14:49:30
Also ist es okay, Grafikkarten upzugraden, aber nicht CPUs? :|

Ja, wenn man weiß warum: Nehmen wir CPU A und B, welche "in der Praxis" (GPU-Limit @ 16x10 oder 19x12) dicht beeinander liegen. So dicht, das die Empfehlungen lauten: nimm AMD, Intel ist eh nicht schneller.
Nun wird Graka X durch das neue Modell Z ersetzt, GPU-Limit liegt jetzt beispielsweise bei 25x16.

Wer damals nach dem CB 16x10 Rating seine CPU gekauft hat, der landet jetzt mit Graka Z im CPU-Limit während der 800x600-Interessierte bis zu 30% mehr Bums hat und auch Graka Z ohne CPU-Limit betreiben kann.

Fazit: Viel CPU-Leistung schützt vor frühzeitigen CPU-Upgrades. Bei mir ist es so, das ich auf einer unveränderten Plattform mehrere Grakas mitnehme. Und da stehe ich glaub ich nicht alleine da.

MiamiNice
2010-08-09, 15:01:13
Wie man bei ähnlichen Preisen die nicht nur von der Leistung her schwächere sondern auch vom Stromverbrauch her hungrigere CPU kaufen kann ist einfach unverständlich für mich.

Tja, dann kläre ich Dich mal auf:

1. Weil es AMD ist und Intel ach so böse ist.
2. Weil die ganzen Schüler kein Geld haben und zum "billigsten" greifen weil Mami/Papi nicht mehr zahlen will.
3. Dann muss man natürlich seinen Hardwarekauf verteildigen!
4. Ist eine CPU nicht so wichtig zum Spielen, Graka reicht und hat gefälligst von ATI zu sein weil sie stromsparend ist ...
5. Weil man bei AMD den Sockel behalten kann. (Das man dafür öfter ne CPU neu kauft erwähnt man besser nicht)

Gerade Punkt 2 und 3 ist genau das was im CB Forum zu tragen kommt.

Schlammsau
2010-08-09, 15:02:54
Oh man, was hier teilweise wieder fürn Blödsinn von sich gegeben wird. :rolleyes:

kruemelmonster
2010-08-09, 15:06:58
Kommen noch Argumente oder bleibt es bei deinen Einzeilern?

dargo@work
2010-08-09, 15:15:07
Da ich jetzt auch stolzer Besitzer eines Turban bin, würde ich mich gerne an diversen Benchmarks beteiligen. Also.....
Das hört sich gut an. :-)

Welche aktuellen Spiele hast du denn?

PS: mir wäre allerdings lieber einer der auch eine NV-Graka hat, zwecks perfekter Vergleichbarkeit. Ich schiele hierbei auf die GPU-Limits. Aber wir könnten es auch so probieren, zumindest bei CPU-Limits sollte es passen.

Pirx
2010-08-09, 15:18:18
Oh man, was hier teilweise wieder fürn Blödsinn von sich gegeben wird. :rolleyes:
... in einem Thread, der "Fakten statt Flames" heißt...

dargo@work
2010-08-09, 15:19:48
um darum gehts ja gar nicht, es geht darum das der dau user dann denkt wenn die cpu a unter 800x600 ca. 30% schneller ist, die cpu a auch in praxisrelevanten einstellungen 30% schneller ist....und das stimmt nicht.

[ ] ich habe den ganzen Thread nicht verfolgt.

boxleitnerb
2010-08-09, 15:25:31
Man mag mich steinigen, aber was ist denn nun mit der ominösen Intel-Schwäche bei hohen Auflösungen?

In manchen Reviews sieht man sie, in manchen nicht. In Spiel A ja, in Spiel B nicht. In Spiel A ja, aber moment, da schwächelt Intel auch bei 1024x768...ja was denn nu?

Irgendwas scheint ja dran zu sein - es hat ja nicht nur eine Seite bemerkt. Aber was?

y33H@
2010-08-09, 15:30:25
Ich lese grad den Kommentarthread zum i5-760 Test und ich bin jedes mal erstaunt über die Ausdauer von y33H@. Allen 5 Postings dem nächsten Typen der keine Ahnung hat wie man richtig bencht das gleiche erklären zu müssen würd mich irgendwann so sehr nerven das ichs aufgeben würd.Ich bin halt masochistisch ;D

Undertaker
2010-08-09, 15:32:29
Man mag mich steinigen, aber was ist denn nun mit der ominösen Intel-Schwäche bei hohen Auflösungen?

In manchen Reviews sieht man sie, in manchen nicht. In Spiel A ja, in Spiel B nicht. In Spiel A ja, aber moment, da schwächelt Intel auch bei 1024x768...ja was denn nu?

Irgendwas scheint ja dran zu sein - es hat ja nicht nur eine Seite bemerkt. Aber was?

Wirklich nachvollziehbar lies sich dies bisher bei genau einem Spiel bemerken: Far Cry 2. Was da genau schief läuft - ka? ;) Alles andere sind, da andere Seiten auf vorbildlich identische Ergebnisse im GPU-Limit - oder auch mal minimale Vorteile für Intel-CPUs kommen - schlicht Messfehler.

y33h@ hat doch mal angekündigt, dass die PCGH das in einem Artikel genauer untersuchen wird - und dann sollte das Thema auch vom Tisch sein.

boxleitnerb
2010-08-09, 15:32:58
Das hab ich mir allerdings auch gedacht
Aber wenn der Finger zum "Antworten"-Button zuckt, was will man da machen? :biggrin:

@undertaker:
Es ist ja gerade so irritierend, weil man dieses Phänomen nicht festhalten kann. Ich hoffe da auch auf eine eingehendere Untersuchung.

Vielleicht könnten dargo und schlammsau die Auswirkungen der Skalierung der Anbindung an die Grafikkarte testen. Also den Hypertransport übertakten und bei Intel...welcher Takt ist da genau verantwortlich beim P55?

dargo@work
2010-08-09, 15:42:35
Vielleicht könnten dargo und schlammsau die Auswirkungen der Skalierung der Anbindung an die Grafikkarte testen. Also den Hypertransport übertakten und bei Intel...welcher Takt ist da genau verantwortlich beim P55?
Afaik QPI.

Das wird aber kaum funktionieren da:

1. Wir nicht die gleichen Grafikkarten haben.
2. Beim ändern vom QPI-Takt sich das Verhältnis zwischen CPU-Leistung und Speicherbandbreite, Uncoretakt etc. auch ändert.

boxleitnerb
2010-08-09, 16:00:49
zu 2. Weil der QPI-Multi fest ist? Ist der bei Extreme Editions noch frei oder war das nur bei Bloomfield so?

dargo@work
2010-08-09, 16:15:37
zu 2. Weil der QPI-Multi fest ist?
Zumindest beim Lynnfield... ja. Er ist halt an den BCLK gekoppelt bzw. skaliert mit dem BCLK 1:1 mit.

dargo@work
2010-08-09, 16:16:19
Ich meine natürlich den QPI-Takt.

Gast
2010-08-09, 16:32:17
Ein Benchmark sagt zunächst einmal nichts über das gesamte Spiel aus, er bildet nur eine bestimmte Szene ab. Seriöse Hardwaretester investieren viel Zeit und Sachverstand darin, eine geeignete, möglichst repräsentative Szene auszuwählen (..)
Nicht nur seriöse Hardwaretester. Es soll 'Firmen' geben, die gleich haufenweise Experten beschäftigen, die nichts anderes tun, als die Stellen zu finden, an denen ihr Produkt besonders glanzvoll hervortritt. ;) Ich finde es immer wieder beeindruckend, daß man dann auch noch ah! und oh! ruft, wenn ein selbsternannter unabhängiger Tester nun nachträglich herausfindet, daß es auch tatsächlich so ist.

Leider ist die Mehrheit der Leser,(..), nicht in der Lage strukturiert zu denken oder zu abstrahieren.
(..)
Nun ist es ein Drahtseilakt, den Denkfaulen etwas zu präsentieren, das sie akzeptieren, ohne gleichzeitig die journalistische Integrität zu opfern.
:eek: Vorsicht! Unterschätze/Beleidige niemals deine Mitmenschen! Auch Leute, die auf den ersten Blick dumm sind wie geschnitten Brot, sind sehr wohl in der Lage komplexe Sachverhalte zu erfassen, wenn man sich ein wenig Mühe gibt. Das hat nichts mit strukturiertem Denken, Abstraktionsvermögen oder Denkfaulheit zu tun. Es ist einfach nur eine Frage von richtiger Sprache und Ausdauer. Das was du indirekt kritisierst ist imho eher die fehlende Bereitschaft aus der Erfahrung anderer, die entsprechenden Konsequenzen zu ziehen. Denn wer will sich schon gerne 'bevormunden' lassen? Die meisten Leute wollen ihre eigenen Erfahrungen machen. Wer sich eine CPU von einem bestimmten Hersteller gekauft hat und damit gute eigene Erfahrungen gemacht hat, der ist für mich nachvollziehbar grundsätzlich nicht bereit anzunehmen, daß eine andere Entscheidung möglicherweise genausogut oder gar besser gewesen wäre.

Interessant ist es, daß es besonders aus der Gruppe der Leute mit eigener Erfahrung offenbar viele Mitglieder gibt, die äußerst aggressiv auf andere Erfahrungen reagieren. Am schlimmsten wird es, wenn zwei Mitglieder aus unterschiedlichen Gruppen mit abweichender eigener Erfahrung aufeinander treffen. Das ist teilweise schon recht unterhaltsam, was dann losgeht -> Trikotgezerre und üble Tretereien hinter dem Rücken des Schiedsrichters. Jeder will unbedingt gewinnen (Recht haben) und seine Meinung bestätigt sehen. Das 3DCF ist sozusagen der Bolzplatz der Computerexperten. ;) Leider werden Threads wie dieser nach dem 90sten Post nicht abgepfiffen.... so daß es keinen offiziellen Sieger und auch keine fairen Verlierer geben kann.

Zurück zu diesem Thread: 'Fakten statt Flames'. Irgendwo war es doch glasklar, daß es wieder zu einem Schlagabtausch zwischen dem AMD- und dem intel-Lager kommen würde. Der Witz ist ja gerade, daß die eigenen Überzeugungen immer als Fakten bezeichnet werden, während entgegenstehende Argumente als Lügen, Flames, Rumgetrolle und Bashing diskreditiert werden. Sobald die ersten 'Nettigkeiten' ausgetauscht wurden, geht es im Prinzip nur noch darum die Argumente der Gegenseite in Frage zu stellen. Neue Argumente kommen nicht, sondern es wird immer und immerwieder dasselbe nochmal aufgewärmt, was man auf 20 Seiten vorher schon lesen konnte.

Zurück zum Thema: Die Annahme, daß eine CPU, deren Kerne möglicherweise über 30% mehr Rohleistung verfügen, deswegen grundsätzlich immer auch 30% schneller rechnet, ist falsch. Dies liegt daran, daß eine CPU nicht schneller rechnen kann, als es der Cache zuläßt. Je größer die Datenmenge ist, die bearbeitet werden muss, desto stärker wird die CPU ausgebremst. Es darf daher bezweifelt werden, daß eine CPU die unter 800x600 möglicherweise einen 30% Vorsprung pro Core 'herausfährt' diesen Vorsprung auch dann noch halten kann, wenn ein GPU-Limit auftritt. Im Gegenteil: Es würde mich nicht wundern, wenn ein Nehalem-Core bei 640x480 sogar 50% Vorsprung hätte. Dies würde nur zeigen, wie stark die zusätzliche Rohleistung nach hinten abflacht. Bei heute typischen Auflösungen von 1680x1050 oder mehr, wäre (wenn es kein GPU-Limit gäbe) der Performancevorteil einzelner Cores gegenüber CPUs von AMD wahrscheinlich außerhalb der Meßtoleranzen.

Das dies tatsächlich so ist, kann man an den Benchmarks erkennen, die von ComputerBase in die Welt gesetzt wurden (dort wird schön die prozentuale Mehrleistung ermittelt):

Bei etwa gleichem Takt (3GHz) lieferte ein Core i7 940 im Vergleich zum Phenom II X4 940 bei 640x480 (FarCry2) im Schnitt 164% mehr FPS.
http://www.computerbase.de/artikel/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/27/#abschnitt_far_cry_2

Bei etwa gleichem Takt (3GHz) lieferte ein Core i7 940 im Vergleich zum Phenom II X4 940 bei 800x600 (World in Conflict) im Schnitt 134% mehr FPS.
http://www.computerbase.de/artikel/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/28/#abschnitt_world_in_conflict

Die vermeintlich konstante Mehrleistung eines Nehalem-Cores nimmt also im Schnitt mit jeder Erhöhung der Grafikauflösung um eine Stufe (unabhängig vom GPU-Limit) um etwa 30% ab. Was dies bedeuten kann zeig ich mal hier:

640x480 - 164%
800x600 - 134%
1024x768 - 104%
1280x1024 - 74%
1440x1050 - 44%
1680x1050 - 14%
1920x 1080 - -24% (?)

Das ganze ist hochspekulativ, da niemand hinter das GPU-Limit testen kann. Aber es würde mich nicht wundern, wenn der Nehalem unter realitätsnahen Auflösungen bei weitem nicht mehr so überlegen performt wie noch unter 640x480. Von einer auflösungsunabhägigen, konstanten Mehrleistung pro Core kann jedenfalls überhaupt keine Rede sein. Würde diese Behauptung stimmen, müßte der Performancevorsprung bei jeder Auflösung unterhalb des GPU-Limits immer nahezu gleich sein. Eine CPU die bei 800x600 etwa 30% schneller ist, darf dann bei 640x480 nicht 40% schneller sein.

Undertaker
2010-08-09, 16:48:41
Dies würde nur zeigen, wie stark die zusätzliche Rohleistung nach hinten abflacht. Bei heute typischen Auflösungen von 1680x1050 oder mehr, wäre (wenn es kein GPU-Limit gäbe) der Performancevorteil einzelner Cores gegenüber CPUs von AMD wahrscheinlich außerhalb der Meßtoleranzen.

Das ist falsch. Was hat denn eine CPU bei höherer Auflösung, ansonsten aber gleichen Details und gleichem Sichtverhältnis mehr zu berechnen oder im Cache zu speichern? Nichts. Genau deshalb sind, bei konstanten vollständigen CPU-Limit, die fps in 1600x1200 genauso hoch wie in 640x480. Das lässt sich problemlos testen und beweisen.

Von einer auflösungsunabhägigen, konstanten Mehrleistung pro Core kann jedenfalls überhaupt keine Rede sein. Würde diese Behauptung stimmen, müßte der Performancevorsprung bei jeder Auflösung unterhalb des GPU-Limits immer nahezu gleich sein. Eine CPU die bei 800x600 etwa 30% schneller ist, darf dann bei 640x480 nicht 40% schneller sein.

Siehe oben. DU vergisst, dass gerade bei längeren Benchszenarien CPU- und GPU Limits nicht abrupt, sondern fließend wechseln. Ist deine GPU stark genug, die verwendete CPU zu 100% im GPU Limit zu halten, hast du auflösungsunabhängig identische Abstände.

Iceman346
2010-08-09, 16:53:11
@Gast #823
Deine Schlussfolgerung ist, um es nett auszudrücken, sehr fragwürdig. Du vergleichst Benchmarks zweier völlig unterschiedlicher Spiele und spekulierst dann, dass der Leistungsunterschied durch die divergierende Grafikauflösung entsteht.
Das ließe sich nur dann feststellen, wenn das gleiche Spiel in zwei unterschiedlichen Auflösungen (ausserhalb des Grafiklimits) gebencht wird und dann der Abstand zwischen den CPUs deutlich voneinander abweicht.

Davon ab: Ich kenne mich im Bereich der Caches bzw. der Daten die da hinein müssen nicht allzu gut aus, aber mir ist nicht klar woher die zusätzliche Datenmenge die die CPU bewältigen muss kommen soll. Texturen und Geometriedaten sollten die gleichen sein wenn das Spiel nicht zusätzlich runterregelt beim Verändern der Auflösung. Auf wievielen Pixeln das dann ausgegeben wird ist Sache der Grafikkarte.

dargo@work
2010-08-09, 17:00:37
langer Text...

Soviel verschwendeter Text. Dass die Auflösung bei gleichem FoV keinen Einfluss im vollständigem CPU-Limit hat wurde hier in diesem Thread schon gezeigt. Einfach paar Seiten zurückblättern.

beos
2010-08-09, 17:03:00
Das ist falsch. Was hat denn eine CPU bei höherer Auflösung, ansonsten aber gleichen Details und gleichem Sichtverhältnis mehr zu berechnen oder im Cache zu speichern? Nichts. Genau deshalb sind, bei konstanten vollständigen CPU-Limit, die fps in 1600x1200 genauso hoch wie in 640x480. Das lässt sich problemlos testen und beweisen.

[...]



Das frage ich doch mal als Unwissendener =):

Ein Spiel verwendet also bei 800x600 und 1920x1080 die gleichen Texturen, die gleiche Partikelanzahl und die gleichen entfernungsabhängigen 3D Modelle der Spielewelt. Erst die ROP's auf der Grafikkarte "erzeugen" aus der Vektor-3D-Welt ein auflösungsabhängiges Bild?

Gast
2010-08-09, 17:11:51
Bei etwa gleichem Takt (3GHz) lieferte ein Core i7 940 im Vergleich zum Phenom II X4 940 bei 640x480 (FarCry2) im Schnitt 164% mehr FPS.
http://www.computerbase.de/artikel/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/27/#abschnitt_far_cry_2

Bei etwa gleichem Takt (3GHz) lieferte ein Core i7 940 im Vergleich zum Phenom II X4 940 bei 800x600 (World in Conflict) im Schnitt 134% mehr FPS.
http://www.computerbase.de/artikel/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/28/#abschnitt_world_in_conflict

Die vermeintlich konstante Mehrleistung eines Nehalem-Cores nimmt also im Schnitt mit jeder Erhöhung der Grafikauflösung um eine Stufe (unabhängig vom GPU-Limit) um etwa 30% ab. Was dies bedeuten kann zeig ich mal hier:

640x480 - 164%
800x600 - 134%
1024x768 - 104%
1280x1024 - 74%
1440x1050 - 44%
1680x1050 - 14%
1920x 1080 - -24% (?)

Das ganze ist hochspekulativ, da niemand hinter das GPU-Limit testen kann. Aber es würde mich nicht wundern, wenn der Nehalem unter realitätsnahen Auflösungen bei weitem nicht mehr so überlegen performt wie noch unter 640x480...

Tests mit potenteren (Crossfire-/SLI-) GPU stützen diese These m.W. nicht. Hier z.B. http://www.legionhardware.com/articles_pages/radeon_hd_5870_crossfire_cpu_scaling_performance_part_2,12.html bleibt bei dem genannten Titel der etwa 30%-ige Vorsprung (50%-ige bei min-fps!) der i5/i7-CPU auch bei 1680*1050 bestehen.

Schlammsau
2010-08-09, 17:19:48
Das hört sich gut an. :-)

Welche aktuellen Spiele hast du denn?

PS: mir wäre allerdings lieber einer der auch eine NV-Graka hat, zwecks perfekter Vergleichbarkeit. Ich schiele hierbei auf die GPU-Limits. Aber wir könnten es auch so probieren, zumindest bei CPU-Limits sollte es passen.

Crysis
Warhead
DiRT2
Resident Evil 5
ARMA 2: OA Demo
Transformers: War for Cybertron
Prince of Persia
UT3
HAWX
SS HD
Half Life 1-2

Undertaker
2010-08-09, 17:21:06
Das frage ich doch mal als Unwissendener =):

Ein Spiel verwendet also bei 800x600 und 1920x1080 die gleichen Texturen, die gleiche Partikelanzahl und die gleichen entfernungsabhängigen 3D Modelle der Spielewelt. Erst die ROP's auf der Grafikkarte "erzeugen" aus der Vektor-3D-Welt ein auflösungsabhängiges Bild?

Achtung, dein Beispiel beinhaltet verschiedene Seitenverhältnisse. ;) Die genaue Erklärung kann dir besser ein Guru liefern, aber die Auswirkungen erkennt jeder Laie:

http://www.xbitlabs.com/articles/video/display/geforce-gtx480-sli_8.html#sect3

Auf dem GTX480 SLI sind hier durch den Fall eines konstanten CPU-Limits die fps auflösungsunabhängig.

(Auf die minimale FoV Differenz von 16:9 zu 16:10 pfeifen wir ausnahmsweise mal)

Headjunkie
2010-08-09, 17:25:26
Half Life 1-3
Huch hab ich HL3 echt verschlafen???!???:confused:

823
2010-08-09, 17:42:29
@Gast #823
Deine Schlussfolgerung ist, um es nett auszudrücken, sehr fragwürdig.
Sie ist genauso fragwürdig/haltlos wie die Annahme, daß das Performanceverhältnis zweier CPUs bei unterscheidlicher Grafikauflösung identisch ist.

Du vergleichst Benchmarks zweier völlig unterschiedlicher Spiele und spekulierst dann, dass der Leistungsunterschied durch die divergierende Grafikauflösung entsteht.
Das ließe sich nur dann feststellen, wenn das gleiche Spiel in zwei unterschiedlichen Auflösungen (ausserhalb des Grafiklimits) gebencht wird und dann der Abstand zwischen den CPUs deutlich voneinander abweicht.
Du denkst also, daß der Performanceunterschied bei unterschiedlichen Spielen möglicherweise auch durch die Engine beeinflußt ist? - Noch ein Argument mehr für die Leute, die behaupten, daß ein Core mit angeblich konstant 30% mehr Rohleistung nicht automatisch auch immer 30% schneller rechnet.

Davon ab: Ich kenne mich im Bereich der Caches bzw. der Daten die da hinein müssen nicht allzu gut aus, aber mir ist nicht klar woher die zusätzliche Datenmenge die die CPU bewältigen muss kommen soll. Texturen und Geometriedaten sollten die gleichen sein wenn das Spiel nicht zusätzlich runterregelt beim Verändern der Auflösung. Auf wievielen Pixeln das dann ausgegeben wird ist Sache der Grafikkarte.
Es dürfte doch wohl klar sein, daß ein Spiel auf einem WideScreen-TFT (16:10/16:9) grundsätzlich deutlich mehr Rechenaufwand verursacht, als auf einem 800x600 Display (4:3). Bei Egoshootern hat man auf Widescreen etwa 50% mehr Bildfläche (am Rand). Das macht einen gewaltigen Unterschied je größer die Entfernung ist, in der Objekte/Ereignisse von der Spielengine noch dargestellt werden. Der Berechnungsaufwand steigt mit der Anzahl der darzustellenden Objekte überproportional (auch für die CPU). Man muß natürlich beachten, daß es Spieleengines gibt, die keine Rücksicht auf die Bildschirmauflösung nehmen müssen. Viele Autorennen zB., weil hier im Prinzip nur ein Film abläuft und sich der Spieler nur auf engen und vordefinierten Bahnen bewegen kann. In manchen RTS-Spielen haben sich die Programmierer das Problem vom Hals geschafft, indem sie einfach die Objektanzahl durch entsprechende Maßnahmen klein gehalten haben. Neuestes Beispiel: StarCraft II. - Ist euch schonmal die erbärmliche Zoomfunktion aufgefallen? Gefühlte 2 cm sag ich da nur. Da hätte man die Zoomfunktion auch gleich komplett weglassen können. Und das hat imho mit absoluter Sicherheit nichts mit der Grafikengine zu tun. Die Grafik in StarCraft II ist maximal gehobener Durchschnitt - mehr nicht. Die unglaublich starke Begrenzung der Zoomfunktion ist imho nur erfolgt, um Spielern mit starker CPU im Multiplayer keinen unverhältnismäßig großen taktischen Vorteil zu ermöglichen.

Andere Meinung (im Ergebnis aus meiner Sicht falsch) hier:
http://www.computerbase.de/forum/showthread.php?t=766864

Undertaker
2010-08-09, 17:46:08
Sie ist genauso fragwürdig/haltlos wie die Annahme, daß das Performanceverhältnis zweier CPUs bei unterscheidlicher Grafikauflösung identisch ist.

Das ist keine haltlose Annahme, sondern problemlos zu belegen. Ich hatte oben den Beispielfall eines absoluten CPU-Limits über verschiedene Auflösungen gebracht - eine ausreichend starke Grafiklösung, in dem Fall das GTX480 SLI-Gespann, war in allen Fällen gleich schnell.

Iceman346
2010-08-09, 18:06:03
Sie ist genauso fragwürdig/haltlos wie die Annahme, daß das Performanceverhältnis zweier CPUs bei unterscheidlicher Grafikauflösung identisch ist.

Nein, dass erschließt sich schon rein logisch. Wieso sollte ein Austausch der Grafikkarte das Verhältnis der CPU Leistung beeinflussen? Das könnte allenfalls der Fall sein, falls für einen der CPU Hersteller besondere Optimierungen im Grafiktreiber aktiv wären.

Du denkst also, daß der Performanceunterschied bei unterschiedlichen Spielen möglicherweise auch durch die Engine beeinflußt ist? - Noch ein Argument mehr für die Leute, die behaupten, daß ein Core mit angeblich konstant 30% mehr Rohleistung nicht automatisch auch immer 30% schneller rechnet.

Natürlich ist der Performanceunterschied vom verwendeten Programm abhängig. Was daran eine besonder Erkenntnis sein soll erschließt sich mir grad nicht.
Man kann halt nur über diverse Programme hinweg benchen und somit einen Überblick über den Leistungsunterschied gewinnen.

Es dürfte doch wohl klar sein, daß ein Spiel auf einem WideScreen-TFT (16:10/16:9) grundsätzlich deutlich mehr Rechenaufwand verursacht, als auf einem 800x600 Display (4:3). Bei Egoshootern hat man auf Widescreen etwa 50% mehr Bildfläche (am Rand). Das macht einen gewaltigen Unterschied je größer die Entfernung ist, in der Objekte/Ereignisse von der Spielengine noch dargestellt werden. Der Berechnungsaufwand steigt mit der Anzahl der darzustellenden Objekte überproportional (auch für die CPU).

Natürlich. Darum gilt hier die Einschränkung, dass das Sichtfeld gleich bleiben muss wie Dargo es oben schon formuliert hat.

dargo@work
2010-08-09, 18:54:30
Crysis
DiRT2
Resident Evil 5

Die nehmen wir. :-)

Ich hoffe aber du hast einiges an Zeit übrig. Denn, diese wirst du brauchen. Falls also Interesse besteht Rest über PN. Ab ca. 22Uhr aber.

Vertigo
2010-08-09, 19:01:10
Nur reden wir hier von CPU Tests.

Meine Aussage war auf das Zitat gerichtet und sollte verdeutlichen, warum es u. U. sinnvoll ist, mehr Wert auf andere Komponenten als die CPU zu legen.

1680x1050 + AA/AF Benchmarks haben im Bezug auf CPU-Leistung genau Null Aussagekraft.
Ich finde schon. Sie belegen, dass es in bestimmten Situationen/Konfigurationen eben keinen Unterschied in der resultierenden Gesamtleistung gibt und dass die die CPU in solchen Fällen eben nicht limitiert.

Fazit: Viel CPU-Leistung schützt vor frühzeitigen CPU-Upgrades. Bei mir ist es so, das ich auf einer unveränderten Plattform mehrere Grakas mitnehme. Und da stehe ich glaub ich nicht alleine da.
Das war in den letzten Jahren jedenfalls so, weil die Grafikkartenleistung überproportional stark und schnell ggü. der CPU-Leistung gestiegen ist. Und ja, meine CPUs überdauern meist 2-3 Grafikkarten(generationen).

Gast
2010-08-09, 19:31:50
Wirklich nachvollziehbar lies sich dies bisher bei genau einem Spiel bemerken: Far Cry 2. Was da genau schief läuft - ka? ;)
Na die Spiele bei PCGHs 760 Test waren davon doch auch betroffen. PCGH schreibt:

Zitat:
"Der 1055T dagegen kann seine sechs Kerne nicht ausspielen und fällt im Mittel der vier Spiele zurück - Dragon Age schmeckt dem Thuban gar nicht, zwei der Titel aber laufen ins GPU-Limit und die Spiele-Auswahl ist zugegeben AMD-freundlich"
Zitat Ende.

http://www.pcgameshardware.de/aid,765710/CPU-Test-Intel-Core-i5-760/CPU/Test/

Die genannten Spiele waren laut Texxt also im GPU Limit, aber der 1055 (kein 1090) war dort trotzdem schneller als ein i5 760. Also wären das dann immerhin schon 3 Spiele.

Gast
2010-08-09, 19:35:37
amd freundlich ist auch so ein schlechter ausdruck, es sollte eher heissen nicht intel optimiert bzw. neutral

y33H@
2010-08-09, 19:36:46
Schneller? Das ist 1 Fps ...

EDIT
Und nach Starcraft II steht bereits das nächste RTS in den Startlöchern, in dem die Core i dominieren :usad:

Gast
2010-08-09, 20:09:56
Ich finde schon. Sie belegen, dass es in bestimmten Situationen/Konfigurationen eben keinen Unterschied in der resultierenden Gesamtleistung gibt und dass die die CPU in solchen Fällen eben nicht limitiert.


Genau so sehe ich das auch. Es zählt das was am Ende heraus kommt. Die Leistungsbewertung einer CPU ist nicht zuletzt auch vom Unterbau (Mainboard, Speicher, Festplatte, etc. und von deren Wirken untereinander abhängig). Insbesondere den Chipsatztreibern.

1. Erst einmal müsste geklärt werden, was eine CPU überhaupt berechnen muss wenn die Auflösung reduziert wird. Gibt das Spiel/Programm eine entsprechende Anweisung, dass bei geringeren Auflösungen bestimmte Teile nicht berechnet werden?

2. Wie wird die Leistung einer CPU von der Anwendung ermittelt?

Es gab ja schon diverse Probleme mit der korrekten Ermittlung der Geschwindigkeit einer CPU. Als damals das Rating von AMD eingeführt wurde hatten viele Spiele Schwierigkeiten. Alle Spiele berechnen zu Beginn die Leistung einer CPU mit einem mehr oder werniger cryptischen Zahlenwert. Schaut mal in die Konsolen diverser Spiele. Da ergeben sich bei gleicher CPU oft erhebliche Unterschiede. Oft wird auch zusätzlich ein "Score" für das gesamte System ermittelt.

Was macht man denn, wenn nun ein Spiel bei sehr geringer Auflösung zu der Bewertung kommt die Intel CPU sei schwächer als eine gleichwertige AMD CPU? Sei es durch einen Rechenfehler oder Unfähigkeit der Programmierer. Es reicht hier ja schon aus, dass AMD heutzutage i. d. R. eine höhere Taktrate hat als vergleichbare Intel CPUs und sich das Spiel ausschließlich an der Tatkrate orientiert.
Sagt nun das Spiel bei niedriger Auflösung: Intel ist jetzt schwächer und ich muss die Details reduzieren bzw. Berechnungen der KI weglassen und die AMD CPU darf alles berechnen? Wie wirkt sich dieser Score überhaupt aus? Bestimmt dieser tatsächlich nur die "empfohlenen Einstellungen" oder so wie bei älteren Spielen sichtbar auch Stellschrauben unter der Haube.

3. Welche Vorteile/Nachteile ergeben sich durch die Art der Programmierung eines Spiels für eine CPU? Die tatsächliche Leistung einer CPU lässt sich IMO nie wirklich ermitteln. Das hängt hier von zu vielen Faktoren ab. Das ist nicht so wie bei der GPU wo die Anzahl der ROPs oder die Grösse des Speicherinterfaces Rückschlüsse auf die _tatsächliche_ Leistung einer GPU zulassen. Der vorwiegend verwendete Intel Compiler wurde hier ja schon angesprochen. ... Hab keine Lust mehr weiter zu schreiben. ... Ist ja sowieso sinnlos.

y33H@
2010-08-09, 20:14:19
1) Der CPU ist die Auflösung völlig egal
2) Bitte was?
3) Intel-Compiler ... das klassische Torschlagargument

Schlammsau
2010-08-09, 20:31:35
Die nehmen wir. :-)

Ich hoffe aber du hast einiges an Zeit übrig. Denn, diese wirst du brauchen. Falls also Interesse besteht Rest über PN. Ab ca. 22Uhr aber.
no prob....Rest via PN.

Undertaker
2010-08-09, 20:35:30
Na die Spiele bei PCGHs 760 Test waren davon doch auch betroffen.

[...]

Die genannten Spiele waren laut Texxt also im GPU Limit, aber der 1055 (kein 1090) war dort trotzdem schneller als ein i5 760. Also wären das dann immerhin schon 3 Spiele.

Betroffen waren sie nur von simplen Messschwankungen. Der i5 750, nachzulesen in älteren Tests, war in mindestens einem der GPU-limitierten Benches 1-2fps schneller als der i5 760 - was selbstverständlich nicht logisch begründbar ist. Außer durch simple Schwankungen. :)

y33H@
2010-08-09, 20:41:50
CMR Dirt 2 bei den Min-Fps.

823
2010-08-09, 20:45:27
Das ist keine haltlose Annahme, sondern problemlos zu belegen. Ich hatte oben den Beispielfall eines absoluten CPU-Limits über verschiedene Auflösungen gebracht - eine ausreichend starke Grafiklösung, in dem Fall das GTX480 SLI-Gespann, war in allen Fällen gleich schnell.
Soso ein GF100 und gleich noch im Doppelpack. Sorry - aber ich habe da große Bedenken, daß hier wirklich ein CPU-Limit nachgewiesen werden konnte. Imho hat nvidia da kräftig was im Treiber rumgewurstelt:

Radeon HD 5000 series is overall less CPU-dependent than the GeForce GTX 400 and 200 series from Nvidia. This trend does not hold true in every game, however.
http://forums.anandtech.com/showthread.php?t=2075299

CPU-Benches mit Grafikkarten, bei denen ein Hersteller imho nachweislich über den Treiber die CPU anzapft (und zwar in großem Stil), sind für mich wertlos. Über den Grafiktreiber läßt sich nämlich schön einregeln, wie stark die CPU angezapft wird. Was in deinem Test nachgewiesen wurde ist im Zweifel kein CPU-Limit, sondern der Punkt auf den der Grafikkartentreiber intern seine CPU-Last automatisch abregelt. Wenn schon CPUs benchen dann richtig - und zwar auf einem 'nackten' Windows im VGA-Modus und zwar ohne, daß Catalyst oder ForceWare installiert wurden. Für VGA braucht man keine Treiber. Allerdings würde das die Anzahl derjenigen, die eure 800x600 Benchmarks als völlig praxisfern und untauglich einstufen, nicht wirklich verringern.

CPU-Benches, die ein angebliches CPU-Limit bei 30, 60, 90, 100 oder 120 FPS ermitteln, stehen bei mir (auflösungsunabhängig) unter Generalverdacht. ;)

y33H@
2010-08-09, 20:51:23
This trend does not hold true in every game, however, and you can see the opposite situation in certain games.Ausnahmen, die die Regel bestätigen?

Undertaker
2010-08-09, 20:54:47
Um den CPU-Last Vergleich des ATI- und Nvidia-Treibers gehts hier doch auch gar nicht. Mit der identischen Grafikkarte sollte man schon messen, wenn man CPUs vergleicht (zumindest identischer Hersteller). Und da kann man über einfache Mittel, z.B. Variation des CPU-Taktes, ganz leicht selbst beweisen, dass man sich im vollständigen CPU-Limit befindet.

kruemelmonster
2010-08-09, 21:11:08
Meine Aussage war auf das Zitat gerichtet und sollte verdeutlichen, warum es u. U. sinnvoll ist, mehr Wert auf andere Komponenten als die CPU zu legen.

Ich rezitiere dich mal:

Wenn es in typischen Anwendungsfällen nicht die CPU-Leistung ist, die limitiert, dann haben (für mich) einfach andere Dinge eine höhere Priorität.

In vielen Spielsituationen wirst du wohl GPU-limitiert sein und eine stärkere CPU, wie in unserem Diskussionsbeispiel i5-760 vs X6 1055T, würde dir keinen Vorteil bieten.
Was ist aber mit den anderen Situationen? Die so richtig haarig sind; Autorennen mit 20 Gegnern bei Regen? Das Endstadium eines jeden Strategiespiels mit Massen an Einheiten? WoW Raid?

Aus dem Grafikkartenreview weißt du, ob deine Karte für diese Härtefälle geeignet ist. Aber woher willst du wissen ob deine CPU genügend Leistung mitbringt?
Aus dem 16x10 Rating ist das nicht zu entnehmen da dort die Grafikkarte die Ergebnisse geglättet hat. Wenn aber der 800x600 Benchmark einen 30% Vorteil für den i5-760 ggü dem X6 1055T ausgibt, dann hast du diesen Vorteil auch spürbar in "realitätsnahen" Settings mit z.B. 24 fps statt 18 in oben genannten Fällen.

Ob dir persönlich 18 fps reichen würden, oder ob du ein AM2 Board hast und günstig auf einen X6 aufrüsten kannst, oder was auch immer ist dann deine persönliche Gewichtung der Dinge.
Es darf aber nicht vorab im Review der Eindruck erweckt werden, diese 30% Performancevorteil bei gleichem Preis würden nicht beim tatsächlichen Spielen ankommen und seien nur theoretische Werte.


Ich finde schon. Sie belegen, dass es in bestimmten Situationen/Konfigurationen eben keinen Unterschied in der resultierenden Gesamtleistung gibt und dass die die CPU in solchen Fällen eben nicht limitiert.

Nein, wenn es bei CPU-Tests in 16x10 zwischen einem X3 720 und einem X4 965 keinen Unterschied gibt, heißt es nur das die Grafikkarte zu langsam ist. Dann kannst du entweder eine schnellere Karte einbauen (siehe CB, welche von 9800 GTX+ auf HD 5870 gewechselt haben) bzw auf Multi GPU gehen (wobei Multi GPU wieder mehr CPU-Power erfordert ;)), oder du testest gleich in 800x600.

Der Zweck ist der Gleiche: das Eliminieren des Flaschenhalses GPU-Leistung bei CPU-Tests.
Bei GPU-Tests geht man doch identisch vor: 4 GHz i7, weil man fein abgestufte Balken zwischen den Karten sehen will, und keinen C2D E6600 @ 3 GHz bei dem dann alle 200€+ Karten die gleiche Leistung zeigen.

Warum wird hier mit zweierlei Maß zu messen, je nachdem ob man einen CPU oder einen GPU-Test vor sich hat? GPU-Tests bitte ohne Limitierung der CPU, CPU-Tests aber mit GPU-Last? Ich verstehe nicht was daran "praxisnah" sein soll.


Das war in den letzten Jahren jedenfalls so, weil die Grafikkartenleistung überproportional stark und schnell ggü. der CPU-Leistung gestiegen ist. Und ja, meine CPUs überdauern meist 2-3 Grafikkarten(generationen).

Und genau dafür sind die 800x600 Benches ja so wichtig. Wenn die dritte GPU dann schneller als die CPU ist, du also öfter im CPU- als im GPU-Limit bist, war das Upgrade auf eine schnellere Grafikkarte für die Katz. Je mehr Leistungspotenzial eine CPU hat, umso weiter verschiebt sich dieser Punkt nach hinten und man spart sich einen Neukauf der CPU.

P.S.:

@boxleitnerb:

Schöner Thread (http://www.computerbase.de/forum/showthread.php?t=766864) im CB-Forum. Ich hoffe das wenigstens die stille Masse der dortigen Mitleser was gelernt hat.

y33H@
2010-08-09, 21:20:52
Nun, offenbar gibt's massig Leute, die sich ihre langsamere Hardware - in den letzten Jahren war das halt meist AMD - schön reden müssen. Daher müssen CPUs im GPU-Limit vermessen werden, da sind die ja alle gleich schnell und im GPU-Lager werden die X2-Radeons für ihre langen µRuckelnden Balken gehypt. Würde man im GPU-Sektor wie im CPU-Sektor verfahren, also GraKas im CPU-Limit benchen (nehmen wir den genannten C2D E6600 @ stock), wäre der Aufschrei gigantisch. Es wird wie du sagst immer mit zweierlei Maß gemessen, nur das betrachtet, was ins eigene Weltbild passt.
Ich hoffe das wenigstens die stille Masse der dortigen Mitleser was gelernt hat. Gibt es mehr normale Leser als normale User?

Headjunkie
2010-08-09, 21:34:56
Wir muessen uns unsere Schwanzverlaengerung nicht schoenreden, laenger ist besser! (-:

Davon abgesehn hamma ja das gleiche Fazit im Thread jetzt schon 172431234 mal gezogen, der i5 750/760 ist absolut gesehen fuer Spiele die bessere Wahl.

Was an sonstigen Auswahlkriteriern noch dazukommt liegt dann an jedem selber, aber ist halt persoenlich und damit nicht als grundsaetzliche Empfehlung geeignet (auch wenns im Indiviualfall besser sein KANN!).

Und auch wenn ich zB weder Videos dekodiere, noch 24/7 Dateien entpacke (die auf meiner nonSSD sowieso von der HDD limitiert werden), habe ich halt meine Schwanzverlaengerung die meine Synthesierungszeiten von ca 2 Stunden auf unter 40min gedrueckt hat! Bei fast durchgehender 100% CPU Last auf allen Kernen. Und daher ist der X6 halt die beste CPU ueberhaupt (Achtung Ironie!).

Dargo, poste auf jeden Fall mal eure Resultate, waeren interessant zu wissen auch wenn der Thread seit ca 20 Seiten beantwortet ist.

kruemelmonster
2010-08-09, 21:44:41
Würde man im GPU-Sektor wie im CPU-Sektor verfahren, also GraKas im CPU-Limit benchen (nehmen wir den genannten C2D E6600 @ stock), wäre der Aufschrei gigantisch.

Au ja, macht das mal zum 01.04. :freak:

Es wird wie du sagst immer mit zweierlei Maß gemessen, nur das betrachtet, was ins eigene Weltbild passt.

Genau diese Lernresistenz lässt mich bei CB so resignieren. Umso größeren Respekt hab ich deshalb vor deiner Ausdauer da drüben. Hier ist es zwar auch wahrlich nicht leicht einen Konsens zu finden, aber die Diskussionen doch um einige Größenordnungen angenehmer.

Gibt es mehr normale Leser als normale User?

Es ist Zeit für einen Poll! ;D

y33H@
2010-08-09, 21:47:06
Umso größeren Respekt hab ich deshalb vor deiner Ausdauer da drüben. Du bist der 7te, der dies sagt. Nur wird dadurch die Ignoranz nicht geringer :usad: Aber immerhin fühle ich mich etwas besser *lach*

Gast
2010-08-09, 21:52:32
Man sieht du bist bei CB nicht alleine, aber es bringt doch nichts.
Naja, vielleicht eine schöne Feierabendbeschäftigung. :D

beos
2010-08-09, 23:36:25
Achtung, dein Beispiel beinhaltet verschiedene Seitenverhältnisse. ;) Die genaue Erklärung kann dir besser ein Guru liefern, aber die Auswirkungen erkennt jeder Laie:

http://www.xbitlabs.com/articles/video/display/geforce-gtx480-sli_8.html#sect3

Auf dem GTX480 SLI sind hier durch den Fall eines konstanten CPU-Limits die fps auflösungsunabhängig.

(Auf die minimale FoV Differenz von 16:9 zu 16:10 pfeifen wir ausnahmsweise mal)

Eine Guru-Erklärung wäre nicht schlecht. Dann wäre eine wichtige Frage dieses Freds geklärt. :)

Gast
2010-08-10, 10:12:31
Betroffen waren sie nur von simplen Messschwankungen. Der i5 750, nachzulesen in älteren Tests, war in mindestens einem der GPU-limitierten Benches 1-2fps schneller als der i5 760 - was selbstverständlich nicht logisch begründbar ist. Außer durch simple Schwankungen. :)
Hmm testet PCGH nicht immer 5x oder so um Schwankungen auszuschließen ?
Egal, es bleibt noch CoD2.
Das ist auch im alten Test langsamer.
Dieser:
http://www.pcgameshardware.de/aid,698809/Intels-Gulftown-CPU-im-Test-Core-i7-980X-auf-Westmere-Basis/CPU/Test/?page=2

Aber das scheint AMD wirklich zu liegen. Ein kleiner X3 mit 2,8 GHz und DDR2 ist gut dabei. Gibt es eine Seite mit 800x600 Tests ? Vielleicht ist AMD dort auch schon schneller, dann ist es auflösungsunabhängig und das ist dann uninteressant.

y33H@
2010-08-10, 10:45:54
Mindestens drei Messungen :)

Undertaker
2010-08-10, 11:11:55
Aber das scheint AMD wirklich zu liegen. Ein kleiner X3 mit 2,8 GHz und DDR2 ist gut dabei. Gibt es eine Seite mit 800x600 Tests ? Vielleicht ist AMD dort auch schon schneller, dann ist es auflösungsunabhängig und das ist dann uninteressant.

Nun, 0,6fps zwischen dem 1. und 3. sind definitiv nicht mehr verwertbar, also hier haben wir im GPU-Limit einen ganz klaren Gleichstand. Das der i5 um ~3% zurückfällt, könnte eine leichte CPU-Limitierung bedeuten und damit einen Fall, wo der X4 965 mal etwas schneller ist - warum nicht. Allerdings ist die Differenz doch arg gering, Messschwankungen würde ich im Regelfall erst bei >5% ausschließen wollen.
Der X3 ist wirklich gut dabei, allerdings gibt es durchaus einige Spiele, wo ein K10.5 Kern auf dem Niveau eines Core 2 Kernes liegt - das der Q9550 einen Kern mehr hat, dürfte in CoD vermutlich keine Auswirkungen haben.

Vertigo
2010-08-10, 11:31:23
Es darf aber nicht vorab im Review der Eindruck erweckt werden, diese 30% Performancevorteil bei gleichem Preis würden nicht beim tatsächlichen Spielen ankommen und seien nur theoretische Werte.

Du siehst doch aber, dass die X% Mehrleistung der CPU im GPU-Limit "verpuffen". Wie kannst du da von Mehrleistung sprechen, wenn in diesen Settings ein objektiv gemessener Gleichstand herrscht? Ohne GPU-Limit sind die schnelleren CPUs in jeder Auflösung und jedem Spiel schneller, das ist doch nicht die Frage.

Warum wird hier mit zweierlei Maß zu messen, je nachdem ob man einen CPU oder einen GPU-Test vor sich hat? GPU-Tests bitte ohne Limitierung der CPU, CPU-Tests aber mit GPU-Last? Ich verstehe nicht was daran "praxisnah" sein soll.

Praxisnah ist für mich maximale BQ mit spielbaren FPS, ganz einfach. Und im Grunde würde mir für meine Spiele und Settings auch mein alter Q6600 in Kombination mit meiner 480 genügen. Das Sidegrade auf den X6 habe ich in erster Linie wegen der 890FX-Plattform gemacht. Hätte ich mehr CPU-Leistung gewollt, hätte ich mir ein 1366-System gekauft.

Undertaker
2010-08-10, 11:57:01
Praxisnah ist für mich maximale BQ mit spielbaren FPS, ganz einfach.

Dann musst du es aber auch "Test von Spiel XXX" nennen und nicht CPU-Review. ;) Deine Forderung ist ja völlig berechtigt, aber nocheinmal: Nicht die Intention eines CPU-Tests.

MiamiNice
2010-08-10, 12:07:10
Und auch nicht das Kriterium nach welchen man CPU´s vergleicht! Und nach einem Vergleich kauft man was? Genau! Das beste was man für sein Budget bekommt. Und das ist dann statt eines X-6 oder P4 halt ein i5.

Pirx
2010-08-10, 12:19:07
Und auch nicht das Kriterium nach welchen man CPU´s vergleicht! Und nach einem Vergleich kauft man was? Genau! Das beste was man für sein Budget bekommt. Und das ist dann statt eines X-6 oder P4 halt ein i5.
Wobei man einen P4 nun aber auch wirklich nicht mehr empfehlen kann. Ein Phenom II liefert aber auch ganz ordentliche Frameraten ab und das zu einem guten Preis und mit einer tollen Plattform.:D

Vertigo
2010-08-10, 12:25:55
Dann musst du es aber auch "Test von Spiel XXX" nennen und nicht CPU-Review. ;) Deine Forderung ist ja völlig berechtigt, aber nocheinmal: Nicht die Intention eines CPU-Tests.
Kein Einwand. Aber nochmal: mir ging es ursprünglich nur darum, zu zeigen, dass CPU-Leistung beim Kauf eines Systems nicht immer an erster Stelle stehen muss.
Und auch nicht das Kriterium nach welchen man CPU´s vergleicht! Und nach einem Vergleich kauft man was? Genau! Das beste was man für sein Budget bekommt. Und das ist dann statt eines X-6 oder P4 halt ein i5.
Nur dann, wenn die CPU-Leistung das KO-Kriterium ist und man mit den Limitierungen der aktuellen So1156-Plattform keine Probleme hat. Dann ist aus P/L-Sicht ein X4 965 sicher besser als jeder X6. Der i5 sowieso. Das hat doch auch keiner bestritten.

L.ED
2010-08-10, 13:13:23
Kann man insoweit stehen lassen solange man nur A von Spielen spricht und B sonnst nix weiter nebenher am Rechner wo es zur Sache geht (Leistung abverlangt).

Spielen und ein Render Projekt und es verschiebt sich zur Pattsituation, wo der X6 nebenher das Projekt schneller abarbeiten als es der I5 dann noch tun könnte.

Aus solch Perspektiven heraus betrachtet kann dann wiederum nicht mehr von einem klar schneller oder Dominieren gesprochen werden. ^^

Ab entsprechenden Profil gibt es momentan keine Preis-Leistungsstechnischen alternativen zum X6. Das ist die Stärke dieser CPU, dass ist sein Vorteil, nebenher rein aus Technischer Betrachtung heraus Hut ab vor AMD was sie aus 45nm noch Quetschen!

Gast
2010-08-10, 13:29:34
Nun, 0,6fps zwischen dem 1. und 3. sind definitiv nicht mehr verwertbar, also hier haben wir im GPU-Limit einen ganz klaren Gleichstand. Das der i5 um ~3% zurückfällt, könnte eine leichte CPU-Limitierung bedeuten und damit einen Fall, wo der X4 965 mal etwas schneller ist - warum nicht. Allerdings ist die Differenz doch arg gering, Messschwankungen würde ich im Regelfall erst bei >5% ausschließen wollen.
Das ist klar. Aber die Frage wäre wieso das dann so ist obwohl der i5 in 800x600 klar eindeutig vorne liegt. Falls das zutrifft. Ich habe wie oben schon geschrieben noch keine CoD @VGA Tests gesehen. Falls der X4 da auch vorne ist, interessiert es nicht. Dann ist es nur ein generell "gutes AMD Game".
Wer einen Test hat bitte Link.

Bei Starcraft II entdeckte ich auch gerade eine komische Sache. Der X6 1090 hat da plötzlich 1 Min FPS mehr:
http://www.pcgameshardware.de/aid,766089/Technik-Test-Starcraft-2-mit-14-CPUs-Intel-in-Front-vier-Kerne-nutzlos-einige-Ueberraschungen/Strategiespiel/Test/

1 FPS ist natürlich nicht viel, aber komisch ist es trotzdem. Y33H schrieb ja gerade das PCGH 3x testet. Es ist also reproduzierbar.

Gegenüber vom X4 965 sind es +2 Min FPS trotz 200 MHz weniger. Bewirken die +2 Kerne irgendwelchen Voodoo Zauber ? Laut Test benötzigt Starcraft nur 2 Kerne. Wieso ist der X6 dann schneller ? Hat jemand eine Erklärung abseits von Meßungenauigkeiten ? Uncoretakt ist bei X6 und X4 ja gleich, oder ? Was bleibt:

Windows Task Verteiler ?
I/O ?
Unbekannt ?

Schade dass die OC Tests nur bei 1024 durchgeführt werden. Mit 4 GHz und hohem oc'ed QPI Takt sollten die Min FPS dann auch bei HD ok sein. Falls I/O das Problem ist.

y33H@
2010-08-10, 13:36:53
Die Min-Fps sind GPU-limitiert. Geforce-Treiber auf den beiden zusätzlichen Kernen = mehr Fps?

Undertaker
2010-08-10, 14:12:17
1 FPS ist natürlich nicht viel, aber komisch ist es trotzdem. Y33H schrieb ja gerade das PCGH 3x testet. Es ist also reproduzierbar.

Auch 3x testen muss Messfehler nicht zwangsläufig egalisieren. Nochmal das optimale Beispiel hierfür:

http://www.pcgameshardware.de/aid,765710/CPU-Test-Intel-Core-i5-760/CPU/Test/
http://www.pcgameshardware.de/aid,745670/Phenom-II-X6-1090T-und-1055T-im-Test-Sechs-CPU-Kerne-zum-Kampfpreis/CPU/Test/?page=2

Man vergleiche i5 750 und i5 760. In Dirt 2 ist das 133MHz höher getaktete Modell 3fps (min) langsamer!

Insofern ist es auch völlig abwegig, über das 1fps Unterschied in Starcraft 2 zu diskutieren. Das kann je nach Rundung im Zweifelsfall 14,4 zu 14,6fps bedeuten...
Ab 5% Differenz und mindestens 3fps absolut bei mehrfach ermittelten Average-Werten kann man meiner Meinung nach diskutieren - alles andere ist einfach nur wertlos.

@y33h@: Macht für mich auch keinen Sinn. Im GPU-Limit langweilen sich auch die 4 Kerne des i5. Aber kann man ja mit einem 980X gegentesten. Ich zweifle, dass der sich im GPU-Limit von i5 und i7 8xx absetzen kann.

Edit: Ich hab ja jetzt hier auch einen 6-Kerner zum herumspielen - da kann ich nächsten WE auch selbst mal untersuchen, ob zusätzliche Kerne im GPU-Limit Auswirkungen zeigen.

Gast
2010-08-10, 14:53:00
Die Min-Fps sind GPU-limitiert. Geforce-Treiber auf den beiden zusätzlichen Kernen = mehr Fps?
Starcraft II benötigt aber doch nur 2 Kerne. Zwei übrige Kerne eines Quads sollten für den Treiber genug sein. Oder kann es sein, dass ein Treiber 4 Threads benötigt ?

@Undertaker:
Die Sache mit dem 750/760 ist leider nicht so einfach. Es fehlen genauere Systemangaben bei PCGH. Es reicht schon dass der 750 auf einem anderen Board mit leicht geänderten Speichersubtimings betrieben wurde. Sogar die BIOS Version ist wichtig. Die Angabe "P55" hilft leider nicht groß weiter. Da müßte man bei PCGH anfragen welches Board mit welchem BIOS jeweils im Einsatz war.
Wenn das in beiden Fällen wirklich absolut identisch war und nur die CPUs unterschiedlich waren dann gebe ich Dir Recht, dann sind es Meßfehler.

Halt nein. In diesem Fall kann man dann vermuten dass der 760 ein neues BIOS benötigt da sonst irgendetwas falsch und zu langsam eingestellt wird.

Verdammt verzwickte Situation. Um da heil heraus zu kommen müsste man den 750 unter einem eventuellem neuen (760) BIOS nachtesten.

Zitat:
"@y33h@: Macht für mich auch keinen Sinn. Im GPU-Limit langweilen sich auch die 4 Kerne des i5. Aber kann man ja mit einem 980X gegentesten. Ich zweifle, dass der sich im GPU-Limit von i5 und i7 8xx absetzen kann."
Zitat Ende

Nachdem Starcraft sehr Cache lastig ist wird dort vermutlich eher der langsamere aber größere L3 des 980X stark durchschlagen - weniger die beiden Kerne. Eine schlechte Vergleichbarkeit mit den Lynnfields ist garantiert. Bei AMD ist das besser da sich dort im Uncorebereich zwischen X4/X6 nichts geändert hat.

Undertaker
2010-08-10, 15:23:32
Im GPU-Limit wird, so behaupte ich, gar nichts durchschlagen... ;) Weder Speichertimings, noch Cache oder sonstiges. Aber wie versprochen, das werde ich mit einem 6 Kerne vs. 4 Kerne Vergleich selbst nachprüfen.

kruemelmonster
2010-08-10, 15:29:21
Du siehst doch aber, dass die X% Mehrleistung der CPU im GPU-Limit "verpuffen". Wie kannst du da von Mehrleistung sprechen, wenn in diesen Settings ein objektiv gemessener Gleichstand herrscht? Ohne GPU-Limit sind die schnelleren CPUs in jeder Auflösung und jedem Spiel schneller, das ist doch nicht die Frage.

Darum geht es doch:

In den GPU-limitierten Szenen des Spiel verpufft die CPU-Mehrleistung, logisch, da ja die GPU das Nadelöhr darstellt. Nur enthält ein Spiel eben auch CPU-limitierte Szenen, auch in 19x12 HQ, und da hast du dann deine Mehrleistung aus den 800x600 Benchmarks, welche aus dem 16x10 Rating nicht abzulesen ist.
Außerdem: wenn du nach gewisser Zeit deine Grafikkarte austauscht verschiebt sich das GPU-Limit nach oben, auch in dieser Situation kommt die Mehrleistung aus den 800x600 Benchmarks deutlich sichtbar ans Licht.

Steht doch eigentlich alles schon in meinem letzten Posting drin :confused:

/e: Sofern die GPU nicht limitiert, heißt es im Extremfall für den X6 18 fps und für den i5 24 fps. Beide kosten gleich viel. Ich weiß was ich kaufen würde...

Praxisnah ist für mich maximale BQ mit spielbaren FPS, ganz einfach. Und im Grunde würde mir für meine Spiele und Settings auch mein alter Q6600 in Kombination mit meiner 480 genügen. Das Sidegrade auf den X6 habe ich in erster Linie wegen der 890FX-Plattform gemacht. Hätte ich mehr CPU-Leistung gewollt, hätte ich mir ein 1366-System gekauft.

Wie Undertaker sagte ist es dann ein Performance-Report für ein Spiel, welche HW brauche ich um flüssig zu spielen, aber kein CPU-Review.

Oder anders: Würde dich ein GPU-Test interessieren, bei dem die Karten mit einem C2D E6600 getestet werden, und alle Karten von der HD 5850 aufwärts ein identisches und ausreichendes fps-Niveau, meinetwegen 60 fps, zeigen? Könntest du dann qualifiziert sagen ob für dich eine 5850 reicht oder es nicht doch besser eine 5970 sein sollte?

Kein Einwand. Aber nochmal: mir ging es ursprünglich nur darum, zu zeigen, dass CPU-Leistung beim Kauf eines Systems nicht immer an erster Stelle stehen muss.

Das ist dann jedem selbst überlassen. Das CPU-Review weiß nicht welche Anforderungen der Käufer stellt. Ergo sollte das Review sich alleinig mit der Leistung der CPU beschäftigen und keinen halben GPU bzw Performancereport draus machen.

dargo@work
2010-08-10, 15:31:16
Im GPU-Limit wird, so behaupte ich, gar nichts durchschlagen... ;) Weder Speichertimings, noch Cache oder sonstiges. Aber wie versprochen, das werde ich mit einem 6 Kerne vs. 4 Kerne Vergleich selbst nachprüfen.
Na endlich. Bei dir kann ich mir wenigstens sicher sein was die Kompetenz bei CPU-Tests aka Savegames angeht. :-) Schade, dass du keine GTX470 hast sonst könnten wir auch gleich deinen X6 gegen den i5-750 testen. Auch in GPU-Limits.

Gast
2010-08-10, 16:04:04
Im GPU-Limit wird, so behaupte ich, gar nichts durchschlagen... ;) Weder Speichertimings, noch Cache oder sonstiges. Aber wie versprochen, das werde ich mit einem 6 Kerne vs. 4 Kerne Vergleich selbst nachprüfen.
Ja aber falls doch dann weiss man nicht ob es Cache oder die +2 Kerne sind :(

Undertaker
2010-08-10, 16:14:51
Wenn es einen Unterschied gibt. :biggrin: Wenn nicht haben wir sogar bewiesen, dass weder Cache noch Kerne Auswirkungen zeigen. Aber mit dem Phenom II X6 kann man ja auch einen sauberen Vergleich bei identischer Cachegröße ziehen.

@Dargo: Ein GPU-Upgrade sollte demnächst auch noch folgen... Aber eine GTX470 wirds wohl nicht werden. ;)

Gast
2010-08-10, 18:41:49
Wenn es einen Unterschied gibt. :biggrin: Wenn nicht haben wir sogar bewiesen, dass weder Cache noch Kerne Auswirkungen zeigen. Aber mit dem Phenom II X6 kann man ja auch einen sauberen Vergleich bei identischer Cachegröße ziehen.
Wenn nicht könnte es sein dass sich das Plus der Cachegrösse und das Minus der Cachezugriffszeit die Waage halte und zufällig das Gleiche herauskommt, hahaha.

Egal. Warten wir ab ob jemand testen kann.

Headjunkie
2010-08-10, 18:54:08
In Regards to the Min FPS bei CPU Tests:
Werden den negative Spikes (also die MinFPS) nicht eher durch Windows+X als durch das Spiel selber verursacht? Also wenn man nen 30sec Sample/Savegame hat und dort in einer Sekunde halt die Frames um 25% oder mehr fallen aber in der naechsten Sekunde wieder aufs alte Level kommen, dann ist es doch sehr wahrscheinlich das nicht die CPU Geschwindigkeit ein Problem ist sondern eher das zB das System auf einen Interrupt vom USB/HDD/DVDRom/anderes Programm/Internetlag/etc oder aehnliches wartet?

Ich persoenlich halte von Min FPS net zu viel, da es m.M. nach sehr schwer sein duerfte nachzuweisen das dieser Drop von einer bestimmten Komponente erzeugt wird (deshalb sind ja min_fps Werte auch bei jedem Durchtesten wieder anders und im schlimmsten Fall passieren sie auch noch bei unterschiedlichen Situationen...).
Hier kommen wieder die Frameratenverlaeufe ins Spiel, wenn statt MinFPS halt das niedrigste "Plateu" der FPS genommen wird, hat man ein viel "realistischeres" und vorallem auch reproduzierbares Resultat.

Ist mein Gedankengang in der richtigen Richtung oder habe ich irgendwas wichtiges uebersehen das mich komplett falsch sein laesst?

y33H@
2010-08-10, 18:56:02
Min-Fps sind im CPU-Limit oder GPU-Limit eindeutig auszumachen; Schwankungen treten nur dann auf, wenn eine Komponente nicht massiv limitiert [wenn das nicht der Fall ist, sollte man sich nach einem neuen Bench umsehen]. In Spielen wie Gothic III limitiert eindeutig die HDD.

Headjunkie
2010-08-10, 19:10:10
Und die Min-FPS treten immer an den gleichen Stelle auf?
Um nachweislich Min-FPS mit HardwareLimitierung zu sein muessen sie ja immer an der gleichen Stelle und dann auch noch mit den gleichen FPS auftauchen oder?

Also zB. 30sec run, an sec 12 immer nen Framedrop, und immer 40fps+-1fps? (+-10% oder whatever)

Ich gucke mir naemlich gerade(seit Februar (-:) Positionsdaten an, und ein grosses Problem ist dabei das "zufaellige" Spikes auftreten, die wir nicht rausfinden koennen woher. Aber sie treten immer an unterschiedlichen Zeitpunkten und unterschiedlichen Ausmassen auf, daher ist es sehr wahrscheinlich keine einzelne!! Quelle sondern es sind verschiedene Ursachen die halt mit den Messungen interferiern.


Den Gedanken mal weitergesponnen, wieviele Messungen musst du wegschmeissen weil der Virenscanner/ Windows defrag/ HDD voll/ Firefox autoupdate und die anderen 12341Milliarden Hintergrundprozesse die Messung versaut haben? Was sind da deine Erfahrungen?

y33H@
2010-08-10, 19:12:52
Richtig, die Drops sind immer an der gleichen Stelle.

Unter Voraussetzung, dass an dieser Stelle die CPU/GPU/HDD/whatever bremst - was in einem "guten" Bench der Fall sein sollte.

BlackBirdSR
2010-08-10, 19:16:40
Und die Min-FPS treten immer an den gleichen Stelle auf?
Um nachweislich Min-FPS mit HardwareLimitierung zu sein muessen sie ja immer an der gleichen Stelle und dann auch noch mit den gleichen FPS auftauchen oder?

Also zB. 30sec run, an sec 12 immer nen Framedrop, und immer 40fps+-1fps? (+-10% oder whatever)

Ich gucke mir naemlich gerade(seit Februar (-:) Positionsdaten an, und ein grosses Problem ist dabei das "zufaellige" Spikes auftreten, die wir nicht rausfinden koennen woher. Aber sie treten immer an unterschiedlichen Zeitpunkten und unterschiedlichen Ausmassen auf, daher ist es sehr wahrscheinlich keine einzelne!! Quelle sondern es sind verschiedene Ursachen die halt mit den Messungen interferiern.


Den Gedanken mal weitergesponnen, wieviele Messungen musst du wegschmeissen weil der Virenscanner/ Windows defrag/ HDD voll/ Firefox autoupdate und die anderen 12341Milliarden Hintergrundprozesse die Messung versaut haben? Was sind da deine Erfahrungen?

Dafür existieren ausreichend Methoden in der Statistik und Mathematik um solche Ausreißer und Spikes auszugrenzen. Allerdings kommen wir dann immer an einen Punkt, wo Benchmarks nicht mehr aus 40, sondern aus 3 Einzeltests bestehen und trotzdem die 3x Zeit benötigen.
Ich habe mir so einige Frametime-Graphen und Tabellen vorgenommen und durch die Statistik gejagt. Alleine der Aufwand, um vorsätzlich Spikes zu erzeugen und so die Ergebnisse mathematisch gegenzuchecken war eine Zeitkatastrophe ;)

Man sollte es sich einfach machen und z.B mit Quartilen arbeiten. Das müsste IMO gut funktionieren.
Man nimmt einfach eine Grenze nach Unten, deren Inhalt den Großteil der Werte enthält. Die Werte darunter vernachlässigt man wo möglich. Natürlich hat das wieder Auswirkungen auf die Szene, die man nutzt. Die Auflösung der Werte ist ja in der Regel nur 1s große ;)

Headjunkie
2010-08-10, 20:14:16
Dafür existieren ausreichend Methoden in der Statistik und Mathematik um solche Ausreißer und Spikes auszugrenzen. Allerdings kommen wir dann immer an einen Punkt, wo Benchmarks nicht mehr aus 40, sondern aus 3 Einzeltests bestehen und trotzdem die 3x Zeit benötigen.
Ich habe mir so einige Frametime-Graphen und Tabellen vorgenommen und durch die Statistik gejagt. Alleine der Aufwand, um vorsätzlich Spikes zu erzeugen und so die Ergebnisse mathematisch gegenzuchecken war eine Zeitkatastrophe ;)

Man sollte es sich einfach machen und z.B mit Quartilen arbeiten. Das müsste IMO gut funktionieren.
Man nimmt einfach eine Grenze nach Unten, deren Inhalt den Großteil der Werte enthält. Die Werte darunter vernachlässigt man wo möglich. Natürlich hat das wieder Auswirkungen auf die Szene, die man nutzt. Die Auflösung der Werte ist ja in der Regel nur 1s große ;)
Das es dazu mathematische Loesungen gibt ist mir (leider viel zu gut) bewusst, aber bei 3 Tests (PCGH) kannste jegliche Statistik in die Tonne kloppen und du musst den Graphen von Hand abarbeiten bzw mitm Auge angucken und dann bewerten.

Deswegen habe ich ja gefragt, wie tief die "augen"analysen gehen. Aus ner Zahlenreihe einfach den minimal Wert ausspucken zu lassen ist ja sehr einfach aber ich bezweifle halt die Aussagekraft. Wenn allerdings die 3 Graphen von Hand vergleicht dann traue ich der Aussage viel eher.
Ist also eher ne Frage der wirklichen Methoden als der theoretischen Moeglichkeiten.

Gast
2010-08-11, 22:14:33
Frage in die Runde:

Wieso legt der Thuban hier in HD mit 3 GHz NB Takt bei Crysis und FC2 5% zu ?

http://www.xbitlabs.com/articles/memory/display/phenom-ii-x6-memory_3.html#sect0

Sollte bei HD kein GPU Limit herrrschen ? Liegt es an der Medium Quality oder hat die 5870 da einfach noch Luft ?

y33H@
2010-08-11, 22:15:56
Welche Szene benchen die? Medium ist die 2te von 4 Stufen, also kaum fordernd.

Gast
2010-08-16, 13:55:08
würdet ihr von nem q9550 auf i7-760 wechseln, wenn ihr insgesamt für alles nur 100€ draufzahlen müsstet, würde es sich rentieren=?

Gailerzopf
2010-08-16, 14:15:59
würdet ihr von nem q9550 auf i7-760 wechseln, wenn ihr insgesamt für alles nur 100€ draufzahlen müsstet, würde es sich rentieren=?

Wie jetzt, 100€ nur fuer die CPU und Board/Ram sind gratis ? Leistungmaessig nehmen sich beide nicht viel, nur im oc-status gibt es differenzen, aber dann auch nur marginal.

Fuer 100€ also im Prinzip ein : Ja
Fuer mehr eher ein : NEIN

Iceman346
2010-08-16, 14:32:19
Bei Wechselkosten von 100€ für CPU + Board + Ram würde ich auf jeden Fall wechseln, in der Rohleistung liegt der i5-760 durchaus noch so 20-25% vor dem Q9550 und ist dabei nen gutes Stück stromsparender.

dargo
2010-08-16, 15:42:11
würdet ihr von nem q9550 auf i7-760 wechseln, wenn ihr insgesamt für alles nur 100€ draufzahlen müsstet, würde es sich rentieren=?
Auf jeden Fall, das wäre fast geschenkt. Der i5-760 ist bis zu knapp 100% schneller in Games.

Iceman346
2010-08-16, 15:58:55
Auf jeden Fall, das wäre fast geschenkt. Der i5-760 ist bis zu knapp 100% schneller in Games.

100%? Bei welchen Titeln bzw. in welchen Benchmarks denn? Bei Computerbase in den 800x600 Benches seh ich 25-30%.

dargo
2010-08-16, 16:05:36
100%? Bei welchen Titeln bzw. in welchen Benchmarks denn?

Bei Resident Evil 5 zum Beispiel.

Edit:
Bei CoD: MW2 sind es beispielsweise beim Quad hier +70% bei gleicher Taktrate.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8206406&postcount=372

Oben Yorkfield, unten i5-750. Der Yorkield @2,33Ghz liegt bei 70fps. Eins muss ich allerdings noch erwähnen. Wollte es nicht zu kompliziert machen, es muss aber sein. Der i5-750 ist bei diesem Test im leichten Vorteil. Den Yorkfield habe ich 1:1 runtergetaktet. Um hier gleiche Bedingungen zu schaffen müsste ich den i5 auch 1:1 runtertakten, sprich 20x117 (wenn ich die 2,33Ghz erreichen will). Er lief aber mit 14x166 wodurch das Verhältnis zwischen Uncoretakt und Taktrate der CPU etwas zu Gunsten des i5 liegt. Das dürfte aber nicht viel ausmachen. Ich kann ja gerne bei Gelegenheit testen was der i5-750@2,33Ghz mit 20x117 anstatt 14x166 erreicht. Bzw. wie groß der Unterschied zu den erzielten 119fps ausfällt. Ich würde schätzen von den 70% bleiben noch 60-65% übrig.


Bei Computerbase in den 800x600 Benches seh ich 25-30%.
Meine Einstellung zu CB und CPU-Tests dürfte mittlerweile bekannt sein. :tongue:

Iceman346
2010-08-16, 16:13:46
Bei Resident Evil 5 zum Beispiel.

Mmh, auf die Schnelle nur den Bench von PCGH (http://www.pcgameshardware.de/aid,690425/CPU-Benchmarks-von-Resident-Evil-5-Core-i7-fuehrt-Phenoms-trotzdem-stark-Update-mit-Core-i5-750-und-Core-i7-860/Action-Spiel/Test/) gefunden, da rennen die iX CPUs scheinbar ins Grafiklimit. Bitte link mal was ;)

Meine Einstellung zu CB und CPU-Tests dürfte mittlerweile bekannt sein. :tongue:

Darüber bin ich ja mit dir größtenteils einer Meinung, darum beachte ich bei denen auch allenfalls die 800x600 Benches. Leider gibts wenige andere Webseiten die relativ viele CPUs in relativ übersichtlicher Form in Benchmarkartikeln vergleichen.

dargo
2010-08-16, 16:24:50
Bitte link mal was ;)

http://www5.pic-upload.de/16.08.10/vfleynbcib7.png
http://www5.pic-upload.de/16.08.10/ioxl5y81gx2g.png

Iceman346
2010-08-16, 16:36:30
Stimmt, deinen eigenen Benchmarkthread hatte ich vergessen ;) Was mir da in den Diagrammen aber son bisschen fehlt ist ein Bench des i5 mit allen 4 Kernen bei Originaltakt.
Ansonsten belegt das definitiv, dass die Pro-MHz Leistung des i5 deutlich höher ist wär halt schön zu sehen ob die ~100% Leistungssteigerung von i5 auf 1739 MHz zu Q9550 auf 1768 MHz sich auf dem normalen Takt wiederholen.

dargo
2010-08-16, 16:42:58
Was mir da in den Diagrammen aber son bisschen fehlt ist ein Bench des i5 mit allen 4 Kernen bei Originaltakt.

Das geht leider nicht weil RE5 einen 120fps Limiter hat. :usad:
Das ist auch der Grund warum ich mit den Taktraten so tief runter musste.


Ansonsten belegt das definitiv, dass die Pro-MHz Leistung des i5 deutlich höher ist wär halt schön zu sehen ob die ~100% Leistungssteigerung von i5 auf 1739 MHz zu Q9550 auf 1768 MHz sich auf dem normalen Takt wiederholen.
Es wird sich beim Originaltakt am Verhältnis zwischen beiden CPUs nichts ändern da ich wie gesagt 1:1 alle "Flaschenhälse" mitskaliere. Aber auch hier muss der Hinweis von mir in Bezug auf CoD: MW2 beachtet werden. Auch beim RE5-Test ist der i5 im leichten Vorteil da für die 1739Mhz 13x133 benutzt wurden und nicht 20x87. Letzteres würde bei mir eh gar nicht funktionieren da mein Brett mit mindestens einem BCLK von 112 booten muss.

Edit:
Ich habe jetzt mal das CoD: MW2 Savegame mit 20x116,3 (2325Mhz) getestet. Ergebnis - 107,7 avg.fps. Es macht also doch etwas aus - mit 14x166,6 (2332Mhz) warens 119 avg.fps. Aus dem 70% Vorsprung sind bei gleichen Vorraussetzungen beider CPUs also +54% geworden. Der Speicherteiler beim i5 ist natürlich gleich geblieben, sprich 2:8. Ich hoffe du kannst mir noch folgen. :)

CoD: MW2 profitiert aber nicht so extrem vom Quad wie du in meinen Tests sehen kannt. Der i5 Quad ist "nur" 58% schneller als ein gleichgetakteter Dualcore (wobei beim DC wieder der volle L3 Cache zur Verfügung steht, ich wills aber wie gesagt nicht zu kompliziert machen :D). Man kann aber pauschal sagen - je besser ein Spiel mit 4 Cores skaliert desto stärker kann sich ein Lynnfield vom Yorkfield bzw. Kentsfield absetzen.

y33H@
2010-08-16, 17:39:39
Lost Planet 2 im Technik-Test: DirectX 9 gegen DirectX 11, Grafikkarten- und CPU-Benchmarks (http://www.pcgameshardware.de/aid,767502/Lost-Planet-2-im-Technik-Test-DirectX-9-gegen-DirectX-11-Grafikkarten-und-CPU-Benchmarks/Action-Spiel/Test/)

Sechs statt vier Kerne bringen +16%, ein i5-760 ist dennoch im Mittel so schnell wie ein X6 1090T :freak:
Das geht leider nicht weil RE5 einen 120fps Limiter hat.Nimm Lost Planet 2, bessere MT-Framework und niedrigere Fps *g*

dargo
2010-08-16, 17:42:02
Lost Planet 2? Gibts das schon?

Gast
2010-08-16, 17:43:21
Sechs statt vier Kerne bringen +16%, ein i5-760 ist dennoch im Mittel so schnell wie ein X6 1090T :freak:


Und loost bei den entscheidenden min-fps grandios ab, aber das kehren wir mal besser unter den Teppich. ;)

derguru
2010-08-16, 17:44:18
vorbildhaft,alle wichtigen dx-pfade,6-kern support.capcom gefällt mir immer mehr was pc-support angeht.(y)

Iceman346
2010-08-16, 17:46:22
Lost Planet 2? Gibts das schon?

Für den PC noch nicht zu kaufen.

y33H@
2010-08-16, 17:48:30
Und loost bei den entscheidenden min-fps grandios ab, aber das kehren wir mal besser unter den Teppich.Steht im Fließtext ;)

Zudem ob 20 oder 17 Fps [1090T vs. 860er] ist imo egal, wenn an anderen Stellen die Fps höher sind. Wobei das wieder zu pauschal ist :usad:

@ derguru

Ich vermisse DX10, in Resi 5 war das schneller als DX9 bei gleicher Optik ...

Gast
2010-08-16, 17:50:52
Steht im Fließtext ;)

Zudem ob 20 oder 17 Fps [1090T vs. 860er] ist imo egal, wenn an anderen Stellen die Fps höher sind. Wobei das wieder zu pauschal ist :usad:


Du sprachst vom i5-760, der hat nur 14fps min. Der 1090T 20fps. Das sind satte ~50% mehr. ;)

dargo
2010-08-16, 17:51:28
vorbildhaft,alle wichtigen dx-pfade,6-kern support.capcom gefällt mir immer mehr was pc-support angeht.(y)
Dito, wobei ein DX10-Pfad nicht verkehrt wäre.

Gast
2010-08-16, 17:53:23
Du sprachst vom i5-760, der hat nur 14fps min. Der 1090T 20fps. Das sind satte ~50% mehr. ;)

Ja, von so schnell wie ein 1090T kann keine Rede sein. In meinen Augen ist nicht mal der i7-860 mit SMT so schnell, denn selbst der verliert bei den entscheidenden min-fps gegen den Phenom. Bei vielen Threads sind Kerne eben durch nichts zu ersetzen, außer noch mehr Kerne. ;)

y33H@
2010-08-16, 17:57:46
Das sind satte ~50% mehr.AMD-Argument "der ist ja auch billiger" ;) AVG verloren, MIN gewonnen ... tja.

dargo
2010-08-16, 17:58:45
@y33H@
Ich möchte nicht unverschämt klingen aber irgendwas läuft da bei euren Benchmarks verkehrt. Nichts für ungut, aber wenn ein i7@2,8Ghz oder X6@3,2Ghz bei min. 14-20fps laufen soll dann frage ich mich wer dieses Spiel noch spielen soll wenn diese Stelle cpu-limitiert ist. Von den Konsolen sprechen wir lieber nicht. Kann es sein, dass bei euren Systemen irgendwo der Wurm drin ist und die min.fps weder mit CPU- noch mit GPU-Limits zu tun haben? Ich habe schon zig Games mit Savegames getestet, hatte aber noch nie so eine riesen Lücke zwischen min. und avg.fps.

Edit:
Ich würde an deiner Stelle die Sache unbedingt überprüfen, denn da stimmt definitiv was nicht.

y33H@
2010-08-16, 18:00:09
Lade dir den Benchmark und checke nach =) Die Szene haut ziemlich drauf.

Gast
2010-08-16, 18:02:24
AMD-Argument "der ist ja auch billiger" ;) AVG verloren, MIN gewonnen ... tja.

Hä? Wo habe ich geschrieben der ist billiger? Der ist vorallem schneller udn zwar da wo es drauf ankommt. ;)
Höhere Max-fps sind völlig nutzlos.

y33H@
2010-08-16, 18:08:24
Max-Fps? Avg! Das heißt, im Worst-Case dieses Benches ist der Phenom II schneller, ansonsten der Core i7. Da nehm ich lieber letzteren. Denn in 99% des "Spiels" mehr Fps ist besser als in 1% ;)

dargo
2010-08-16, 18:08:30
Lade dir den Benchmark und checke nach =) Die Szene haut ziemlich drauf.
Achso, es ist eine Timedemo. Tja, dann wird es irgendwas Ähnliches sein wie der Nachladeruckler in der Mafia II-Demo. Das hat weder was mit CPU-/ noch GPU-Limit zu tun. Die Engine bzw. der Benchmark ansich spinnt da für 1-2 Sekunden wahrscheinlich. Ich schaus mir erstmal an.

Gast
2010-08-16, 18:11:00
Max-Fps? Avg! Das heißt, im Worst-Case dieses Benches ist der Phenom II schneller, ansonsten der Core i7. Da nehm ich lieber letzteren. Denn in 99% des "Spiels" mehr Fps ist besser als in 1% ;)

Wenn in 99% des "Spiels" auch der Phenom flüssige fps liefert zählen einzig die min-fps. Es sei denn man ist Fanboy. :)

Gast
2010-08-16, 18:13:41
Max-Fps? Avg! Das heißt, im Worst-Case dieses Benches ist der Phenom II schneller, ansonsten der Core i7. Da nehm ich lieber letzteren. Denn in 99% des "Spiels" mehr Fps ist besser als in 1% ;)

Es ging um den i5, der liefert nur deutlich niedrigere min-fps, sonst nichts. ;)
Der i7 ist eine ganz andere Liga und trotzdem noch an der entscheidenden Stelle langsamer.

y33H@
2010-08-16, 18:14:20
Der Phenom II liefert diese aber nicht, sonst müsste er im Mittel schneller sein. Was weder der 1055T im Vergleich zum 760er (beide ~ 170€) noch der 109T im Vergleich zum 860er ist (beide ebenfalls ähnlich teuer). Aber legt's aus wie ihr wollt, bei höheren AVGs und leicht niedrigeren MINs nehme ich den Core i5/i7.

Gast
2010-08-16, 18:18:01
Der Phenom II liefert diese aber nicht, sonst müsste er im Mittel schneller sein.


Woher willst du das wissen bzw. was hat das eine mit dem anderen zu tun? Der Phenom liefert 65fps avg. Sieht nicht so aus als ob es meist im unspielbaren Bereich ist.


Was weder der 1055T im Vergleich zum 760er (beide ~ 170€) noch der 109T im Vergleich zum 860er ist (beide ebenfalls ähnlich teuer). Aber legt's aus wie ihr wollt, bei höheren AVGs und leicht niedrigeren MINs nehme ich den Core i5/i7.

Aha du hast als lieber statt 60fps 70fps und dafür verzichtest du auf 50% min-fps. Da bist du wohl der einzige der das so sieht?

y33H@
2010-08-16, 18:27:52
Wie kommen höhere AVG-Fps zustande bei niedrigeren MIN-Fps? Richtig, abgesehen von einem oder wenigen Momenten ist die CPU mit den höheren AVG-Werten schneller. Und das zählt imo mehr, als dieser eine MIN-Moment. Von unspielbar habe ich nichts gesagt - wenn, dann trifft das alle CPUs, da weit unter 30 Fps. Ich bin ja kein Konsolero ...

Und 50% MIN-Fps? Bitte vergleiche ähnlich teure CPUs.

Gast
2010-08-16, 18:29:43
Wie kommen höhere AVG-Fps zustande bei niedrigeren MIN-Fps? Richtig, abgesehen von einem oder wenigen Momenten ist die CPU mit den höheren AVG-Werten schneller. Und das zählt imo mehr, als dieser eine MIN-Moment.

Wenn beide CPUs in 99% der Fälle spielbare fps liefern (und davon kann man bei >60fps avg. ausgehen), dann zählen wohl eindeutig die min-fps.

y33H@
2010-08-16, 18:35:43
Das ist deine Sicht der Dinge, meine nicht.

Gast
2010-08-16, 18:39:54
Das ist deine Sicht der Dinge, meine nicht.

Ja, weil du offensichtlich nicht neutral bist. Sorry, aber eine anderen Grund kann man dafür wohl kaum finden.

dargo
2010-08-16, 18:44:11
@Gast

Kannst du mal bitte mit deinem Getrolle aufhören? Danke.

@y33H@
In welchem Test kommen eure min.fps vor? Test A oder Test B?

Gast
2010-08-16, 18:47:20
@Gast

Kannst du mal bitte mit deinem Getrolle aufhören? Danke.


Ach ich trolle obwohl mein Gegenüber lieber im Spielbaren Bereich mehr fps hat als im unspielbaren? Ne ist klar ;D.
Ich frage mich wer hier trollt...

y33H@
2010-08-16, 18:47:44
Test B, siehe Text + Diagramm.

Ja, weil du offensichtlich nicht neutral bist. Das ist meine Meinung. Sollte Bulldozer nach Jahren der Intel-Dominanz pro Takt schneller sein als Sandy Bridge, fliegt der i5 raus. Bis dahin präferiere ich die IPC-stärkere CPU ... so wie ich damals einen Athlon XP, Athlon 64 und Athlon 64 X2 hatte. Seit dem Core 2 ist IPC aber nun mal von Intel "gebucht". That's it. Und nun hör bitte auf zu trollen.
Ach ich trolle obwohl mein Gegenüber lieber im Spielbaren Bereich mehr fps hat als im unspielbaren?Im spielbaren Bereich habe ich von mehr Fps was, im unspielbaren nicht, solange es unspielbar bleibt :P

Gast
2010-08-16, 18:57:59
Im spielbaren Bereich habe ich von mehr Fps was, im unspielbaren nicht, solange es unspielbar bleibt :P

Genau das Gegenteil ist der Fall: Wenn es ohnehin schon gut spielbar ist bringen dir noch mehr fps auch nichts mehr. Bei wenigen fps hingegen zählt jedes zusätzliche fps. Und jetzt hör auf zu trollen.

Daredevil
2010-08-16, 19:01:59
Welches Prozessor hat denn das beste Preis/OC-Leistung Potential?
Also, kleinen Prozessor kaufen und auf 4 Ghz kloppen.
i5 oder X6?
Der i5 lässt sich besser übertakten, wa?

Undertaker
2010-08-16, 19:16:15
Der Phenom II liefert diese aber nicht, sonst müsste er im Mittel schneller sein. Was weder der 1055T im Vergleich zum 760er (beide ~ 170€) noch der 109T im Vergleich zum 860er ist (beide ebenfalls ähnlich teuer). Aber legt's aus wie ihr wollt, bei höheren AVGs und leicht niedrigeren MINs nehme ich den Core i5/i7.

Das einfachste wäre doch, endlich diese sinnlosen isolierten min-fps komplett aus den Diagrammen zu nehmen. ;) Wenn ihr eh meist mit Fraps bencht, lässt sich doch ganz einfach mit Excel eine Auswertung a'la "xx% des Benchmarks liegen unter 30fps", was eine sehr viel nützlichere Aussage darstellt. :)

mapel110
2010-08-16, 19:17:54
Das einfachste wäre doch, endlich diese sinnlosen isolierten min-fps komplett aus den Diagrammen zu nehmen. ;) Wenn ihr eh meist mit Fraps bencht, lässt sich doch ganz einfach mit Excel eine Auswertung a'la "xx% des Benchmarks liegen unter 30fps", was eine sehr viel nützlichere Aussage darstellt. :)
Oder Frameverläufe mit Excel/Openoffice-Calc erstellen.

dargo
2010-08-16, 19:19:00
@y33H@

Nachdem ich mir den Test B jetzt live angeschaut habe wird einiges klarer. Die min.fps kommen exakt am Schluss vom Benchmark wo das Vieh ins Wasser eintaucht. Und zwar immer an der gleichen Stelle für ca. 1-2 Sekunden. Dabei spielt es keine Rolle ob ich 640x480, 1680x1050, DX11-Features@max. oder DX11-Features@off wähle. Ich habe schon eine Vermutung woran das liegt, bräuchte dafür aber deine Hilfe. Kannst du mit dem X6-System gerade was testen?

Edit:
Noch einfacher - dieser Benchmark spuckt zum Schluß einen Frameverlauf aus. Hast du den vom X6 parat?

y33H@
2010-08-16, 19:22:05
@ Undertaker

Nein, Min-Fps sind zu wichtig. Vor allem, wenn sie reproduzierbar sind.
Wenn ihr eh meist mit Fraps bencht, lässt sich doch ganz einfach mit Excel eine Auswertung a'la "xx% des Benchmarks liegen unter 30fps", was eine sehr viel nützlichere Aussage darstellt.Gab's schon mal, Print wie Online, hat den meisten aber nicht geschmeckt. Balken FTW :usad:

@ mapel110

Für größere Benches zu aufwendig (gerade online). Leider.

@ dargo

Ich hau's mal flott auf den Tisch ... erklär mal, was du meinst =)

dargo
2010-08-16, 19:23:34
@ dargo

Ich hau's mal flott auf den Tisch ... erklär mal, was du meinst =)
Siehe edit.

@ Undertaker

Nein, Min-Fps sind zu wichtig. Vor allem, wenn sie reproduzierbar sind.

In diesem Fall sind min.fps tödlich und führen nur zu völlig absurden Schlussfolgerungen, wenn ich mit meiner Vermutung richtig liege, wie du bestens am Gast sehen kannst.

Fetza
2010-08-16, 19:33:20
AMDs aktuelle Prozessoren sind, verglichen mit i5 oder i7, schlicht und ergreifend zu langsam, was die Pro-MHz-Leistung angeht. Das Einzige, was über das wahre Ausmaß hinwegtäuscht, sind CPU-Tests, die keine CPU-Tests sind. Computerbase hat den Dilettantismus diesbezüglich schon mal perfektioniert (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/22/#abschnitt_crysis): Performancerating Spiele: E8600 > i7-870 (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/32/#abschnitt_performancerating). Viele deutschsprachige Seiten gibt es nicht, die ordentlich testen können. Wen aber interessiert, wie veraltet die Phenom II-Architektur ist, der schaut mal bei xbitlabs oder legionhardware vorbei. Die haben sich den Spaß eines Skalierungstests mit CF erlaubt, was ein GPU-Limit eliminiert. Da sieht man erst wirklich, welche CPU was kann:

http://www.legionhardware.com/articles_pages/radeon_hd_5870_crossfire_cpu_scaling_performance_part_2,1.html
http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling.html

Um zur Ausgangsfrage zurückzukommen. Ein X6 ist verglichen mit einem i5 erst dann im Vorteil, wenn eine Anwendung mehr als 4 Kerne voll ausnutzen kann. Das sind im Moment geschätzt 3 % aller Anwendungen. In 2 Jahren vielleicht 10 % (bei Spielen wird die Parallelisierung noch lange nicht so schnell voranschreiten). Was würde ich also tun? i5-760 oder X6 1055T? Ganz einfach: i7 in Form des Xeon X3440 für 20 € mehr. Vereint hohe Pro-MHz-Leistung und skaliert dank SMT auch noch über einen i5 hinaus. Mit einem i7 wird man in keiner Anwendung das Nachsehen gegenüber einem X6 haben.
Nein, dann solltest du dir einen Core iX holen weil der die Bude rockt wenn du in einem Jahr eine neue Grafikkarte kaufst.

Tests mit Crossfire/SLI Systemen zeigen das Leistungspotential der Prozessorarchitektur auf und genau darum geht es in CPU-Tests. Nicht darum die Prozessoren hinter einen Grafikflaschenhals zu setzen. Die Mehrleistung mag dir heute nichts nützen, aber CPUs halten mittlerweile nunmal deutlich länger als Grafikkarten, also profitiert man auf lange Sicht hin gesehen wenn man gleich beim Kauf sich darüber informiert welche Lösung die zukunftssichere ist.

Öhm, also ich habe mir jetzt mal die test von legionhardware angeschaut. Kann ich nicht lesen, oder wieso schneidet da der phenom 2 eigentlich sehr ordentlich ab. Deutlich besser als der alte cd2 und fast gleichauf mit den core-i-5 von intel? :confused:

Zumindest in world of conflict und stalker macht der phenom 2 doch eine hervorragende figur - und weiter habe ich dann garnicht mehr geguckt.

y33H@
2010-08-16, 19:34:41
@ dargo

Mit welchen Settings soll ich den Verlauf machen? Habe einen 1090T samt GTX 480 @ Win7 drin. Der Gast trollt imo bewusst.

Undertaker
2010-08-16, 19:34:42
Nein, Min-Fps sind zu wichtig. Vor allem, wenn sie reproduzierbar sind.

Selbst wenn sie reproduzierbar sind, möchte ich das für einen min-fps-Wert einer einzigen Sekunde eines möglicherweise mehrminütigen Benchmarks ausdrücklich verneinen. Ein solcher Wert hat, ohne ihn genauer einordnen zu können - z.B. mittels eines Frameverlaufes - schlicht keinerlei praktische Aussagekraft.
Außer natürlich, du meinst mit "wichtig", dass es unter euren Lesern einfach viele sehen möchten - obwohl bzw. weil ihnen die reale Bedeutung dieses Wertes evntl. gar nicht klar ist. Da kann man natürlich nicht von heute auf morgen etwas ändern. ;)


Gab's schon mal, Print wie Online, hat den meisten aber nicht geschmeckt. Balken FTW :usad:

Traurige Wahrheit. :(

dargo
2010-08-16, 19:44:43
@ dargo

Mit welchen Settings soll ich den Verlauf machen? Habe einen 1090T samt GTX 480 @ Win7 drin. Der Gast trollt imo bewusst.
Erstmal die gleichen wie bei PCGH - 1680x1050 1xAA/1xAF max. Details @DX11. Dann mache bitte einen Screenshot vom Benchmark-Frameverlauf mit dem X6@2,8Ghz DDR3-1333@7-7-7-21.

y33H@
2010-08-16, 19:55:01
1680x1050, kein AA/AF, max. Details @DX11 ohne DX11-Features
Phenom II X6 1055T ohne TC, DDR3-1333@7-7-7-21, Geforce GTX 480

http://www.abload.de/thumb/lp2dx112010-08-1619-52oa8p.jpg (http://www.abload.de/image.php?img=lp2dx112010-08-1619-52oa8p.jpg)

Am Ende, wenn das Viech ins Wasser springt, "ertrinken" die Fps.

dargo
2010-08-16, 19:58:29
1680x1050, kein AA/AF, max. Details @DX11 ohne DX11-Features
Phenom II X6 1055T ohne TC, DDR3-1333@7-7-7-21, Geforce GTX 480

http://www.abload.de/thumb/lp2dx112010-08-1619-52oa8p.jpg (http://www.abload.de/image.php?img=lp2dx112010-08-1619-52oa8p.jpg)

Am Ende, wenn das Viech ins Wasser springt, "ertrinken" die Fps.
Argh... jetzt hast du ohne DX11-Features getestet. Ich meinte doch mit max. Details @DX11. :ubash2:
Willst du nochmal neu testen oder soll ich? :D

Gast
2010-08-16, 20:06:49
Am Ende, wenn das Viech ins Wasser springt, "ertrinken" die Fps.

Überall anders liefert auch der Phenom ausreichend fps. ;)

y33H@
2010-08-16, 20:09:21
@ Gast

Darum geht's nicht.

@ dargo

Alles wie gehabt, nur mit DX11-Features @ "High" =) Darf ich jetzt heim? :biggrin:

http://www.abload.de/thumb/lp2dx112010-08-1620-083h49.png (http://www.abload.de/image.php?img=lp2dx112010-08-1620-083h49.png)

dargo
2010-08-16, 20:18:44
@ dargo
Darf ich jetzt heim? :biggrin:

Jo. :biggrin:

PS: der trollende gast wird sich gleich wundern. ;)

y33H@
2010-08-16, 20:38:20
Soa, ich koch - du sorgst für Verwunderung ;D

dargo
2010-08-16, 20:51:49
Ok, dann fangen wir mal an. :)

1680x1050, kein AA/AF, max. Details @DX11 ohne DX11-Features
Phenom II X6 1055T ohne TC, DDR3-1333@7-7-7-21, Geforce GTX 480
http://www5.pic-upload.de/16.08.10/nz67nkvumlsx.jpg

1680x1050, kein AA/AF, max. Details @DX11 ohne DX11-Features
i5-760 ohne TC, DDR3-1333@7-7-7-21, Geforce GTX 470@710Mhz
http://www5.pic-upload.de/16.08.10/83wx9w7cloky.jpg

@Gast
Nanu, der i5-760 liegt ja vor dem X6 1055T. ;)

Jetzt mal ernsthaft. Der i5-760 liegt im Durchschnitt hierbei etwas vorne. Und das obwohl die Engine über 4 Cores skaliert und ich mit einer etwas langsameren Grafikkarte unterwegs bin. Der Benchmark ist nämlich mit diesen Settings nicht zu 100% cpu-limitiert. Ich frage mich allerdings wie Capcom die CPU-Last im Benchmark "simuliert". Denn eigentlich ist es nur eine Timedemo. Die CPU-Last ist für eine Timedemo aber unüblich. Würde mich echt interessieren. Und vorallem ob diese "simulierte" CPU-Last auch später tatsächlich in diesem Ausmaß und vorallem Parallelisierbarkeit Ingame vorhanden ist.

Nun kommen wir zu meiner Vermutung warum zum Schluß die Framerate so extrem auf allen CPUs einbricht und der i7 samt SMT und der X6 etwas höhere Frames liefern. Mir sieht es so aus, dass in ca. den letzten beiden Sekunden schon die Berechnung der Frames bzw. des Diagramms im Hintergrund stattfindet. Da die Engine bzw. dieser Benchmark eine extrem hohe CPU-Last erzeugt bleiben natürlich beim i7 bzw. dem X6 mehr Resourcen für die Berechnung zur Verfügung. Die Grundlast ist in diesem Moment extrem hoch. Das sieht man auch sehr gut hierbei:

37067

In der zweiten Sekunde von hinten sind beim Lynnfield praktisch alle Cores am Anschlag während davor noch etwas Luft vorhanden ist. Anders kann ich mir diesen Einbruch nicht erklären. Beim Eintauchen von diesem Monster passiert nichts was diese extreme CPU-Last rechtfertigen könnte.

PS: der i5-760 wurde durch einen i5-750 mit 21x133 simuliert.

Edit:
Jetzt habe ich die max. Settings vergessen.

1680x1050, kein AA/AF, max. Details @DX11
Phenom II X6 1055T ohne TC, DDR3-1333@7-7-7-21, Geforce GTX 480
http://www5.pic-upload.de/16.08.10/99pvkeoyvmy.jpg

1680x1050, kein AA/AF, max. Details @DX11
i5-760 ohne TC, DDR3-1333@7-7-7-21, Geforce GTX 470@710Mhz
http://www5.pic-upload.de/16.08.10/z7bn9dov4zw.jpg

Mit maximalen Details liegen beide Systeme im Durchschnitt gleichauf. In Teilbereichen dominiert aber die GTX480 aufgrund zunehmendem GPU-Limit.

PPS: der LP2-Benchmark ist imo ein Paradebeispiel schlechthin warum man mit min.fps so vorsichtig sein sollte.

dargo
2010-08-16, 21:12:39
@y33H@

Eins musst du mir aber bitte erklären. Wie kann es sein, dass in eurem PCGH-Test der X6 1055T 59,8 avg.fps mit max. Details @DX11 erreicht und du jetzt 50,9 avg.fps? Wo liegt der Fehler? :)

y33H@
2010-08-16, 21:27:00
Im Diagramm liegt der Fehler :usad: DX11, aber ohne DX11-Features.

dargo
2010-08-16, 21:35:27
Im Diagramm liegt der Fehler :usad: DX11, aber ohne DX11-Features.
Dann sind die Werte von Intel aber auch zu hoch, richtig? Zumindest decken sich die Werte ungefähr mit meinen ohne DX11-Features. Deine GTX480 schlägt da ja bissel mehr durch als meine GTX470-OC.

Fetter Fettsack
2010-08-16, 22:21:23
Zitat von Gast

Genau das Gegenteil ist der Fall: Wenn es ohnehin schon gut spielbar ist bringen dir noch mehr fps auch nichts mehr. Bei wenigen fps hingegen zählt jedes zusätzliche fps. Und jetzt hör auf zu trollen.

Was soll denn dieser Umgangston? Ist doch nicht nötig und zerstört nur das Diskussionsklima.
Höflichkeit auch Leuten gegenüber, die man nicht zu mögen scheint, ist eine Tugend. ;)

Zitat von dargo

In der zweiten Sekunde von hinten sind beim Lynnfield praktisch alle Cores am Anschlag während davor noch etwas Luft vorhanden ist. Anders kann ich mir diesen Einbruch nicht erklären. Beim Eintauchen von diesem Monster passiert nichts was diese extreme CPU-Last rechtfertigen könnte.

Vielleicht die Interaktion mit dem Wasser? Oder irgendwelche weniger auffällige aber rechenintensive Effekte dabei?

dargo@work
2010-08-17, 12:07:57
Vielleicht die Interaktion mit dem Wasser?

Das kann nicht sein. Am Anfang vom Benchmark kommt das gleiche Vieh aus dem Wasser und dort liegen die fps 3-4 mal höher. Außerdem wird das Wasser laut PCGH tesseliert, was wiederum auf Kosten der Grafikkarte geht.


Oder irgendwelche weniger auffällige aber rechenintensive Effekte dabei?

Ich sehe da nichts besonderes. Und solche Effekte gehen in der Regel auf Kosten der Grafikkarte. Bei den min.fps herrscht aber extreme CPU-Last. Weit im unspielbaren Bereich.

Fetter Fettsack
2010-08-17, 14:34:57
Gut, dann fällt mir nichts weiteres dazu ein, denn meine einzige Vermutung war, dass da irgendeine Physikberechnung einschlägt.

NaseWeiss
2010-08-19, 03:30:25
Oh mann... streitet euch immernoch um das gleiche Thema. Die PC-Games-Hardware Leutz schmeißen aber auch immer neues Holz ins Feuer :D

edit:
Hab die beiden P2 Tests auch mal durchgeführt, mit 9800gt geht natürlich nur dx9. Was mir aber aufgefallen ist, daß die Bildquallität ohne AA kaum schlechter war, wie mit 4xMSAA bei der 1680`iger Auflösung, nur die FPS brechen erheblich ein. Woran kann das liegen? Nur leichte Treppchenbildung und die nicht oft zu sehen, auch nicht an den Charakteren/Monstern. Wenn ich es schaffe, versuch ich es mal morgen mit Screenshots zu untermauern.

dargo@work
2010-08-19, 06:06:54
edit:
Hab die beiden P2 Tests auch mal durchgeführt, mit 9800gt geht natürlich nur dx9. Was mir aber aufgefallen ist, daß die Bildquallität ohne AA kaum schlechter war, wie mit 4xMSAA bei der 1680`iger Auflösung, nur die FPS brechen erheblich ein. Woran kann das liegen? Nur leichte Treppchenbildung und die nicht oft zu sehen, auch nicht an den Charakteren/Monstern. Wenn ich es schaffe, versuch ich es mal morgen mit Screenshots zu untermauern.
Threadthema verfehlt?

NaseWeiss
2010-08-19, 11:55:34
Threadthema verfehlt?

Ja, eindeutig! Ist aber hoffentlich nicht so schlimm... Musste es halt ansprechen, da es gerade genau um diesen Benchmark ging. Vieleicht ist ja jemanden beim benchen selbiges aufgefallen?

Psychopat
2010-08-19, 22:18:18
Gerade bei Planet3DNow gesehen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1282229350

Kurz: Auf AMD Systemen Software in einer virtuellen Umgebung laufen lassen, bei der man dem Programm eine Intel CPU vorgaukelt. Dadurch profitiert die AMD CPU von den Compileroptimierungen die Intel nur für die eigenen CPUs freischaltet.

Mich würde interessieren ob das wirklich was bringt und wenn ja wie viel. Da ich aber noch nie mit Virtualisierung gearbeitet habe, fehlt mir das Wissen um das selber zu testen. Findet sich hier wer der das mal ausprobieren würde?

][immy
2010-08-19, 22:57:57
Gerade bei Planet3DNow gesehen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1282229350

Kurz: Auf AMD Systemen Software in einer virtuellen Umgebung laufen lassen, bei der man dem Programm eine Intel CPU vorgaukelt. Dadurch profitiert die AMD CPU von den Compileroptimierungen die Intel nur für die eigenen CPUs freischaltet.

Mich würde interessieren ob das wirklich was bringt und wenn ja wie viel. Da ich aber noch nie mit Virtualisierung gearbeitet habe, fehlt mir das Wissen um das selber zu testen. Findet sich hier wer der das mal ausprobieren würde?

naja, das problem ist, durch die virtualisierung wird eigentlich alles langsamer, schließlich hast du eine zwischenschicht mehr. inzwischen ist der verlust zwar zu verkraften, aber ich kann mir nicht vorstellen, das die compileroptimierungen das wieder rausreißen könnten.

S940
2010-08-20, 01:34:55
Gerade bei Planet3DNow gesehen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1282229350

Kurz: Auf AMD Systemen Software in einer virtuellen Umgebung laufen lassen, bei der man dem Programm eine Intel CPU vorgaukelt. Dadurch profitiert die AMD CPU von den Compileroptimierungen die Intel nur für die eigenen CPUs freischaltet.

Mich würde interessieren ob das wirklich was bringt und wenn ja wie viel. Da ich aber noch nie mit Virtualisierung gearbeitet habe, fehlt mir das Wissen um das selber zu testen. Findet sich hier wer der das mal ausprobieren würde?
Hilft bei Spielen leider nicht, da die Grafikkarte nur rudimentär virtualisiert wird(*). Aber für Benches ala Cinebench, 3DMark etc. pp. reichts.
Kurz gesagt: Alles was keine Grafikkarte braucht ;-)

ciao

Alex

(*) Könnte aktuell aber eventuell doch schon mit Kniffen funktionieren, zumindest hat AMD jetzt mit den 890FX Chipsatz eine IOMMU draußen, die das ermöglichen sollte. Aber hab noch niergends jemanden gesehen, der das im Einsatz hat. Zuerstmal muss das auch von VMWare unterstützt werden.

Undertaker
2010-08-20, 08:47:35
Seit wann braucht 3DMark keine Grafikkarte. ;) Letztlich ist der Intel Compiler in der Praxis eh bedeutungslos, da kann man sich solche Spielereien eigentlich gleich sparen. :)

dildo4u
2010-08-30, 16:06:52
PCGH hat jetzt Ruse getestet die Engine ist der Oberhammer was Multicoreauslastung angeht.Hab' selber schon die Demo gezockt läuft auf meinem X6 schon OK auf Insane Detail Einstellung,das Zoomen ist wirklich sehr geil gemacht und flüssig.

Als Basis hat die PCGH ein Core 2 Q9550(2.8Ghz) genommen 28fps ein Ph2 X4 965 bringt +17% mher fps(32.6fps),X6 1090T +36%(38fps),Core i5 760 +51%(42.2fps),Core i7 860 mit SMT( +76%)(49.2fps) und Core i7 970(Sixcore +SMT) 124%(62.4fps). :eek:

dargo
2010-08-30, 16:22:59
PCGH hat jetzt Ruse getestet die Engine ist der Oberhammer was Multicoreauslastung angeht.Hab' selber schon die Demo gezockt läuft auf meinem X6 schon OK auf Insane Detail Einstellung,das Zoomen ist wirklich sehr geil gemacht und flüssig.

Als Basis hat die PCGH ein Core 2 Q9550(2.8Ghz) genommen 28fps ein Ph2 X4 965 bringt +17% mher fps(32.6fps),X6 1090T +36%(38fps),Core i5 760 +51%(42.2fps),Core i7 860 mit SMT( +76%)(49.2fps) und Core i7 970(Sixcore +SMT) 124%(62.4fps). :eek:
Ähm... ich möchte deine Euphorie nicht unbedingt zerstören, aber was ist daran so besonders?

Ohne jetzt den PCGH-Test gesehen zu haben:

i7-970 = 62,4fps
i7-860 = 49,2fps

Taktbereinigt müsste der i7-970 bei ca. 54,6fps liegen. Das sind im besten Fall +11% für die 2 zusätzlichen Kerne. Unter perfekter Multicoreskalierung stelle ich mir schon bissel was anderes vor. Zumal der i7-970 durch die S1366-Plattform auch minimal profitieren dürfte. Das einzige was ich hierbei sehr nett finde ist, dass SMT satte +~17% bringt. Das ist ja sogar mehr wert als die zusätzlichen 2 Kerne. :tongue:

Edit:
Und das schlimmste - der Phenom 2 wird ja extrem böse verhauen.

Phenom 2 X4 965 = 32,6fps
i7-860 mit SMT = 49,2fps

Der i7-860@3,4Ghz müsste ca. 60fps bringen. Das ist nicht mehr feierlich. :usad:

Ich hoffe für AMD nur, dass Bulldozer da vieles wieder gut macht.

dildo4u
2010-08-30, 16:30:46
Ich denke beim 970 spielt schon ein GPU Limit rein jedenfalls bringt SMT(25%) und mehr Core's ne ganze Menge.Im Fps Verlauf zerstört der Core 970 den Core i5 760 so ein Abstand gab's noch bei keinem Game.

dargo
2010-08-30, 16:34:29
Ich denke beim 970 spielt schon ein GPU Limit rein jedenfalls bringt SMT(25%) und mehr Core's ne ganze Menge.
Du denkst es oder weißt es genau? Mit Spekulationen kommen wir hier nicht sehr weit. Und wie kommst du darauf, dass SMT +25% bringt? :confused:

Edit:
Ah, jetzt sehe ich es. Du hast einfach die 76% - 51% gerechnet. So einfach ist Prozentrechnung aber nicht. :tongue:
Wenn die Basis (in diesem Fall der Q9550) 100% ist, CPU X +51% und CPU Y +76% zulegt ist CPU Y um den Faktor 1,1655 oder eben 16,55% schneller als CPU X (176/151). :)

dildo4u
2010-08-30, 16:45:42
Hier beide Grafiken aus der PCGH.

http://www.abload.de/img/ruse002nl406.jpg

Leider mit 5870 getestet deshalb denke ich könnte der Core i7 970 Gpu limitiert sein.

MiamiNice
2010-08-30, 16:53:57
Als Basis hat die PCGH ein Core 2 Q9550(2.8Ghz) genommen 28fps ein Ph2 X4 965 bringt +17% mher fps(32.6fps),X6 1090T +36%(38fps),Core i5 760 +51%(42.2fps),Core i7 860 mit SMT( +76%)(49.2fps) und Core i7 970(Sixcore +SMT) 124%(62.4fps).

In welcher Auflösung sind diese Werte entstanden?

€: Danke Dildo

Damit ist für mich etwas bestätigt was ich schon die ganze Zeit schreibe. Klar merkt man in 80% der Games keinen Unterscheid zwischen AMD und Intel Kisten ausser in den Min Fps die jeder anders wahrnimmt. Aber wen wirklich mal CPU Leistung gefordert ist, ist es wohl besser man hat einen 4er Intel als einen 4er oder 6er AMD im PC. Na hoffentlich hohlt Bulldozer mal ordentlich auf.

dildo4u
2010-08-30, 16:54:40
1680*1050.

Odal
2010-08-30, 16:56:22
echt traurig wie bescheiden der grosse 6kerner von AMD 1090T trotz ansatzweise brauchbarer Multicoreskalierung abschneidet

bestätigt aber mal wieder das K10.5 (inklusive aller ableger wie 6core) eher das Äquivalent zum Core2Q ist und wir auf Konkurenz zu Nehalem noch immer warten

dargo
2010-08-30, 17:00:07
Im Fps Verlauf zerstört der Core 970 den Core i5 760 so ein Abstand gab's bei noch keinem Game.
Was macht dich so sicher? An kompetenten CPU-Tests in Games hargelt es nicht gerade im Netz. ;D

Du stellst hier völlig absurde Vergleiche an.

1. Der i7-970 taktet mit 3,2Ghz, der i5-760 mit nur 2,8Ghz.
2. Der i7-970 nutzt SMT.

SMT lasse ich gelten, aber nicht unterschiedliche Taktraten. Der einzige der im Frameverlauf zerstört wird ist der Phenom 2 X6 1090T. Der i7-970 ist knapp 65% schneller im Durchschnitt in der Testszene, und das bei gleicher Taktrate! Ja selbst der i5-760 überholt den X6 1090T. X-D

dildo4u
2010-08-30, 17:03:41
Was macht dich so sicher? An kompetenten CPU-Tests in Games hargelt es nicht gerade im Netz. ;D

Du stellst hier völlig absurde Vergleiche an.

1. Der i7-970 taktet mit 3,2Ghh, der i5-760 mit nur 2,8Ghz.
2. Der i7-970 nutzt SMT.

SMT lasse ich gelten, aber nicht unterschiedliche Taktraten. Der einzige der im Frameverlauf zerstört wird ist der Phenom 2 X6 1090T. Der i7-970 ist knapp 65% schneller im Durchschnitt in der Testszene, und das bei gleicher Taktrate! Ja selbst der i5-760 überholt den X6 1090T. X-D
Heul doch nicht weil du ne last Gen CPU hast,ich freu mich das die Entwicklung weiter geht.Mit nur 4 Thread's wird sogar ne PS3 gebremst die braucht 7 Threads.

dargo
2010-08-30, 17:19:59
Heul doch nicht weil du ne last Gen CPU hast,ich freu mich das die Entwicklung weiter geht.

Genau, meine CPU ist die totale Krücke wenn sie mit meinen Settings (siehe Sig.) die gleichen Frames wie ein i7-970@2,9Ghz in RUSE erreicht. ;D Dein Diskussionsniveau war auch schon mal besser. :|


Mit nur 4 Thread's wird sogar ne PS3 gebremst die braucht 7 Threads.
Wen interessiert hier die lahme PS3?

Übrigens, nach meiner Rechnung bringen die 6 Kerne gegenüber 4 Kernen +~23%. Kann man ganz leicht aus den Werten vom X4 965 BE und X6 1090T errechnen.

Headjunkie
2010-08-30, 21:02:20
+23% sind doch aber eigentlich net schlecht?
+50% waer ja absolutes Maximum, also nicht erreichbar, +23% sind fuer 1 Jahr nach Release der X6er doch garnet mal so schlecht? Klar die i750 ist immernoch die bessere GamerCPU(Reflexschreiben verhindern!), aber wenn jetzt schon die Haelfte der moeglichen Performance genutzt wird, ist das mMn net so schlecht.

SLI/CrossFire haben ja auch mit aehnlich schlechten Skalierungswerten angefangen und ne 3. oder 4.Karte skaliert je nach System selbst heute noch nur so schlecht.

y33H@
2010-08-30, 21:18:12
Erschreckend ist nur, dass der i5-760 bei gleichem Takt und weniger Kernen sehr weit vor dem ähnlich teuren 1055T [nicht abgebildet!] liegt. Und das, obwohl RUSE mehr als +20% aus sechs statt vier Kernen zieht :usad: Und nun sehe ich, gerade zurück aus dem Urlaub, dass SB die IPC noch mal 10-20% höher legt. Armer Bulldozer ...

mapel110
2010-08-30, 21:19:58
Kann nur bedeuten, dass AMD noch billiger wird. ^^ Gut für Kunden.

y33H@
2010-08-30, 21:21:20
Auf Dauer nur billige CPUs verkaufen, bringt's nicht. Bei einem Atom, ja - aber nicht bei einem Phenom II.

Schlammsau
2010-08-30, 21:25:13
So wie ich das sehe, sind die Phenoms eigentlich nur in Games so schwach.
Warum eigentlich? Sind Games so krass auf Intel optimiert?

Bei Anwendungen verhaut ein PII teilweise die Konkurrenz. Da ist zB ein PII 965BE da wo er hingehört, irgendwo zwischen den i5 und den kleinen i7.

Gast
2010-08-30, 21:29:56
So wie ich das sehe, sind die Phenoms eigentlich nur in Games so schwach.
Warum eigentlich? Sind Games so krass auf Intel optimiert?

Bei Anwendungen verhaut ein PII teilweise die Konkurrenz. Da ist ein PII 965BE da wo er hingehört, irgendwo zwischen den i5 und den kleinen i7.
Und welche sollen das sein? Unterm Strich genauso viele, wie es bei den Games der Fall ist. Also 1-2 ;D

y33H@
2010-08-30, 21:31:18
So auf Anhieb fallen mit nur Truecrypt und CB 11.5 ein. Gerade bei Singethreaded-Zeug knallen die IPC und der Turbo drauf [vor allem im Mobile-Sektor].

Schlammsau
2010-08-30, 21:32:56
Und welche sollen das sein? Unterm Strich genauso viele, wie es bei den Games der Fall ist. Also 1-2 ;D

http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/9/#abschnitt_autodesk_3ds_max_2010
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/11/#abschnitt_mainconcept_h264avc_pro
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/13/#abschnitt_specjvm2008
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/6/#abschnitt_x264_hd_benchmark
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/14/#abschnitt_truecrypt
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/4/#abschnitt_cinebench

y33H@
2010-08-30, 21:33:22
Da ist zB ein PII 965BE da wo er hingehört, irgendwo zwischen den i5 und den kleinen i7. Laut CB im Mittel aber nicht:

http://www.abload.de/thumb/2010-08-30_213204uqw3.png (http://www.abload.de/image.php?img=2010-08-30_213204uqw3.png)

@ Topic

Die Macher von RUSE haben Nehalem-/i7-Optimierungen btw benannt. Die krasse Dominanz kommt wohl nicht von ungefähr, zeigt aber mal wieder, wie es aussehen kann.

Schlammsau
2010-08-30, 21:34:34
Im Mittel nicht, weil bei CB zB ein oder zwei Andwendungen die stark von der Speicherperformance profitieren das Rating nach unten ziehen.
Siehe einen Post über dir.

y33H@
2010-08-30, 21:35:50
1-2/8?

Schlammsau
2010-08-30, 21:39:24
Schau die oben geposteten Werte an. Da liegt der 965BE immer auf auf i5 bzw. manchmal sogar auf i7 Niveau.
Bei den anderen Benchmarks gibts krasse Ausreisser nach unten.
Beim Lame und Winrar Test unter i5 Niveau:
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/10/#abschnitt_lame
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/8/#abschnitt_winrar

Bei TrueCrypt hingegen ist ein PII 965 BE sogar schneller als ein i7 975 EE, und der X6 1090T sogar nur knapp hinter dem i7 980X EE! :eek:
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/14/#abschnitt_truecrypt

Alles in allem ordne ich die PII X4 mit über 3Ghz, auf i5 Niveau ein, in Anwendungen versteht sich.
In Games loosen die Phenoms teilweise wirklich derbe ab, und da stellt sich mir die Frage warum eigentlich?

BlackBirdSR
2010-08-30, 21:56:57
In Games loosen die Phenoms teilweise wirklich derbe ab, und da stellt sich mir die Frage warum eigentlich?

Cache und Speichersubsystem (+ ein paar Tricks). Alles vom L1-Cache bis runter zu den RAM-Prefetchern und teilweise sogar noch nach dem Frontend.
Das war seit dem P3 Coppermine schon immer Intels Stärke und hat Coppermine geholfen, den P3-S sogar über den K7 gehoben und den P4 halbwegs gerettet.
Schon alleine was Intel aus dem i7 rausgeholt hat, der im ENdeffekt nur ein Core2 mit ein paar minimalen Tweaks ist - alles nur durch Verbesserungen im Speichersystem.
Alleine von der Rechenleistung musste sich seit dem K6 keine CPU von AMD verstecken.

Oh und gerade Spiele scheinen extrem auf das Speichersubsystem abzufahren... daher der damals rießen Gewinn für den K8 und der extreme Vorsprung des i7.

Schlammsau
2010-08-30, 22:04:55
Danke.

Ich denke AMD hat trotz dieser Schwäche, konkurrenzfähige und vor allem günstige Plattformen im Angebot.

BlackBirdSR
2010-08-30, 22:09:42
Danke.

Ich denke AMD hat trotz dieser Schwäche, konkurrenzfähige und vor allem günstige Plattformen im Angebot.


Ich denke, das hat niemand bezweifelt und ich bin froh, dass die Zeiten vorbei sind, wo AMD als inkompatibel, instabil und innovationsträge beschimpft wurde.

y33H@
2010-08-30, 22:10:06
Wie bereits gesagt - von günstig alleine kann man nicht leben.

Schlammsau
2010-08-30, 22:14:01
Ich denke, das hat niemand bezweifelt und ich bin froh, dass die Zeiten vorbei sind, wo AMD als, inkompatibel, instabil und innovationsträge beschimpft wurde.
Wenn ich mir den Thread so durchlese, gibt es doch einige die das bezweifeln.
Wie bereits gesagt - von günstig alleine kann man nicht leben.
Das ist wohl wahr.

y33H@
2010-08-30, 22:23:10
Eine aktuelle AMD-Plattform taugt =)

Nur ist sie einer P55-Plattform in Sachen Leistungsaufnahme und Fps bei ähnlichem Preis oft unterlegen - teils drastisch.

S940
2010-08-30, 23:07:50
Bei TrueCrypt hingegen ist ein PII 965 BE sogar schneller als ein i7 975 EE, und der X6 1090T sogar nur knapp hinter dem i7 980X EE! :eek:
http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/14/#abschnitt_truecrypt
Das ist noch Truecrypt 6.X, aktuell ist Truecrypt 7, das hat bereits AES Unterstützung, da sieht AMD jetzt in Verbindung mit den 32nm iKernen (ebenfall) kein Land mehr.

Ist mit der größte Vorteil von Intel, die Softwareabteilung ist 1A, bestes Beispiel damals der P4, wie schnell kamen da überall Programmversionen mit SSE2 heraus, die im Gegensatz zu x87 Code ganz passabel auf dem Teil liefen.

Cache und Speichersubsystem (+ ein paar Tricks). Alles vom L1-Cache bis runter zu den RAM-Prefetchern und teilweise sogar noch nach dem Frontend.
Das war seit dem P3 Coppermine schon immer Intels Stärke und hat Coppermine geholfen, den P3-S sogar über den K7 gehoben und den P4 halbwegs gerettet.
Schon alleine was Intel aus dem i7 rausgeholt hat, der im ENdeffekt nur ein Core2 mit ein paar minimalen Tweaks ist - alles nur durch Verbesserungen im Speichersystem.
Alleine von der Rechenleistung musste sich seit dem K6 keine CPU von AMD verstecken.

Oh und gerade Spiele scheinen extrem auf das Speichersubsystem abzufahren... daher der damals rießen Gewinn für den K8 und der extreme Vorsprung des i7.
Hättest Du ne grobe Ahnung, wieviel der Loop Stream Cache bei Games bringen könnte ?
Oder ist das eine zu pauschale Frage ?
Interessiert mich nur, da wir ja mal die Diskussion hatten ;-)

Und nun sehe ich, gerade zurück aus dem Urlaub, dass SB die IPC noch mal 10-20% höher legt. Armer Bulldozer ...
Über BD braucht man sich erstmal keine Gedanken machen .. der kommt noch lange nicht, aber SB kommt Ende des Jahres ... wer soll da dann noch nen X6 kaufen ?

Da ist 2011 dann mind. ein halbes Jahr saure Gurken Zeit bei AMD .. ich hoffe sie können sich mit Zugewinnen im Notebookmark mit den Fusionteilen über Wasser halten.
Aber da legt SB ja auch nach ..

Schlammsau
2010-08-30, 23:12:34
Das ist noch Truecrypt 6.X, aktuell ist Truecrypt 7, das hat bereits AES Unterstützung, da sieht AMD jetzt in Verbindung mit den 32nm iKernen (ebenfall) kein Land mehr.

Ist mit der größte Vorteil von Intel, die Softwareabteilung ist 1A, bestes Beispiel damals der P4, wie schnell kamen da überall Programmversionen mit SSE2 heraus, die im Gegensatz zu x87 Code ganz passabel auf dem Teil liefen.

Welche Intel CPUs unterstützen AES?

S940
2010-08-30, 23:15:12
Welche Intel CPUs unterstützen AES?
Schrieb ich doch, die 32nm Teile, also im Moment das 6Core Dickschiff und die kleinen Clarkdales, wobei das bei den ganz billigen Dingern (i3/Pentium) mal wieder deaktiviert ist - wenn ich mich recht erinnere.

Armaq
2010-08-30, 23:22:47
Ich war gestern auf der "Suche" nach einem netten kleinen System für meine Freundin. Der Plattformunterschied ist bei einem Office/Allround-PC wirklich zu gering, um nicht den Intel zu wählen. Dabei habe ich lediglich Mainboard/CPU/Speicher betrachtet, wobei der Speicher sogar noch raus fällt. Ein besseres P/L-Verhältnis hat AMD aufgrund der niedrigen Leistung nicht mehr. Vergleicht man einen i5 mit der PhIIX4-Riege sieht es sehr düster aus.

Schlammsau
2010-08-30, 23:26:44
Könntest du mal genau beschreiben für was der Rechner benötigt wird, bzw welche CPUs und Plattformen du miteinander verglichen hast?

S940
2010-08-30, 23:27:26
Ich war gestern auf der "Suche" nach einem netten kleinen System für meine Freundin. Der Plattformunterschied ist bei einem Office/Allround-PC wirklich zu gering, um nicht den Intel zu wählen. Dabei habe ich lediglich Mainboard/CPU/Speicher betrachtet, wobei der Speicher sogar noch raus fällt. Ein besseres P/L-Verhältnis hat AMD aufgrund der niedrigen Leistung nicht mehr. Vergleicht man einen i5 mit der PhIIX4-Riege sieht es sehr düster aus.
Öh ? Leistung für ein Office System ? Da reicht doch schon ein Atom ... oder was meinst Du mit "Allround" ? Das ist ein breiter Begriff ...

BlackBirdSR
2010-08-30, 23:57:52
Hättest Du ne grobe Ahnung, wieviel der Loop Stream Cache bei Games bringen könnte ?
Oder ist das eine zu pauschale Frage ?
Interessiert mich nur, da wir ja mal die Diskussion hatten ;-)
.


Nein hab ich natürlich nicht. Du scheinst echt besessen von dem Ding?
Frag mal David Kanter, vielleicht wirft der ein paar Profiling Runden an.

Armaq
2010-08-30, 23:59:14
Öh ? Leistung für ein Office System ? Da reicht doch schon ein Atom ... oder was meinst Du mit "Allround" ? Das ist ein breiter Begriff ...
Sie spielt selten mal ein Spiel (ZooTycoon irgendwas) und nimmt gerne Filme auf und bearbeitet sie ein wenig (TV-Karte), schaut Fernsehen am PC und surft im Netz. Das kostet natürlich ein wenig Leistung. Unter einem schnellen Dual-Core geht da nichts, ein QC wäre fast besser. Außerdem sollte USB-3 doch mit drin sein, wenn schon ein neues System.

Edit:

Es waren insgesamt 4 Systeme. 2 waren QC-Systeme und 2 waren LowCost-DC-Systeme mit je 4 GB DDR3. Da gehts nur um Mainboard/CPU, der Speicher unterscheidet sich je nach Board und Kompatibilitätstabelle marginal.

Ende vom Lied ist, dass das Intel-System die klügere Wahl darstellt. Das war bei meiner Aufrüstaktion noch nicht der Fall. :)

S940
2010-08-31, 01:05:10
Nein hab ich natürlich nicht. Du scheinst echt besessen von dem Ding?
Frag mal David Kanter, vielleicht wirft der ein paar Profiling Runden an.
Lol, in gewisser Weise ja, ist für mich noch *das* IA Alleinstellungsmerkmal, noch abgesehen von CMP Fusion, aber sooviel wird das nicht bringen.
Naja egal, Danke für die Antwort, hätte ja sein können :)

@Armaq:
Ok, aber i5 kostet dann ja auch, oder meinst Du nen kleinen Clarkdale ?
Ich denke ich hätte nen Propus (X4 640) genommen, seit der letzten Preissenkung ist der ganz ok. Aber naja, wenn das Geld für einen 750/760 reicht, ist das sicher nicht verkehrt ;-)

ciao

Alex

dargo@work
2010-08-31, 06:33:21
+23% sind doch aber eigentlich net schlecht?
+50% waer ja absolutes Maximum, also nicht erreichbar, +23% sind fuer 1 Jahr nach Release der X6er doch garnet mal so schlecht?
Sagen wir mal so - es ist durchaus brauchbar und die Richtung gefällt mir auch. Man sollte dabei auch bedenken, dass der Vergleich X4 965 BE und X6 1090T selbst beim gleichen Takt nicht exakt möglich ist da beide CPUs auf die gleiche Menge L3 Cache Zugriff haben. Der X6 müsste eigentlich 9MB L3 Cache haben. Die Frage ist halt nur ob dieses Multithreading von RUSE auch bei anderen Genres wie zb. Shooter oder Rennspielen möglich ist. Bei Rennspielen stelle ich mir das einfacher bei viel KI vor. Bin allerdings der Meinung, dass dank der aktuellen Konsolen wir noch lange kein so gutes Multithreading bei 6 Kernen sehen werden. Denn dafür müssten die Rennspiele auch weit mehr als die üblichen max. 16 Fahrzeuge bei Multiplattform gleichzeitig auf der Rennstrecke bieten.

Headjunkie
2010-08-31, 07:17:18
Sagen wir mal so - es ist durchaus brauchbar und die Richtung gefällt mir auch. Man sollte dabei auch bedenken, dass der Vergleich X4 965 BE und X6 1090T selbst beim gleichen Takt nicht exakt möglich ist da beide CPUs auf die gleiche Menge L3 Cache Zugriff haben. Der X6 müsste eigentlich 9MB L3 Cache haben. Die Frage ist halt nur ob dieses Multithreading von RUSE auch bei anderen Genres wie zb. Shooter oder Rennspielen möglich ist. Bei Rennspielen stelle ich mir das einfacher bei viel KI vor. Bin allerdings der Meinung, dass dank der aktuellen Konsolen wir noch lange kein so gutes Multithreading bei 6 Kernen sehen werden. Denn dafür müssten die Rennspiele auch weit mehr als die üblichen max. 16 Fahrzeuge bei Multiplattform gleichzeitig auf der Rennstrecke bieten.
Naja, fuer den unwahrscheinlichen Fall das Shooter mal vernuenftige KIs bekommen wuerds auch passen :biggrin:
Allerdings ist es wahrscheinlicher imho das in diesen Genres die Physikberechnung als erstes vernuenftig multithreaded wird. Durch die grosse Verbreitung von 4 oder mehr Kernen bei Spielern bietet sich das einfach an. Sachen wie Soundberechnung und Netzwerkcode und einige andere Berechnungen werden einfach immer zu klein sein als das sich in diesen Bereichen grosse Optimisierungen von Seiten der Programmerier lohnen wuerden. Aber zB jetzt in Mafia2 wuerde sich ne Physikoptmisierung auf Multicore absolut lohnen, mein X6 schlaeft bei dem Spiel, PhysX ruckelt trotzdem wie sau...

dargo@work
2010-08-31, 07:26:58
Aber zB jetzt in Mafia2 wuerde sich ne Physikoptmisierung auf Multicore absolut lohnen, mein X6 schlaeft bei dem Spiel, PhysX ruckelt trotzdem wie sau...
Oha, hier werden wieder Sachen durcheinander geworfen.

1. Die Physik von Mafia 2 läuft ausschließlich über die CPU.
2. Die Effekt-Physik wahlweise über CPU oder GPU, zumindest bei NV.

Die Effekt-Physik wird NV kaum für 6 Kerne oder mehr optimieren wenn sie keine CPUs im Angebot haben. Würde ich selber auch nicht machen. Damit würde man ganz klar gpu-beschleunigte Physik gefährden.

Headjunkie
2010-08-31, 07:39:00
Das PhysX dank in Besitz von Nvidia nicht auf CPUs angepasst wird ist mir klar, aber mir gings um generelle Physikengines. Fuer Shooter und auch Rennspiele ist ja ne gute Physik(und vorallem Effektphysik) ein sehr guter Weg es besser aussehen zu lassen (vom Aha Effekt her) und durch die immer mehr brachliegenden CPU Kerne bietet es sich hier an diese fuer Physik zu nutzen.
Es wird einfach schwieriger Skripte und die ganzen Coreberehcnungen eines Spieles weiter zu erhoehen. In den meisten Shootern hat sich ja non-Grafik technisch seit Jahren nicht unbedingt so viel getan das die CPU zusaetzlich auslasten wuerde, aber mit Phyisk koennte man auch locker noch nen paar Kerne auslasten, wenn man den wollte.

Und vom bisherigen Verhalten der Spielehersteller her, das Aussehen ueber Inhalt geht, denke ich einfach das es wahrscheinlicher ist das sie Physik fuer Effekte einbauen als ploetzlich anfangen intelligente KIs zu designen /:

dargo@work
2010-08-31, 07:52:26
Das PhysX dank in Besitz von Nvidia nicht auf CPUs angepasst wird ist mir klar, aber mir gings um generelle Physikengines.
Ich meine PhysX (bitte nicht mit gpu-beschleunigter PhysX verwechseln) ist multithreaded oder irre ich mich da? Das große Problem ist imho auch, dass Physik sich schlecht skalieren lässt. Soll heißen - will man auf der einen Seite richtig gute Physik realisieren womit beispielsweise ein X6 1090T noch gerade so gut spielbare Frames liefern würde würde man gleichzeitig > 90% der Spieler ausschließen. Die würden mit ihren schwächeren CPUs weit unter 30fps rumkrebsen. So etwas kann man nur sehr gut bei einer einheitlichen Systembasis wie zb. den Konsolen realisieren.

Gast
2010-08-31, 07:54:19
Ich wiederhole immer wieder, dass Nehalem und Phenom II nicht in der selben Liga spielen, aber die Computerbase-Timedemo-alle-CPUs-sind-gleichschnell (http://www.computerbase.de/artikel/prozessoren/2010/test-intel-core-i5-760/25/#abschnitt_call_of_duty_modern_warfare_2)-und-AMDs-Preisleistung-ist-ja-sooo-toll-Leser-Leute wollen es nicht wahrhaben. :D Sowohl bei Xbitlabs als auch bei Legionhardware sah man mit Crossfire-Systemen das wahre Leistungsmaß der CPUs und da hat Nehalem böse geowned, ebenso wie Nehalem bei niedrigen Auflösungen böse owned. Spätestens die nächste Grafikkartengeneration dürfte das wahre Leistungsmaß der CPUs durch das dann verschobene GPU-Limit in immer mehr Spielen bei selbst hohen Auflösungen aufzeigen.

dargo@work
2010-08-31, 08:05:53
Spätestens die nächste Grafikkartengeneration dürfte das wahre Leistungsmaß der CPUs durch das dann verschobene GPU-Limit in immer mehr Spielen bei selbst hohen Auflösungen aufzeigen.
Das tut schon die jetzige Generation ganz gut. Ich sehe in meinen Tests immer wieder, dass kaum Unterschied zwischen 640x480 1xAA/1xAF und 1680x1050 (meine native TFT-Auflösung) 4xMSAA/16xAF bei den Frames vorhanden ist (natürlich gibts auch einzelne Ausnahmen). Und wenn ein minimaler da ist liegts am anderen FoV. Das Problem sind leider die immer wieder genommenen Timedemos die den Großteil der CPU-Last aushebeln. Manche geben sich mittlerweile Mühe und versuchen mit Savegames zu testen. Dummerweise aber oftmals Szenen die noch stark gpu-limitiert sind.

Headjunkie
2010-08-31, 08:16:52
Ich meine PhysX (bitte nicht mit gpu-beschleunigter PhysX verwechseln) ist multithreaded oder irre ich mich da? Das große Problem ist imho auch, dass Physik sich schlecht skalieren lässt. Soll heißen - will man auf der einen Seite richtig gute Physik realisieren womit beispielsweise ein X6 1090T noch gerade so gut spielbare Frames liefern würde würde man gleichzeitig > 90% der Spieler ausschließen. Die würden mit ihren schwächeren CPUs weit unter 30fps rumkrebsen. So etwas kann man nur sehr gut bei einer einheitlichen Systembasis wie zb. den Konsolen realisieren.
Also wenn PhysX multithreaded ist dann ist es verdammt schlecht gemacht. Mein 1055T laeuft mit langsamter Luefterstufe auf 38Grad und Mafia2 ruckelt wenn ich PhysX dazuschalte....

Aber davon abgesehen, Physik eignet sich eigentlich hervorragend zum skalieren. Alle physikalischen Simulationen koennen mit wenigen Einstellungen von Pentium1 Anforderung auf "GigaUltraMegaRechner der noch nicht gebaut ist" hochgeschraubt werden.
Fuer Spiele wuerde das dann zB durch Faktoren bei den Partikelzahlen(Bruchstuecke u.ae.), Anzahl an Welleninteraktionen in Explosionen, Anzahl an Rueckpralleffekten etc etc etc gehen.
Und da ja heutzutage alles und jedes simuliert wird gibts da auch mehr als genug Wissen das genutzt werden koennte.

Edit: Als Beispiel, ich habe vor nen paar Monaten ein E-M-Wellen-simulator geschrieben gehabt, einfach durch einen einzelnen Faktor (Dimension der simulierten Raumelemente) konnte ich des von 0,001Sekunden auf unendliche Simulationszeit hieven. Fuer Spiele simuliert man nun eher Rauchwolken als EMFelder, aber vom Rechenaufwand und auch dem Prinzip ist das ja dasselbe.

Edit2: Wo wa gerade dabei sind, selbst wenn die naechste Grakageneration zeigt das P2 eigentlich nur 50% der Leistung eines Nehalems haben, limitieren wird trotzdem meistens die Graka:
Bloedsinn, CPU zaehlt bei meisten Spielen garnix.
Ich bin hier auf nem Schlepptop mit nem 1,66GHz Dualcore und habe auf dieser Kiste DragonAge2, Assassins Creed 1 und sogar Anno1404 und Tropico3 gespielt. Bei Anno und Tropico wurden grosse Staedte zum Problem, bei allen anderen Spielen hat immer die Graka limitiert. Aufloesung habe ich immer auf 1400x900 gehabt. Siedler 7 hatte ich versucht aber meine 7900Go hat nur Grafikfehler produziert. Fazit ist, CPU ist in fast allen non Strat/Sim games voellig schnurze und selbst in solchen Games kann man auch mit langsamen CPUs einiges reissen.

Upgrade die Graka und du kannst allet mit AA etc spielen, wobei interessant zu wissen waer auf welcher Aufloesung du spielst bzw spielen willst (fuer 1024*768 ist ne 460 naemlich bissel Overkill (-: )

Edit: In Anno habe ich die komplette Kampagne hier aufm Schleppi durchgespielt und sogar in Total War (80 Mann/Truppe) habe ich 2 komplette Spiele gemacht. Dualcore ftw! lol

Edit2: Gerade mal in die Liste geguckt, andere Spiele die auch aufm Lappi liefen: The Witcher, The Void, Sacred1, Risen, The Godfather 1+2(glaube der Pate auf deutsch), Overlord 1+2, Gothic3(ist aber ewig her, habs aber trotz Bugs durchgespielt gehabt), Mass Effect 1+2.

2mal den selben Post selber zu zitieren ist hardcore (-:

Aber wie gesagt, das alles lief auf nem Dualcore 1,66 Laptop, und es hat immer die verdammte Graka limitiert (7900 Go), spielbare FPS waren aber mit reduzierten Grafikdetails in fast allen Spielen moeglich was ja bedeutet das sie nicht bzw selten CPU limitiert waren, ne gewisse Ruckelresistenz habe ich wahrscheinlich schon aufgebaut in der Zeit an dem Laptop.

dargo@work
2010-08-31, 08:31:12
Also wenn PhysX multithreaded ist dann ist es verdammt schlecht gemacht.

Ich glaube du hast den Post #989 nicht verstanden. Also nochmal die Grundsatzfrage - kennst du den Unterschied zwischen PhysX und gpu-beschleunigter PhysX, sprich Effekt-Physik? Ersteres wird auch auf Konsolen neben Havok etc. verwendet.


Mein 1055T laeuft mit langsamter Luefterstufe auf 38Grad und Mafia2 ruckelt wenn ich PhysX dazuschalte....

Die Effekt-Physik wird NV kaum für 6 Kerne oder mehr optimieren wenn sie keine CPUs im Angebot haben. Würde ich selber auch nicht machen. Damit würde man ganz klar gpu-beschleunigte Physik gefährden.

Du schaltest nicht PhysX dazu sondern die Effekt-Physik die bei NV zusätzlich gpu-beschleunigt werden kann.


Aber davon abgesehen, Physik eignet sich eigentlich hervorragend zum skalieren.

Grundlast lässt sich nicht skalieren.


Alle physikalischen Simulationen koennen mit wenigen Einstellungen von Pentium1 Anforderung auf "GigaUltraMegaRechner der noch nicht gebaut ist" hochgeschraubt werden.
Fuer Spiele wuerde das dann zB durch Faktoren bei den Partikelzahlen(Bruchstuecke u.ae.), Anzahl an Welleninteraktionen in Explosionen, Anzahl an Rueckpralleffekten etc etc etc gehen.
Und da ja heutzutage alles und jedes simuliert wird gibts da auch mehr als genug Wissen das genutzt werden koennte.
Du wirfst hier wieder PhysX mit gpu-beschleunigter Effekt-Physik in einen Topf.

Headjunkie
2010-08-31, 08:48:20
Ok dann nochmal....
Die PhysX Option in Mafia2 schaltet hauptsaechlich 3 Dinge an, unabhaengig von der normalen Physik:
1.) Cloth simulationen, Kleidung an Koerpern faellt und bewegt sich "physikalisch korrekter"
2.) Partikel bzw Bruchstueckeffekte, mit aktivierter Option werden es mehr wenn man zB eine Wand anschiesst und sie bleiben liegen.
3.) Explosionseffekte, Rauch und Feuersimulation wird besser und wesentlich vielschichtiger.

So und wenn diese Option an ist wird sie dank meiner ATI Graka und NVidias Firmenpolitik auf der CPU berechnet, und obwohl keiner meiner 6 Kerne ausgelastet ist (Taskmanager und Temp) ruckelt es -> Bedeutet die zusaetliche CPU nutzende (Effekt)PhysX Berechnung spakt rum.

Davon unabhaengig laest sich sowohl Grundlast Physik als auch Effektphysik skalieren, vorallem wenns nur bei Programmstart einmal gemacht werden muss. Es gibt zwar Physikberechnungen die schwerer sind zu skalieren, aber gehen tut es. Als Beispiel, die Grundlastphysik das Objekte der Gravitation ausgesetzt sind kann ueber Anzahl der Objekte die Gravitation "erleben" und der Tiefe der Gravitationsberechnung skaliert werden, zB koennte man alle Kisten in einem Shooter in 6 Kategorien einteilen, und je nach CPU werden halt nur 1 oder alle 6 Kategorieren auch Physik erleben koennen bzw sie werden bei Programmstart als statische Objekte wie eine normale Wand geladen statt einem bewegbaren Objekt. Effektphysik wie zB Wellenberechnung (Wasser/Rauch) ist sowieso super skalierbar ueber Anzahl der berechnten Welleninteraktionen, und natuerlich der Anzahl gleichzeitig ablaufender Effekte etc etc.

Edit: Ok des Kistenbeispiel ist nicht das beste, aber nenn doch mal bitte eine Grundlastphysik die nicht skalierbar gemacht werden kann? Weil mir ist nicht genau klar warum des net gehen sollte. Im Prinzip laesst sich jegliche Physik ueber Feedbackloops darstellen auf Programmierseite, und die sind einfach aus Prinzip sehr gut skalierbar da man ja einfach mehr oder weniger Iterationen dieser Loops durchlaufen lassen kann.

dargo@work
2010-08-31, 09:08:30
Ok des Kistenbeispiel ist nicht das beste, aber nenn doch mal bitte eine Grundlastphysik die nicht skalierbar gemacht werden kann? Weil mir ist nicht genau klar warum des net gehen sollte. Im Prinzip laesst sich jegliche Physik ueber Feedbackloops darstellen auf Programmierseite, und die sind einfach aus Prinzip sehr gut skalierbar da man ja einfach mehr oder weniger Iterationen dieser Loops durchlaufen lassen kann.
Nun, ich bin jetzt kein Experte auf diesem Gebiet. Könnte mir aber durchaus vorstellen, dass eine Änderung der Grundlast (in unserem Beispiel also die Physik-Engine) zum Problem wird weil die Spieler nicht das gleiche Spiel spielen würden.

Headjunkie
2010-08-31, 09:17:49
Hmm, waer ne Art zusaetzlicher Schwierigkeitsgrad (:
In der Komplettloesung steht: Schiebe Kiste X1 und X2 an die Wand, hebe X1 auf X2 und klettere auf die Mauer und wegen der falschen CPU im Rechner ist X1 beim Spieler als Wand berechnet und daher schwer stapelbar (-:

Aber wahrscheinlich hast du Recht, das Problem ist nicht das es net gehen wuerde sondern das die Auswirkungen neue und vielleicht grosse Probleme verursachen koennen.
Aber selbst dann: Wo ein Wille, da ein Weg! (: Und falls doch nicht kann man immer noch Chuck Norris anrufen...

dargo@work
2010-08-31, 09:33:49
Hmm, waer ne Art zusaetzlicher Schwierigkeitsgrad (:

Und was machst du im MP wenn Spieler X einen Dualcore und Spieler Y einen Sechskerner besitzt?

Headjunkie
2010-08-31, 09:43:05
Und was machst du im MP wenn Spieler X einen Dualcore und Spieler Y einen Sechskerner besitzt?
Habsch doch gesagt, ist nen zusaetzlicher Schwierigkeitsgrad (:

Mal davon abgesehen waer MP wahrscheinlich kein Problem, die Levels werden ja meist extra fuer MP designt und dann muss man halt seine Skalierungslimits beachten, aber fuer Koop waers dann doch ein bisschen Hardcore und wuerde einfach garnicht funktionieren. Aber es war ja auch nur ein Beispiel mit einer spontanen Loesungsidee, ich bin davon ueberzeugt das vieles moeglich waere. Und nen unskalierbares Grundgeruest ist ja auch nicht schlimm, solange es klein genug bleibt das es auf minimaler Hardware laeuft.