PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Phenom II X4 940 und 920: (P)Review-Thread


Seiten : 1 [2] 3

HOT
2009-01-21, 11:45:39
Pff, ich schreib weiter P2 ;). Dürfte klar sein, dass jetzt noch kaum jemand vom Pentium2 redet und wenn, kann er das finde ich auch ausschreiben, immerhin ist das Verhältnis der Gebräuche des Namens ca. 99/1 im Moment :D.

Gast
2009-01-21, 21:56:55
Laßt ihn uns doch PhII nennen.
agree

Tarkin
2009-01-23, 20:17:35
AMD PII 940 @ 6.744 MHz (http://valid.canardpc.com/show_oc.php?id=490292)

und das mit einem billigen Gigabyte Mobo für 60,- welches noch die alte SB700 Southbridge hat... erstaunlich!!

http://www.xtremesystems.org/Forums/showthread.php?t=215406

Godlike
2009-01-23, 20:31:50
AMD PII 940 @ 6.744 MHz (http://valid.canardpc.com/show_oc.php?id=490292)

und das mit einem billigen Gigabyte Mobo für 60,- welches noch die alte SB700 Southbridge hat... erstaunlich!!

http://www.xtremesystems.org/Forums/showthread.php?t=215406

Schöner Wert, aber sie sollten aufhören die CPUs und GPUs für die Preise zu verschleudern. Quartalszahlen ftw...

Gummikuh
2009-01-23, 22:09:18
Oh...der hat gar keine VCore...ist das nen Feature von C&Q 3 :usweet:

Sorkalm
2009-01-23, 23:38:32
Oh...der hat gar keine VCore...ist das nen Feature von C&Q 3 :usweet:

Das ist nen Feature der CPU-Z-Validierung, die VCore zu streichen. ;)
Spricht also eher dafür, dass das echt ist, als dagegen. :)

6,7 GHz sind für 4 Kerne schon eine ganz schöne Hausnummer, und das immer noch mit Exemplaren aus der früheren Zeit. Wenn der Deneb noch ein bisschen läuft, bin ich auf die neueren Revisionen gespannt. :tongue:

w0mbat
2009-01-23, 23:45:46
AMD PII 940 @ 6.744 MHz (http://valid.canardpc.com/show_oc.php?id=490292)

und das mit einem billigen Gigabyte Mobo für 60,- welches noch die alte SB700 Southbridge hat... erstaunlich!!

http://www.xtremesystems.org/Forums/showthread.php?t=215406

Nur dass es ein Fake ist und deshalb auch nicht Validiert.

OFFY
2009-01-24, 10:42:30
Hallo,

macht sich der erhöte Northbrigetakt von 200MHZ beim Phenom II X4 950(2000MHZ) gegenüber dem Phenom II X4 940 BE(1800MHZ) eigentlich sehr bemerkbar? Wenn nicht würde ich einen X4 940BE nehmen,da ich ein Sockel AM2+ Board schon habe.Der Preisunterschied wäre ja eventuell ca.60,-€

allen ein super Wochenende

Gruß Offy

Avalox
2009-01-24, 11:17:40
Hallo,

macht sich der erhöte Northbrigetakt von 200MHZ beim Phenom II X4 950(2000MHZ) gegenüber dem Phenom II X4 940 BE(1800MHZ) eigentlich sehr bemerkbar?

Das würde mich auch sehr interessieren.
Ich habe zumindest keinen messbaren Unterschied feststellen können.
Kann bei mir die NB Takt sehr weit übertakten. Ist ja schliesslich auch der Takt des L3 Caches und man sollte denken, dass man dort Vorteile hat.
Aber ermessen habe ich in Anwendungen dann keinen Vorteil.

Was ich jetzt aber mal auf die paar Anwendungen beziehe, welche ich dort probiert habe.

AnarchX
2009-01-24, 11:40:22
P3DNow hat die NB-Skalierung getestet:
http://www.planet3dnow.de/vbulletin/showthread.php?t=354515&garpg=34 (+ folgende Seiten)
... wenn auch nur 1.8 vs 2.2GHz.

AffenJack
2009-01-24, 11:50:40
bei den meisten anwendungen bringts nicht soviel, bei spielen bringts allerdings schon bissl was. Im p3d hat die nbtakterhöhung von 1,8ghz auf 2,2ghz bei spielen im durchschnitt 3,2% gebracht.
Solle sich also bei den am3 phenom bei knapp über 1,5% bewegen.

Madkiller
2009-01-24, 12:52:01
Sowas in der Richtung kam auch bei mir und dem PhI raus:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=425671

knallebumm
2009-01-24, 13:13:56
Möglicherweise interessierts den einen oder anderen, der ein AM2+ Mainboard sucht.

Einige Foxconn boards sind gerade extrem im Preis gefallen.

http://geizhals.at/deutschland/a338055.html 790fx
http://geizhals.at/deutschland/a361784.html 790gx
http://geizhals.at/deutschland/a340645.html 780a sli

Ich habs im P3dnow aufgeschnappt. Möglicherweise zieht sich Foxconn hier zurück. (Spekulation)

OFFY
2009-01-24, 14:13:04
Hallo,

ich noch mal.Also gehe ich davon aus,da ich vorwiegend keine Spiele mache,mir die 60,-€ Mehrkosten für den Phenom II X4 950BE sparen kann.Die 1.5% merkt man eh nicht.Den X4 940Be kriegt man ja locker auf 3,1GHZ.
Danke für Eure schnellen Antworten.Bis dann


Gruß Offy:smile:

backfisch
2009-01-24, 14:31:49
Möglicherweise interessierts den einen oder anderen, der ein AM2+ Mainboard sucht.

Einige Foxconn boards sind gerade extrem im Preis gefallen.

http://geizhals.at/deutschland/a338055.html 790fx
http://geizhals.at/deutschland/a361784.html 790gx
http://geizhals.at/deutschland/a340645.html 780a sli

Ich habs im P3dnow aufgeschnappt. Möglicherweise zieht sich Foxconn hier zurück. (Spekulation)
Wow das sieht ja nicht schlecht aus. Will demnächst auf nen Phenom II umsteigen und hatte das A7DA-S mit dem 790gx schon ins Auge gefasst. Der Preis ist jetzt natürlich sehr gut. :eek: Sollte Foxconn sich schon wieder aus dem Endkundengeschäft zurückziehen war das aber ein eher kurzes Gastspiel. Aber mal abwarten.

_DrillSarge]I[
2009-01-24, 15:19:23
der 940er kostet nur noch bissl über 200€ :eek:
http://geizhals.at/deutschland/a389214.html
...*kaufengeh*

Der_Korken
2009-01-24, 18:35:20
I[;7060866']der 940er kostet nur noch bissl über 200€ :eek:
http://geizhals.at/deutschland/a389214.html
...*kaufengeh*

wtf? Also langsam werd ich schwach ... der Q9550 E0 scheint dagegen bei 270€ stecken geblieben zu sein ...

Fetza
2009-01-24, 19:54:46
I[;7060866']der 940er kostet nur noch bissl über 200€ :eek:
http://geizhals.at/deutschland/a389214.html
...*kaufengeh*

Naja, 210... da müssen noch ein paar euros runter. :D

_DrillSarge]I[
2009-01-25, 12:34:13
Naja, 210... da müssen noch ein paar euros runter. :D
dann halt den 920er. bei den oc-ergebnissen, sollte der locker die 200mhz mitmachen, eher deutlich mehr.
kostet auch nur um 185€ rum.

L.ED
2009-01-25, 13:50:20
Und ich finde man kann es auch übertreiben mit dem Geiz ^^

Auch der Einführungspreis war schon nicht verkehrt und hätte wegen meine ruhig so eine Weile bleiben können und sollen. Es kann auf Dauer einfach nicht gut sein alles einfach nur noch zu verramschen.

Besser für den Kunden hin oder her (ist ja alles richtig), aber man muss ja auch mal die andere Seite daran sehen wollen!

PS: Persönlich hätte auch 340Euro für den 940er Bezahlt, soviel hatte seinerzeit der X2 3800+ mal gekostet! ;)

Gast
2009-01-25, 14:39:48
Und ich finde man kann es auch übertreiben mit dem Geiz ^^

Auch der Einführungspreis war schon nicht verkehrt und hätte wegen meine ruhig so eine Weile bleiben können und sollen. Es kann auf Dauer einfach nicht gut sein alles einfach nur noch zu verramschen.

Besser für den Kunden hin oder her (ist ja alles richtig), aber man muss ja auch mal die andere Seite daran sehen wollen!

PS: Persönlich hätte auch 340Euro für den 940er Bezahlt, soviel hatte seinerzeit der X2 3800+ mal gekostet! ;)

Das ist freie Marktwirtschaft. Es steht Dir frei, nach dem Kauf weitere 120€ an AMD als Geste des guten Willens zu überweisen.

Matrix316
2009-01-25, 19:10:49
PS: Persönlich hätte auch 340Euro für den 940er Bezahlt, soviel hatte seinerzeit der X2 3800+ mal gekostet! ;)
Dann müsste aber ein Core2Quad 9550 auch 350 € kosten und ein i7 920 mindestens 400. Das wäre dann doch ein wenig übertrieben.

L.ED
2009-01-25, 19:58:09
Warum nicht!? Intel war früher noch Teurer, Bizarrerweise auch noch zu Zeiten als ihre Produktlinie als andere als auf Augenhöhe nähe gelegen.

Außerdem ist Intel hier nur bis zu einem gewissen Grade als direkte Konkurrenz zu sehen zulässig! Für bereits bestehenden Infrastrukturen auf AMD Basis stellt sich diese Frage nicht in diesem maßen oder eben halt noch ganz anders! ;)

Fetza
2009-01-26, 01:34:13
Und ich finde man kann es auch übertreiben mit dem Geiz ^^

Auch der Einführungspreis war schon nicht verkehrt und hätte wegen meine ruhig so eine Weile bleiben können und sollen. Es kann auf Dauer einfach nicht gut sein alles einfach nur noch zu verramschen.

Besser für den Kunden hin oder her (ist ja alles richtig), aber man muss ja auch mal die andere Seite daran sehen wollen!

PS: Persönlich hätte auch 340Euro für den 940er Bezahlt, soviel hatte seinerzeit der X2 3800+ mal gekostet! ;)

Ich gebe dir ja recht, aber als student muss man sehen, wo man bleibt. :)

reunion
2009-01-26, 19:58:04
3DMark 05 Weltrekord mit einem Phenom II 6.5ghz: 45.474 Punkte
http://www.youtube.com/watch?v=wB0JodKgZ0A

dildo4u
2009-01-26, 20:09:25
Ist kein WR mher wurde schon vor Wochen überboten.(4.1.09)Mit einem 5.2Ghz Core i7.

http://www.xtremesystems.org/forums/showthread.php?t=213299

http://www.ripping.org/benchmarks.php?act=graphicscores&graphic=3DMark05

reunion
2009-01-26, 20:33:54
Aber wohl auch nur weil die Grafikkarten höher takteten. Trotzdem beachtlich das ein Phenom II sich soviel höher takten lässt als ein Core i7.

Der_Korken
2009-01-26, 22:06:25
Aber wohl auch nur weil die Grafikkarten höher takteten. Trotzdem beachtlich das ein Phenom II sich soviel höher takten lässt als ein Core i7.

Ja, aber ich finde, davon kommt bei den normalen System wenig an. Wenn man sich die ganzen Reviews durchliest, hört man oft, dass ohne Vcore-Erhöhung nicht viel drin ist.

Gast
2009-01-27, 07:39:14
Ich denke aber, dass man dieses Taktpotential sehr gut nutzen wird können, wenn neuere Steppings kommen, die eine niedrigere Vcore bekommen und somit auch eine niedrigere Leistungsaufnahme.

AnarchX
2009-01-27, 08:21:55
Trotzdem beachtlich das ein Phenom II sich soviel höher takten lässt als ein Core i7.
Primär liegt das aber AFAIK daran, dass man hier keinen Coldbug hat und ihn schon fast bis 0 K herunterkühlen kann.
Immerhin setzt man ja hier anstatt dem üblichen flüssigen Stickstoff schon flüssiges Helium ein.

Avalox
2009-01-27, 19:03:13
Primär liegt das aber AFAIK daran, dass man hier keinen Coldbug hat und ihn schon fast bis 0 K herunterkühlen kann.
Immerhin setzt man ja hier anstatt dem üblichen flüssigen Stickstoff schon flüssiges Helium ein.


Das ist schon ungeheuer beeindruckend. Eine richtige Show.
Mit flüssigen Stickstoff kommen die OC aber in die selben Regionen.
Selbst mit einer ordentliche Wasserkühlung kommen die Jungs schon in extreme Regionen.
Immer wieder begeistert bin ich, wenn man bedenkt, dass viele Ergebnisse mit Wald und Wiesen Mainboards. Schlicht Systeme aus dem nächsten Laden erreicht werden.
4GHz++ werden ja sogar mit dem kleinen Out of the box (Luft)Kühler erreicht.

Mit dem 45nm Prozess hat AMD dort hinsichtlich dem OC doch schon sehr deutlich zugelegt.

Fetza
2009-01-28, 04:35:52
Ist der boxed kühler eigentlich gut im sinne von leise und effizient?

OFFY
2009-01-28, 07:58:37
Ist der boxed kühler eigentlich gut im sinne von leise und effizient?

im Gegensatz zu dem alten Kühler ein großer Unterschied.Es ist ein Heatpipe Kühler und ist leise.Um einen Phenom II X4 940 vernünftig zu kühlen habe ich einen Noctua installiert.Ich denke für den Normalgebrauch reicht der AMD.Ist halt nichts zum Overclocking.

Gruß Offy

Undertaker
2009-01-28, 10:00:32
4GHz++ werden ja sogar mit dem kleinen Out of the box (Luft)Kühler erreicht.


Primestable kenn ich überhaupt keinen PII, der die 4GHz unter Luft geknackt hätte, boxed schon gleich gar nicht... Im vergleichsweise großen HWLUXX hat überhaupt erst ein einziger Nutzer 4GHz erreicht (WaKü). Dooferweise ist zusätzlich auch die Streuung noch sehr hoch, das manche Exemplare nichteinmal über die 3,5-3,6GHz wollen. Lies dich mal durch ein paar entsprechende Foren...

Bleibt zu hoffen, dass kommende Steppings diesbzgl. noch deutlich besser gehen.

Armaq
2009-01-28, 10:10:02
Die Frage ist warum einzelne PhII überhaupt 6 Ghz knacken, was bei Intel gerade mal die besten DC hinbekommen. Ich denke wir werden einen stark verbesserten PhII mit den nächsten Rev. sehen, wenn AMD die Fertigung im Griff hat (bzgl. der Übertaktbarkeit ohne Vcore-Erhöhung).

Stormscud
2009-01-28, 10:23:29
Wann wäre denn mit einem neuen Stepping zu rechnen? Mit den AM3 Phenoms? Oder später?

Undertaker
2009-01-28, 10:23:52
Die Frage ist warum einzelne PhII überhaupt 6 Ghz knacken, was bei Intel gerade mal die besten DC hinbekommen. Ich denke wir werden einen stark verbesserten PhII mit den nächsten Rev. sehen, wenn AMD die Fertigung im Griff hat (bzgl. der Übertaktbarkeit ohne Vcore-Erhöhung).

Das interessante ist die Skalierung mit <0°C Temps, die ist beim PII deutlich besser. Wo sehr gute Q9*** oder i7 auch bei >4,5GHz @Air benchstable sind, schafft der Phenom hier nur etwas über 4GHz - kann aber mit LN2 noch fast 2GHz hinzugewinnen, wo bei den Intels nur etwa gut 1GHz mehr gelingt.

reunion
2009-01-28, 10:54:44
Die ersten AM3-Boards sind jetzt bei Geizhals gelistet:
http://geizhals.at/eu/?cat=mbam3

Matrix316
2009-01-28, 12:51:39
1351,59 € ;D Da ist eine i7 Plattform aber preiswerter. ;)

reunion
2009-01-28, 19:29:39
AnandTech hat einen sehr interessanten Test der Q9550S herausgebraucht, in welchem nicht nur die maximale Leistungsaufnahme getestet wurde, sondern auch die durchschnittliche und die Absolute. Der Phenom II 940 schlägt sich wie erwartet sehr gut. Während er bei der max. Leistungsaufnahme meist noch über den Yorkfields liegt, erreicht er bei den durchschnittlichen Werten wesentlich bessere Ergebnisse auf dem Niveau des Core i7 920: http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3505&p=1

Die Stromsparmechanismen unter Teillast sind beim Phenom also offensichtlich weiter entwickelt als beim Yorkfield, was wohl wesentlich wichtiger ist als in der Praxis kaum relevante Maximalwerte.

Avalox
2009-01-28, 19:44:31
Primestable kenn ich überhaupt keinen PII, der die 4GHz unter Luft geknackt hätte,

Da willst mich wohl verulken. Mein eigener PII läuft Primestable und Cinebench und sonst was mit 4GHz und Luftkühlung.

Gast
2009-01-28, 19:45:00
Die Stromsparmechanismen unter Teillast sind beim Phenom also offensichtlich weiter entwickelt als beim Yorkfield, was wohl wesentlich wichtiger ist als in der Praxis kaum relevante Maximalwerte.

Nö, für höhere Maximallast braucht man stärkere Netzteile = teurer und weniger effizient.

reunion
2009-01-28, 19:49:21
Nö, für höhere Maximallast braucht man stärkere Netzteile = teurer und weniger effizient.

Uh, was für ein Totschlagargument. Die paar Watt mehr unter Vollast machen den Barten natürlich fett, da ist es völlig egal das der Phenom im Schnitt weniger benötigt. :rolleyes:

Gast
2009-01-28, 19:50:44
Da willst mich wohl verulken. Mein eigener PII läuft Primestable und Cinebench und sonst was mit 4GHz und Luftkühlung.

Da bist du offenbar der einzige oder DU willst die Leute verulken.

Gast
2009-01-28, 19:52:24
Uh, was für ein Totschlagargument. Die paar Watt mehr unter Vollast machen den Barten natürlich fett, da ist es völlig egal das der Phenom im Schnitt weniger benötigt. :rolleyes:

Hast du dir mal die "Total Energy Consumed in Joules" angesehen? Ein Armutszeugnis für den Phenom II.

Ronny145
2009-01-28, 19:56:24
Da willst mich wohl verulken. Mein eigener PII läuft Primestable und Cinebench und sonst was mit 4GHz und Luftkühlung.


Ein screen mit mindestens 2 Stunden prime 95 wäre angebracht, sonst ist das wertlos. Mit Lukü wärst du der erste bei 4 Ghz im forumdeluxx und xs.

http://www.xtremesystems.org/forums/showthread.php?t=213248
http://www.forumdeluxx.de/forum/showthread.php?t=550630

Gast
2009-01-28, 19:58:26
Ein screen mit mindestens 2 Stunden prime 95 wäre angebracht, sonst ist das wertlos. Mit Lukü wärst du der erste bei 4 Ghz im forumdeluxx und xs.

http://www.xtremesystems.org/forums/showthread.php?t=213248
http://www.forumdeluxx.de/forum/showthread.php?t=550630


Kannst Computerbase auch mit dazunehmen:
http://www.computerbase.de/forum/showthread.php?t=400193

INDEX75
2009-01-28, 20:09:18
Ist der boxed kühler eigentlich gut im sinne von leise und effizient?Für den normalen Alltagsgebrauch ist der Boxed Kühler völlig ausreichend. Allerdings sollte das Gehäuse nicht unbedingt zu eng verbaut sein. Zum OCen ist der Boxed natürlich unbrauchbar.

Wann wäre denn mit einem neuen Stepping zu rechnen? Mit den AM3 Phenoms? Oder später?Warum schon jetzt nach einem besseren Stepping rufen? Ist das jetzige nicht gut genug? :confused:

Ich meine, mit meinem 940er, den ich seit 2 Tagen habe, erreiche ich mit Standard VCore immerhin 3,4GHz.

Armaq
2009-01-28, 20:12:51
Uh, was für ein Totschlagargument. Die paar Watt mehr unter Vollast machen den Barten natürlich fett, da ist es völlig egal das der Phenom im Schnitt weniger benötigt. :rolleyes:
Der Test spricht sowas von für die CPU, dieses total consumption spielt keine Rolle, da es augenscheinlich nur falsch sein kann. Warum ist der PhII besser als die normalen Q9, aber liegt am Ende hinten?! Kann ich mir nicht erklären. Wenn average und max unter den Konkurrenten liegen, kann hier was nicht stimmen.

Edit: Lesen macht schlau, nur wer rennt denn bitte schneller durch ein Level, weil die CPU mehr fps bietet?! O.o

reunion
2009-01-28, 20:34:02
/Edit: Hier stand Mist.

Irgendwas kann die wirklich nicht stimmen.

Avalox
2009-01-28, 20:40:41
Ein screen mit mindestens 2 Stunden prime 95 wäre angebracht, sonst ist das wertlos. Mit Lukü wärst du der erste bei 4 Ghz im forumdeluxx und xs.

http://www.xtremesystems.org/forums/showthread.php?t=213248


er läuft und läuft.
Sind übrigens so einige PII oben im Link mit sogar deutlich über 4GHz und Luftkühlung in der Tabelle.
Hast mir schon Freude gemacht was besonderes zu haben... Nun bin ich etwas enttäuscht.

RainingBlood
2009-01-28, 20:48:18
wieviel vcore gibst du ihm, avalox? Haste eine 750er SB?

Avalox
2009-01-28, 21:01:41
wieviel vcore gibst du ihm, avalox? Haste eine 750er SB?

Bei 4GHz inzwischen über 1,55V. Weshalb mir die Sache auch nicht so gefällt. Lasse ihn sonst immer mit 1,45V und 3,8GHz laufen. 3,6GHz laufen wunderbar mit normaler Spannung (+scheinbar immer vorhandenen Board+). Die 4GHz laufen auch mit deutlich unter der o.g. Spannung, mit einem stabilen Eindruck bis auf Effekte hin und wieder, weshalb ich die Spannung dann doch angehoben habe. Bei 1,55V habe ich aber keine Effekte mehr. Habe den AMD Stabilitätstest länger laufen lassen ohne Probleme. Bin mir sicher, das so mancher mit einer Wasserkühlung seine wahre Freude hat am PII. Bin eigentlich gar nicht für das OC zu begeistern. Macht halt in dem Fakk Spass und die 3,8GHz sind im Sequenzer eine wahre Freude.
Ja eine SB750 mit ACC.
Habe ein wenig mehr im PII Praxisthread geschrieben.

INDEX75
2009-01-28, 21:08:46
wieviel vcore gibst du ihm, avalox? Haste eine 750er SB?Ich glaube nicht das die SB eine so große Rolle spielt. Ich habe selbst noch ein Board mit der alten 600er. Dennoch läuft der PII in ersten Tests mit 3,7GHz absolut stabil - natürlich mit erhöhter VCore. Morgen folgen weitere Tests.

Der_Korken
2009-01-28, 22:13:24
Hast du dir mal die "Total Energy Consumed in Joules" angesehen? Ein Armutszeugnis für den Phenom II.

Das ist aber zum Teil ziemlich unlogisch, wenn ich das richtig verstanden habe. Hier (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3505&p=7) zB verbrauchen PhII und Q9550s im Schnitt etwa gleich viel. Unter Gesamtverbrauch liegt der PhII aber plötzlich knapp 30% höher! Beim i7-965 ist es sogar noch besser: Im average hat er den höchsten Verbrauch, im Gesamtverbrauch belegt er wiederum fast die Spitzenposition.

Es wird ja sogar extra noch gesagt (auf der Seite davor), dass die Durchläufe alle gleichlang waren, egal wie schnell die CPU gerechnet hat. Mir sieht es aber so aus, als hätte man quasi sowas angegeben wie "Energieverbrauch pro fps", anders kann ich mir das nicht erklären.

Edit: Link berichtigt

Gast
2009-01-28, 23:17:38
Auf der von dir verlinkten Seite steht aber

"the test doesn’t run for a fixed time, it runs as quickly as it can."

Der Energieverbrauch gibt also an, wieviel Energie für das Abspielen der Szene gebraucht wird.

Undertaker
2009-01-29, 00:37:53
Da willst mich wohl verulken. Mein eigener PII läuft Primestable und Cinebench und sonst was mit 4GHz und Luftkühlung.

Hast du auch einen Screen von Prime large? Dann hättest du wirklich wohl eine der aktuell besten CPUs im Umlauf, wie gesagt Primestable @ Air (@Zimmertemp) konnte ich bisher nirgends finden :)

Ronny145
2009-01-29, 06:10:20
er läuft und läuft.
Sind übrigens so einige PII oben im Link mit sogar deutlich über 4GHz und Luftkühlung in der Tabelle.
Hast mir schon Freude gemacht was besonderes zu haben... Nun bin ich etwas enttäuscht.


Und wo? Ich sehe keinen Prime stable bei Luft über 4 Ghz. Wahrscheinlich schaust du bei der suicide Tabelle. Laufen kann es ja, nur muss das alles nicht 100% stable sein. Das dürfte bei dir zutreffen.

Der_Korken
2009-01-29, 15:11:07
Auf der von dir verlinkten Seite steht aber

"the test doesn’t run for a fixed time, it runs as quickly as it can."

Der Energieverbrauch gibt also an, wieviel Energie für das Abspielen der Szene gebraucht wird.

Ah, den Absatz hatte ich wohl überlesen. Auf der Seite davor steht nämlich genau das Gegenteil, aber das bezieht sich dann alles immer nur auf den jeweiligen Test. Dann ergibt das Sinn.

AffenJack
2009-01-29, 16:22:59
nur ergeben selbst dann manche ergebnisse keinen sinn, z.b. x264
Phenom2,q9400 und q9450 gliech schnell und gleicher durchschnittsverbrauch.
Verbrauchsangabe in joule, phenom braucht 1000k mehr als der q9450. Bei gleicher geschwindigkeit und durchschnittsverbrauch sollten die ergebnisse da aber auch gleich sein. Also zumindest einer der graphen ist müll, so wie ich das verstehe.

MiChA87
2009-01-29, 18:37:10
Teste mit DDR3 gibt es noch nicht?

ich haben eben geschaut wieso haben wenige shops noch keine AM3 boards gelistet, meistens steht nur AM2+ dort?!

Avalox
2009-01-29, 18:54:47
Und wo? Ich sehe keinen Prime stable bei Luft über 4 Ghz. Wahrscheinlich schaust du bei der suicide Tabelle. Laufen kann es ja, nur muss das alles nicht 100% stable sein. Das dürfte bei dir zutreffen.

Ich habe die CPU den Abend wo ich im Forum war dann Prime95 laufen lassen. Hat problemlos funktioniert. Das waren zwar keine zwei Stunden (Warum grade zwei Stunden?), aber eine 3/4 Stunde war es bestimmt.

Undertaker
2009-01-29, 22:01:03
Kannst du davon einfach nochmal einen Screen nach üblichem Schema machen (Inkl. Temps von Everest, Taskmanager, CPUZ und eben Prime Large)? Wäre eben die erste mir bekannte CPU, die die 4GHz Schwelle @Air läuft, das mal Schwarz auf Weiß zu sehen wäre nett :)

Coda
2009-01-30, 00:25:34
Ich wäre auch noch für 10 Durchläufe auf Full Stress davon:
http://files.extremeoverclocking.com/file.php?f=213

Wobei ich nicht weiß, ob das bei AMDs auch so gut funktioniert.

pest
2009-01-30, 07:17:43
lieber LinX 0.5.6 (http://www.fileden.com/files/2008/12/29/2243633/LinX.7z), benutzt auch die Linpack-Binaries, ist aber hübscher :D


http://www.abload.de/img/lynx1hiss.jpg

Avalox/Gast
2009-01-30, 08:06:13
Genau und dann noch 5 Tage Seti@Home und eine Genom Aufschlüsselung der tibetanischen Brumtopf Fliege oben drauf legen.
Ich mache gerne ein paar SS vom Prime95, AMD Stresstest oder Cinebench, den diese habe ich drauf auf dem Rechner. Über viele Stunden werde ich dort nichts mit der hohen Spannung ausführen.

pest
2009-01-30, 09:33:36
LinX dauert max 45Min für 10 Durchläufe

Fetza
2009-01-30, 09:52:01
Gibt es eigentlich mittlerweile eine erklärung, warum der phenom II jetzt in den gametests in niedrigen auflösungen so weit hinten liegt, dafür aber in höheren auflösungen meist 2-3 frames schneller oder gleichschnell wie der q9550 ist?

Chrisch
2009-01-30, 11:32:40
@ pest

LinX stresst den Phenom nicht so sehr wie Prime ;)

Bei Intel ists hingegen anders herum, da stresst LinX mehr als Prime.

@ Coda

das selbe gilt für den Intel Burn Test (der basiert genauso wie LinX auf Intels Linpack)

RainingBlood
2009-01-30, 11:56:42
jetzt is der 940 offz. unter die "magische" 200er Grenze gefallen.
http://geizhals.at/deutschland/a389214.html

Undertaker
2009-01-30, 12:44:22
Gibt es eigentlich mittlerweile eine erklärung, warum der phenom II jetzt in den gametests in niedrigen auflösungen so weit hinten liegt, dafür aber in höheren auflösungen meist 2-3 frames schneller oder gleichschnell wie der q9550 ist?

Die Komprimierung der Ergebnisse unter hohen Auflösungen resultiert schlicht aus dem wachsenden bzw. irgendwann auch vollständigen GPU-Limit. Kleinere Vorteile zugunsten von CPU A oder B sind in solchen Situationen dann schlichte Messschwankungen - darum gilt für jeden CPU-Test: Minimale Auflösung, aber maximale Detailsettings.

reunion
2009-01-30, 12:48:11
Naja so einfach ist es dann auch wieder nicht. Denn diese "schlichte Messschwankungen" sehen praktisch immer den Phenom vorne. Durch ein GPU-Limit wird der Abstand zwar kleiner, ein überholen der eigentlich schnelleren CPU sollte aber unmöglich sein. Zumal wie hier tw. doch noch von deutlichen Unterschieden sprechen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7025402#post7025402

Undertaker
2009-01-30, 12:54:54
Hier z.B. nicht:

http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/18/#abschnitt_company_of_heroes

Kann auch daher rühren, dass das ein oder andere Board evntl mal den PCIe leicht übertaktet - nun, wer weiß. Mich interessiert bei der CPU-Leistung nuneinmal nur deren Performance ohne solche Einflüsse - denn wenn ich mehr FPS im GPU-Limit brauche, wechsel ich die Graka.

Btw, beim CB-Test gibt es diese Theorie der schnelleren Phenoms im GPU-Limit gleich gar nicht. Für mich bleibt es ein Märchen, zumal es ja auch exakte Gegenbeispiele gibt, siehe CoH oben.

Fetza
2009-01-30, 13:58:49
jetzt is der 940 offz. unter die "magische" 200er Grenze gefallen.
http://geizhals.at/deutschland/a389214.html

Unter? Du meinst er ist jetzt ziemlich genau bei 200 :)

Fetza
2009-01-30, 14:01:29
Die Komprimierung der Ergebnisse unter hohen Auflösungen resultiert schlicht aus dem wachsenden bzw. irgendwann auch vollständigen GPU-Limit. Kleinere Vorteile zugunsten von CPU A oder B sind in solchen Situationen dann schlichte Messschwankungen - darum gilt für jeden CPU-Test: Minimale Auflösung, aber maximale Detailsettings.

Diese erklärung erscheint mir nicht logisch, bei den reviews die ich bisher lesen konnte, war der phenom II fast immer in hohen settings durchweg gleichschnell bis schneller.... wenn er zb in cpu-limitierten spielen wie gta 4 vorne liegt, mit hohen settings, wie kann er dann in niedrigen settings so stark an performance verlieren.... logisch finde ich das wie gesagt nicht.

Undertaker
2009-01-30, 14:07:13
Nochmal, gleichschnell ist absolut logisch, wenn die GPU-limitiert. Und kleinere Differenzen, die wie oben verlinkt auch für andere CPUs auftreten können, sind simple Schwankungen oder kleine Unterschiede bzgl. der PCIe-Anbindung. Bei allem was deutlich darüber liegt, hat die Seite Mist gemessen, mehr als Einzelfälle habe ich hierzu aber noch nicht gesehen.

Für die CPU-Last hat die Auflösung nuneinmal keine Bedeutung, dass kann auch jeder selbst testen (starke GPU, CPU-forderndes Game, und jetzt die Auflösung im CPU-Limit variieren - die FPS ändern sich nicht).


Übrigens klar trennen zwischen Auflösung und Detailsettings! Ich rede hier ausschließlich von durchgängig maximalen Details, aber verschiedenen Auflösungen.

BlackBirdSR
2009-01-30, 14:09:10
Diese erklärung erscheint mir nicht logisch, bei den reviews die ich bisher lesen konnte, war der phenom II fast immer in hohen settings durchweg gleichschnell bis schneller.... wenn er zb in cpu-limitierten spielen wie gta 4 vorne liegt, mit hohen settings, wie kann er dann in niedrigen settings so stark an performance verlieren.... logisch finde ich das wie gesagt nicht.

Das können Schwankungen durch Anbindungen an Speicher und PCI-E sein. Kann durchaus sein, dass AMD hier einen Vorteil von ein paar Takten Latenz oder Ähnliches hat. Intel hat zwar jetzt auch einen Speichercontroller und direkte Anbindung, aber wer kann schon sagen, ob QPI das ebenso gut macht wie HT?

AMD hat hier immerhin Jahre an Erfahrung und Optimierungen hinter sich.
Sicher spielt dann auch das GPU-Limit und average-fps eine Rolle, welche die Werte stark glätten. Zumal der Unterschied fast nie in spürbare Unterschiede ausartet.

Bei niedrigen Auflösungen, pendelt sich dann ein Bild ähnlich der Anwendungsbenchmarks ein.

edit: War wieder einer schneller ;)

HOT
2009-01-30, 14:19:19
Diese erklärung erscheint mir nicht logisch, bei den reviews die ich bisher lesen konnte, war der phenom II fast immer in hohen settings durchweg gleichschnell bis schneller.... wenn er zb in cpu-limitierten spielen wie gta 4 vorne liegt, mit hohen settings, wie kann er dann in niedrigen settings so stark an performance verlieren.... logisch finde ich das wie gesagt nicht.
Die Begründung ist auch Quatsch, die Undertaker da von sich gegeben hat. Ein vollständiges GPU-Limit gibt es nämlich nicht, selbst bei allen Qualitätsfeatures und hoher Auflösung kommen statistisch natürlich immer noch Scenen vor, die eher CPU-limitiert sind, vor allem wenn man bedenkt, dass der Grafiktreiber ja auf der CPU arbeitet, nicht auf der GPU.

QPI ist übrigens = PCIe, hat also eine recht hohe Latenz ggü. HT. Dafür ist QPI höher getaktet, was die Latenz ggü. PCIe geringfügig verbessert und mehr Bandbreite als HT zulässt. Das dürfte allerdings kaum ne Rolle spielen, mehr Bandbreite als ein 16x 2.0 Port braucht heute kein Mensch im Desktop-Bereich. Die schnellen Ports braucht man bei SLI/CF ja auch vor allem deshalb, weil die GPUs miteinander kommunizieren. Das erklärt auch, warum grade bei Triple-SLI der x58 soviel schneller ist als die C55/C72/C73+MCP55-Bastellösungen von NV.

Undertaker
2009-01-30, 14:38:08
Natürlich kann es vollständige CPU-Limits geben, selbst mit meiner vergleichsweise schwachen 8800GT habe ich solche in Spielen wie TF2, SC oder C&C Generals praktisch durchgängig. Wie gesagt, nimm dir ein entsprechendes Spiel, z.B. mit der HL2-Engine, takte deine CPU am besten noch etwas herunter und variiere in einer actionreichen Szene die Auflösung z.B. von 800x600 bis 1600x1200 - ist deine Graka fix, hast du hier durchgängig die gleichen FPS.

Übrigens, bei Tripple-SLI im absoluten GPU-Limit ist der X58 kein einziges % schneller. Siehe die entsprechenden Benches bei Guru3D. Also mal Schluss mit diesen Märchen. ;)

Coda
2009-01-30, 15:18:47
lieber LinX 0.5.6 (http://www.fileden.com/files/2008/12/29/2243633/LinX.7z), benutzt auch die Linpack-Binaries, ist aber hübscher :D]
Sind die auch für AMD gepatched?

Avalox/Gast
2009-01-30, 16:51:59
Natürlich kann es kein reines GPU Limit geben, solange die CPU dort im Prozess der Grafikdarstellung eine Leistung zu erbringen hat. Dieser Anteil der CPU Leistung wird in verschiedenen Anforderungsszenarien sich unterscheiden. Dieses zu verneinen ist irreführend.

Es ist doch völlig falsch anzunehmen, dass eine CPU bei niedrigen Auflösungen dasselbe zu tun hat, wie bei hohen Auflösungen, nur mehr davon.
Nein so ist es nicht. Die Versuche den GPU Einfluss zu minimieren hat dort direkten Einfluss auf die direkte Verwendung der CPU. Das Testszenario ist komplett unscharf. Es ist unscharf, da der Grafiktreiber auf der CPU ausgeführt wird. Meine Messung beeinflusst direkt das zu messende System.
In extremen Situationen zeigen sich immer die Qualitäten einer Methode oder eines Modells.
Die Grafikauflösung, wie auch die Details so weit zu reduzieren wie es nur möglich ist, ist eine sehr extreme Situation. Die nun gewonnenen Messergebnisse zeigen nun deutlich, dass die Ergebnisse ganz deutlich nichts Aussagekräftig sind. Benchmark Ergebnisse bei niedrigsten Auflösungen und höchsten Auflösungen taugen nicht zur allgemeinen Ableitung.
Diese Benchmark Methode hat schlicht versagt. Ich wundere mich, wie man trotzdem an dieser offensichtlich schlechten Messmethode weiter festhalten kann?

Undertaker
2009-01-30, 17:14:31
Natürlich kann es kein reines GPU Limit geben, solange die CPU dort im Prozess der Grafikdarstellung eine Leistung zu erbringen hat. Dieser Anteil der CPU Leistung wird in verschiedenen Anforderungsszenarien sich unterscheiden. Dieses zu verneinen ist irreführend.

Ich glaube hier liegt ein Unterschied in der Definition der Begrifflichkeit. Als reines GPU-Limit bezeichne ich eine Situation, in der die CPU-Leistung keinerlei Einfluss auf die FPS hat, andersgesagt ein Über- oder Untertakten (in gewissem Rahmen) ohne Wirkung bleibt - für ein vollständiges CPU-Limit das Ganze analog. (Feinheiten wie Rammangel oder Nachladeruckler lasse ich hier bewusst außen vor, wir gehen von der realistischen Situation aus das nur CPU und GPU die FPS beeinflussen)

Es ist doch völlig falsch anzunehmen, dass eine CPU bei niedrigen Auflösungen dasselbe zu tun hat, wie bei hohen Auflösungen, nur mehr davon.
Nein so ist es nicht. Die Versuche den GPU Einfluss zu minimieren hat dort direkten Einfluss auf die direkte Verwendung der CPU. Das Testszenario ist komplett unscharf. Es ist unscharf, da der Grafiktreiber auf der CPU ausgeführt wird. Meine Messung beeinflusst direkt das zu messende System.
In extremen Situationen zeigen sich immer die Qualitäten einer Methode oder eines Modells.

Es gibt eine einfache und bereits beschriebene Möglichkeit das zu untersuchen, schau einfach mal ein Stück nach oben.

Die Grafikauflösung, wie auch die Details so weit zu reduzieren wie es nur möglich ist, ist eine sehr extreme Situation. Die nun gewonnenen Messergebnisse zeigen nun deutlich, dass die Ergebnisse ganz deutlich nichts Aussagekräftig sind. Benchmark Ergebnisse bei niedrigsten Auflösungen und höchsten Auflösungen taugen nicht zur allgemeinen Ableitung.
Diese Benchmark Methode hat schlicht versagt. Ich wundere mich, wie man trotzdem an dieser offensichtlich schlechten Messmethode weiter festhalten kann?

Nochmal: Keiner redet von Detailreduzierungen. Aufklärende Benches zur Auswirkung der Auflösung auf die CPU-Last werde ich in wenigen Minuten liefern.


Edit: Wie versprochen, hier der Beleg (wer es nicht glaubt, kann es auch selbst Gegentesten...)

E6600 @ 1,6GHz, 8800GT @ 700/1000, XP32
Valve Stress Test, maximale Details

800x600 155,9fps
1024x768 154,3fps
1152x864 152,1fps
1280x1024 154,2fps (! unter Vorbehalt, da anderes Seitenverhältnis)
1600x1200 154,3fps

Was damit belegt wäre:

1. Natürlich gibt es 100%ige CPU-Limits (zumindest wenn man solche nicht anders definiert)
2. Ändert die Auflösung nichts an der CPU-Last
3. Ist eine CPU, die in niedrigen Auflösungen die schnellste ist, dies auch in hohen Auflösungen, da sie weiterhin die hohen FPS des kleinsten Settings liefern kann - sofern die GPU mitspielt.

Ergo: Die Problematik ist schlicht auf Feinheiten wie die PCIe-Latenz zurückführbar, nicht auf die Leistungsfähigkeit der CPU an sich.

Fetza
2009-01-30, 18:10:02
Hmm, ok erstmal bis dahin danke für die antworten... aber kann mir jemand dann zb dieses hier erklären?:

http://www.legionhardware.com/document.php?id=802&p=6

http://www.legionhardware.com/document.php?id=802&p=7

Weil ich denke mal, die jungs werden ja wissen wie und was sie benchen. Irgendwie finde ich, dass es nicht ins bild passt.

Madkiller
2009-01-30, 18:26:54
Das ist das Einzige, was ich mir als Möglichkeit einfällt:
Liegt IMO an den "low" Settings.
Wir wissen ja, daß das CPU-Limit bei verschiedenen Auflösungen/FSAA/AF gleich bleibt. Aber nicht bei unterschiedlichen Details.

Ich habe aber schon mehrmals gesehen, daß CPUs auf "low" anders reagierten, als auf "high". Beispiel:
Bei "low" bringt schnellerer RAM mehr als bei "high" - auch wenn bei beiden Settings ein CPU-Limit anliegt.

Genauso könnte ich mir gut vorstellen, daß der einen CPU "low" besser liegt als der anderen.

Deswegen meine/unsere Meinung: Auflösung/FSAA/AF reduzieren ok. Aber die Details unbedingt lassen.

Ergo: Es könnte gut sein, daß CPU X besser mit anderen Details zurecht kommt als CPU Y.

BlackBirdSR
2009-01-30, 18:33:48
Wenn ihr auf das alles eine Antwort haben wollte, gibt es meiner Meinung nach nur eine Lösung.

Die Codeausführung verfolgen und Bilanz ziehen.
Das beinhaltet dann neben der Ausfürhungszeit die Art und Menge an Cachezugriffen/Misses, die einzelnen Latenzen für jeden Schritt und die Effizienz der Speicheranbindung.

Das ganze dann noch mit dem Treiber der GPU um dessen Anteil zu erfahren und fertig, Viel Spass.

_DrillSarge]I[
2009-01-30, 18:41:33
Das können Schwankungen durch Anbindungen an Speicher und PCI-E sein. Kann durchaus sein, dass AMD hier einen Vorteil von ein paar Takten Latenz oder Ähnliches hat. Intel hat zwar jetzt auch einen Speichercontroller und direkte Anbindung, aber wer kann schon sagen, ob QPI das ebenso gut macht wie HT?
zumindest beim c2q kann man den fsb als "bremse" (an)nehmen, da in high-settings deutlich mehr daten darüber geschaufelt werden und das die cpu (interne kommunikation) "behindert".

BlackBirdSR
2009-01-30, 18:56:18
I[;7074033']zumindest beim c2q kann man den fsb als "bremse" (an)nehmen, da in high-settings deutlich mehr daten darüber geschaufelt werden und das die cpu (interne kommunikation) "behindert".

nur ob es wirklich daran liegt? Senkt doch mal einer den FSB bei hohen Details und GPU-Belastung ab... tut sich was?

Man kann auch aus solchen klasse Untersuchungen Ergebnisse ziehen
http://www.realworldtech.com/page.cfm?ArticleID=RWT102808015436

PS: nicht vergessen, ganz wichtig: Der Text!

Avalox
2009-01-30, 20:43:48
2. Ändert die Auflösung nichts an der CPU-Last


Genau diese Annahme ist absolut falsch.

Du nimmst an, dass eine höhere Auflösung nichts an der CPU Last ändert.
Dieses ist aber falsch, denn ein kausaler Zusammenhang besteht nicht.

Zum einen kannst du niemals ausschliessen, dass der Treiber nicht doch eine unterschiedliche Last, bei unterschiedlicher Auflösung erzeugt.

Zum anderen kannst du auch nicht ausschliessen, dass ein Spiel bei unterschiedlicher Auflösung intern nicht auch unterschiedlichen Content verwendet. Dort kann sich die CPU Last nicht nur unterschiedlich auswirken, es kann sich auch die Auslastung der CPU verlagern. Für die CPU prädestinierte Aufgaben, können so durch weniger geeignete Aufgaben ersetzt werden.


3. Ist eine CPU, die in niedrigen Auflösungen die schnellste ist, dies auch in hohen Auflösungen, da sie weiterhin die hohen FPS des kleinsten Settings liefern kann - sofern die GPU mitspielt.


Nun ist aber die niedrigste Auflösung auch die, welche am wenigsten Übereinstimmung mit dem späteren Einsatzbedingungen aufweist. Die niedrigste Auflösung ist abstrakt und stellt ein Extrem dar. Aus diesem kann man nur bedingt ableiten. Genau dieses zeigen ja die aktuellen Ergebnisse.



Ergo: Die Problematik ist schlicht auf Feinheiten wie die PCIe-Latenz zurückführbar, nicht auf die Leistungsfähigkeit der CPU an sich.

Das ist fraglich. Zumal CPU I/O eben eine Aufgabe der CPU selbst ist. Trennst die CPU ja auch nicht von einem L2 Cache oder ähnliches.

Ich denke aber nicht, dass es profan an der einer besseren I/O Latenz liegt.

Undertaker
2009-01-30, 21:56:24
Du siehst die Zahlen oben, was willst du denn noch mehr? Die belegen unwideruflich, dass es eben keine höhere CPU-Last mit steigender Auflösung gibt - Fakt. Möchtest du mir die Zahlen nicht glauben, prüfe es doch selbst nach :)

Ich fasse nochmal zusammen: Meine CPU (A) kann in 800x600 wie 1600x1200 genau 154fps berechnen. Wenn eine andere CPU (B) in 800x600 nur 120fps schafft ist es ausgeschlossen, dass diese unter 1600x1200 mehr erreicht (das will wohl auch keiner behaupten). Ergo: Wenn (B) unter der höheren Auflösung schneller ist, ist dies ausschließlich auf nicht CPU-relevante Einflüsse zurückzuführen.

Ist doch nicht so, dass ich hier ins Blaue spekuliere - ich hab das nicht umsonst durchgebencht und die Zahlen sprechen eine klare Sprache.

Fetza
2009-01-30, 22:19:20
Mich würde jetzt doch mal interessieren, warum in dem von mir verlinkten review, die be edition 8 frames mehr in high-quality settings unter fc2 hat als der q9650! Andererseits mit niedrigen settings dann fast 20 frames weniger...

Undertaker
2009-01-30, 22:38:20
Wenig, weil da auch andere Sachen nicht passen - z.B. die Differenz i7 940 zu 965 (zu groß). Dazu ein i7 920 hinter einem E6700... Aber sicher.

Fetza
2009-01-31, 08:13:44
Ja, dass war es ja was mich so stutzig gemacht hat :) Also hat die seite müll gebenched? Finde ich auf jedenfall krass, dass dürfte nicht sein für eine hardware-seite.

Avalox
2009-01-31, 11:36:43
Du siehst die Zahlen oben, was willst du denn noch mehr? Die belegen unwideruflich, dass es eben keine höhere CPU-Last mit steigender Auflösung gibt - Fakt. Möchtest du mir die Zahlen nicht glauben, prüfe es doch selbst nach :)



Die Zahlen belegen doch nicht generelles und erst recht nicht unwiderruflich. Wie ich schon geschrieben habe es gibt keinen kausalen Zusammenhang.
Es ist ein proprietärer Benchmark. Diese belegen doch noch nur diese eine "ganz spezielle" Situation. Allein eine Änderung im Messsystem kann andere Ergebnisse produzieren. Eine andere CPU, eine andere Grafikkarte, allein ein anderer Treiber, eben eine Änderung im System kann das Bild komplett ändern.


Ist doch nicht so, dass ich hier ins Blaue spekuliere - ich hab das nicht umsonst durchgebencht und die Zahlen sprechen eine klare Sprache.

Das ist es doch, du kannst 1000 mal benchen. Das geht nur solange gut, bis man auf ein anderes Ergebnis stößt.
Diese anderen Ergebnisse sind nun definitiv da. Der Benchmark Ansatz taugt nichts.

Undertaker
2009-01-31, 13:22:45
:rolleyes:

Welche Seite hat denn nachvollziehbar ein anderes Bild gemessen? Da fällt mir spontan keine ein...
Im Regelfall zeigt sich bei genauerer Betrachtung wie zuletzt bei Legionhardware, dass definitiv falsche Ergebnisse erzielt wurden.

Noch zu dem anderen: Wenn auf meiner CPU die Last mit Auflösungssteigerung konstant bleibt, ist das problemlos auf andere Modelle übertragbar - der Prozessor ist hier nur "Ausführender" und beeinflusst nicht das zu berechnende Material. Genau das gleiche trifft auf andere Hardwarekomponenten zu...
Softwaremäßig kann ich diese konstante Last natürlich nur für Nvidia-Treiber garantieren, sollte sich ATI hier aber gegenteilig verhalten wären ATI-Modelle im CPU-Limit generell und mit der Auflösung wachsend langsamer - das wurde bisher nirgendwo gezeigt und wäre ja auch ein ganz erheblicher Nachteil.

Nun, welchen einwandfreien Test haben wir denn, der mir hier wehement widerspricht? Ich würde das dann entsprechend unter gleicher Situation gegentesten und offenlegen, in wie weit sich die Ergebnisse bestätigen oder widerlegen lassen. Für mein System kann ich zumindest jetzt schon versichern, dass der Prozessor definitiv nicht mehr mit steigender Auflösung verrichten muss. Und ich bezweifle, dass mein alter Conroe sich hier besser verhält als aktuelle Yorkfields, Nehalems oder Denebs ;)

Aber auch das könnten Besitzer entsprechender CPUs untersuchen, das wäre durchaus auch mal einen extra Thread wert, um endlich Licht in diese Urban Legend zu bringen.

Avalox
2009-01-31, 13:47:40
Welche Seite hat denn nachvollziehbar ein anderes Bild gemessen? Da fällt mir spontan keine ein...


Es braucht solch eine Seite überhaupt nicht. Das ist doch der Punkt.
Die Messmethode wird ja nicht besser oder schlechter durch Ergebnisse.

Es gibt schlicht keinen nachhaltigen Zusammenhang. Es kann jederzeit komplett anders sein. Die Ableitung aus der Messmethode ist falsch, die Schlussfolgerung deshalb nicht gegeben.


Noch zu dem anderen: Wenn auf meiner CPU die Last mit Auflösungssteigerung konstant bleibt, ist das problemlos auf andere Modelle übertragbar -


Nein, kann man auch nicht.
Zum einen gilt oberes, so dass Ergebnisse nur für diese eine spezielle Messung gelten. Du kannst nicht mal die Ergebnisse auf die "gleiche" CPU übertragen, wenn sich auch nur irgendwas und wenn es nur Software ist ändert.
Zum anderen kannst du auch nicht dort zwischen CPU Modellen übertragen, dass geht überhaupt nicht. Ich kann es nur immer wieder wiederholen, es besteht kein kausaler Zusammenhang.


Softwaremäßig kann ich diese konstante Last natürlich nur für Nvidia-Treiber



ist es überhaupt nicht. Da nVidia überhaupt nichts garantiert, noch sich überhaupt bezüglich des Treibers oder des gesamten Rendering Pfades in die Karten schauen lässt. Es sind schlicht Mutmaßungen, welche aus einer Anzahl von beobachteten Systemen vor Dir angenommen werden. Dieses ist ein himmelweiter Unterschied.

Es ist nie ausgeschlossen, dass ein winziger Aspekt ein völlig gegenteiliges Verhalten verusacht.

Undertaker
2009-01-31, 13:53:20
Wie kommst du dann auf diese Idee, wenn es überhaupt keine Anzeichen dafür gibt? Darf ich jetzt einfach mal das Gegenteil behaupten und sagen, da kein vollständiger Gegenbeweis möglich ist darf keiner der These widersprechen?

Wir sehen doch nach wie vor in jedem seriösen Test, dass die FPS im GPU-Limit auf allen Prozessoren praktisch identisch sind. Einzelne Benches zur Auflösungsskalierung untermauern dies, die Theorie ebenfalls - letztlich frag ich mich, worüber wir hier überhaupt diskutieren wollen... :confused:

Avalox
2009-01-31, 14:10:57
Wie kommst du dann auf diese Idee, wenn es überhaupt keine Anzeichen dafür gibt? Darf ich jetzt einfach mal das Gegenteil behaupten und sagen, da kein vollständiger Gegenbeweis möglich ist darf keiner der These widersprechen?



Na, weil es keinen kausalen Zusammenhang gibt.

Wenn es nun einen praktischen Zusammenhang gibt, weil die Systeme eben dort ein gewisses immer wiederkehrendes Muster aufweisen, so muss es der Beweisen, der diesen Zusammenhang behauptet nicht umgekehrt.

Da die Aufsteller der Theorie, aber weder die interner der CPU, noch des Systems, noch der GPU, noch der Treibersoftware, noch überhaupt der getesteten Spielesoftware kennen, fällt es mir schwer zu erkennen, wie solch ein Beweis aussehen soll.

Man kann ja schlecht die Messung, aus der Messung heraus beweisen.




Wir sehen doch nach wie vor in jedem seriösen Test, dass die FPS im GPU-Limit auf allen Prozessoren praktisch identisch sind.

Neeee. Ich denke solche Tests sind nicht seriös, sobald eine Ableitung aus den Ergebnisse in solch einer Richtung erfolgt. Das ist ja das Problem.

Das Messergebnis gilt für diesen einen Fall. Für dieses System, für diese CPU, für diese GPU, für diesen Treiber, für dieses Spielesoftware usw. Mehr nicht. Wer dort ableitet, muss diesen Schritt begründen. Nachhaltig.

Undertaker
2009-01-31, 14:48:12
Mir wird das gerade alles zu schwammig. Wir diskutieren doch hier über die, in meinen Augen haltlose Theorie, dass der Phenom (und nicht die Plattform z.B. über eine schnellere PCIe-Anbindung) unter steigender Auflösung angeblich bessere FPS liefern soll als eine andere, unter geringerer Auflösung schnellere CPU. Diese These wird von 2-3 Benchmarks gestützt, die meiner Kenntnis nach durchgängig Schwächen aufweisen (siehe Legionhardware), zudem gibt es auch Tests mit genau gegenteiligem Ergebnis (siehe CB).

Für mein spezifisches System habe ich nun, bereits auch in der Vergangenheit und mit diversen Spielen, untersucht und herausgefunden, dass die CPU mit höherer Auflösung keine Mehrarbeit verrrichten muss. Hier herrscht nun der zwingend kausale Zusammenhang, dass meine CPU ihre Leistungsfähigkeit somit auch in höheren Auflösungen behält und somit nicht von einer, in niedriger Auflösung langsameren, CPU überholt werden kann - außer für den Fall, dass diese 2. CPU mit steigender Auflösung schneller wird, was wohl kaum technisch möglich oder erklärbar wäre.

Nun wünsche ich mir zumindest einen kleinen Denkanstoß der mich aufklärt, warum hier gerade mein System eine technische Sensation sein soll, dass im Gegensatz zu deiner These unter steigender Auflösung im CPU-Limit keine Performance verliert. Dafür wünsche ich mir mal eine handfeste technische Erklärung, wie dies möglich sein kann - und jetzt bitte nicht wieder so wage Dinge wie "Treibereigenarten", "andere CPU" usw. Hast du die Problematik im übrigen einmal selbst für dein eigenes System untersucht?

Armaq
2009-01-31, 15:01:20
Mir wird das gerade alles zu schwammig. Wir diskutieren doch hier über die, in meinen Augen haltlose Theorie, dass der Phenom (und nicht die Plattform z.B. über eine schnellere PCIe-Anbindung) unter steigender Auflösung angeblich bessere FPS liefern soll als eine andere, unter geringerer Auflösung schnellere CPU. Diese These wird von 2-3 Benchmarks gestützt, die meiner Kenntnis nach durchgängig Schwächen aufweisen (siehe Legionhardware), zudem gibt es auch Tests mit genau gegenteiligem Ergebnis (siehe CB).

Für mein spezifisches System habe ich nun, bereits auch in der Vergangenheit und mit diversen Spielen, untersucht und herausgefunden, dass die CPU mit höherer Auflösung keine Mehrarbeit verrrichten muss. Hier herrscht nun der zwingend kausale Zusammenhang, dass meine CPU ihre Leistungsfähigkeit somit auch in höheren Auflösungen behält und somit nicht von einer, in niedriger Auflösung langsameren, CPU überholt werden kann - außer für den Fall, dass diese 2. CPU mit steigender Auflösung schneller wird, was wohl kaum technisch möglich oder erklärbar wäre.

Nun wünsche ich mir zumindest einen kleinen Denkanstoß der mich aufklärt, warum hier gerade mein System eine technische Sensation sein soll, dass im Gegensatz zu deiner These unter steigender Auflösung im CPU-Limit keine Performance verliert. Dafür wünsche ich mir mal eine handfeste technische Erklärung, wie dies möglich sein kann - und jetzt bitte nicht wieder so wage Dinge wie "Treibereigenarten", "andere CPU" usw. Hast du die Problematik im übrigen einmal selbst für dein eigenes System untersucht?
Du hast ja auch Recht. :) Der Zusammenhang den du hergestellt hast ist so auch richtig. Anders ist es bei anderen Seitenverhältnissen (wie du auch erkannt hast). Diese BlackBox-Betrachtung hinkt nur dann, wenn innerhalb des System veränderliche Parameter auftreten, die du nicht kennst und nicht zurückverfolgen kannst. Allerdings ist es so schlimm dann doch nicht.

Avalox
2009-01-31, 15:05:17
Mir wird das gerade alles zu schwammig. Wir diskutieren doch hier über die, in meinen Augen haltlose Theorie, dass der Phenom (und nicht die Plattform z.B. über eine schnellere PCIe-Anbindung) unter steigender Auflösung angeblich bessere FPS liefern soll als eine andere, unter geringerer Auflösung schnellere CPU. Diese These wird von 2-3 Benchmarks gestützt, die meiner Kenntnis nach durchgängig Schwächen aufweisen (siehe Legionhardware), zudem gibt es auch Tests mit genau gegenteiligem Ergebnis (siehe CB).


Zum einen ist die PCIe Anbindung ganz sicher nicht der Unterschied.
Sondern die Anbindung der CPU an den PCIe Controller. Eben die Anbindung an die NB. Diese Anbindung gehört absolut zur CPU, ist ja schließlich ein Teil davon.


Hier herrscht nun der zwingend kausale Zusammenhang, dass meine CPU ihre Leistungsfähigkeit somit auch in höheren Auflösungen.


Nicht leichtfertig das Wort kausal verwenden.

Der Zuammenhang ist nicht kausal. Die IT folgt keinen Naturgesetzen.
Alles ist ein völlig künstliches System, allein vom Menschen ausgedacht und beliebig veränderbar.

Man kann sagen, dass mehr Transistoren innerhalb eines Herstellungsprozesses zu grösseren DIE führt. Das ist z.B. ein kausaler Zusammenhang.

Du hast eine gewisse Anzahl von Messungen durchgeführt und denkst ein Muster erkannt zu haben. Allerdings ein Muster in einer völlig künstlichen und völlig frei gestaltbaren Umgebung.



Nun wünsche ich mir zumindest einen kleinen Denkanstoß der mich aufklärt, warum hier gerade mein System eine technische Sensation sein soll,



Es ist keine Sensation. Das System ist so, wie es gemacht wurde.

Die Frage ist, kann es auch anders gemacht werden? Die Frage ist völlig klar beantworten. Klar kann es anders gemacht werden.

Ist eine CPU, ein System als solches denkbar, welches keine ableitbaren Ergebnisse bei niedriger Auflösung erzielt? Absolut.

Solch ein System ist nicht nur denkbar, es sich schlicht wünschenswert.
Niedrige Auflösungen mit exotischen Bildwiederholraten entsprechen eben nicht dem Anwendungszweck.

Ein System welches die FPS auf ein sinnvolles Maß aktiv begrenzt um z.B. Energie zu sparen ist absolut wünscheswert.

Eine aktive Maßnahme ist aber keine Voraussetzung für ein gezeigtes Verhalten.
Höhere Genauigkeiten, ein verschieben der CPU relevanten Anforderungen und System bedingte Engpässe können allesamt ein völlig anderen Verhalten bei hohen Auflösungen bedingen, als bei niedrigen.

Undertaker
2009-01-31, 15:40:55
Nicht leichtfertig das Wort kausal verwenden.

Folgende Argumentationskette ist absolut zwingend kausal:

1. CPU A ist in geringer Auflösung schneller als CPU B (das muss untersucht werden, Voraussetzung)
2. CPU A kann im CPU-Limit mit steigender Auflösung seine fps konstant halten (ebenfalls zu untersuchen)

Nun lässt sich zwingend schlussfolgern:

3. Wenn CPU B mit steigender Auflösung keine Mehrperformance erzielt, ist CPU A auch in höchster Auflösung die schnellere.

Hier kannst du gerne exakt dagegen argumentieren, welcher Schluss hier nicht zwingend sein soll.


Du hast eine gewisse Anzahl von Messungen durchgeführt und denkst ein Muster erkannt zu haben.

Jede Abweichung muss begründbar sein, wir sind nicht im Märchenland. Eine CPU führt bestimmte Berechnungen aus, die - wie oben für HL2 belegt - nicht mit der Auflösung in Menge oder Komplexität ansteigen. Damit dieser Fall eintritt könnte, müsste mit höherer Auflösung ein Mehr an für die CPU zu berechnenden Details dargestellt werden - das ist bei einem 3D-Spiel nicht der Fall.
Wenn sich der Berechnungsaufwand für die CPU nicht erhöht, ändert sich auch nichts am Leistungsverhältnis, maximal sind Beschneidungseffekte wie durch wachsende GPU-Limits möglich.





Es ist keine Sensation. Das System ist so, wie es gemacht wurde.

Die Frage ist, kann es auch anders gemacht werden? Die Frage ist völlig klar beantworten. Klar kann es anders gemacht werden.

Ist eine CPU, ein System als solches denkbar, welches keine ableitbaren Ergebnisse bei niedriger Auflösung erzielt? Absolut.

Solch ein System ist nicht nur denkbar, es sich schlicht wünschenswert.
Niedrige Auflösungen mit exotischen Bildwiederholraten entsprechen eben nicht dem Anwendungszweck.

Ein System welches die FPS auf ein sinnvolles Maß aktiv begrenzt um z.B. Energie zu sparen ist absolut wünscheswert.

Eine aktive Maßnahme ist aber keine Voraussetzung für ein gezeigtes Verhalten.
Höhere Genauigkeiten, ein Verschieben der CPU relevanten Anforderungen und System bedingte Engpässe können allesamt ein völlig anderen Verhalten bei hohen Auflösungen bedingen, als bei niedrigen.


Jetzt wird das Ganze aber sehr esoterisch... :rolleyes: Ich bitte dich einmal um konkrete Angaben:

In welchem Spiel trittt deiner Meinung nach der diskutierte Effekt einer steigenden CPU-Belastung mit höherer Auflösung auf? Bitte mit Ausgangsquelle. Ich werde dann untersuchen, ob das tatsächlich der Fall ist. Die verwendete CPU ist dafür irrelevant, da egal ob Phenom, Core 2 oder Core i7 der gleiche Code vorgesetzt wird - es ist nicht begründbar, dass nur eine spezifisches System unter höherer Auflösung mehr zu berechnen hat.
Kommt bei dieser Untersuchung heraus, dass die CPU-Last, egal für welche Auflösung, konstant ist, sind Unterschiede im GPU-Limit ausschließlich durch

a) Messfehler
oder b) nicht auf die CPU zurückführbare Ursachen

begründbar.


Du hast ja auch Recht. :) Der Zusammenhang den du hergestellt hast ist so auch richtig. Anders ist es bei anderen Seitenverhältnissen (wie du auch erkannt hast). Diese BlackBox-Betrachtung hinkt nur dann, wenn innerhalb des System veränderliche Parameter auftreten, die du nicht kennst und nicht zurückverfolgen kannst. Allerdings ist es so schlimm dann doch nicht.

Absolut! Widescreenauflösungen stellen meist mehr Bildhinhalt (-> mehr Objekte zur Berechnung für die CPU) dar und laufen darum im obigen Falle von HL2 generell etwas langsamer, etwa 5-10%. In sich, und das ist der Punkt(!), sind auch auch 16:10 oder 16:9 Settings absolut konsistent: Auch sie liefern jeweils auflösungsunabhänig im CPU-Limit die gleichen fps.

Gast
2009-01-31, 18:18:36
es ist nicht begründbar, dass nur eine spezifisches System unter höherer Auflösung mehr zu berechnen hat.

Eben doch. Wenn ich es richtig verstanden habe, ist dies laut den Messergebnissen des von BlackBirdSR geposteten Artikels http://www.realworldtech.com/page.cfm?ArticleID=RWT102808015436&p=4 (der noch nicht beachtet wurde) doch der Fall:

"In general, AMD’s uops are more powerful than Intel’s uops – meaning that for a given piece of x86 code, it will require more uops to execute on an Intel CPU than on an AMD CPU.
[...]
The change in the number of uops/instruction for the Core 2 running Prey is surprising. At low resolution, the uops/instruction is exactly average, around 1.4, but at high resolution it jumps up 30% to around 1.8, which is unusually high"

Undertaker
2009-01-31, 18:25:17
Verschiedene Detailsettings, nicht nur Auflösungen:

http://www.realworldtech.com/page.cfm?ArticleID=RWT102808015436&p=2

"In general, the “low” settings used a resolution of 1024x768, low texture/shadow quality, minimal anti-aliasing, and minimal anisotropic filtering."

Gerade Schatten gehen dabei häufig auch stark auf die CPU, so dass wir hier leider am Ende nur ein buntes Matsch-Bild haben, für die Diskussion über die reine Auflösungsthematik leider ungeeignet... :(

Madkiller
2009-01-31, 18:35:05
Für mein spezifisches System habe ich nun, bereits auch in der Vergangenheit und mit diversen Spielen, untersucht und herausgefunden, dass die CPU mit höherer Auflösung keine Mehrarbeit verrrichten muss. Hier herrscht nun der zwingend kausale Zusammenhang, dass meine CPU ihre Leistungsfähigkeit somit auch in höheren Auflösungen behält und somit nicht von einer, in niedriger Auflösung langsameren, CPU überholt werden kann - außer für den Fall, dass diese 2. CPU mit steigender Auflösung schneller wird, was wohl kaum technisch möglich oder erklärbar wäre.
*zustimm*
Das gilt auch für alle Spiele (über 4 verschiedene CPUs und 9 GraKas - IIRC) die ich bzgl CPU und GPU-Limit untersucht hatte (ca. 20) ausnahmslos.

Coda
2009-01-31, 18:37:21
Verschiedene Detailsettings, nicht nur Auflösungen:
Danke. Ich hatte gerade schon extreme Fragezeichen im Kopf wie das sonst zustande kommen sollte.

Gast
2009-01-31, 18:40:25
Ja du hast Recht.

Nichtsdestotrotz ist es ein Anhaltspunkt/ein möglicher Erklärungsversuch.

All diejenigen Benchmarks, in denen der besagte Effekt auftritt, einfach als falsch zu bezeichnen, halte ich jedenfalls auch nicht für einen besseren Erklärungsversuch.

Armaq
2009-01-31, 19:56:28
Ich verstehe nicht, wieso manchmal davon ausgegangen wird, dass sich die spezifischen Eigenschaften ändern.

Wenn CPU A in Spiel A schneller ist und dies unter Setting A (die Auflösung ist dabei EGAL), dann kann es natürlich sein, dass CPU B (die ansonsten langsamer ist) unter Setting D schneller ist, weil ihr der Code besser schmeckt. Das ist aber einfach nur Folge der Eigenschaften von A bzw. B.

Falls die Ergebnisse von den von Undertaker aufgestellten Grundsätzen abweichen, dann gab es einen Fehler in der Arbeit, oder etwas an den Berechnungsbedingungen wurde verändert und dies ist mit einem Fehler gleichzusetzen.

Avalox
2009-02-01, 01:32:59
Folgende Argumentationskette ist absolut zwingend kausal:

1. CPU A ist in geringer Auflösung schneller als CPU B (das muss untersucht werden, Voraussetzung)
2. CPU A kann im CPU-Limit mit steigender Auflösung seine fps konstant halten (ebenfalls zu untersuchen)

Nun lässt sich zwingend schlussfolgern:

3. Wenn CPU B mit steigender Auflösung keine Mehrperformance erzielt, ist CPU A auch in höchster Auflösung die schnellere.


Weder noch. Du kannst dort ein System und einen Software Einfluss keinesfalls ausschließen. Das tust du aber, indem du annimmst, dass die Rahmenbedingungen gleich bleiben.



Hier kannst du gerne exakt dagegen argumentieren, welcher Schluss hier nicht zwingend sein soll.



Die Annahme, dass die CPU dort in hoher Auflösung die identischen Funktionen ausführt.

Ein Beispiel:

Nehmen wir mal an es existiert bei hoher Auflösung ein GPU Limit in irgend einer Art.
Der Grafiktreiber wartet dort auf die Rückmeldung der Grafikkarte.
Solange der Grafiktreiber dort wartet, fordert er keine CPU Leistung an.
Die frei gewordene CPU Leistung wird nun von dem Spiel für einen anderen Aspekt genutzt. Z.B. für die Wegfindung einer Spiele KI.
Nun liegt die KI von ihrem Programmaufbau viel mehr der CPU, als der Grafiktreiber.

Schon verschiebt sich die Last der CPU in einer für die CPU vorteilhafte Situation, welche mit mehr FPS gemessen werden kann.


Ein Spiel ist ja kein Film, bei dem jedes Bild in konstanter Reihenfolge in fest vorgegeben Zeitslots berechnet wird.

Die Spielgrafik ist dort eine Momentaufnahme der jeweiligen Situation in genau dieser Zeit, dessen zeitliche Abstände frei variieren.

Mehr FPS bedeutet nicht ein schnelleres Spiel, es bedeutet mehr Momentaufnahmen in feineren zeitlichen Abschnitten.



In welchem Spiel trittt deiner Meinung nach der diskutierte Effekt einer steigenden CPU-Belastung mit höherer Auflösung auf? Bitte mit Ausgangsquelle.


Habe ich doch schon geschrieben. Es braucht gar keinen Beispiel. Die Messmethode ist an sich schlecht und nur ganz bedingt zur Ableitung geeignet.

Der_Korken
2009-02-01, 11:52:49
Die frei gewordene CPU Leistung wird nun von dem Spiel für einen anderen Aspekt genutzt. Z.B. für die Wegfindung einer Spiele KI.


Aber macht das denn Sinn? Eigentlich sollte die KI doch immer berechnet werden. So würde das ja bedeuten, dass die KI bei einem GPU-Limit feiner berechnet wird, sich also abhängig von den Grafiksettings im Spiel anders verhält. Vielleicht habe ich da auch eine falsche Vorstellung, aber das leuchtet mir an der Stelle nicht ein.

Avalox
2009-02-01, 12:01:07
Aber macht das denn Sinn? Eigentlich sollte die KI doch immer berechnet werden. So würde das ja bedeuten, dass die KI bei einem GPU-Limit feiner berechnet wird, sich also abhängig von den Grafiksettings im Spiel anders verhält. Vielleicht habe ich da auch eine falsche Vorstellung, aber das leuchtet mir an der Stelle nicht ein.

Nicht feiner, einfach nur schneller.
Das "Schneller" bekommt nur mehr Relevanz.

FPS misst die Anzahl der Bilder. Alle anderen Aspekte des Spiels werden dort nicht gemessen und nur sekundär aus dem Ergebnis abgeleitet.

Das ist doch immer wieder der Punkt in solchen Messungen. Fällt doch z.B. auch bei Soundlösungen ungemein auf.

Wenn wir mal annehmen, eine Soundlösung benötigt 5% der gesamten Rechenleistung. Das Spiel wird in FPS gemssen.
Nun hat man eine andere Soundlösung, welche sensationelle 10 mal so schnell ist. Also nur noch 0,5% Rechenleistung benötigt. So misst du in FPS nicht mal 5% Differenz (vermutlich viel weniger), obwohl die zweite Lösung gigantisch leistungsfähiger ist. Diese ist nicht 4,5% schneller, diese ist 1000% schneller.
Das messen in FPS ist schwach. Das messen in FPS mit einer realen Grafikkarte, mit realer CPU belastender GPU Treiberkomponente ist noch viel schwächer. Das Grafikframe ist nur ein Aspekt, welcher aber absolut und völlig zu Unrecht in den Mittelpunkt rückt.

Madkiller
2009-02-01, 12:18:22
Solange der Grafiktreiber dort wartet, fordert er keine CPU Leistung an.
Die frei gewordene CPU Leistung wird nun von dem Spiel für einen anderen Aspekt genutzt. Z.B. für die Wegfindung einer Spiele KI.
Quelle?
Soweit ich weiß, errechnet die CPU ständig neue Daten für die GPU.
Also:
CPU errechnet Daten für ein Frame für die GPU.

-GPU ist schneller/genauso schnell und nimmt gleich die Daten von der CPU entgegen und verwendet diese.

-GPU ist langsamer. CPU errechnet Daten, verschiebt die in nen Cache und fängt gleich mit der Berechnung des neuen Bildes an - natürlich damit die GPU aus möglichst aktuellen Daten ein Bild errechnen kann. Wenn die CPU schneller mit den Daten des zweiten Frames fertig ist, als die GPU die anfordert, werden die ersten Daten verworfen.

Ist IMHO auch deutlich logischer als deine Erklärung.
Da die Latenz/Aktualität des Bildes bei meiner Erklärung nämlich deutlich (gerade bei geringeren fps) geringer ist als bei deiner. So könnte es nämlich passieren, daß die GPU erst unnötig alte Daten für die Errechnung des nächsten Frames her nimmt.
Denn die GPU kann ja auch nicht zur CPU "sagen", hey, für das nächste Bild brauch ich ...ms schick mir bis dahin die Daten vom neuen Bild. Da die GPU die Daten noch nicht kennt, kann sie ja schlecht vorher sagen wie lang das dauern soll.

[ädit]
Außer du gehst von folgemden aus:
CPU errechnet Frame ---> dann GPU errechnet Frame ---> dann GPU fordert nächstes Frame an ---> (erster Punkt)
Dann wäre die Latenz für ein Bild aber sehr hoch, und auch die FPS wären selbst bei einem GPU-Limit nicht konstant.
Beispiel:
CPU1: 40ms
GPU1: 60ms
= 100ms für ein Bild

CPU2: 30ms
GPU1: 60ms
= 90ms für ein Bild.
Die fps sind zwar nur um 10% höher, obwohl die CPU2 um 25% schneller ist, aber es würde was ankommen, und es dürfte keine Konstanz der fps bei GraKa-Limit und verschiedenen CPUs herrschen.

Avalox
2009-02-01, 12:22:57
Quelle?
Wenn die CPU schneller mit den Daten des zweiten Frames fertig ist, als die GPU die anfordert, werden die ersten Daten verworfen.

Ist IMHO auch deutlich logischer als deine Erklärung.

Ist diese doch nicht. Wo auf welcher Instanz rechnet denn in deinem Modell der Grafiktreiber? Du blendest ja komplett jegliche CPU Belastung durch das Grafiksystem ausserhalb des Spiels völlig aus.

Was passiert den mit der Differenz der Rechenleistung, ob der Grafiktreiber (beliebig erweiterbar auf API usw.) über die GPU im Spiel nun 1000FPS oder nur 10FPS ausgeben kann?
Die Antwort ist ganz einfach. Die Differenz steht dem Spiel selbst zur Verfügung.

Die Grafikeinheit ausserhalb des Spiels wird nicht auf der GPU getrennt ausgeführt. Ausserhalb des Spiels verlangt das Grafiksystem zusätzliche CPU Leistung.
Erhöhst du die FPS künstlich, verlagerst du automatisch mehr Rechenleistung auf den Grafiktreiber.

Dein Modell ist schlicht nur stark vereinfacht. Es funktioniert nur unter einigen als gegeben angesehenen Annahmen. Annahme eins ist; die Testsysteme unterscheiden sich vom Aufbau nicht wesentlich. Annahme zwei ist; dass ein System welches schnell durch die Grafik Aufbereitung läuft auch an sich in allen Aufgaben schnell ist.

Nehmen wir doch einfach mal unterschiedliche Systemansätze. Ein System mit CPU Software Rendering und ein System mit GPU. Wie willst du denn bei solch einen Systemvergleich durch herabsetzen der Grafikauflösung die tatsächliche CPU Geschwindigkeit ableiten? Es geht nicht, weil Annahme 1 der Systemähnlichkeit nicht mehr gültig ist.

Solch einen Test könnte man durchführen, indem man das Grafikrendering auf einen 0 Ticks /dev/null Renderer eben einen Grafiktreiber ohne CPU Anforderung senden würde. Aber sowas wird nicht verwendet zum testen.

Madkiller
2009-02-01, 12:42:34
Avalox,

ich habe das nicht studiert. Klar habe ich deswegen das alles möglichst stark vereinfacht.
Mein Text sind nur logische Schlußfolgerungen.
Aber evtl habe ich damit auch übertrieben, denn mehrere Aussagen hast du wohl übersehen:
-Ich habe nie die CPU-Belastung des Grafiksystems ausgeschossen, ich habe es nur nicht extra aufgeführt.
-Was mit der Differenz der Rechenleistung geschieht schrieb ich: Alte Daten werden wieder verworfen
-Du redest vom ganzen System, ich ausschließlich von der CPU-Performance.

btw
Meinen [ädit] gesehen? Nach deiner These dürften gleichbleibende fps bei GPU-Limit und verschiedenen CPUs nicht sein, oder versteh ich dich falsch?

Avalox
2009-02-01, 13:00:37
-Ich habe nie die CPU-Belastung des Grafiksystems ausgeschossen, ich habe es nur nicht extra aufgeführt.


Ja. Was aber generell problematisch ist, wenn nämlich die Systemähnlichkeit sich im Detail als doch nicht gegeben heraus stellt. Wenn System A einen optimierten Grafiktreiber nutzt, System B aber nicht. z.B. . Es kommt zu leichten sich aufsummierenden Verschiebungen.


-Was mit der Differenz der Rechenleistung geschieht schrieb ich: Alte Daten werden wieder verworfen


Verworfen bedeutet dort, nicht dem Grafiksystem bereit gestellt, mit der Folge, dass diese verworfenen Daten in der weiteren Bearbeitung die CPU über das Grafiksystem nicht mehr belasten und damit CPU Zeit frei wird, welche dem Spiel bereit gestellt werden. z.B. um wieder zu verwerfende Daten zu errechnen. Aber manchmal werde diese Daten eben nicht verworfen, sondern zur Weiterverarbeitung gereicht und genau dieses schlägt sich dann in einer besserer Performance wieder.


-Du redest vom ganzen System, ich ausschließlich von der CPU-Performance.


Genau. Das ist Annahme Nr. 2 von oben. Die Annahme, dass eine schnelle CPU dort in allen Belangen schnell ist.

Was ist aber nun, wenn eine CPU im Grafiksystem schnell und im Spiel langsam ist? Wie verhält es sich dann verglichen mit einem System, in der die CPU im Grafiksystem langsam ist und im Spiel schnell?
Es verfälscht schlicht das Ergebnis komplett. Weil es einen Aspekt, nämlich "schnell im Grafiksystem", weiter in den Vordergrund stellt.


Meinen [ädit] gesehen? Nach deiner These dürften gleichbleibende fps bei GPU-Limit und verschiedenen CPUs nicht sein, oder versteh ich dich falsch?

Doch kann es diese geben. Es stellt nur einen Spezialfall, aufgrund einer hohen Systemähnlichkeit dar.

Ich bin mir sicher diese Thematik wird mit Intels Larrabee noch interessant werden. Wenn dieser tatsächlich einen aufwendigen Treiberunterbau bekommt, dann ist die Systemähnlichkeit ggf. nicht mehr soweit gegeben.

Madkiller
2009-02-01, 13:21:33
Doch kann es diese geben. Es stellt nur einen Spezialfall, aufgrund einer hohen Systemähnlichkeit dar.

Dieser "Spezialfall" ist (bis heute) aber die Regel!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7076141&postcount=354
(Moment, es sind sogar mehrere CPUs: K7, K8 +X2, Phenom, P4, C2D)

Undertaker
2009-02-01, 13:25:02
Doch kann es diese geben. Es stellt nur einen Spezialfall, aufgrund einer hohen Systemähnlichkeit dar.

Sry, aber das ist doch totaler Unfug :confused: Schau dir mal ein paar extrem GPU-limitierte Benches an, meinetwegen einen 3DMurks oder den Crysis GPU-Test in hohen Settings:

Hier haben tausende von Systemem im Netz, die sich bis auf die Grafikkarte sammt Treiber vollkommen unterscheiden können, praktisch exakt identische fps. Keine Systemähnlichkeit, kein Spezialfall... Du bist hier wirklich auf dem Holzweg.

Avalox
2009-02-01, 13:30:12
Dieser "Spezialfall" ist (bis heute) aber die Regel!


Ja. Ganz genau. Dieser Spezialfall ist die Regel, bei heutigen Systemen. Eben weil die Systeme so ungeheuer ähnlich sind.

Es gab in der Vergangenheit ein paar Ausnahmen. Z.B. als 3D Beschleuniger Einzug hielten. Oder im kleineren als nVidia T&L in die GPU verlagerte usw.

Aber es gibt keinen kausalen Zusammenhang anzunehmen, dass dieser Spezialfall immer gilt und genau deshalb, muss man Ausnahmen ernst nehmen.

Nur weil es überwiegend schon immer so war, heisst es nicht, dass es jederzeit anders sein könnte. Zumal die Ungenauigkeiten durch einen fortführenden Extremismus (welcher durch die Verwendung immer schnellerer GPUs automatisch gegeben ist) Fehler extrem verstärkt.

Die Messmethode ist schlicht schlecht.

Avalox
2009-02-01, 13:33:30
Hier haben tausende von Systemem im Netz, die sich bis auf die Grafikkarte sammt Treiber vollkommen unterscheiden können

Totaler Quatsch. Die Systeme sind alle zum verwechseln ähnlich. Unterschiede gibt es nur im Detail.
Die CPU macht i.d.R. überall das selbe, ebenso die GPU. Auch der Systemunterbau ist nahezu identisch, ebenso die verwendete Software.

Es ist eine riesige Monokultur. Den letzten grösseren Umbau gab es, als die 3D Beschleunigung in den Rechner einzog. Ansonsten wurden bei den Systemen nur die Grenzen evolutionär weiter verschoben.

Undertaker
2009-02-01, 13:45:50
Also ich klink mich jetzt aus... Ich weiß wirklich nicht, worauf du hier noch hinaus willst... Es haben sich ja auch schon andere dazu geäußert, mag sich ein jeder seinen Teil denken... :sneak:

reunion
2009-02-01, 13:57:16
Die AM3-Boards von Gigabyte sind übrigens bereits lieferbar: http://geizhals.at/eu/?cat=mbam3

Sockel AM3: Vorsicht bei CPU-Einbau!
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1233438375

Stormscud
2009-02-01, 15:54:13
Wann kann man denn mit den ersten AM3 CPUs rechnen? Kommen die dann auch in einem neuen Stepping? Allzu lange kann (will :D) ich nicht mehr warten, bis ich mir nen Ph2 reinbaue.

Schlammsau
2009-02-01, 15:55:06
Mittlerweile sind ja auch 3 Kern PII ab 130€ (http://www.computerbase.de/news/hardware/prozessoren/amd/2009/februar/neue_phenom_ii_preis/) gelistet. Sind diese empfehlenswert? Gibts schon Benchmarks von diesen?

Fetza
2009-02-01, 15:59:58
Irgendwie frage ich mich, warum amd überhaupt einen neuen sockel rausbringt, ich meine wofür ist der überhaupt gut? Er hat zwei pins weniger, als der alte - wozu?:confused:

Undertaker
2009-02-01, 16:01:15
DDR3-Unterstützung.

Fetza
2009-02-01, 16:06:43
Aber die ddr3 unterstützung hat doch nichts zwangsweise was mit dem sockel zu tun. Asrock hat doch auch - wenn ich nicht ganz falsch liege, ein am2+ board im angebot mit ddr2/ddr3 dimm-bänken.

Undertaker
2009-02-01, 16:18:45
Hmm, war das nicht andersherum, dass es AM3-Boards mit DDR2-Sockeln gibt?

Edit: Nein, du hast Recht. OK, dann verwundert es mich auch.

Gast
2009-02-01, 16:55:48
Aber die ddr3 unterstützung hat doch nichts zwangsweise was mit dem sockel zu tun. Asrock hat doch auch - wenn ich nicht ganz falsch liege, ein am2+ board im angebot mit ddr2/ddr3 dimm-bänken.

AM3 dient der Kodierung, damit solche Boards wie das Asrock eigentlich nicht exististieren sollten.
Dieses Board versehentlich mit Athlon X2 und DDR3 bestückt wird vermutlich CPU und Speicher beschädigen (wegen der unterschiedlichen Betriebsspannungen von DDR2 und DDR3).

Gast
2009-02-01, 17:49:30
Wann kann man denn mit den ersten AM3 CPUs rechnen? Kommen die dann auch in einem neuen Stepping? Allzu lange kann (will :D) ich nicht mehr warten, bis ich mir nen Ph2 reinbaue.


Guten Morgen. Die aktuellen Phenoms II sind Sockel AM3 CPUs, passen aber außerdem noch in den Sockel AM2+.

Echo419
2009-02-01, 18:01:09
Guten Morgen. Die aktuellen Phenoms II sind Sockel AM3 CPUs, passen aber außerdem noch in den Sockel AM2+.

falsch!!!
du solltest selber erstma richtig wach werden.... ;)

die aktuellen phenoms (phenom 2 x4 920 und 904be) sind sockel am2/am2+ cpus und passen nicht in sockel am3!!

die noch kommenden phenoms (925, 945, etc.) sind am3 cpus und passen in am2/am2+

mfg echo

MiChA87
2009-02-01, 20:01:11
Teste mit DDR3 gibt es noch nicht?

ich haben eben geschaut wieso haben wenige shops noch keine AM3 boards gelistet, meistens steht nur AM2+ dort?!

Gast
2009-02-01, 20:55:08
falsch!!!
du solltest selber erstma richtig wach werden.... ;)

die aktuellen phenoms (phenom 2 x4 920 und 904be) sind sockel am2/am2+ cpus und passen nicht in sockel am3!!

die noch kommenden phenoms (925, 945, etc.) sind am3 cpus und passen in am2/am2+

mfg echo


Sorry, auch gerade gelesen. Ich nehme alles zurück und behaupte das Gegenteil. Guten abend ;)

MiChA87
2009-02-01, 21:11:53
Wann kommen den diese neuen Phenoms? Und neuen AM3 Boards?

Kann mich nicht entscheiden ob i-core oder AM3

bleipumpe
2009-02-01, 23:48:16
Wann kommen den diese neuen Phenoms? Und neuen AM3 Boards?

Kann mich nicht entscheiden ob i-core oder AM3
Mainboards sind bereits vorgestellt bzw. bereits teilweise gelistet (Asus, Gigabyte). Fehlen nur noch die AM3 Prozessoren.

mfg b.

nagus
2009-02-02, 07:41:27
X4 940 vs. Q9550 vs. i7 920

CrossFireX and the Phenom II X4 940 – Competitive or Not? (http://www.anandtech.com/mb/showdoc.aspx?i=3506)

interessant die stärke des i7 bei Fart Cry 2 und die min. fps Vorteile des Phenom gegenüber dem i7/Q9550

Gast
2009-02-02, 11:21:24
IMO uninteressanter Test, weil klar GPU-limitiert. Erst mit CF werden teilweise Unterschiede zwischen den Platformen sichtbar. Aber auch nicht überall.

Fetza
2009-02-02, 11:24:14
Mit cf ist es nur bestimmt nichtmehr gpu limitiert. ;)

Gast
2009-02-02, 11:53:36
Doch, natürlich ist es das.

Fetza
2009-02-02, 12:10:10
Doch, natürlich ist es das.

Dann mal raus mit der begründung. :D

Hat jemand ein paar empfehlung bezüglich mainboards für den phenom II? Wichtig ist vor allem auch die möglichkeit ddr2-1066 ram mit vollbestückung nutzen zu können.

Undertaker
2009-02-02, 12:24:15
min. fps Vorteile des Phenom gegenüber dem i7/Q9550

Ich glaube, da bist du mit den OC-Werten durcheinander gekommen ;) Bis auf CoH und Crysis @ maxOC sehe ich den Phenom bei keinem Spiel bzgl. der Min-FPS in Front...

Min-FPS als Einzelwerte bleiben allerdings auch nach wie vor recht sinnfreie Angaben, schon ein einzelner Nachladeruckler kann hier zu sehr unsinnigen Ergebnissen führen... So z.B. bei Crysis und dem Vergleich Q9550 zu X4 940:

Auf 3,0/2,83GHz haben beide 16fps min, avg führt der Phenom. Auf 3,95/4,25GHz gewinnt der Q9550 avg, verliert aber bzgl der min-Werte deutlich - da passt etwas nicht. Noch extremer bei CoH mit dem i7, der mit OC niedrigere Werte liefert :rolleyes: Sinnvoll wäre z.B., einen Mittelwert der langsamsten 5% des Benches als min-FPS auszugeben.

Psychopat
2009-02-02, 12:36:47
Sehr sinnvoll gleich die Ergebnisse vom Übertakten mit rein zunehmen. So kann man erstens eventuelle GPU-Limits identifizieren und zweitens wird wer sich eine BE kauft diese bestimmt übertakten.

[fu]121Ah
2009-02-02, 13:45:58
übrigens mal als input, ich habe das gefühl dass der p2 einiges höhere minfps bietet als der alte c2d den ich hatte, bei gleichem takt. natürlich unfair wegen dualcore gegen quadcore, aber ich heize ja gerne die diskussion an und gehöre zur fraktion von avalox.

ich seh nicht ein wieso ihr so verblendet seid und einfach eine annahme als gegebene tatsache interpretiert - IHR spekuliert mehr als avalox mit seinen ausführungen. für euch ist es einfach klar dass ein 3dmurks mit gleichen punktzahlen bei ähnlichen systemen irgendwas belegt... hallo? schon mal überlegt dass da 1000 faktoren reinspielen und vielleicht genau der grund sind, wieso es nur geringe differenzen gibt? sowas wie aus/angleichendes mittel?

Fetza
2009-02-02, 14:04:58
Auf 3,0/2,83GHz haben beide 16fps min, avg führt der Phenom. Auf 3,95/4,25GHz gewinnt der Q9550 avg, verliert aber bzgl der min-Werte deutlich - da passt etwas nicht.

Denkst du jetzt etwa, eine seite wie anandtech mit exzellenter reputation weiss nicht, wie man testet/benched? Also ich denke mal, die jungs wissen ganz genau, wie und was sie benchen.

Undertaker
2009-02-02, 14:06:42
Ich denke nicht das Anandtech an den Werten geschraubt hat, falls du das meinst ;) Min-FPS nach üblichem Messschema sind einfach schlicht recht wertlos, da die Schwankungen viel zu groß sind.

[fu]121Ah
2009-02-02, 14:13:58
Denkst du jetzt etwa, eine seite wie anandtech mit exzellenter reputation weiss nicht, wie man testet/benched? Also ich denke mal, die jungs wissen ganz genau, wie und was sie benchen.
excellente reputation? lol, anand war früher mal bekannt dafür, gekauft zu sein ;)

san.salvador
2009-02-02, 14:14:44
Ich denke nicht das Anandtech an den Werten geschraubt hat, falls du das meinst ;) Min-FPS nach üblichem Messschema sind einfach schlicht recht wertlos, da die Schwankungen viel zu groß sind.
Mit ausreichend Durchläufen und entfernung von Extremwerten ist das sogar sehr aussagekräftig.

Undertaker
2009-02-02, 14:26:58
Mit ausreichend Durchläufen und entfernung von Extremwerten ist das sogar sehr aussagekräftig.

Findest du? Da braucht nur eine einzige Stelle dabei zu sein, wo er für einen Sekundenbruchteil kurz nachcachen muss (was z.T. auch bei mehrfachen Durchläufen immer wieder der Fall sein kann)... Wie gesagt, einen gewissen Prozentteil der langsamsten Stellen des Durchlaufes mitteln, und schon hat man einen, vor allem unter praktischen Gesichtspunkten, sehr viel bedeutsameren Wert.

san.salvador
2009-02-02, 14:43:23
Ich hab mir das so vergestellt:
Man macht 10 Durchläufe, nimmt die je zwei höchsten und tiefsten min-fps Ergebnisse raus und mittelt dann. Damit sollte man der Realität schon recht nahe kommen.

dargo
2009-02-02, 15:31:11
Denkst du jetzt etwa, eine seite wie anandtech mit exzellenter reputation weiss nicht, wie man testet/benched? Also ich denke mal, die jungs wissen ganz genau, wie und was sie benchen.
Ich nicht da sie für CPU-Tests Timedemos verwenden. ;)

YfOrU
2009-02-02, 15:33:30
IMO uninteressanter Test, weil klar GPU-limitiert. Erst mit CF werden teilweise Unterschiede zwischen den Platformen sichtbar. Aber auch nicht überall.

Gerade deshalb ist der Test informativ. Zum einen wird der vernachlässigbare Leistungsunterschied der Platformen in einer praxisrelevanten Auflösung mit GPU Limit verdeutlicht. Zum anderen wird das Potential und die Skalierbarkeit durch die CF und OC Werte dargestellt.

Mir ist die Art der Herangehensweise an einen Platformvergleich wesentlich angenehmer als theoretische CPU Tests in 800*600. Die deutlich größeren Unterschiede beim Einsatz von CF zeigen das je nach Platform die CPU zum limitierendem Faktor wird. Der Nachteil dieser Testweise mag zwar sein das vereinzelt Anwendungen nicht aussagekräftig genug skalieren, im Schnitt ist die Richtung aber klar erkennbar.

Wären z.B. die i7 Reviews auf diese Art erstellt worden müsste man nicht permanent lesen das er in Spielen keinen Leistungsvorteil gegenüber einem C2Q hat...

Im übrigen wäre es schön gewesen solche Artikel zum Start des PhII zu lesen, immerhin ist das gesamte Paket (inkl. CF) von einem Hersteller und das Ergebnis durchaus respektabel.

Gast
2009-02-02, 15:42:48
Gerade deshalb ist der Test informativ. Zum einen wird der vernachlässigbare Leistungsunterschied der Platformen in einer praxisrelevanten Auflösung mit GPU Limit verdeutlicht. Zum anderen wird das Potential und die Skalierbarkeit durch die CF und OC Werte dargestellt.



Was dem Test aber fehlt ist ein Aussage über die Leistungsfähigkeit der CPUs, als CPU-Test kann man ihn also nicht bezeichnen.
Kommende Spiele werden immer mehr CPU-Last verursachen als heutige und dann wird der Leistungsunterschied zwischen Core i7 und Phenom II sehr deutlich zutage treten (sofern kein GPU-Limit vorliegt).

[fu]121Ah
2009-02-02, 15:46:05
Was dem Test aber fehlt ist ein Aussage über die Leistungsfähigkeit der CPUs, als CPU-Test kann man ihn also nicht bezeichnen.
Kommende Spiele werden immer mehr CPU-Last verursachen als heutige und dann wird der Leistungsunterschied zwischen Core i7 und Phenom II sehr deutlich zutage treten (sofern kein GPU-Limit vorliegt).
bitte konkreter ausdrücken - du kannst nicht den Phenom II als "Klasse" gegen die Core i7 "Klasse" oder Generation antreten lassen, da du:

1) beim Core i7 ddr3 ram verwendest und dies beim Phenom II noch kommen wird in den nächsten Wochen
2) die skalierung mit mGPU nicht unbedingt Plattformabhängig sein muss, es kann auch einfach an den Treibern liegen etc. wodurch man eher die Chipsätze beurteilt als die CPUs.

Der HeinZ
2009-02-02, 16:51:25
121Ah;7079688']bitte konkreter ausdrücken - du kannst nicht den Phenom II als "Klasse" gegen die Core i7 "Klasse" oder Generation antreten lassen, da du:

1) beim Core i7 ddr3 ram verwendest und dies beim Phenom II noch kommen wird in den nächsten Wochen
2) die skalierung mit mGPU nicht unbedingt Plattformabhängig sein muss, es kann auch einfach an den Treibern liegen etc. wodurch man eher die Chipsätze beurteilt als die CPUs.

Naja, der DDR3 Unterschied zu DDR2 wird eher zu vernachlässigen sein und bis auf wenige praxisfremde Anwendungen möchte ich mal behaupten, das 90 % aller User die 5%-10% Mehrleistung nicht einmal fühlen werden. Ich weiß auch garnicht ob der HyperTransport-Speed da nicht auch ein bissl bremst.
(Also ich weiß es echt nicht) Ich muss das mal nachrechnen, so theorie halber.
Dazu mal eine Frage, weiß jemand gerade wieviel MB der HT in seiner aktuellen Spezifikation schaufel kann (max.) Ich bin gerde ein wenig zu faul zum googln.

Psychopat
2009-02-02, 17:00:25
Was dem Test aber fehlt ist ein Aussage über die Leistungsfähigkeit der CPUs, als CPU-Test kann man ihn also nicht bezeichnen.
Kommende Spiele werden immer mehr CPU-Last verursachen als heutige und dann wird der Leistungsunterschied zwischen Core i7 und Phenom II sehr deutlich zutage treten (sofern kein GPU-Limit vorliegt).

Ließt du eigentlich, was du schreibst? Oder kannst du die Ergebnisse des Tests nicht interpretieren? Ich vermute mal letzteres.

Dieser Test ist der mit Abstand beste CPU-Test den ich seit langem gelesen habe! Es geht um die für den Gamer jeweils relevantesten CPUs ihrer Klasse. Wenn einer sich für eine der drei Plattformen entscheidet, sind das die jeweils relevantesten Prozessoren zur Zeit.

- Der PhII 940, weil er nur wenig teurer ist als der 920 und sich wesentlich leichter übertakten lässt.

- Der Q9550, weil er der billigste 45nm Quad mit vollem Cacheausbau ist.

- Der i920, weil er der billigste i7 ist.

Dazu werden alle CPUs noch auf um die 4 GHz übertaktet, was für Gamer das eigentlich relevante ist. Praxisrelevantere Konfigurationen gibt es eigentlich nicht! Und obendrein haben sie sich die Mühe gemacht, den Preis vom Gesamtsystem jeweils aufzulisten.

Bei den Benchmarks haben sie genau die richtigen Einstellungen gewählt, um zu sehen wann ein GPU Limit vor liegt und wann nicht. Und das auch noch in praxisrelevanten Einstellungen! Um eine single GPU auszulasten haben alle CPUs genug power. Bei CF ist der i7 immer vorne. Wenn CF nur wenig bis gar keinen Zuwachs bringt, limitiert wohl die CPU. Die OC Werten zeigen auch ob man schon am GPU-Limit ist. Man muss sich dann halt die Werte anschauen, bei denen kein GPU-Limit vorliegt...

Wenn du natürlich zu faul bist die Werte genauer anzuschauen und nur siehst das der i7 bei single GPU nicht schneller als Q9550 und PhII 940 ist, kann ich natürlich nichts machen. Der Test ist halt für Leute mit ein wenig Ahnung was wann limitieren könnte und nicht für balkengeile Kiddies...


Wenn du noch ein Fazit brauchst: Der PhII 940 und der Q9550 spielen in der gleichen Liga, wobei der Q9550 einen Tick schneller ist. Dieser Tick schneller ist aber kaum relevant. Wenn der PhII nicht mehr schnell genug für ein Spiel/Setting ist, schafft ein Q9550 es auch nicht. Der i7 allerdings macht einen Unterschied. Kostet aber auch entsprechend mehr (Systempreis).

Edit: Mir gerade noch eingefallen - mit DDR3 für den PhII wird das Tick schneller des Q9550 evtl. wieder verschwinden.

Undertaker
2009-02-02, 17:03:34
Ich hab mir das so vergestellt:
Man macht 10 Durchläufe, nimmt die je zwei höchsten und tiefsten min-fps Ergebnisse raus und mittelt dann. Damit sollte man der Realität schon recht nahe kommen.

Mir gehts nicht (nur) um die Schwankungen, sondern auch um den Wert an sich... Wenn da z.B. auch nach deinen 10 Durchläufen z.B. etwas um 5fps (Einbruch für Sekundenbruchteil) herauskommt, im Rest des Benches das Minimum aber z.B. mehrfach und länger bei 20fps liegt, ist doch die letztere Angabe bei weitem relevanter.

dargo
2009-02-02, 17:04:05
Bei den Benchmarks haben sie genau die richtigen Einstellungen gewählt, um zu sehen wann ein GPU Limit vor liegt und wann nicht. Und das auch noch in praxisrelevanten Einstellungen!
Was ist an Timedemos praxisrelevant? :|

reunion
2009-02-02, 17:12:33
Ich weiß auch garnicht ob der HyperTransport-Speed da nicht auch ein bissl bremst.
(Also ich weiß es echt nicht) Ich muss das mal nachrechnen, so theorie halber.


Der Memorycontroller ist in der CPU und steuert den Speicher direkt ohne Umwege an. Der HT verbindet nur die CPU mit der Northbridge oder mit anderen CPUs im Serversegment. Ergo nein, der HT ist im Desktopsegment sogar um ein vielfaches überdimensioniert.


Dazu mal eine Frage, weiß jemand gerade wieviel MB der HT in seiner aktuellen Spezifikation schaufel kann (max.) Ich bin gerde ein wenig zu faul zum googln.

HT 3.0 schafft bis zu 20,8 GB/s pro Richtung, HT3.1 noch mehr (AFAIK um die 26GB/s).

Psychopat
2009-02-02, 17:15:10
Ok, abgesehen von den Timedemos. Ich meinte die Auflösung. Ich denke aber für die Vergleichbarkeit von CPUs zueinander sollte eine Timedemo die Ergebnisse nicht verfälschen. Oder kann man CPU-Treiber auf Timedemos optimieren?

Ansonsten, erläutere mir bitte inwiefern eine Timedemo die Vergleichbarkeit von CPUs beeinträchtigt.

Fetza
2009-02-02, 17:20:15
Ich nicht da sie für CPU-Tests Timedemos verwenden. ;)

Man muss sich ja für irgendeine benchmethode einigen, und die unterschiede kommen wohl gerade in den crossfire benchmarks raus. ;)

Man kann da soviel deuteln wie man will, aber der ph II kostet soviel wie ein q9400, legt sich aber leistungsmäßig mit einem q9550 an.

Aktuelle anwendungen werden alle auf cd2 optimiert sein, was ja kein wunder ist, da intel den markt seit 2006 völlig domminiert, somit kann man auch erstmal auf neue spiele warten, die vielleicht auch echten multicore-support bieten werden (so wie gta 4).

Fakt ist doch, schlechter kann der phenom II nicht werden, höchstens besser (wer weiss was im multicore bereich durch native quadcore technik noch ändert).

dargo
2009-02-02, 17:32:40
Ansonsten, erläutere mir bitte inwiefern eine Timedemo die Vergleichbarkeit von CPUs beeinträchtigt.
Mir gehts nur darum, dass man die Frameraten die bei diesen Benchmarks erzielt werden auf keinem Fall Ingame mit der jeweiligen Konfiguration erwarten sollte. Ingame ist die CPU-Last deutlich höher.

Armaq
2009-02-02, 17:39:52
Avalox, du drehst dir langsam was zusammen ... Deine Argumentation ist eher esoterisch denn faktisch.

Bring dochmal reproduzierbare Benchs, oder andere Ergebnisse.

Blutmaul
2009-02-02, 18:32:57
Wird btw grad der x4 940 für 199 euro bei Zackzack verramscht.
http://www.zack-zack.eu/html/overview/list.html

Der HeinZ
2009-02-02, 18:40:13
Der Memorycontroller ist in der CPU und steuert den Speicher direkt ohne Umwege an. Der HT verbindet nur die CPU mit der Northbridge oder mit anderen CPUs im Serversegment. Ergo nein, der HT ist im Desktopsegment sogar um ein vielfaches überdimensioniert.



HT 3.0 schafft bis zu 20,8 GB/s pro Richtung, HT3.1 noch mehr (AFAIK um die 26GB/s).

Ah mein Fehler, dachte der wäre über den HT angebunden im Prozessor.
Okay, danke! Ich nehm alles zurück! Dachte immer der wäre ein wenig schwachbrüstiger. Das ist aber schon eine menge holz die der bewegen kann! Aber selbst wenn er über HT angebunden wäre, würd der nicht wirklich limitieren fällt mir gerade auf da 1333 DDR3 Module = 21,2 GB/s. Aber der ist ja direkt angebunden, umso besser!

reunion
2009-02-02, 21:25:02
HT arbeitet wie schon erwähnt bidirektional, HT 3.1 erreicht also >50GB/s.

Der HeinZ
2009-02-03, 01:11:40
HT arbeitet wie schon erwähnt bidirektional, HT 3.1 erreicht also >50GB/s.

Ganz of topic, aber wollte es doch mal trotzdem mal nachfragen nur zum besseren verständniss: wie sieht das bei SDRAM-Speicher aus, ist die angegebene Bandbreite dort eigentlich für eine Richtung oder jeweils pro Richtung zu verstehen?

Gast
2009-02-03, 09:29:32
Ließt du eigentlich, was du schreibst? Oder kannst du die Ergebnisse des Tests nicht interpretieren? Ich vermute mal letzteres.

Dieser Test ist der mit Abstand beste CPU-Test den ich seit langem gelesen habe! Es geht um die für den Gamer jeweils relevantesten CPUs ihrer Klasse. Wenn einer sich für eine der drei Plattformen entscheidet, sind das die jeweils relevantesten Prozessoren zur Zeit.



Ich kann es gerne nochmal wiederholen, vielleicht verstehst du es ja dann:
Das ist kein CPU-Test, weil überall die GPU limitiert. Aussagekraft bezüglich der CPU-Leistung = Null.

Psychopat
2009-02-03, 09:57:41
Ich kann es gerne nochmal wiederholen, vielleicht verstehst du es ja dann:
Das ist kein CPU-Test, weil überall die GPU limitiert. Aussagekraft bezüglich der CPU-Leistung = Null.

Wenn überall die GPU limitieren würde, hätten man durch OC der CPUs nicht mehr FPS.

Gast
2009-02-03, 10:29:56
Wenn überall die GPU limitieren würde, hätten man durch OC der CPUs nicht mehr FPS.

Hat man in den meisten Fällen ja auch nicht, schau doch mal auf die max fps:

http://www.anandtech.com/mb/showdoc.aspx?i=3506&p=3

Bei den min fps hat man einen Unterschied, hier limitiert dann mehr die CPU, aber im Mittel macht es schon wieder fast garnix aus (<5% bei OC des i720 um 50%!).

Exxtreme
2009-02-03, 11:16:53
Also ich klink mich jetzt aus... Ich weiß wirklich nicht, worauf du hier noch hinaus willst... Es haben sich ja auch schon andere dazu geäußert, mag sich ein jeder seinen Teil denken... :sneak:
Eigentlich ist das ganz einfach. Wer viel misst der misst viel Mist. ;)

Man kann aus den Ergebnissen nicht wirklich eine generelle Aussage ableiten ala "Ph2 ist in hohen Auflösungen/Detailstufen schneller" bzw. "Hohe Auflösungen/Detailstufen erzeugen nie eine erhöhte CPU-Last". Das mag bei den derzeitigen Rahmenbedingungen durchaus zutreffen. Aber diese können sich ändern.

Das ist genauso als ob ich sage, Wasser kocht immer bei 100°C. Geh mal auf den Mount Everest und versuch dir einen ordentlichen Tee zu machen. Das wird dir kaum gelingen da das Wasser dort schon bei ~47°C kocht. Warum? Rahmenbedingung namens Luftdruck hat sich geändert.

Ich weiss z.B. von alten Geforce2-Treibern, daß da die T&L-Einheit abgeschaltet wurde bei bestimmten Auflösungen. Da man durch die gesparte Banbreite, die die Geometriedaten verursachten trotzdem mehr Leistung rausholte da die GF2 unter chronischen Bandbreitenmangel litt. In solchen Fällen erhöht die Erhöhung der Auflösung die CPU-Last eben doch. ;)

Mag sein, daß dies jetzt nicht zutrifft aber lass die Grafikkartenhersteller morgen einen Treiber bringen, der sich ganz anders verhält. Schon stimmen die Rahmenbedingungen nicht mehr und "generelle Aussagen" verlieren ihre Gültigkeit.

[fu]121Ah
2009-02-03, 11:26:58
der HT ist NICHT überdimensioniert, ansonsten könnte man nicht erklären wieso man reproduzierbar ca. 5-10% leistungssteigerung von HT1800mhz auf HT 2200MHz hat.

AnarchX
2009-02-03, 11:34:40
121Ah;7081413']der HT ist NICHT überdimensioniert, ansonsten könnte man nicht erklären wieso man reproduzierbar ca. 5-10% leistungssteigerung von HT1800mhz auf HT 2200MHz hat.
Das wird wohl eher daran liegen, dass der Takt des L3-Caches und des IMCs am HT-Takt gekoppelt ist.

reunion
2009-02-03, 11:35:07
Ganz of topic, aber wollte es doch mal trotzdem mal nachfragen nur zum besseren verständniss: wie sieht das bei SDRAM-Speicher aus, ist die angegebene Bandbreite dort eigentlich für eine Richtung oder jeweils pro Richtung zu verstehen?

Ein Speicherbus arbeitet AFAIK nicht bidirektional, kann also immer nur in eine Richtung übertragen.

121Ah;7081413']der HT ist NICHT überdimensioniert, ansonsten könnte man nicht erklären wieso man reproduzierbar ca. 5-10% leistungssteigerung von HT1800mhz auf HT 2200MHz hat.

Und ob man das erklären kann - was du meinst ist der NB-Takt, denn damit übertaktest du auch den L3-Cache.

[fu]121Ah
2009-02-03, 11:43:33
Ein Speicherbus arbeitet AFAIK nicht bidirektional, kann also immer nur in eine Richtung übertragen.



Und ob man das erklären kann - was du meinst ist der NB-Takt, denn damit übertaktest du auch den L3-Cache.
für wie blöd haltet ihr mich? ich rede vom HT Link, und ne, ich hab nicht 2 P II wo ich das selbst ausgetestet habe? :| NB Link kann man getrost auf den 1800 lassen für den test, die multis für NB und HT sind nämlich unabhängig. also redet keinen müll.

[fu]121Ah
2009-02-03, 11:44:12
Das wird wohl eher daran liegen, dass der Takt des L3-Caches und des IMCs am HT-Takt gekoppelt ist.
Nein ist er nicht. edit: was du meinst ist der referenztakt, das hat mit dem HT Link wenig zu tun.

Psychopat
2009-02-03, 12:05:29
Hat man in den meisten Fällen ja auch nicht, schau doch mal auf die max fps:

http://www.anandtech.com/mb/showdoc.aspx?i=3506&p=3

Bei den min fps hat man einen Unterschied, hier limitiert dann mehr die CPU, aber im Mittel macht es schon wieder fast garnix aus (<5% bei OC des i720 um 50%!).

Und genau das ist die Stelle wo du dein Hirn einschalten musst.
CoD braucht halt nicht soviel CPU-Power. Schau dir Crysis: Warhead an. Oder FarCry2. Die hängen an der CPU Leistung, entsprechend schneller ist der übertaktete i7.
http://www.anandtech.com/mb/showdoc.aspx?i=3506&p=4,http://www.anandtech.com/mb/showdoc.aspx?i=3506&p=6
Wie gesagt, man muss die Ergebnisse interpretieren können. Crysis und FarCry2 hängen stark an der CPU Leistung, entsprechend ist da der i7 schneller.

Ist halt kein Test für balkengeile Kiddies die in Foren rumtrollen sobald ihr Lieblingsprozessor nicht in jedem Benchmark vorne liegt ;)

reunion
2009-02-03, 12:10:36
121Ah;7081442']für wie blöd haltet ihr mich? ich rede vom HT Link, und ne, ich hab nicht 2 P II wo ich das selbst ausgetestet habe? :| NB Link kann man getrost auf den 1800 lassen für den test, die multis für NB und HT sind nämlich unabhängig. also redet keinen müll.

Mit dir ist eine Diskussion ja offensichtlich überflüssig. Der HT-Link limitiert außer vielleicht in Mehrsockelsystemen aber sowas von sicher nicht, da kannst du dich auf den Kopf stellen. Jede Wette das bei deinen Tests der L3-Cache-Takt ebenfalls angehoben wurde.

Psychopat
2009-02-03, 12:13:52
121Ah;7081442']für wie blöd haltet ihr mich? ich rede vom HT Link, und ne, ich hab nicht 2 P II wo ich das selbst ausgetestet habe? :| NB Link kann man getrost auf den 1800 lassen für den test, die multis für NB und HT sind nämlich unabhängig. also redet keinen müll.

Skalierung des PhII mit NB Takt (http://www.planet3dnow.de/vbulletin/showthread.php?t=354515&garpg=34#content_start)

Hast du links zu nem Bench, wo eine Erhöhung des HT, nicht des NB, zu mehr Leistung führt?

BlackBirdSR
2009-02-03, 13:14:44
121Ah;7081442']für wie blöd haltet ihr mich? .

Nein das sicher nicht; aber alle Tests die ich selbst auch gesehen habe und teilweise selbst getätigt habe, zeigen immer eines:
Die Hypertransport-Anbindung der CPU an den Chipsatz ist in 99% der Fälle keine Leistungsbremse.

Exxtreme
2009-02-03, 13:19:53
Mhhh, ich habe einen Phenom 1 9600 BE (unübertaktet) im Rechner. Würde sich so ein Ph2 lohnen? Bzw. wieviel Leistung würde das so bringen?

Danke im Voraus.

RainingBlood
2009-02-03, 13:45:14
Das wird wohl eher daran liegen, dass der Takt des L3-Caches und des IMCs am HT-Takt gekoppelt ist.


ist dem so? Eine Tolle Info aus Übertaktersicht.

dildo4u
2009-02-03, 14:17:00
CPU Scaling with GTX295 (Core i7/C2D/C2Q/PH 1/2)

http://www.legionhardware.com/document.php?id=807

Farcry 2 ist absolut extrem mit 2.1Ghz ist der Core i7 schneller als ein 4Ghz C2Q. :eek:

http://www.legionhardware.com/document.php?id=807&p=7

Fetza
2009-02-03, 14:21:24
CPU Scaling with GTX295 (Core i7/C2D/C2Q/PH 1/2)

http://www.legionhardware.com/document.php?id=807

Farcry 2 ist absolut extrem mit 2.1Ghz ist der Core i7 schneller als ein 4Ghz C2Q. :eek:

http://www.legionhardware.com/document.php?id=807&p=7

Klar, und ein auf 3,6 ghz getakteter core i7 schafft dann 4 frames mehr :D So langsam weiss ich auch nicht, was diese seiten sich da zusammenbenchen.;)

Sinn macht das jedenfalls nicht.

AnarchX
2009-02-03, 14:25:08
GPU-Limit, für eine weitere Skalierung hätte es wohl GTX 295 Q-SLI gebraucht oder eine etwas niedrigere Auflösung als die 1680x1050. ;)

Aber der große Vorteil vom i7 in FC2 ist doch schon länger bekannt.

dildo4u
2009-02-03, 14:31:55
Ich finds krank das dauert ja Jahre bis es passende Grafikkarten für ein Core i7 mit über 3Ghz gibt.

Undertaker
2009-02-03, 14:34:45
Auch sonst ist der Test ungewöhnlich... Crysis Warhead z.B. nutzt kaum 2 Kerne, siehe Wolfdale vs. Penryn. Trotzdem soll hier ein 2,1GHz i7 etwa einen 3,5GHz Core 2 Quad erreichen... Hmm, wirklich glauben kann ich das nicht.

Avalox/Gast
2009-02-03, 14:43:49
ist dem so? Eine Tolle Info aus Übertaktersicht.


Denke nicht. Der L3 Cache hat einen eigenen Mutliplikator, bzw. wird dieser mit dem NB Takt betrieben, welcher einen eigenen Multiplikator hat.

Es gibt dort nur eine Abhängigkeit des HT Taktes insofern, dass der HT Takt nicht über dem NB Takt liegen kann/darf. Damit hat der HT Takt maximal den Wert des NB Taktes. Da aber alle HT Links über einen eigenen Multiplikator verfügen, können diese auch eine Taktfrequenz unter dem NB in Schritten des Ref. Taktes beliebig annehmen. Jeder einzelne HT Link eine unterschiedliche Frequenz. Die Phenom haben halt nur einen HT Link. Die Opteron können allerdings tatsächlich jeden einzelnen HT Link getrennt regeln.
Einen Zusammenhang zwischen NB Takt und Speichertakt habe ich auch noch nicht feststellen können.

Fetza
2009-02-03, 14:43:55
Auch sonst ist der Test ungewöhnlich... Crysis Warhead z.B. nutzt kaum 2 Kerne, siehe Wolfdale vs. Penryn. Trotzdem soll hier ein 2,1GHz i7 etwa einen 3,5GHz Core 2 Quad erreichen... Hmm, wirklich glauben kann ich das nicht.

So gehts mir auch.

Gast
2009-02-03, 14:45:59
CPU Scaling with GTX295 (Core i7/C2D/C2Q/PH 1/2)

http://www.legionhardware.com/document.php?id=807

Farcry 2 ist absolut extrem mit 2.1Ghz ist der Core i7 schneller als ein 4Ghz C2Q. :eek:

http://www.legionhardware.com/document.php?id=807&p=7

Deswegen brauchst den Käse nich 10 mal zu posten.

dildo4u
2009-02-03, 14:47:48
Auch sonst ist der Test ungewöhnlich... Crysis Warhead z.B. nutzt kaum 2 Kerne, siehe Wolfdale vs. Penryn. Trotzdem soll hier ein 2,1GHz i7 etwa einen 3,5GHz Core 2 Quad erreichen... Hmm, wirklich glauben kann ich das nicht.
Auch Warhead liegt dem Core i7 sher sher gut.Vieleicht wurde die Engine bei Warhead ja doch in Richtung Multicore Nutzung verbessert.
http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/19

Gast
2009-02-03, 14:52:56
Auch Warhead liegt dem Core i7 sher sher gut vieleicht wurde die Engine bei Warhead ja doch in Richtung Multicore Nutzung verbessert.
http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/19

Ähm, falscher Thread für deine Rosinen?

RainingBlood
2009-02-03, 15:02:21
Auch Warhead liegt dem Core i7 sher sher gut.Vieleicht wurde die Engine bei Warhead ja doch in Richtung Multicore Nutzung verbessert.
http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/19

wann? Für Warhead gibts erst einen Patch und der kam nach dem Test.

dildo4u
2009-02-03, 15:05:35
wann? Für Warhead gibts erst einen Patch und der kam nach dem Test.
Ich meine von Crysis zu Warhead das dort was an der Engine verbessert wurde.Ohne eine GTX 295 oder einem GTX280 SLI kann man die CPU Abhänigkeit bei Crysis(Warhead) ja nicht erkennen,weils halt noch immer extrem GPU limtiert ist.

Undertaker
2009-02-03, 15:06:37
Auch Warhead liegt dem Core i7 sher sher gut.Vieleicht wurde die Engine bei Warhead ja doch in Richtung Multicore Nutzung verbessert.

Nein, sieh dir wie geschrieben den Vergleich zwischen Yorkfield und Penryn im selben Review an.

dargo
2009-02-03, 15:25:04
Ich finds krank das dauert ja Jahre bis es passende Grafikkarten für ein Core i7 mit über 3Ghz gibt.
Du bist der erste von dem ich höre, dass man zuviel CPU-Leistung kaufen kann. :D
Passende Grafikkarten für ein i7-System? Die wird es spätestens in einem Jahr geben. ;)

Auch Warhead liegt dem Core i7 sher sher gut.Vieleicht wurde die Engine bei Warhead ja doch in Richtung Multicore Nutzung verbessert.
http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/19
Nein, wurde sie nicht. Die höhere Performance vom i7 ist zum größten Teil der besseren Pro/Mhz-Leistung zu verdanken. Die +~40-50% gabs auch schon bei FC2. Und die wird es auch sicherlich in mehreren Games geben. Man muss nur ein passendes Test-Setup aufbauen um es auch zeigen zu können.

Undertaker
2009-02-03, 15:31:54
Ganz persönlich würde mich ja zunächst einmal die tatsächliche Leistungsfähigkeit interessieren - wenn verschiedene Seiten für identische Spiele einmal +0% und einmal +70% IPC (selbstverständlich im CPU-Limit) für den i7 zum C2Q sehen, ist das doch etwas zuviel der Messschwankungen...

dargo
2009-02-03, 15:41:55
Ganz persönlich würde mich ja zunächst einmal die tatsächliche Leistungsfähigkeit interessieren - wenn verschiedene Seiten für identische Spiele einmal +0% und einmal +70% IPC (selbstverständlich im CPU-Limit) für den i7 zum C2Q sehen, ist das doch etwas zuviel der Messschwankungen...
Wo siehst du diesen Fall? Die meisten sind doch nicht mal fähig in Games ein CPU-Limit zu erzeugen. X-D

Edit:
Da fällt mir gerade ein - kann es sein, dass die von dildo verlinkte Seite die erste ist die auf die Idee kam einen i7 zu untertakten? Ich zumindest habe bis jetzt nichts Vergleichbares gesehen. Nein, die übrigen Verdächtigen kommen sogar auf die glorreiche Idee einen i7 auf 4Ghz zu übertakten. :crazy:

[fu]121Ah
2009-02-03, 15:42:41
Mit dir ist eine Diskussion ja offensichtlich überflüssig. Der HT-Link limitiert außer vielleicht in Mehrsockelsystemen aber sowas von sicher nicht, da kannst du dich auf den Kopf stellen. Jede Wette das bei deinen Tests der L3-Cache-Takt ebenfalls angehoben wurde.
da du ja offensichtlich von der materie keine ahnung hast, werde ich gerne einige tests für dich machen. was möchtest du denn an software, die ich testen soll? übrigens lieber reunion, der l3 cache takt hängt mit der processor-nb zusammen und hat mit dem HT-Link GENAU GAR NICHTS zu tun. bitte mach dir doch daraus ein sticky für dich.

edit:

die einzige möglichkeit, dass am cache irgendwas ändert, wäre, falls die clock cycles reduziert "würden" - dies würde eine höhere performance unabhängig vom veränderten ht link erklären, daran glaube ich allerdings nicht - ich kucks mal an.

@psychopat

die memorytests werden ziemlich sicher nicht mit dem HT Link skalieren, ja da stimme ich dir zu. sagte ich das je?

@avalox

genau, es ist einfach so dass der HT Link nicht über dem NB Takt sein darf. ansonsten sind die unabhängig.

@blackbirdsr

ich habe es selbst z.b. mit cinebench festgestellt, 3dmurks lieferte auch mehr, aber spezifische tests wie eben everest memory werden natürlich nicht skalieren. allerdings bin ich der meinung dass man nirgens genug bandbreite haben kann. falls ich mich irre waren es seeehr viele messungenauigkeiten ;)

Der_Korken
2009-02-03, 15:43:13
Was ich an dem Test auch ungewöhnlich finde, dass zB der Phenom II (um mal wieder zum Topic zurückzukommen :D) mit steigendem Takt kaum an fps gewinnt, obwohl die i7 da trotzdem noch ordentlich Luft nach oben haben. Rein rechnerisch sollte ein 3,6Ghz PII ~20% schneller sein als ein 3Ghz PII, aber dem ist selten so. Trotzdem rechnen andere CPUs noch schneller - sollten die Werte also mit rechten Dingen zugehen, würde beim Phenom was anderes als der Core-Takt limitieren. Beim i7 selbst scheint es auch so zu sein, wobei man hier aber mutmaßen könnte, dass alles ab dem 2,4Ghz i7 GPU-limitiert sei und deswegen kaum noch Mehrleistung entsteht. Auf die Core2Duo/Qaud hab ich jetzt nicht geachtet.

@Warhead and FarCry2: Der i7 dominiert hier wirklich sehr stark. Allerdings kann das kaum am massiven Multithreading liegen, denn die alten Quadcores setzen sich von den Dualcores kaum ab (Crysis ~0%, FC2 ~20%). Es kann auch nicht daran liegen, dass die alten Quads "unechte" Qauds sind, denn der Phenom II fällt sogar hinter die Dualcores zurück. Ergo müsste der i7 wirklich eine abartige IPC haben, auch wenn mir das schon ziemlich unrealistisch erscheint.

Undertaker
2009-02-03, 15:47:27
Wo siehst du diesen Fall? Die meisten sind doch nicht mal fähig in Games ein CPU-Limit zu erzeugen. X-D

http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/26/#abschnitt_crysis

Abschnitt maximale Details... Hier ist die IPC des i7 praktisch identisch, und dabei liegt z.B. der i920 noch lange nicht im GPU-Limit (die schnelleren i7 skalieren ja noch gut weiter). Kommt mir wirklich etwas merkwürdig vor...

dildo4u
2009-02-03, 15:49:48
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/26/#abschnitt_crysis

Abschnitt maximale Details... Hier ist die IPC des i7 praktisch identisch, und dabei liegt z.B. der i920 noch lange nicht im GPU-Limit (die schnelleren i7 skalieren ja noch gut weiter). Kommt mir wirklich etwas merkwürdig vor...
Dort sind vermutlich avg und max fps GPU limtiert(Kein Wunder bei einer 9800GTX),bei den min fps ist der Core i7 mit 2.66Ghz schneller als ein 3.2Ghz C2Q.(Crysis – 800x600 max Details)

Undertaker
2009-02-03, 15:55:18
Dort sind vermutlich avg und max fps GPU limtiert(Kein Wunder bei einer 9800GTX),bei den min fps ist der Core i7 mit 2.66Ghz schneller als ein 3.2Ghz C2Q.(Crysis – 800x600 max Details)

Dennoch schlägt der Q9550 avg den i7 920. Bei LH braucht es dafür 700MHz(!) mehr für einen i7 mit 500MHz (!) weniger.

AnarchX
2009-02-03, 16:00:49
121Ah;7081962']@avalox

genau, es ist einfach so dass der HT Link nicht über dem NB Takt sein darf. ansonsten sind die unabhängig.

Auf diese Abhängigkeit bezog ich mich auch.

Und mit welchem NB-Takt hattest du dann die HT-Skalierung getestet?
121Ah;7081413']der HT ist NICHT überdimensioniert, ansonsten könnte man nicht erklären wieso man reproduzierbar ca. 5-10% leistungssteigerung von HT1800mhz auf HT 2200MHz hat.

Wobei, wenn deine Werte stimmen sollten, müsste ja ein Phenom @AM2-Board (1000MHz HT) völlig wegbrechen, jedoch gab AMD damals selbst nur etwas von 5-10% Vorteil für AM2+ an und Reviews zeigten auch keinen Totalabsturz der Leistung.;)

Auch wenn du dir sicher warst, dass der NB-Takt fix war, so glaube ich dass dein Board dich hier wohl ausgetrickst hat.
Aber natürlich kannst du, wenn du auf die Richtigkeit beharst, dass ganze nochmal mit Werten und Screenshots unterlegen.

dargo
2009-02-03, 16:16:47
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/26/#abschnitt_crysis

Abschnitt maximale Details... Hier ist die IPC des i7 praktisch identisch, und dabei liegt z.B. der i920 noch lange nicht im GPU-Limit (die schnelleren i7 skalieren ja noch gut weiter). Kommt mir wirklich etwas merkwürdig vor...
Bei max. Details ist es doch offensichtlich, dass bei CB die GPU stark limitiert. Mit low Details sind wir wieder bei +35% für den i7 (3,2Ghz vs. 3,2Ghz). Wir sind hier also nicht mehr so weit von den von mir angesprochenen +40-50% entfernt. Wahrscheinlich limitiert hier immer noch die GPU etwas. Und mit den 40-50% bin ich sogar noch etwas zurückhaltend denn bei BiA habe ich schon +65% gesehen.

Nehmen wir mal an die Pro/Mhz-Leistung vom i7 ist bei Crysis wirklich 40% höher. Bei max. Details ist laut CB der 3,2Ghz i7 nur 6% schneller als der Yorkfield. Wenn von 40% nur 6% übrig bleiben dann ist das nichts anderes als ein verdammt starkes GPU-Limit. Würde CB die beiden CPUs auf 4Ghz übertakten würde die Graka höchstwahrscheinlich zu 100% limitieren.

Solange die üblichen Verdächtigen nicht endlich für ihre CPU-Tests Savegames von Games mit möglichst hoher CPU-Last und Auflösungen wählen die in Kombination ein 100%-iges CPU-Limit provozieren werden wir noch sehr lange unnötige Diskussionen über die Mehrperformance vom i7 führen.

reunion
2009-02-03, 16:17:07
Uh, jetzt kommt die persönliche Schiene - wie berechenbar. :|

121Ah;7081962']da du ja offensichtlich von der materie keine ahnung hast, werde ich gerne einige tests für dich machen.

Ja bitte mach das großer Manitu. :massa:
Gerade da ich eine Ahnung von der Materie habe weiß ich, dass der HT-Link aber sowas von sicher nicht limitieren wird, da er um ein vielfaches mehr Bandbreite zur Verfügung stellt als alle daran angeschlossenen Chips jemals auslasten würden.


was möchtest du denn an software, die ich testen soll?
Egal, du wirst keine Software finden welche davon messbar profitiert, wenn du es schaffst dein System richtig zu konfigurieren und/oder es bei dir nicht sonst irgend ein seltsames Verhalten gibt.


übrigens lieber reunion, der l3 cache takt hängt mit der processor-nb zusammen und hat mit dem HT-Link GENAU GAR NICHTS zu tun. bitte mach dir doch daraus ein sticky für dich.


Wenn du in der Lage wärst richtig zu interpretieren, dann wüstest du, dass ich nie etwas andere behauptet habe.

Undertaker
2009-02-03, 16:20:22
Bei max. Details ist es doch offensichtlich, dass bei CB die GPU stark limitiert. Mit low Details sind wir wieder bei +35% für den i7 (3,2Ghz vs. 3,2Ghz). Wir sind hier also nicht mehr so weit von den von mir angesprochenen +40-50% entfernt. Wahrscheinlich limitiert hier immer noch die GPU etwas. Und mit den 40-50% bin ich sogar noch etwas zurückhaltend denn bei BiA habe ich schon +65% gesehen.

Nehmen wir mal an die Pro/Mhz-Leistung vom i7 ist bei Crysis wirklich 40% höher. Bei max. Details ist laut CB der 3,2Ghz i7 nur 6% schneller als der Yorkfield. Wenn von 40% nur 6% übrig bleiben dann ist das nichts anderes als ein verdammt starkes GPU-Limit. Würde CB die beiden CPUs auf 4Ghz übertakten würde die Graka höchstwahrscheinlich zu 100% limitieren.

Solange die üblichen Verdächtigen nicht endlich für ihre CPU-Tests Savegames von Games mit möglichst hoher CPU-Last und Auflösungen wählen die in Kombination ein 100%-iges CPU-Limit provozieren werden wir noch sehr lange unnötige Diskussionen über die Mehrperformance vom i7 führen.

Nochmal, warum ist dann ein Q9550 schneller? Ich bin im übrigen durchaus der Meinung, dass die IPC des i7 deutlich höher sind, aber 70% bei LH im Falle eines Spieles, das kaum 2 Kerne nutzt, sind für mich nicht erklärbar.
Übrigens, auch bei low sind es nur 25-35% Plus für den i7 (bei 2,66/3,2GHz jeweils). Das halte ich für Single- bis Dualthread-Software noch für gerade so realistisch.

[fu]121Ah
2009-02-03, 16:24:56
Uh, jetzt kommt die persönliche Schiene - wie berechenbar. :|



Ja bitte mach das großer Manitu. :massa:
Gerade da ich eine Ahnung von der Materie habe weiß ich, dass der HT-Link aber sowas von sicher nicht limitieren wird, da er um ein vielfaches mehr Bandbreite zur Verfügung stellt als alle daran angeschlossenen Chips jemals auslasten würden.


Egal, du wirst keine Software finden welche davon messbar profitiert, wenn du es schaffst dein System richtig zu konfigurieren und/oder es bei dir nicht sonst irgend ein seltsames Verhalten gibt.



Wenn du in der Lage wärst richtig zu interpretieren, dann wüstest du, dass ich nie etwas andere behauptet habe.
lol, ich war eigentlich noch nett, der tatsache entsprechend, dass du zwei oder dreimal nicht begriffen hast, wie der technische background aussieht. und wenn du jetzt sagst dass ich deine aussage falsch interpretiere, dann machst du dich lächerlich, nicht ich. denn ich weis schon dass eine andere frequenz der processor-nb auch die clock cycles beeinflusst, jedoch hättest du es dann korrekt beschreiben können - mir hier den schwarzen peter zuzuschieben ist, ähhh, billig.

was ich meinte, ist, das evnt. das board mich verarscht hat und die timings änderte.

@anarchx

genau darum hab ich mein post editiert, natürlich sage ich nicht "ich habe recht", "ihr habt unrecht", ohne mir gedanken dazu zu machen. ich werde es mit beiden boards austesten und ergebnisse posten. festgestellt habe ich den unterschied beim asus m3a78-t, beim foxconn ist der ht link eh 2000+mhz, da hab ich mir keine mühe gemacht. übrigens hatte ich mit htlink 1400mhz ca. 300 cinebench punkte weniger als mit htlink 19xxmhz, das ist das einzige woran ich mich erinnere. dies bei einer punktzahl von ca. 11000. ich werde bei gelegenheit mal n screenshot zwei machen.

dargo
2009-02-03, 16:28:58
Nochmal, warum ist dann ein Q9550 schneller?
Er ist nicht wirklich schneller. Die +2% avg.fps für den Q9550 bei max. Details resultieren aus den max.fps. Interessanterweise scheint der Yorkfield in den Benchmarkabschnitten wo eine größere GPU-Last herrscht schneller zu sein als der i7. Bei den min.fps ist der i7 wieder vorne.

Undertaker
2009-02-03, 16:33:09
Aber auch bei den min-fps sind es "nur" 35-40%. Wie gesagt, ich finde halt den fast doppelt so großen Vorsprung von LH unrealistisch...

dargo
2009-02-03, 16:35:45
Übrigens, auch bei low sind es nur 25-35% Plus für den i7 (bei 2,66/3,2GHz jeweils).
Bei den min.fps sind es 37-38%. Bei den min.fps sollte man nur beim Benchen auf Nachladeruckler aufpassen. Treten diese auf sind die Werte für die Katz. Darauf sollte man allerdings grundsätzlich Acht geben denn mit stark abweichenden min.fps verfälscht man ebenfalls die avgs. Aber ich denke doch CB hat dies beachtet.

Madkiller
2009-02-03, 17:22:38
Mhhh, ich habe einen Phenom 1 9600 BE (unübertaktet) im Rechner. Würde sich so ein Ph2 lohnen? Bzw. wieviel Leistung würde das so bringen?

Danke im Voraus.
Was ich mal so bei Tests verglichen habe, hat der PhII ggü dem PhI ne etwa 15%ig höhere Pro-MHz-Leistung bei Spielen. Damit solltest du dir das ausrechnen können (weiß ja nicht, welchen Takt du beim PhII willst, etc..). :)

Aber ich denke doch CB hat dies beachtet.
Das geht jetzt ganz klar nicht gegen CB sondern ist allgemein gehalten:
Also ich würde mich nicht drauf verlassen.
min fps werden sehr oft leider hirnlos abgelesen und verwendet. Ich habe schon aufgehört zu zählen, wie oft eine höher getaktete CPU weniger min fps hatte. Mir wäre auch neu, daß (mehrere Seiten) min fps aus vielen Durchäufen heraus ermitteln. Ich persönlich bin deswegen so weit, daß ich min fps bei Tests fast komplett ignoriere - und selbst wenn die stimmen, ne Szene kennt man dazu eh nicht.

dargo
2009-02-03, 17:37:57
Das geht jetzt ganz klar nicht gegen CB sondern ist allgemein gehalten:
Also ich würde mich nicht drauf verlassen.
min fps werden sehr oft leider hirnlos abgelesen und verwendet. Ich habe schon aufgehört zu zählen, wie oft eine höher getaktete CPU weniger min fps hatte. Mir wäre auch neu, daß (mehrere Seiten) min fps aus vielen Durchäufen heraus ermitteln. Ich persönlich bin deswegen so weit, daß ich min fps bei Tests fast komplett ignoriere - und selbst wenn die stimmen, ne Szene kennt man dazu eh nicht.
Du glaubst also die lassen einen Durchlauf rennen und schreiben die min.fps einfach so ab? Ohje... :usad:

Im Prinzip hast du recht, keine Ahnung warum ich mich von den min.fps wieder verleiten lasse. Eigentlich wäre die Sache ganz einfach. Ich bräuchte Jemanden der ein i7 System hat. Wir gleichen unsere Systeme was GPU-Leistung angeht an und schon können wir die CPU-Leistung vergleichen (natürlich in zu 100% cpu-limitierten Umgebungen). An passenden Savegames dürfte es bei mir nicht scheitern. ;)

[fu]121Ah
2009-02-03, 17:39:43
Du glaubst also die lassen einen Durchlauf rennen und schreiben die min.fps einfach so ab? Ohje... :usad:

Im Prinzip hast du recht, keine Ahnung warum ich mich von den min.fps wieder verleiten lasse. Eigentlich wäre die Sache ganz einfach. Ich bräuchte Jemanden der ein i7 System hat. Wir gleichen unsere Systeme was GPU-Leistung angeht an und schon können wir die CPU-Leistung vergleichen (natürlich in zu 100% cpu-limitierten Umgebungen). An passenden Savegames dürfte es bei mir nicht scheitern. ;)
ich wär da auch dabei, mit den p IIs, aber ich hab keine passende graka und besitze fast keine games.

Psychopat
2009-02-03, 17:44:46
121Ah;7082071']übrigens hatte ich mit htlink 1400mhz ca. 300 cinebench punkte weniger als mit htlink 19xxmhz, das ist das einzige woran ich mich erinnere. dies bei einer punktzahl von ca. 11000. ich werde bei gelegenheit mal n screenshot zwei machen.
Der default NB-Takt des PhII 940 ist 1800 MHz. Der HT Takt darf nicht über dem NB Takt liegen. Wenn du also einen HT Takt von 19xx hast, muss der NB Takt mit angehoben werden.

[fu]121Ah
2009-02-03, 17:54:25
Der default NB-Takt des PhII 940 ist 1800 MHz. Der HT Takt darf nicht über dem NB Takt liegen. Wenn du also einen HT Takt von 19xx hast, muss der NB Takt mit angehoben werden.
jop, das war er aber bei ht 1400 auch ;)

edit:

und als erklärung wieso ich das bemerkt habe, ich war die ganzen letzten 2 wochen am tunen der zwei phenoms. dabei stellte ich irgendwann instabilitäten bei ht link > 2200mhz fest, deshalb hab ich den ht link multi gesenkt, und mich dann gewundert als die performance tiefer war.

was eine erklärung sein könnte, ist, dass, wenn die nb höher getaktet ist (die ist bei mir immer um die 2200 rum), evnt. mehr bandbreite aufm ht-link durchaus etwas bringen kann. das ist aber spekulatius.

BlackBirdSR
2009-02-03, 20:02:58
121Ah;7082316']

was eine erklärung sein könnte, ist, dass, wenn die nb höher getaktet ist (die ist bei mir immer um die 2200 rum), evnt. mehr bandbreite aufm ht-link durchaus etwas bringen kann. das ist aber spekulatius.

Wenn!, dann spürst du immer nur Latenz.
Schon beim K8 konnte ich die Taktraten des HT-Links munter bis aufs Minimum senken, ohne Performance zu verlieren. Besonders! bei Cinebench das, wie der gesunde Menschenverstand ergibt, weder auf die Fstplatte, noch PCI-E noch Sound oder Ethernet besonders viel Last verteilt ;)

Spekulatius also mal, wo die Bandbreite hin geht. Meine Performancecounter zeigen beim K8 mit Cinebench übrigens ganz wenig HT-Link Belastung.

reunion
2009-02-03, 20:47:25
New Overclocking Star: AMD Phenom II X4 920 Review
http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x4-920-overclocking.html

RainingBlood
2009-02-03, 20:53:15
nunja, für die 3,7Ghz musste die Spannung auf über 1,55V gesetzt werden. Nicht gerade prickelnd für einen "OC Star"

Gast
2009-02-03, 21:05:53
Das schafft der boxed Kühler doch mit links *g*

BlackBirdSR
2009-02-03, 21:07:18
Das schafft der boxed Kühler doch mit links *g*

Der schon, das Oxid nicht. Ein OC-Star ist für mich eine CPU, die innerhalb der Specs (oder darunter) super Werte schafft.

reunion
2009-02-03, 21:14:45
nunja, für die 3,7Ghz musste die Spannung auf über 1,55V gesetzt werden. Nicht gerade prickelnd für einen "OC Star"

Naja, die CPU läuft schon standardmäßig mit 1.35V, die 1.55V sind nicht ganz 15% mehr. So viel ist das dann auch wieder nicht.

Undertaker
2009-02-03, 21:26:06
Ergibt aber andererseits ausgehend von 100W Defaultverbrauch bereits über 160W Abwärme - wo sparsame Chipsätze den Mehrverbrauch zu einem C2Q noch etwas überdecken können, wird man solche Werte dann schon recht deutlich merken... Zudem: Der PII darf nur 62°C (Tcase, liegt etwa 4°C unter dem was z.B. Coretemp anzeigt) erreichen, dass würde ich dem Boxedkühler nicht mehr zumuten.

[fu]121ah@home
2009-02-03, 21:29:02
Naja, die CPU läuft schon standardmäßig mit 1.35V, die 1.55V sind nicht ganz 15% mehr. So viel ist das dann auch wieder nicht.
das stimmt zwar, hingegen kann ich bestätigen dass mit 1,5v und ca. 3600mhz der stockkühler schon ausm letzten loch pfeift. 70 grad mit prime. der prozessor taktet sich schon runter!

@blackbird

eben, ich dachte mir ja auch dass da nicht viel über den link gehen muss, beim cinebench mein ich. ich werds mal sauber testen, evnt. ist das m3a78-t einfach so verbockt dass das die latenzen umschaltet. wie auch immer.

reunion
2009-02-03, 21:38:02
Ergibt aber andererseits ausgehend von 100W Defaultverbrauch bereits über 160W Abwärme - wo sparsame Chipsätze den Mehrverbrauch zu einem C2Q noch etwas überdecken können, wird man solche Werte dann schon recht deutlich merken... Zudem: Der PII darf nur 62°C (Tcase, liegt etwa 4°C unter dem was z.B. Coretemp anzeigt) erreichen, dass würde ich dem Boxedkühler nicht mehr zumuten.

Ich weiß nicht worauf du hinaus willst - auch ein Core 2 Quad kann sich physikalischen Gesetzen nicht beugen und wird beim Übertakten mit ähnlichen Steigerungen zu kämpfen haben. Die sparsamen Chipsätze kommen auch nicht von ungefähr, sondern weil eben die halbe Northbridge schon in der CPU steckt, ein reiner Vergleich des Verbrauchs der CPU ist deshalb ohnehin unfair. Und das man mit einem Boxed-Kühler nicht groß übertakten braucht ist auch nichts neues. Auch das ist aber bei Intel kaum anders.

Avalox
2009-02-03, 21:39:53
Naja, die CPU läuft schon standardmäßig mit 1.35V, die 1.55V sind nicht ganz 15% mehr. So viel ist das dann auch wieder nicht.

Spezifiziert ist dieser sogar mit 1,5V. Sind "nur" 50mV über der Spezifikation.

BlackBirdSR
2009-02-03, 21:44:49
Spezifiziert ist dieser sogar mit 1,5V. Sind "nur" 50mV über der Spezifikation.

wobei ich mich da schon frage, wie knapp das bemessen ist.

Coda
2009-02-03, 21:50:49
Naja, die CPU läuft schon standardmäßig mit 1.35V, die 1.55V sind nicht ganz 15% mehr. So viel ist das dann auch wieder nicht.
Die Effekte die hier wirken sind nicht linear, deshalb ist eine Prozentangabe unsinnig.

reunion
2009-02-03, 21:53:04
Die Effekte die hier wirken sind nicht linear, deshalb ist eine Prozentangabe unsinnig.

Das ist schon klar, aber es ist leichter zu vergleichen. Wenn ich einen Core 2 Quad mit einer VID von 1.15V mit ~1.32V betreibe habe ich jedenfalls den selben Effekt ausgehend vom default-Verbrauch.

Undertaker
2009-02-03, 21:54:09
Ich weiß nicht worauf du hinaus willst - auch ein Core 2 Quad kann sich physikalischen Gesetzen nicht beugen und wird beim Übertakten mit ähnlichen Steigerungen zu kämpfen haben. Die sparsamen Chipsätze kommen auch nicht von ungefähr, sondern weil eben die halbe Northbridge schon in der CPU steckt, ein reiner Vergleich des Verbrauchs der CPU ist deshalb ohnehin unfair. Und das man mit einem Boxed-Kühler nicht groß übertakten braucht ist auch nichts neues. Auch das ist aber bei Intel kaum anders.

Natürlich ist das bei einem C2Q grundlegend genauso, nur dort sind ~60% Mehrverbrauch durch ein vergleichbares OC eben "nur" 60W -> 100W - das gleicht jetzt auch kein Chipsatz mehr aus, viel wichtiger aber noch: Muss ich jetzt 100W oder über 160W mit meinem CPU-Kühler abführen? Für den PII würde ich daher viel eher zu einer Wakü raten, zumal er von aktuellen CPUs wohl auch am besten auf niedrigere Temperaturen in Bezug auf das OC-Potential reagiert.

Avalox
2009-02-03, 21:57:17
wobei ich mich da schon frage, wie knapp das bemessen ist.

na, ja. Die Frage kann man sich ja immer stellen. Ist halt ein anderer Herstellungsprozess.

Ein 45nm Cell wird wohl mit 0,8V befeuert. Dort sehen Kernspannungen anderer Hersteller auch schon böse überreizt aus, was diese ja bestimmt gar nicht sind.

Die 45nm Opteron sind glaube ich auch max. mit fast 80°C spezifiziert.

[fu]121ah@home
2009-02-03, 22:02:10
na, ja. Die Frage kann man sich ja immer stellen. Ist halt ein anderer Herstellungsprozess.

Ein 45nm Cell wird wohl mit 0,8V befeuert. Dort sehen Kernspannungen anderer Hersteller auch schon böse überreizt aus, was diese ja bestimmt gar nicht sind.
..ausserdem kann man die fertigungsprozesse nicht vergleichen. beim einen sind die auswirkungen von leckströmen drastischer, beim anderen grillts dafür die cpu früher.

übers ganze betrachtet, stimme ich zu, ein p II braucht eine wakü wenns extrem übertaktet werden soll, ab 60 grad wird der p II sporadisch schon instabil mit oc.

BlackBirdSR
2009-02-03, 22:20:39
na, ja. Die Frage kann man sich ja immer stellen. Ist halt ein anderer Herstellungsprozess.

Ein 45nm Cell wird wohl mit 0,8V befeuert. Dort sehen Kernspannungen anderer Hersteller auch schon böse überreizt aus, was diese ja bestimmt gar nicht sind.

Die 45nm Opteron sind glaube ich auch max. mit fast 80°C spezifiziert.

Die Temperatur ist kein großes Problem, solange die Stromdichten und Spannungen im Rahmen bleiben. Allerdings muss man sich schon fragen, was mit der Skalierung passiert ist. 1.55V hatten schon CPUs in meinem Rechner, die sehr alt sind....

Natürlich kann man Cell nicht mit einer hochgezüchteten x86-CPU vergleichen. Bei 9-11 Lagen Metall und dermaßen kritischen Singallaufzeiten um ja bei x-Takten Latenz und kurzen Pipelines zu bleiben, ist das schon eine Leistung. Allerdings bezahlen wir die eben auch mit sehr hohen Verbrauchswerten.

gisbern
2009-02-04, 00:41:47
kommt es nicht am Ende auf den Stromverbrauch an ? Da ist der PII doch nicht übel

Gast
2009-02-04, 10:06:50
In Anbetracht der gebotenen Performance ist der Stromverbrauch aber auch nicht als gering zu bezeichnen. Sagen wir, er ist befridigend.

reunion
2009-02-04, 11:16:36
121Ah;7082071']lol, ich war eigentlich noch nett, der tatsache entsprechend, dass du zwei oder dreimal nicht begriffen hast, wie der technische background aussieht. und wenn du jetzt sagst dass ich deine aussage falsch interpretiere, dann machst du dich lächerlich, nicht ich. denn ich weis schon dass eine andere frequenz der processor-nb auch die clock cycles beeinflusst, jedoch hättest du es dann korrekt beschreiben können - mir hier den schwarzen peter zuzuschieben ist, ähhh, billig.

Aja, du musst es ja wissen was ich begriffen habe. Ich habe immer eindeutig geschrieben wenn bei dir mehr HT-Takt Leistung bringt (was du bis zuletzt felsenfest behauptet hast) dann musst du auch den L3-Cache mitübertaktet haben, nicht mehr und nicht weniger. Wie schon gesagt: Es ist nicht meine Schuld das du nicht in der Lage bist richtig zu interpretieren. Auf deine versprochenen Tests warte ich übrigens immer noch.


was ich meinte, ist, das evnt. das board mich verarscht hat und die timings änderte.


Nein, was du meintest war, das ein höherer HT-Takt Leistung bringt und das ist einfach BS. Und genau das versuche ich dir seit mehreren Beiträge klar zu machen. Möglich das dein Board dich verarscht hat, aber dann solltest du hier nicht einen auf dicke Hose machen wenn du es nicht besser weißt.

Fetza
2009-02-05, 17:18:20
Ergibt aber andererseits ausgehend von 100W Defaultverbrauch bereits über 160W Abwärme - wo sparsame Chipsätze den Mehrverbrauch zu einem C2Q noch etwas überdecken können, wird man solche Werte dann schon recht deutlich merken... Zudem: Der PII darf nur 62°C (Tcase, liegt etwa 4°C unter dem was z.B. Coretemp anzeigt) erreichen, dass würde ich dem Boxedkühler nicht mehr zumuten.

Oh, heißt das etwa das der phenom II maximal 62 grad core-temp erreichen darf? Und bereits 4 grad früher (laut auslesetools) diese temp erreicht ist, und der prozzi abschmiert?

Wenn dem so ist, muss ich erstmal danke sagen! :) Dann weiss ich nämlich jetzt, warum mein phenom II in prime 95 sooft abgestürzt ist, bei ungefähr 58 grad :D

Der prozzi geht doch nicht kaputt davon oder? Aktuell habe ich ihn auf 3,6 ghz laufen, mit im bios eingestellt 1,375 volt, wobei mit cpu-z und auch das bios eigene auslesetool nur 1,328 v anzeigen.

reunion
2009-02-05, 17:54:38
Abschmieren tut es sicher nicht, sondern höchstens trotteln.

dr.denton
2009-02-05, 20:43:47
So weit ich weiss gelten die 62°C für die Tcase, nicht für die Kerntemperatur - eine CPU mit fast 80W Verlustleistung wird man kaum mit einem billigen Boxed-Kühler und bei halbwegs normalen Gehäusetemperaturen auf unter 62°C gekühlt kriegen.

mfG

denton

Fetza
2009-02-05, 21:23:13
In prime ist er mir abgeschmirt mit bluescreen, mal wegen zuwenig v-core und mal als er bei 58 grad war, laut hw-monitor.

Gast
2009-02-06, 09:43:14
kommt es nicht am Ende auf den Stromverbrauch an ? Da ist der PII doch nicht übel

Naja, er zieht knapp das doppelte wie ein vergleichbarer Core2Quad! Das ist nicht gerade super!

Undertaker
2009-02-06, 11:22:52
So weit ich weiss gelten die 62°C für die Tcase, nicht für die Kerntemperatur - eine CPU mit fast 80W Verlustleistung wird man kaum mit einem billigen Boxed-Kühler und bei halbwegs normalen Gehäusetemperaturen auf unter 62°C gekühlt kriegen.

mfG

denton

Deswegen sag ich ja, Tcore liegt etwa 4°C über Tcase (das ist wohl als Heatspreadertemperatur o.ä. spezifiziert). Die somit zulässigen 62/66°C (AOD/Coretemp) sollten also tunlichst eingehalten werden.

dr.denton
2009-02-06, 12:46:33
Oh, sorry, das hatte ich glatt überlesen - aber ist die Differenz wirklich so gering ? Ich hätte mit ca. 10° gerechnet.

mfG

denton

Fetza
2009-02-06, 20:40:40
Naja, er zieht knapp das doppelte wie ein vergleichbarer Core2Quad! Das ist nicht gerade super!

Und dazu dann auch bitte mal ein review^^ Jetzt bin ich gespannt^^

Mal was anderes: Ich habe aktuell nur drei dimmbänke belegt, weil mir mal wieder ein ramriegel durchgebrannt ist. Aktuell läuft der phenom II also wohl im single channel, gibt es so wie bei intel eigentlich auch eine möglichkeit das ram im mixed-mode laufen zu lassen? Also so, wie zb vorher bei meinem cd2?

Und wieviel mehrperformance zieht eigentlich der phenom II zwischen single und dual channel speicherinterface?

anddill
2009-02-06, 21:50:12
Im Unganged-Modus können beide Speicherkanäle unterschiedlich bestückt werden. Der Ganged-Modus ist Dualchannel und wird nur empfohlen, wenn man fast ausschließlich Software einsetzt, die nur einen Thread hat.
Singlechannel gibt es eigentlich nicht mehr, nur noch wenn tatsächlich nur eine Bank bestückt ist.

wolf-Cottbus
2009-02-07, 00:00:12
Und dazu dann auch bitte mal ein review^^ Jetzt bin ich gespannt^^

Mal was anderes: Ich habe aktuell nur drei dimmbänke belegt, weil mir mal wieder ein ramriegel durchgebrannt ist. Aktuell läuft der phenom II also wohl im single channel, gibt es so wie bei intel eigentlich auch eine möglichkeit das ram im mixed-mode laufen zu lassen? Also so, wie zb vorher bei meinem cd2?

Und wieviel mehrperformance zieht eigentlich der phenom II zwischen single und dual channel speicherinterface?

Hier
http://ht4u.net/reviews/2009/amd_phenom_2_x4_940/index15.php

Gruß Wolf

Messias
2009-02-07, 11:26:19
Ich sehe in dem Review zwar einen Intel Quad, der tatsächlich nur etwas mehr als die Hälfte von dem verbrät, was der P II braucht. Aber auch meherere Intel Quads, die praktisch das gleiche verbrauchen. auch nach dem Bericht der C't liegt AMD im Verbrauch nur noch relativ wenig über dem, was Intel bei vergleichbarer Leistung benötigt.

Übersehe ich hier etwas?

Messias

dr.denton
2009-02-07, 13:00:16
Es ist doch so: mit der richtigen Kombination von Mainboard, Software und CPU kann ich praktisch alles "beweisen" - insbesondere, wenn die CPU isoliert betrachtet wird, hier muss ja ein K10 mit seinem integrierten Speichercontroller gegen den C2 verlieren.

Andere seriöse Tests sehen den Phenom bei gleichem Takt ziemlich genau auf dem Niveau des C2, idle sogar noch davor.

mfG

denton

Undertaker
2009-02-07, 13:08:56
Genau, dass Restsystem ist meist das Problem... Viele, ja praktisch alle der sonstigen "seriösen Tests" nutzen High-End Boards mit dem X38/X48 gegen sparsame und ausstattungstechnisch unterlegene 790GX Chipsätze - ein so irrealer wie unfairer Vergleich. HT4U bildet hier eine positive Ausnahme und verwendet den P45. Im relevanten idle-Betrieb sieht man dort die AMD- wie die Intelbasis auf gleicher Höhe, unter Last bleibt noch ein deutlicher Abstand der mit neuen Deneb-Steppings verringert werden muss. Das der 45nm Prozess aktuell noch überhaupt nicht gut läuft, zeigt die extrem hohe Vcore aktueller Modelle.

_DrillSarge]I[
2009-02-07, 13:21:35
Das der 45nm Prozess aktuell noch überhaupt nicht gut läuft, zeigt die extrem hohe Vcore aktueller Modelle.
dagegen spricht aber das (sehr) gute übertaktungspotenzial, sowie das die ph2 auch oft sich mit deutlich weniger vcore@stock zufrieden geben.

Undertaker
2009-02-07, 13:30:30
Nun wurde der Takt von 65->45nm aber auch nur um 15% gesteigert... Zur Vcore, anfangs war dese auf jeden Fall notwendig:

http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/33/#abschnitt_undervolting

Wenn aktuelle Exemplare weniger brauchen zeigt das doch, dass die von mir spekulierten Fortschritte im Zuge der Prozessoptimierung schon langsam beginnen...

Avalox
2009-02-07, 16:11:52
I Aber auch meherere Intel Quads, die praktisch das gleiche verbrauchen. auch nach dem Bericht der C't liegt AMD im Verbrauch nur noch relativ wenig über dem, was Intel bei vergleichbarer Leistung benötigt.

Übersehe ich hier etwas?


Die Tester übersehen in solchen Tests, dass der Phenom (II) ja auch mehr macht und kann als der C2Q. Fast die komplette NB ist dort in der CPU verbaut.

Solche Tests lassen sich nur auf System Ebene durchführen. Die elektrische Leistungsaufnahme der CPU ist dort schlicht nicht mehr repräsentativ vergleichbar.

Fetza
2009-02-07, 16:14:33
Hier
http://ht4u.net/reviews/2009/amd_phenom_2_x4_940/index15.php

Gruß Wolf

Danke

Es ist doch so: mit der richtigen Kombination von Mainboard, Software und CPU kann ich praktisch alles "beweisen" - insbesondere, wenn die CPU isoliert betrachtet wird, hier muss ja ein K10 mit seinem integrierten Speichercontroller gegen den C2 verlieren.

denton

Darauf wollte ich hinaus, wenn man die beiden prozessoren für sich betrachtet, fehlt doch beim cd2 der speichercontroller.

Das der 45nm Prozess aktuell noch überhaupt nicht gut läuft, zeigt die extrem hohe Vcore aktueller Modelle.

Meiner macht auf standard-v-core 3,5 ghz prime95 ohne probleme stabil mit. Für 3,6 bräuchte ich aber mehr v-core sonst schmirrt er mir ab, dafür reicht dann aber der boxed lüfter nichtmehr. Wie du deshalb auf schlecht kommst verstehe ich nicht, die meisten Phenom II machen 3,6 doch problemlos mit, was soll daran schlecht sein, ein q9550 schafft auch nicht viel mehr.