Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Phenom-II-X6-Thread
y33H@
2010-04-27, 22:06:43
@ sklave_gottes
Von 92,3 auf 97,3 sind keine 25% :ugly:
Und dennoch haben wir ein bedingtes GPU-Limit. Nicht über die kompletten 95 sec des Benchmarks, aber einen großen Teil davon - nur ab und zu schlägt die CPU-Leistung durch, daher gibt's am Schluss doch noch ~5% Differenz zwischen Q9550 und i7-975 XE.
LovesuckZ
2010-04-27, 22:17:21
Ja aber es geht doch darum die CPU zu 100% zu testen und nicht zu schauen, wie schnell die Grafikkarte ist.
Dafür muss man keine Spiele missbrauchen. Werden Spiele getestet, muss die Testeinstellung die Wirklichkeit widerspiegeln. Alles andere ist weltfremd.
natürlich nicht...man kann ja gerne soviele benchmarks unter 640*480 bei 300FPS bringen wie man möchte...was aber letztlich beim spielen zählt sind die avg. und die min. FPS beim spielen in real genutzten settings.
nun meine letzte CPU ein A64 X2 3800+ gekauft 2006/7 pfiff dann 2009 auch so ziemlich aus dem letzten Loch und musste im Oktober 09 ersetzt werden obgleich zum Kaufzeitpunkt mit damaligen Spielen in von dir geforderten Auflösungen/Settings mit damalig aktuellen GPUs das Ding keinen Leistungsunterschied zu "schwächeren" CPUs gezeigt hätte
so kann man eben nicht argumentieren, es sei denn man wechselt jeden Monat sein System
boxleitnerb
2010-04-27, 22:43:03
Die Diskussion ist doch immer dieselbe und die Argumente sind immer dieselben. Langsam wird es langweilig, dass die Mehrheit hier nicht versteht, wie eine CPU getestet werden muss, damit man nicht nur die nächsten 6 sondern vielleicht 18 Monate was von ihr hat.
Und schon wieder das typische: Ich verstehe nicht, dass Spiele Spiele sind, die gespielt werden und keine 100% CPU Tests.
Wenn Spiele verwendet werden, dann müssen auch realistische Einstellung nachgestellt werden. Und wer spielt mit solch einer CPU heutzutage noch ohne AA, AF und in Auflösungen < 1680x1050?
Wie kann einem langjährigen 3DCenter-Member das Verständnis dafür fehlen?
Undertaker
2010-04-27, 22:51:30
natürlich nicht...man kann ja gerne soviele benchmarks unter 640*480 bei 300FPS bringen wie man möchte...was aber letztlich beim spielen zählt sind die avg. und die min. FPS beim spielen in real genutzten settings.
der idealfall ist man bringt einfach beides..."low res." und realitätsnahe settings.
ob eine CPU schneller ist als die andere sieht man heutzutage ja sowieso eher in anwendungen!
das problem ist einfach das es nur so wenige eher CPU limitierte spiele wie Anno1404 gibt und, dass das leistungsniveau selbst der "lahmarschigen" PhII so hoch ist das es wahrlich das geringste problem in einem zocker system darstellt mit einer solchen CPU spielen zu "müssen".
Die Sache ist ja, dass es eigentlich genügend entsprechende Szenarien gibt - spiel mal das alte Team Fortress 2 auf einem 30er+ Server oder ein praktisch jedes beliebige Strategiespiel, das genügend Einheiten zulässt - selbst Warcraft 3 auf einigen Custom-Maps. :freak: Lässt sich eben wie bereits erwähnt häufig nur schwer benchen...
Dafür muss man keine Spiele missbrauchen. Werden Spiele getestet, muss die Testeinstellung die Wirklichkeit widerspiegeln. Alles andere ist weltfremd.
Dann auch Triple-SLI GTX480 Tests auf nicht übertakteten Mainstream-CPUs in maximal 1920x1080 4xAA/16xAF? Da kommt dann im Regelfall ähnlicher Mist raus. ;)
Der Punkt ist auch, dass viele das Thema als AMD vs. Intel Diskussion interpretieren wollen - ist es nicht. Wenn ein i3 530 laut CB-Rating in 1680er Auflösung keine 10% langsamer sein soll als ein 3x so teurer 1090T, ist das ebenso Brainfuck wie in einer umgekehrten Situation.
damit man nicht nur die nächsten 6 sondern vielleicht 18 Monate was von ihr hat.
Da übertreibst Du stark ... ich verweise in dem Fall immer gerne an die nach wie vor aktuellen OC Q6600 Systeme. Bei 3-3,2 GHz bieten die ollen Teile immernoch genügend Leistung.
Was soll denn in 18 Monaten großartiges im Spielebereich kommen, das soviel mehr Leistung fordern soll ?
Langfristig kommen höchstens die DirectCompute / OpenCL Spiele z.B. die Unreal Engine 4, bei sowas ist die CPU dann nur schmückendes Beiwerk.
y33H@
2010-04-27, 22:55:45
Q6600 ist aber genauso krass wie es die 8800 GTX war/ist. Sowas gibt's ein bis zwei Mal in 10 Jahren.
Undertaker
2010-04-27, 22:59:14
Langfristig kommen höchstens die DirectCompute / OpenCL Spiele z.B. die Unreal Engine 4, bei sowas ist die CPU dann nur schmückendes Beiwerk.
Diese Diskussion gab es schon als die ersten T&L Karten kamen und sie ist auch jetzt wieder fehl am Platz: Nicht für jede Berechnung ist eine GPU wirklich tauglich. Die CPU-Anforderungen werden auch weiterhin steigen, wandern Dinge wie Physik auf die Grafikkarte, verlagern sich die Aufgaben eben mehr Richtung KI o.ä. Das ändert letztlich nichts...
y33H@
2010-04-27, 23:03:54
Da die Konsolen die kommenden 1-2 Jahre nicht ersetzt , Spiele aber aufwendiger werden, müssen 360 und PS3 zwangsläufig mehr auf der CPU berechnen [samt schon jetzt grausamer sub-HD Optik], was bei einem Port auch auf dem PC erhöhten CPU-Aufwand bedeutet. Man schaue sich nur mal GTA4, Prototyp oder NfS Shift an - auf den meisten Rechnern [mit kleineren Prozessoren, vor allem Dualcores] die reinsten CPU-Killer.
boxleitnerb
2010-04-27, 23:05:14
Es ist halt Quatsch, jetzt Settings zu benchen, in denen die CPUs sich nicht voneinander gemäß ihres Potentials absetzen können. Die eine CPU hat eben noch ordentlich Reserven (ob man sie brauchen wird, sei mal dahingestellt), die andere eben eher weniger. Mit einer neuen Grafikkarte kann man dann eben nur bei einer der beiden CPUs dieses Leistungspotential richtig ausfahren, wenn sich das GPU-Limit dann verschiebt.
Aber das ist auch so nur logisch. Ich erinnere an dieses "lustige" Diagramm (glaub irgendein Rennspiel) bei einem CPU-Test von CB, wo ALLE CPUs im Testfeld nur 10% auseinanderlagen :freak:
Solche Tests sind einfach Rotz. Bei maximalen Details und gängigen Auflösungen benchen ist völlig okay - wenn man ein CPU-lastiges Savegame raussucht. Ansonsten ist so ein Test nur eins: sinnlos, weil er nicht das wiedergibt, was die CPUs wirklich leisten können, wenn es darauf ankommt.
sklave_gottes
2010-04-27, 23:06:38
@ sklave_gottes
Von 92,3 auf 97,3 sind keine 25% :ugly:
Und dennoch haben wir ein bedingtes GPU-Limit. Nicht über die kompletten 95 sec des Benchmarks, aber einen großen Teil davon - nur ab und zu schlägt die CPU-Leistung durch, daher gibt's am Schluss doch noch ~5% Differenz zwischen Q9550 und i7-975 XE.
Der Test von dem ich spreche ist der Hier(Anno):
http://www.pcgameshardware.de/aid,745670/Phenom-II-X6-1090T-und-1055T-im-Test-Sechs-CPU-Kerne-zum-Kampfpreis/CPU/Test/?page=2
Und hier hat der Q9550 42,7 und der i7-975 54,4. Und das sind über 27% schneller.
mfg martin
edit:
ok Habe eine Seite vorher gelesen das es nicht um Anno geht :-(, sorry
y33H@
2010-04-27, 23:08:11
@ boxleitnerb
HT4U war auch schön - so gerne ich deren Tests mag, aber der interne GTA4-Bench ist halt äh eher nicht so toll :ulol:
http://www.abload.de/thumb/2010-04-27_230704o9ni.png (http://www.abload.de/image.php?img=2010-04-27_230704o9ni.png)
@ sklave_gottes
Anno rennste mit dem Setup bei ~55 Fps in GPU-Limit, mein i5-750 @ 3,6 GHz geht nicht drüber.
boxleitnerb
2010-04-27, 23:11:22
OMG! Dabei sind die idR ja recht kompetent. Mal ehrlich: Was denkt sich ein Redakteur, der so ein Diagramm erstellt? Die Zeit hätte er genausogut in seine Mittagspause investieren können.
Q6600 ist aber genauso krass wie es die 8800 GTX war/ist. Sowas gibt's ein bis zwei Mal in 10 Jahren.
Jo, aber gleiche Frage an Dich, was kommt den groß die nächsten Jahre ?
Max. noch 6 Threads wg. der Konsolenports, aber selbst da reicht ein hochgetakteter Quad. Ob jetzt K10 @ 4 GHz, oder i5/7 @ 4GHz mit/ohne SMT - egal.
Danach kommt GPGPU, da wird die CPU zum Threadverwalter degradiert werden. Sollte das Mainboard nicht schlapp machen, wird man ein aktuelles System (mit neuer Grafikkarte) noch lange behalten können. Wenn man lustig ist, vielleicht noch ein AM3 Brett in ~2 Jahren auf nen billigen Bulldozer aufrüsten, aber das reicht dann auch wieder dick. Bis PCIe 3.0 zwingend nötig wird, dauerts auch noch gaaanz lange.
puntarenas
2010-04-27, 23:24:10
[x] Was fehlt, sind ordentlich parallelisierte Rundenstrategiespiele. Ich denke da an sowas wie GalCiv2 auf einer gigantischen Map im Endgame, da kann man teilweise Kaffee kochen gehen. Leo wusst ja eine ähnlich ernüchternde Parallelisierung von FM200X und Spieltagsberechnungen zu berichten.
[x] Was nicht kommt, sind haufenweise gut parallelisierte Rundenstrategiespiele, wo der hochgezüchtete Sechskernprozessor mal eben die Rundenberechnungszeit drittelt..
;(
Ronny145
2010-04-27, 23:25:04
Jo, aber gleiche Frage an Dich, was kommt den groß die nächsten Jahre ?
Max. noch 6 Threads wg. der Konsolenports, aber selbst da reicht ein hochgetakteter Quad. Ob jetzt K10 @ 4 GHz, oder i5/7 @ 4GHz mit/ohne SMT - egal.
Man weiß doch nie vorher genau wie CPU abhängig die kommenden Spiele werden. Ich würde wie üblich ein Auge auf die kommenden Simulationen und Rollenspiele werfen, Gothic 4, The Witcher, Two Worlds 2, F1 2010, Test Drive Unlimited 2. Aber woher soll man genau wissen was dort an CPU Leistung für höchste settings gebraucht wird.
Undertaker
2010-04-27, 23:26:21
Jo, aber gleiche Frage an Dich, was kommt den groß die nächsten Jahre ?
Max. noch 6 Threads wg. der Konsolenports, aber selbst da reicht ein hochgetakteter Quad. Ob jetzt K10 @ 4 GHz, oder i5/7 @ 4GHz mit/ohne SMT - egal.
Schon jetzt sind heutige CPUs erheblich stärker als die der Konsolen, höhere Detailsstufen wie in GTA4 fressen das aber schnell wieder auf. Gut möglich aber, dass die Parallelisierung an einem Punkt um 3-4 Kerne / 6-8 Threads etwas zu stagnieren beginnt, auch aus technischen Gründen einer schwieriger werdenden Parallelisierung. Das heißt aber nicht, dass die Anforderungen nicht weiter steigen.
Danach kommt GPGPU, da wird die CPU zum Threadverwalter degradiert werden.
Nochmal, du kannst auf einem hochparallelen Streamprozessornetz einzelne, hochkomplexe serielle Aufgaben sehr schlecht beschleunigen. GPGPU macht CPUs nicht überflüssig.
y33H@
2010-04-27, 23:26:34
Solange 360 und PS3 am Markt sind? GGPU und DX11-Zeug für PC-only-Titel oder auf Ports draufgeflanscht, aber sonst? Nichts. Spannend wird es imo erst wieder mit der 720er und PS4 - das dürfte aber noch bis Anfang 2012 dauert, schätze ich. Und nein, GGPU ist nicht die Lösung aller Fragen - denn das kostet Grafik-Power und die ist eigentlich (fast) immer rarer denn CPU-Power, zumindest seit einigen Jahren.
BigBen
2010-04-27, 23:59:09
Hat der X6-Start nach dem ungewöhnlich ruhigen Morgen doch noch eine polarisierende Diskussion entfacht. :biggrin: Die Ergebnisse waren nach den vereinzelten User-Tests ja keine große Überraschung und zu erwarten.
Da die Konsolen die kommenden 1-2 Jahre nicht ersetzt, Spiele aber aufwendiger werden, müssen 360 und PS3 zwangsläufig mehr auf der CPU berechnen"...
So sind die Entwickler wenigstens gezwungen, ihre Spiele auf Multicore-Prozessoren zu optimieren. :freak: edit: bei der kommenden Generation wird man bei den maßgeblich entscheidenen Komponenten, wie bspw dem RAM, hoffentlich zukunftsorientierter denken.
... , wenn es darauf ankommt.
Sofern jene Situationen keine Ausnahmen darstellen, sollten Tests dies schon berücksichtigen. y33H@ meinte in der Diskussion bei HW-Luxx (klick (http://www.hardwareluxx.de/community/f11/amd-phenom-ii-x6-1055t-benchmarks-gesichtet-und-china-schon-erhaeltlich-707485-14.html#post14454029)), dass sich die sechs Kerne bei manchen Games (BC2 und Anno wurden u.a. als Beispiel genannt) stark positiv auf das Spielgefühl auswirken.
havarti
2010-04-28, 00:32:28
Noch zwei weitere deutschsprachige Tests: Tecchannel (http://www.tecchannel.de/pc_mobile/prozessoren/2027574/test_amd_phenom_ii_x6_1090t_turbo_core/) und Golem (http://www.golem.de/1004/74709.html)
Und nein, GGPU ist nicht die Lösung aller Fragen - denn das kostet Grafik-Power und die ist eigentlich (fast) immer rarer denn CPU-Power, zumindest seit einigen Jahren.
Ich denke schon, warte mal noch 2-3 GPU Generationen ab, bis 2012 gibts noch ein paar ;-)
Geht doch jetzt schon los, dass die 5870er so stark ist, dass ATi bereits 6 Monitoranschlüsse für sagenhafte Auflösungen anbietet.
Wer hat sowas schon und nützt das dann...
Für 28nm kann man mal wieder von ner Verdopplung ausgehen, das wären dann 5-6 TFlops, ist ne Menge Holz.
Abgesehen davon gibts ab 2011 dann Fusion, 2012 wahrscheinlich Bulldozer Fusion, damit müßte man die GPU dann eventuell gar nicht mit GPGPU Code belästigen (bringt natürlich nichts für aktuelle Systeme ;-) )
Edit:
Oder andere Alternative, man benützt seine alte GPU als Zweitkarte für GPGPU weiter. Machen ja jetzt schon ein paar mit 9800er.
Man stelle sich eine aktuelle 5870 in 2012 als GPGPU Zweitkarte vor *g*
ciao
Alex
Stechpalme
2010-04-28, 01:02:56
@S940
Dir ist bewusst das deine Vorstellungen eher einen verschwindend geringen Anteil der User betrifft?
@S940
Dir ist bewusst das deine Vorstellungen eher einen verschwindend geringen Anteil der User betrifft?
Öh .. welche der vielen Vorstellungen denn ? ;-)
Wie auch immer ... dem Gros der User reicht 2012 auch noch ein dual core ... aber um die gehts hier nicht ^^
Stechpalme
2010-04-28, 01:10:28
Ah, also beschränkst du dich mit deinen Wahnvorstellungen auf etwa 1% der User, wenn überhaupt?
Mal im ernst, wer will schon wirklich 2 Grafikkarten im Rechner haben? Ich bn überzeugt das y33H hier recht behalten wird.
(nimm das mit dem Wahnsinn nicht wörtlich, mir ist nur nichts besseres eingefallen :wink: )
Ah, also beschränkst du dich mit deinen Wahnvorstellungen auf etwa 1% der User, wenn überhaupt?
Da Du noch nicht lange bei 3DC bist, glaube mir, dass es hier mehr als 1% der user sind, hier gehts etwas anders zu als bei P3D ;-)
Mal im ernst, wer will schon wirklich 2 Grafikkarten im Rechner haben? Ich bn überzeugt das y33H hier recht behalten wird.
Schau Dich mal im Forum um ;-)
Natürlich ist / wäre ne 5870 der absolute Stromfresser, aber war ja nur die 2te Option, ich geh eh davon aus, dass die zweite 28nm Generation für HD Auflösung + GPGPU genügend Leistung übrig haben wird.
(nimm das mit dem Wahnsinn nicht wörtlich, mir ist nur nichts besseres eingefallen :wink: )
Ist ok :-)
ciao
Alex
BigBen
2010-04-28, 01:29:46
:D
Bei HW-Luxx hat jemand im Besitz eines 1090T, einen Screenshot der CPU-Auslastung (Task-Manager) von BF:BC2 gepostet:
http://img684.imageshack.us/img684/9113/auslastungbc2x6default.th.jpg (http://img684.imageshack.us/i/auslastungbc2x6default.jpg/)
Link zum Posting (http://www.hardwareluxx.de/community/f11/amd-phenom-ii-x6-1055t-benchmarks-gesichtet-und-china-schon-erhaeltlich-707485-18.html#post14474983)
mapel110
2010-04-28, 01:40:25
Der hat bestimmt noch nebenbei seine Bluray-Prons im VLC laufen lassen. Lasse ich nit als Beweis gelten. :tongue:
btw AMD verdient doch mit den beiden X6 sogut wie gar nichts, oder was meint ihr? 180 € und 280 € für 6x345mm² a 900 Mio Transistoren.
Stechpalme
2010-04-28, 02:28:30
@S940
Tja, ich reden von "allen" Usern und nicht nur die aus diesem Forum. Das wäre ja extrem eingegrenzt.
Und ich habe noch nie erlebt das eine Grafikkarte "genügend" Leistung hatte. Ob das mal so sein wird, keine Ahnung, wird sich zeigen. Ich denke aber eher nicht.
Und ganz nebenbei, mich gibts hier schon länger als du mit deinem jetzigen Nick angemeldet bist ;)
@S940
Tja, ich reden von "allen" Usern und nicht nur die aus diesem Forum. Das wäre ja extrem eingegrenzt.
Siehe oben. Wenn Du wirklich alle meinst, dann gurken 90% mit dual core und IGP herum ... jede Sekretärin ist ein User. Von der Nutzergruppe redet man hier aber sehr selten, interessiert normalerweise keinen.
Und ich habe noch nie erlebt das eine Grafikkarte "genügend" Leistung hatte. Ob das mal so sein wird, keine Ahnung, wird sich zeigen. Ich denke aber eher nicht.
Tja, warten wirs ab. Eventuell wird man die GraKa auch mit SSAA Modi beschäftigen können ^^
Und ganz nebenbei, mich gibts hier schon länger als du mit deinem jetzigen Nick angemeldet bist ;)
Kann ich nicht wissen, Dein Account ist auf alle Fälle noch ziemlich "frisch" :)
Aber jetzt weiss ichs :)
ciao
Alex
btw AMD verdient doch mit den beiden X6 sogut wie gar nichts, oder was meint ihr? 180 € und 280 € für 6x345mm² a 900 Mio Transistoren.
Hatten wir schon mal, AMD zahlt z.Zt. Vollast - Fixkosten für die unterforderte Fab an GloFo, d.h. größere Dies kommen sie nicht unbedingt teurer, denn die Fix Kosten zahlen sie in jedem Fall. Da die 6er Dies auch eher hochpreisig sind, ist da sicherlich was daran verdient.
....
Abgesehen davon gibts ab 2011 dann Fusion, 2012 wahrscheinlich Bulldozer Fusion, damit müßte man die GPU dann eventuell gar nicht mit GPGPU Code belästigen (bringt natürlich nichts für aktuelle Systeme ;-) )
Wer sagt das Fusion und BD die trendsetter 2012 sein werden? Die könnten genauso ignoriert werden wie einst die 3Dnow!-Erweiterung.
Tarkin
2010-04-28, 08:59:58
Phenom II X6 Review auf Techreport: http://techreport.com/articles.x/18799/1
"If you have between $200 and $300 in your budget for your next CPU purchase, the Phenom II X6 merits serious consideration, because it's a solid value for the money."
puntarenas
2010-04-28, 09:09:01
"If you have between $200 and $300 in your budget for your next CPU purchase, the Phenom II X6 merits serious consideration, because it's a solid value for the money."
Das einzige Problem für AMD könnte sein, das kann man von allen Prozessoren in der Preisklasse sagen.
Die geben bei Tweaktown auch fröhliche 1,475V fürs Overclocking auf die CPU. Hat jemand in einem Review mal was (offizielles) dazu gefunden, ob das Ultra-Low-K-Dielektrikum irgendwelche Auswirkungen auf die vertretbare Maximalspannung oder Temperatur hat? Beim Turbo gibt AMD ja höchstselbst ordentlich Spannung auf die CPU, daran sollte das Ding also wohl eher nicht zerbröseln, aber vielleicht ist es ja insgesamt temperatur(un)empfindlicher als ein Deneb?
Danke für den Link Tarkan, hübsch ausführliches Review, mal schmökern. :)
Solange 360 und PS3 am Markt sind? GGPU und DX11-Zeug für PC-only-Titel oder auf Ports draufgeflanscht, aber sonst? Nichts. Spannend wird es imo erst wieder mit der 720er und PS4 - das dürfte aber noch bis Anfang 2012 dauert, schätze ich. Und nein, GGPU ist nicht die Lösung aller Fragen - denn das kostet Grafik-Power und die ist eigentlich (fast) immer rarer denn CPU-Power, zumindest seit einigen Jahren.
Eher 2014-2015, so zumindest die Aussagen von MS und Sony. Die Dinger haben Milliardenverluste verursacht, die muss man nun durch eine lange Lebenszeit möglichst egalisieren.
y33H@
2010-04-28, 09:24:21
Bloß nicht, ich sterbe sonst an Augenkrebs *lach*
Das einzige Problem für AMD könnte sein, das kann man von allen Prozessoren in der Preisklasse sagen.
Die geben bei Tweaktown auch fröhliche 1,475V fürs Overclocking auf die CPU. Hat jemand in einem Review mal was (offizielles) dazu gefunden, ob das Ultra-Low-K-Dielektrikum irgendwelche Auswirkungen auf die vertretbare Maximalspannung oder Temperatur hat? Beim Turbo gibt AMD ja höchstselbst ordentlich Spannung auf die CPU, daran sollte das Ding also wohl eher nicht zerbröseln, aber vielleicht ist es ja insgesamt temperatur(un)empfindlicher als ein Deneb?
Danke für den Link Tarkan, hübsch ausführliches Review, mal schmökern. :)
Da die 4 Kerner auch in Serie mit 1.4-1.5V befeuert wurden, um eben den angepeilten Takt irgendwie zu erreichen, wird auch der 6 Kerner das schon überleben.
Ob das nun generell so gesund ist ist eine andere Frage, aber die angepeilte Lebensdauer einer CPU sollte sicher in den meisten Fällen zu erreichen sein.
Wer sagt das Fusion und BD die trendsetter 2012 sein werden? Die könnten genauso ignoriert werden wie einst die 3Dnow!-Erweiterung.Schau mal welch Firmen hinter OpenCL & DirectCompute stehen :-) 3DNow! war im Vergleich dazu unbedeutender Fliegendreck, dafür gabs nicht mal Compiler :freak:
Gamedesigner müssen sich auf eine bestehende Hardwarebasis beziehen, d.h. frühestens 2014-15 aufwärts dürfte eine brauchbare Unterstützung erfolgen. Viel zu lange für die heutige Prozessor Generation.
Es ist auch nicht so, dass die Leistung des klassischen CPU-Kernes mit kommenden CPUs nicht weiter steigen wird, Sandy Bridge oder Bulldozer werden auch hier klar stärker als ihre Vorgänger. Die OpenCL-Möglichkeiten sind dann eher für den Bereich Physik interessant (sofern man hier gegen PhysX ankommt), andere Aufgaben sind auch weiterhin CPU-only. Versuch mal heutigen Workload, der sich kaum brauchbar auf 4 Kerne aufteilen lässt, auf den 320 oder 512 SPs von Cypress oder Fermi parallel auszuführen. :ugly:
Kampf-Sushi
2010-04-28, 11:57:19
Gibts eigentlich schon Infos ob die X6 Phenoms mit neuen BIos auch auf AM2+ Boards laufen werden?
Ich hab 8GB DDR2 Ram drin, und nicht viel Lust Mainboard UND ram auszutauschen. Mit einen neuen Mainboard könnte ich zur Not noch leben, aber auch das finde ich nicht so toll zu tauschen. Mein Mainboard kann laut Asus 140W TPD
y33H@
2010-04-28, 11:58:49
Die laufen auf praktisch allem, was sich AM2+ schimpft :ugly:
Gamedesigner müssen sich auf eine bestehende Hardwarebasis beziehen, d.h. frühestens 2014-15 aufwärts dürfte eine brauchbare Unterstützung erfolgen. Viel zu lange für die heutige Prozessor Generation.
Jo da sollte dann mal langsam die Unreal4 Engine rauskommen und dem Ganzen zum Durchbruch verhelfen. Aber was wirds bis dahin geben ? Maximal Engines mit drangepappten OpenCL Funktionen.
CPU mäßig ist auf alle Fälle nicht mehr viel zu erwarten, 8 Thread Bulldozer, 12 Thread Sandy Bridge, jeweils mit 256bit AVX ... verglichen mit GPUs kleine Fische.
Es ist auch nicht so, dass die Leistung des klassischen CPU-Kernes mit kommenden CPUs nicht weiter steigen wird, Sandy Bridge oder Bulldozer werden auch hier klar stärker als ihre Vorgänger.Jo, natürlich wird die Leistung steigen. Aber die Leistung muss man dann auch ausnützen können. Ein Octo Core bringt Dir anfangs genauso wenig wie ein Quad vor 2-3 Jahren.
Damals konnte man wengistens noch sagen "Quad für die Zukunft", aber aktuell siehts anders aus, die Zukunft ist nicht 6, 8 oder 12 Threadig, sonder massiv parallel - GPGPU.
Deswegen behaupte ich, dass man mit QuadCore noch lange gut bedient ist. Von mir aus auch 6Core, falls die Xbox wirklich noch lange lebt und deshalb noch vermehrt 6 Thread Konsolenports auftauchen sollten.
Die OpenCL-Möglichkeiten sind dann eher für den Bereich Physik interessant (sofern man hier gegen PhysX ankommt), andere Aufgaben sind auch weiterhin CPU-only. Versuch mal heutigen Workload, der sich kaum brauchbar auf 4 Kerne aufteilen lässt, auf den 320 oder 512 SPs von Cypress oder Fermi parallel auszuführen. :ugly:Tja "andere" Aufgaben ... welche wären das denn konkret ? Die ganzen Games, die mehr als DualCores nützen können, können das, da sie irgendeine Form von Physik oder Cloth Simulation auf der CPU rechnen. Ein paar auch wg. guter Game AI. Zusammengenommen sind das alles Fälle, die man wunderbar auf GPUs laufen lassen könnte. Machte man bisher aber nicht, da entweder bei den Schnittstellen Chaos herrschte, die Hauptzielplattform (z.B: Konsolen / GTA), uralte GPUs hat, oder die aktuellen GPUs ebenfalls zuwenig GPGPU Features hatten.
Schnittstellen gibts jetzt - Fermi zeigt wo es in Sachen GPGPU lang geht und kommende Engines sind in Entwicklung.
Bis das dann alles in 2012-14 langsam Fahrt aufnimmt, gibts weitgehend Stillstand. Softwaremäßig wird sich keiner mehr die Mühe machen großartig auf mehr als 4-6 Threads zu programmieren. Die arbeiten jetzt alle schon an multithreaded Lösungen, die am besten auf GPUs laufen werden.
Hardwaremäßig sehe ich auch eine Stagnation. Schnellere Grafikkarten brauchte man die letzten Jahre hauptsächlich, weil gleichzeitig auch die Monitorgrößen gestiegen sind. Ob jetzt auch die Masse den Umstieg auf Mehrmonitorbetrieb mitgeht, oder auf Eyefinity & Co Spielereien für die 5970 / 480GTX SLi Klientel bleiben - muss man abwarten. Ich erwarte das sich 24Zoll HD die nächsten Jahre ersteinmal als Standard halten wird.
Ausnahmen bestätigen wie so oft die Regel. Gut möglich, dass irgendeine verrückte Entwicklerschmiede massenhaft Physik auf CPUs rechnen läßt, da Havok nichts anderes (mehr) kann ...
Oder das Intel die Geldschatulle öffnet und den Spieleentwicklern so das 12 Thread AVX coden schmackhaft macht - wer weiss.
Kommt eigentlich demnächst ein neuer, großer Titel mit ner modernen DX11 Engine raus ? Gothic4 ? Ich denke sowas wird dann den Maßstab der nächsten 2-3 Jahre bis zum GPGPU Durchbruch setzen.
ciao
Alex
Die laufen auf praktisch allem, was sich AM2+ schimpft :ugly:
Jo im Moment braucht man da nur Geduld, die Hersteller arbeiten sich mit dem BIOS Support halt nur langsam zu den alten AM2+ Teilen durch.
Kann maximal schon noch ein halbes Jahr dauern.
Eventuell eine Mail an den Hersteller abschicken, und fragen ob etwas in Planung ist. Wenn nicht, kann man sich gleich ein kompatibles Brett kaufen.
ciao
Alex
y33H@
2010-04-28, 12:24:39
Arcania ist DirectX 9. CryEngine 3 ist in diversen Parts neu und könnte spannend werden, aber die CE3 ist auch nicht von Grund auf DX11 - und so etwas dürfte es wohl kaum geben in den nächsten ein bis zwei Jahren. Cross-Plattform und so. Es gibt ja kaum noch PC-only-Entwickler, die technisch gaaanz weit vorne dabei sind.
Vertigo
2010-04-28, 12:36:58
Gibts eigentlich schon Infos ob die X6 Phenoms mit neuen BIos auch auf AM2+ Boards laufen werden?
Ich hab 8GB DDR2 Ram drin, und nicht viel Lust Mainboard UND ram auszutauschen. Mit einen neuen Mainboard könnte ich zur Not noch leben, aber auch das finde ich nicht so toll zu tauschen. Mein Mainboard kann laut Asus 140W TPD
Hier gibt's einige Links zu diversen Herstellern (wurde hier im Thread auch schonmal gepostet):
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1271873703
Ansonsten einfach mal auf der Herstellerseite direkt nach dem gewünschten Board schauen.
Arcania ist DirectX 9. CryEngine 3 ist in diversen Parts neu und könnte spannend werden, aber die CE3 ist auch nicht von Grund auf DX11 - und so etwas dürfte es wohl kaum geben in den nächsten ein bis zwei Jahren. Cross-Plattform und so. Es gibt ja kaum noch PC-only-Entwickler, die technisch gaaanz weit vorne dabei sind.Jo, ein weiterer Grund, ohne neue Konsolen wirds wohl auf PCs nachwievor nur aufgehübschte DX9 Konsolenkost geben :(
Jo da sollte dann mal langsam die Unreal4 Engine rauskommen und dem Ganzen zum Durchbruch verhelfen. Aber was wirds bis dahin geben ? Maximal Engines mit drangepappten OpenCL Funktionen.
CPU mäßig ist auf alle Fälle nicht mehr viel zu erwarten, 8 Thread Bulldozer, 12 Thread Sandy Bridge, jeweils mit 256bit AVX ... verglichen mit GPUs kleine Fische.
Jo, natürlich wird die Leistung steigen. Aber die Leistung muss man dann auch ausnützen können. Ein Octo Core bringt Dir anfangs genauso wenig wie ein Quad vor 2-3 Jahren.
Damals konnte man wengistens noch sagen "Quad für die Zukunft", aber aktuell siehts anders aus, die Zukunft ist nicht 6, 8 oder 12 Threadig, sonder massiv parallel - GPGPU.
Deswegen behaupte ich, dass man mit QuadCore noch lange gut bedient ist. Von mir aus auch 6Core, falls die Xbox wirklich noch lange lebt und deshalb noch vermehrt 6 Thread Konsolenports auftauchen sollten.
Tja "andere" Aufgaben ... welche wären das denn konkret ? Die ganzen Games, die mehr als DualCores nützen können, können das, da sie irgendeine Form von Physik oder Cloth Simulation auf der CPU rechnen. Ein paar auch wg. guter Game AI. Zusammengenommen sind das alles Fälle, die man wunderbar auf GPUs laufen lassen könnte. Machte man bisher aber nicht, da entweder bei den Schnittstellen Chaos herrschte, die Hauptzielplattform (z.B: Konsolen / GTA), uralte GPUs hat, oder die aktuellen GPUs ebenfalls zuwenig GPGPU Features hatten.
Schnittstellen gibts jetzt - Fermi zeigt wo es in Sachen GPGPU lang geht und kommende Engines sind in Entwicklung.
Bis das dann alles in 2012-14 langsam Fahrt aufnimmt, gibts weitgehend Stillstand. Softwaremäßig wird sich keiner mehr die Mühe machen großartig auf mehr als 4-6 Threads zu programmieren. Die arbeiten jetzt alle schon an multithreaded Lösungen, die am besten auf GPUs laufen werden.
Hardwaremäßig sehe ich auch eine Stagnation. Schnellere Grafikkarten brauchte man die letzten Jahre hauptsächlich, weil gleichzeitig auch die Monitorgrößen gestiegen sind. Ob jetzt auch die Masse den Umstieg auf Mehrmonitorbetrieb mitgeht, oder auf Eyefinity & Co Spielereien für die 5970 / 480GTX SLi Klientel bleiben - muss man abwarten. Ich erwarte das sich 24Zoll HD die nächsten Jahre ersteinmal als Standard halten wird.
Ausnahmen bestätigen wie so oft die Regel. Gut möglich, dass irgendeine verrückte Entwicklerschmiede massenhaft Physik auf CPUs rechnen läßt, da Havok nichts anderes (mehr) kann ...
Oder das Intel die Geldschatulle öffnet und den Spieleentwicklern so das 12 Thread AVX coden schmackhaft macht - wer weiss.
Kommt eigentlich demnächst ein neuer, großer Titel mit ner modernen DX11 Engine raus ? Gothic4 ? Ich denke sowas wird dann den Maßstab der nächsten 2-3 Jahre bis zum GPGPU Durchbruch setzen.
ciao
Alex
Entschuldige, aber das ist ziemlicher Blödsinn den du dir da zusammenreimst. Schlag mal nach, was Deadlocks sind. Davon hast du bereits auf heutigen Quadcores mehr als genügend, im Regefall werden nur 2-3 Kerne ausgenutzt. Schon hier ist jede weitere Steigerung ein Kraftakt, da wird nicht einfach mal die Zauberlösung entdeckt, die plötzlich mehrere hundert Streamprozessoren parallel auslasten kann; Wenn Abhängigkeiten gegeben sind, gibt es feste Limitierungen für eine maximale Parallelisierung.
Freu dich, wenn Spiele im Jahre 2015 8 Kerne gut ausnutzen können und zumindest die Physik weitestgehend von der Grafikkarte bzw. zusätzlichen Streamprozessoren in der CPU bearbeitet wird. Mit einem heutigen Quadcore kommt man dann aber auch nicht mehr weit.
Entschuldige, aber das ist ziemlicher Blödsinn den du dir da zusammenreimst. Schlag mal nach, was Deadlocks sind. Davon hast du bereits auf heutigen Quadcores mehr als genügend, im Regefall werden nur 2-3 Kerne ausgenutzt. Schon hier ist jede weitere Steigerung ein Kraftakt, da wird nicht einfach mal die Zauberlösung entdeckt, die plötzlich mehrere hundert Streamprozessoren parallel auslasten kann; Wenn Abhängigkeiten gegeben sind, gibt es feste Limitierungen für eine maximale Parallelisierung.
Lol, schlag Du mal nach, wieso man bei den ganzen Physiksachen & Clothsachen keine Deadlocks hat ;-)
Im Grunde meinen wir eigentlich das Gleiche, ich schrieb doch selbst, dass Du mir Gründe für die "anderen" Aufgaben nennen sollst, die man angeblich so toll auf CPUs parallel rechnen kann. Das war ne rhetorische Frage. Es gibt eben nicht viel. 2 vielleicht 4 Threads, das wars dann, dann ist man ausgebucht, der Rest hat keine Deadlocks und könnte schön auf GPUs laufen.
Ein Entwickler schrieb zb. irgendwo, dass er GPGPU ganz spannend fände, da er vor hat pro Shadercore eine AI für eine Spielfigur laufen zu lassen. Für ne Armee ginge dann zwar die ganze GPU drauf - die er wohl kaum okkupieren können wird - aber im Vergleich zu heutigen QuadZeugs sind - z.B: 100 AIs auf 100 Shader - in jedem Fall Welten Unterschied. Physik das Gleiche, wo es heute nur ein paar optische Gimmicks benützt wird, reichts morgen für die Vulkanaschewolke ^^
Und ganz am Ende gibts dann noch Raytracing Games ... hatte Intel mal für Larrabee beworben, aber das liefe genausogut auf ner "normalen" GPU, wenn mans portieren würde.
Für alles gilt: mit mehr als 4 Kerne kommt man nicht großartig weiter, das sind Tropfen auf den heißen Stein. Der normal Gamecode läßt sich eben nicht beliebig zerlegen, da geb ich Dir absolut recht.
Doh.
Es geht gerade darum, dass die Parallelisierung abseits von Themen wie Physik so schwierig ist, Stichtwort interagierende KI. Deinen angeblichen Entwickler, der das auf einen SP umlagern möchte, will ich sehen (Link bitte).
Die Leistung pro einzelnem CPU Kern wird auch weiterhin steigen, schau dir den Q6600 an: Obwohl noch kaum ein Spiel 4 Kerne vollständig nutzt, ist er in vielen Fällen bereits nicht mehr schnell genug für flüssige Bildraten. Gleiches wird heutigen 4-6 Kernern in einigen Jahren passieren.
Doh.
Es geht gerade darum, dass die Parallelisierung abseits von Themen wie Physik so schwierig ist, Stichtwort interagierende KI. Deinen angeblichen Entwickler, der das auf einen SP umlagern möchte, will ich sehen (Link bitte).
Ok, ich geh mal Suchen, kann dauern ;-)
Die Leistung pro einzelnem CPU Kern wird auch weiterhin steigen, schau dir den Q6600 an: Obwohl noch kaum ein Spiel 4 Kerne vollständig nutzt, ist er in vielen Fällen bereits nicht mehr schnell genug für flüssige Bildraten. Gleiches wird heutigen 4-6 Kernern in einigen Jahren passieren.Hab ich was anderes behauptet ? Einzelne Kerne werden natürlich schneller werden, dass nützten dann natürlich auch den paar Thraeds die darauf laufen werden.
Vertigo
2010-04-28, 13:10:49
Doh.
Es geht gerade darum, dass die Parallelisierung abseits von Themen wie Physik so schwierig ist, Stichtwort interagierende KI. Deinen angeblichen Entwickler, der das auf einen SP umlagern möchte, will ich sehen (Link bitte).
Die Leistung pro einzelnem CPU Kern wird auch weiterhin steigen, schau dir den Q6600 an: Obwohl noch kaum ein Spiel 4 Kerne vollständig nutzt, ist er in vielen Fällen bereits nicht mehr schnell genug für flüssige Bildraten. Gleiches wird heutigen 4-6 Kernern in einigen Jahren passieren.
Ist zwar OT, aber: Nenn mir mal bitte einen. :|
Ist zwar OT, aber: Nenn mir mal bitte einen. :|
zwar nicht direkt mitgetestet, kann man aber ungefähr abschätzen wo der sich einordnen dürfte
http://www.hardware.fr/articles/789-9/amd-phenom-ii-x6-1090t-1055t.html
http://www.hardware.fr/medias/photos_news/00/28/IMG0028761.png
Vertigo
2010-04-28, 13:19:30
zwar nicht direkt mitgetestet, kann man aber ungefähr abschätzen wo der sich einordnen dürfte
http://www.hardware.fr/articles/789-9/amd-phenom-ii-x6-1090t-1055t.html
http://www.hardware.fr/medias/photos_news/00/28/IMG0028761.png
Gut, überredet. :biggrin:
Aber das sind ja gleich wieder Fälle, in denen jede aktuelle CPU überfordert scheint.
Ok, ich geh mal Suchen, kann dauern ;-)
Wenn ich mich recht erinnere, war das damals ein Interview mit nem Enwickler nach/beim Froblin Demo, ist auf alle Fälle länger her. Eventuell hatte es damals auch noch nichts mit DirectCompute bei DX11 zu tun.
Wie auch immer, scheint mit den 16k Fröschen Froblins 2008 auf HD4k Karten schon ganz gut funktioniert zu haben:
http://www.youtube.com/watch?v=p7PlQ-q17tM
Da sollte eine HD5k / Fermi auch genügend Leistung für etwas anspruchsvollere Sachen haben.
Ronny145
2010-04-28, 14:11:09
Gut, überredet. :biggrin:
Aber das sind ja gleich wieder Fälle, in denen jede aktuelle CPU überfordert scheint.
Bei 30 fps sieht es nach GPU Limit aus. Zwischen i5 750 und den schnelleren i7 keine Unterschiede mehr.
Bei 30 fps sieht es nach GPU Limit aus. Zwischen i5 750 und den schnelleren i7 keine Unterschiede mehr.
Ähm ja und? Ein Q9300 ist 7 FPS davon entfernt, ein Q6600 wird noch weniger haben. Ergo reicht nicht.
Ronny145
2010-04-28, 14:32:17
Ähm ja und? Ein Q9300 ist 7 FPS davon entfernt, ein Q6600 wird noch weniger haben. Ergo reicht nicht.
Was na und? Ich tippe mal auf 35 fps für einen schnelleren i7 wenn nicht die GPU limitieren würde. Das ist zu den 10-12 fps eines Q6600 ein erheblicher Unterschied.
Crysis mit Arma verwechselt. Aber das Argument reicht nicht zählt nicht, da man bei der langsameren CPU viel stärker die settings reduzieren müsste um es spielbar zu machen.
Wenn ich mich recht erinnere, war das damals ein Interview mit nem Enwickler nach/beim Froblin Demo, ist auf alle Fälle länger her. Eventuell hatte es damals auch noch nichts mit DirectCompute bei DX11 zu tun.
Wie auch immer, scheint mit den 16k Fröschen Froblins 2008 auf HD4k Karten schon ganz gut funktioniert zu haben:
http://www.youtube.com/watch?v=p7PlQ-q17tM
Da sollte eine HD5k / Fermi auch genügend Leistung für etwas anspruchsvollere Sachen haben.
Hübsch. Und jetzt mal nachschlagen, was "interagieren" bedeutet.
puntarenas
2010-04-28, 15:24:51
Da die 4 Kerner auch in Serie mit 1.4-1.5V befeuert wurden, um eben den angepeilten Takt irgendwie zu erreichen, wird auch der 6 Kerner das schon überleben.
Daran zweifle ich nicht im Geringsten. Trotzdem interessiert mich einfach nur, ob die neuen Prozessoren mit Low-K-Dielektikum tendenziell empfindlicher für hohe Spannung oder Temperatur sind.
---
Leo hat auf der Frontpage eine hübsche Zusammenfassung geschrieben:
Zum Launch des Phenom II X6 (http://www.3dcenter.org/artikel/zum-launch-des-phenom-ii-x6)
Stechpalme
2010-04-28, 16:02:28
@S940
Geh mal von den Gamern aus, und da hast du recht, die meisten verwenden hier noch Dualcores und die Grafikkarten sind hier nicht selten noch Dinger der Rehe nVidia 8XXX, ATI 3XXX. Von denen rede ich, also nicht wirklich von allen sondern von allen Gamern. Und danach richten sich die Hersteller. Müssen sie ja.
Und ich hatte mir nach langem mal eine neuen Account zugelegt, daher ist dieser frisch.
ich will user-test user-test! los marsch, kaufen kaufen kaufen! ;)
Hübsch. Und jetzt mal nachschlagen, was "interagieren" bedeutet.
Gibts doch, die Figuren gehen sich aus dem Weg :tongue:
Ok im Ernst, ist natürlich ne primitive Interaktion. Für Gegner AI sollte es aber erstmal reichen, oder willst Du zusehen wie sich 2 PC Mannschaften in nem Spieleszenario beharken ?
@Stechpalme:
Alles klar :)
Eine reale KI verhält sich weitaus komplexer als dort, genau dann kommt es zu Problemen mit den erwähnten Abhängigkeiten. Die Schwierigkeit ist nicht, 10.000 strohdumme Figuren wie in Froblins zu implementieren, sondern 1-10 intelligente, z.B. in einem Shooter. GPGPU ist da reichlich nutzlos.
Eines muss man festhalten. Die Architektur bei AMD ist deutlich unterlegen. Betrachten wir eine professionelle Anwendung, Autodesk 3ds Max 2010. Sie skaliert auch nahezu 1:1 mit den Kernen. Laut CB: i7-980X 49 % schneller als i7-975 und 1090T 41 % (da wird der Turbo wohl nicht angesprungen sein) schneller als X4 965 BE. Nun ist also ein 3,2 GHz-i7 immer noch schneller (gut, die 1 % Vorsprung seien Vernachlässigt, sagen wir: gleichschnell) wie ein 3,2 GHz-AMD-6-Kerner. Gleiches Bild bei MainConcept H.264/AVC Pro, gleiches Bild bei SPECjvm2008. Und wenn man bei Spielen mal die GPU-Limitierung vernachlässigt und 800 x 600-Werte anschaut (das wird sich spätestens Ende 2010 mit einem 512 SP-Fermi dann auch sowieso bei 1680 x 1050 erledigt haben, besser als 1x HD 5870 in den Testsystemen wäre sowieso 2x GTX 480), ist ein gleichgetakteter i7 im Mittel > 20 % schneller als ein AMD. Intel hat wirklich ganze Arbeit geleistet mit Nehalem.
Savay
2010-04-28, 19:46:09
nun meine letzte CPU ein A64 X2 3800+ gekauft 2006/7 pfiff dann 2009 auch so ziemlich aus dem letzten Loch und musste im Oktober 09 ersetzt werden obgleich zum Kaufzeitpunkt mit damaligen Spielen in von dir geforderten Auflösungen/Settings mit damalig aktuellen GPUs das Ding keinen Leistungsunterschied zu "schwächeren" CPUs gezeigt hätte
:freak: deswegen sagte ich man sollte auch eher mit auf anwendungen schauen...Cinebench ist und bleibt ein hervorragender indikator auch für die kraftverhältnisse in zukünftigen spielen!
als ich seinerzeit ganz bewusst (!) den X3 gekauft habe war der auch "langsamer" als ein E8400 der damals grade sehr hip war...wie das verhältniss in aktuellen spielen ist, sollte bekannt sein. und zwar eher so wie sie sich in Cinebench von anfang an eingeordnet haben!
beim CPU kauf sind die low. detail FPS einen feuchten scheibenkleister wert...die kann man sich selbst zusammenreimen wenn man sich etwas damit beschäftigt.
ich weiß ja nicht wie du da so vorgehst aber ich kaufe meine CPU idR erst zweitrangig für spiele denn wenn man die richtigen anwendungen nutzt und als bewertungsgrundlage herzieht kommt die nachhaltige und ausreichend hohe spieleperformance von ganz alleine! :wink:
fakt ist nunmal im multicore zeitalter eben auch das die spiele mit den CPUs "mitwachsen" müssen um deren rohleistung auch wirklich umsetzen zu können...denn wer NUR spielt braucht keine 1000€, noch eine 500€, ja nichtmal eine 150€ CPU um selbst eine GTX480 oder eine 5870 in 98% der fälle nahe am optimum auszulasten.
low-res. FPS von heutigen games lassen im gegenzug aber auch garkeine rückschlüsse auf zukünftige spiele zu...das setting ist letztlich in allen bereichen irrelevant solange das spiel nicht sowieso eher CPU limitiert ist. :wink:
Eines muss man festhalten. Die Architektur bei AMD ist deutlich unterlegen. Betrachten wir eine professionelle Anwendung, Autodesk 3ds Max 2010. Sie skaliert auch nahezu 1:1 mit den Kernen. Laut CB: i7-980X 49 % schneller als i7-975 und 1090T 41 % (da wird der Turbo wohl nicht angesprungen sein) schneller als X4 965 BE. Nun ist also ein 3,2 GHz-i7 immer noch schneller (gut, die 1 % Vorsprung seien Vernachlässigt, sagen wir: gleichschnell) wie ein 3,2 GHz-AMD-6-Kerner. Gleiches Bild bei MainConcept H.264/AVC Pro, gleiches Bild bei SPECjvm2008. Und wenn man bei Spielen mal die GPU-Limitierung vernachlässigt und 800 x 600-Werte anschaut (das wird sich spätestens Ende 2010 mit einem 512 SP-Fermi dann auch sowieso bei 1680 x 1050 erledigt haben, besser als 1x HD 5870 in den Testsystemen wäre sowieso 2x GTX 480), ist ein gleichgetakteter i7 im Mittel > 20 % schneller als ein AMD. Intel hat wirklich ganze Arbeit geleistet mit Nehalem.
Hier ist nochmal ein direkter Vergleich 1090T @ 4,0 GHz vs. i7 930 @ 4,0 GHz in 10 Anwendungen (der i7 läuft mit geringerem RAM-Takt, Timings identisch): http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x6-1090t_10.html#sect0 8 von 10 entscheidet der i7 für sich.
SavageX
2010-04-28, 19:55:05
Intel hat wirklich ganze Arbeit geleistet mit Nehalem.
Das ist sicherlich ganz richtig, nur nicht aus den Augen verlieren, dass Intel für die 20-40% mehr Leistung auch auch fast doppelt so große Kerne einsetzt. Das kann dem Kunden natürlich vollkommen schnurz sein - nur wird mir immer schlecht, wenn ich von AMDs "ineffizientem" Kern höre; der ist auf die Fläche gerechnet nämlich ziemlich großartig (und gibt im Serverbereich eine sehr gute Figur ab - auch das darf den Desktopkunden natürlich schnurz sein).
Das soll nicht davon ablenken, dass AMD natürlich gerne auch mal "Was Dickeres" für Desktops auf den Markt schieben dürfte und sollte. Aber nach derzeitigem Stand kann sich AMD mit dem jetzigen Lineup bis dahin zumindest im Mainstream halten.
Eines muss man festhalten. Die Architektur bei AMD ist deutlich unterlegen. Betrachten wir eine professionelle Anwendung, Autodesk 3ds Max 2010. Sie skaliert auch nahezu 1:1 mit den Kernen. Laut CB: i7-980X 49 % schneller als i7-975 und 1090T 41 % (da wird der Turbo wohl nicht angesprungen sein) schneller als X4 965 BE. Nun ist also ein 3,2 GHz-i7 immer noch schneller (gut, die 1 % Vorsprung seien Vernachlässigt, sagen wir: gleichschnell) wie ein 3,2 GHz-AMD-6-Kerner. Gleiches Bild bei MainConcept H.264/AVC Pro, gleiches Bild bei SPECjvm2008. Und wenn man bei Spielen mal die GPU-Limitierung vernachlässigt und 800 x 600-Werte anschaut (das wird sich spätestens Ende 2010 mit einem 512 SP-Fermi dann auch sowieso bei 1680 x 1050 erledigt haben, besser als 1x HD 5870 in den Testsystemen wäre sowieso 2x GTX 480), ist ein gleichgetakteter i7 im Mittel > 20 % schneller als ein AMD. Intel hat wirklich ganze Arbeit geleistet mit Nehalem.
jep haben sie, aber daran sieht man doch wie schön uns intel veräppelt und neue technologien solange in der schublade verschwinden bis der markt mal wieder was neues braucht.
mein 2006 gekaufter e6400 läuft heute noch auf 3,3ghz mit luft, und wo sind wir heute? ein monopolist hat nichtmal im ansatz den wunsch innovativ zu sein, macht betriebswirtschaftlich absolut keinen sinn und senkt nur die gewinnmarge
(und gibt im Serverbereich eine sehr gute Figur ab - auch das darf den Desktopkunden natürlich schnurz sein).
Na ja, das sieht sogar AMD selbst nicht unbedingt so und verwendet Intel-Systeme, um ihre Grafikkarten bestmöglich zu vermarkten (und jegliche GPU-Limits zu vermeiden). AMD-Folie: http://www.heise.de/newsticker/meldung/AMD-legt-nach-DirectX-11-Profikarten-fuer-alle-Segmente-986562.html?view=zoom;zoom=1 Man schaue in die linke untere Ecke. :D
jep haben sie, aber daran sieht man doch wie schön uns intel veräppelt und neue technologien solange in der schublade verschwinden bis der markt mal wieder was neues braucht.
mein 2006 gekaufter e6400 läuft heute noch auf 3,3ghz mit luft, und wo sind wir heute? ein monopolist hat nichtmal im ansatz den wunsch innovativ zu sein, macht betriebswirtschaftlich absolut keinen sinn und senkt nur die gewinnmarge
Derart krasse Aussagen (besonders die letzte) finde ich immer unschön. Intel hat letztens einen Rekordgewinn vermeldet. Zudem ist es nicht in ihrem Interesse, jetzt einen 3,6-GHz-Sechskern-i7 für einen Kampfpreis auf den Markt zu werfen (was sie wohl könnten), wenn AMD sowieso nur schwer mitkommt.
SavageX
2010-04-28, 20:06:59
Na ja, das sieht sogar AMD selbst nicht unbedingt so und verwendet Intel-Systeme, um ihre Grafikkarten bestmöglich zu vermarkten (und jegliche GPU-Limits zu vermeiden). AMD-Folie: http://www.heise.de/newsticker/meldung/AMD-legt-nach-DirectX-11-Profikarten-fuer-alle-Segmente-986562.html?view=zoom;zoom=1 Man schaue in die linke untere Ecke. :D
Hmmm? Inwiefern widerspricht das der Aussage, dass man bei den Servern gut steht, es bei den Desktops aber gerne noch eine Schippe mehr sein darf?
Derart krasse Aussagen (besonders die letzte) finde ich immer unschön. Intel hat letztens einen Rekordgewinn vermeldet. Zudem ist es nicht in ihrem Interesse, jetzt einen 3,6-GHz-Sechskern-i7 für einen Kampfpreis auf den Markt zu werfen (was sie wohl könnten), wenn AMD sowieso nur schwer mitkommt.
tja die realität ist halt krass! ich wollte eigentlich nur damit sagen das wir bestimmt schon bei default 4-5ghz und einige andere architekturen gesehen hätten, ja wenn denn amd nach ihrem A64-erfolg nicht ganz so ins abseits gerutscht wäre und intel sich erstmal mit ihrem core2 erfolg jahrelang ausgeruht hätte.
aber bei sovielen konjunktiven wird sogar ein erfahrener optimist skeptisch :D
Das ist sicherlich ganz richtig, nur nicht aus den Augen verlieren, dass Intel für die 20-40% mehr Leistung auch auch fast doppelt so große Kerne einsetzt.
Wenn man ohne den L2 Cache rechnet ist ein Nehalem-Kern in der Tat gut größer. Aber warum sollte man? Insgesamt, inklusive L2 und L3, ist Nehalem so groß wie Deneb, dabei aber so schnell/schneller wie/als Thuban.
Savay
2010-04-28, 20:16:17
Wenn man ohne den L2 Cache rechnet ist ein Nehalem-Kern in der Tat gut größer. Aber warum sollte man? Insgesamt, inklusive L2 und L3, ist Nehalem so groß wie Deneb, dabei aber so schnell/schneller wie/als Thuban.
32nm vs 45nm :rolleyes: der K10.5 Kern selbst ist bei gleicher fertigungstechnik HALB so groß wie ein Core iXYZ kern mit SMT. d.h. 1 Intel SMT kern und 2 AMD K10.5 Kerne nehmen den gleichen platz auf dem DIE ein.
was wiederum gleichzeitig bedeutet das ein stupider Pro-Kern vergleich massiv hinkt im bezug auf die "architekturelle effizienz"! ;)
Nehalem ist in 45nm. Und als 4-Kern CPU exakt so groß wie ein 4-Kern Deneb in 45nm.
Deine tolle Rechnung bezieht sich auf Kerne ohne L2/L3 Cache. Schau dir mal an, wie winzig dann ein Core 2 wird. Sinnlose Rechnung, da der Core 2 extrem viel / K10(.5) mittel, Nehalem wenig L2 braucht.
SavageX
2010-04-28, 20:30:28
Wenn man ohne den L2 Cache rechnet ist ein Nehalem-Kern in der Tat gut größer. Aber warum sollte man? Insgesamt, inklusive L2 und L3, ist Nehalem so groß wie Deneb, dabei aber so schnell/schneller wie/als Thuban.
Um ganz ehrlich zu sein habe ich keinen wirklichen Schimmer, warum bei AMD der Uncore-Bereich im Vergleich so groß ausfällt.
http://img687.imageshack.us/img687/3346/amdistanbuldiepicture.jpg (http://img687.imageshack.us/i/amdistanbuldiepicture.jpg/)
Was ist in den Flächen links und rechts oben neben den Speicherpads? Vermutlich nichts, da wollte AMD wohl das Layout direkt von den Quadcores übernehmen. Warum sind die vier "unteren" Kerne im Vergleich zum Deneb so weit auseinandergerückt (die beiden oberen Kerne haben den gleichen Abstand wie im Deneb, deshalb passt auch das alte Layout für das Speichersystem)? Vermutlich für die zusätzlichen Leitungen zur Crossbar (wild geraten). Das ganze Layout wirkt... luftig. Hat da AMD möglichst unaufwendig bereits bestehende (und validierte) Komponenten einfach zusammenkopiert "wo es passt"? Die Kerne schwimmen ja geradezu im Uncore, das sieht beim Nehalem ganz anders aus.
Hinzu kommt natürlich, dass Intel zumindest traditionell Weltmeister in der Packdichte bei Caches war oder ist - da folgt AMD üblicherweise mit einigem Abstand. Zusammengenommen scheint AMD deshalb den Vorteil der winzigen Kerne irgendwie nicht ausspielen zu können. Nun, wenn man die Fab zu 100% bezahlt aber nur zu 75% auslastet (Stand Q1 2010) ist Flächeneffizienz vielleicht derzeit kein angesagtes Thema.
Triskaine
2010-04-28, 21:05:37
Istanbul ist hier eher ein gutes Beispiel für ein unoptimiertes Design. Es gibt wirklich viele Leerflächen, für die mindestens 15 mm² draufgehen. Wie AMD sagte, Istanbul ist: "as close to copy and paste as it gets."
:freak: deswegen sagte ich man sollte auch eher mit auf anwendungen schauen...Cinebench ist und bleibt ein hervorragender indikator auch für die kraftverhältnisse in zukünftigen spielen!
was fürn blödsinn
darum hat der P4 wohl auch so gpwnd weil er selbst als 2.4Ghz sparmodell in Cinema4d/Lightwave etc. die A64 und AthlonXPs weggerockt hat?
http://www.computerbase.de/artikel/prozessoren/2004/test_intel_pentium_4_34_ghz/10/#abschnitt_cinema_4d_81
;D
einen raytracer als indikator für gameperformance anzusetzen ist ja mal der grösste fail ever
einzige Möglichkeit da einen Indikator zu erstellen ist ein möglichst grosses Spielespektrum in nicht GPU limitierten szenarien zu testen
natürlich gestaltet es sich schwierig da man den drahtseilakt zw. geringer Auflösung und deaktivierung von BQ features (ohne auf der CPU
berechneter Parts wie teilweise partikel, physik generall oder gar noch schatten zu deaktivieren) vollziehen muss
beim CPU kauf sind die low. detail FPS einen feuchten scheibenkleister wert...die kann man sich selbst zusammenreimen wenn man sich etwas damit beschäftigt.
die HD Resolution / Full BQ tests sind da eher für die tonne, da eine Asbach Uralt PräPentium CPU dann scheinbar ähnliche FPS erreicht wie intels brandneue "Octium 8" CPUs
y33H@
2010-04-28, 21:39:06
Juhu, es gibt Spiele die von sechs Kernen profitieren ;D Artikel kommt heute Nacht.
Fetter Fettsack
2010-04-28, 21:42:16
Und warum freut dich das so, y33h@? :)
Savay
2010-04-28, 21:42:22
einen raytracer als indikator für gameperformance anzusetzen ist ja mal der grösste fail ever
natürlich ist ein raytracer ein guter indikator für die vorhandene Rohleistung der jeweiligen CPU vorallem da sie meistens hervorragend mit SMP skalieren...und auf lange sicht kommt es schlicht nur auf die rohleistung an! :tongue: im übrigen ist es nur EIN indikator...EINER...wer kauft sich bitte eine CPU nur aufgrund einer anwendung?! :freak: und wer kauft sie sich NUR für spiele?
nebenher hat HTT dem P4 zu seinen lebzeiten in spielen nie viel gebracht! heutzutage macht das auf der gleichen CPU teilweise dann eben DOCH einen gewinn von bis zu 40% aus. :freak: das ganze war seinerzeit ein einmal effekt da die meisten spiele noch nicht weit genug waren um SMT bzw SMP anständig ausnutzen zu können.
die software wurde der rohleistung des P4 im grunde nicht wirklich gerecht. aber auch das war damals schon bekannt... :)
einzige Möglichkeit da einen Indikator zu erstellen ist ein möglichst grosses Spielespektrum in nicht GPU limitierten szenarien zu testen
wunderbar und das GPU limit umgehen wir um dann festzustellen....jup bei 800*600 ist XYZ schneller und alles fluppt bei 300FPS... :freak:
sry DAS ist für mich der größte fail ever.
es spielt einfach keine sau in derartigen settings...wenn man die einstellungen dann hochdreht passieren dann auch plötzlich "eigenartige sachen" und "vollkommen überraschend" sind dann scheinbar ach so "lahmarschige" CPUs aufeinmal nachweis und reproduzierbar auch bei den min-FPS vor oder gleichauf mit diversen hochpreisigen boliden?! oh überraschung...es verschieben sich ja eben doch teilweise die kräfteverhältnisse wenn das gesamtsystem mehr gefordert wird.
ich spreche ausserdem garnicht davon gleich massiv ins GPU limit zu gehen mit 8xSSAA und ähnlichen scherzen. es reicht ja schon wenigstens die auflösung und die details in der nähe real genutzter settings zu halten...und sich bitte auf spiele zu beschränken die nicht nachweißlich in der praxis nahezu rein GPU limitiert sind...und davon gibt es einen ganzen haufen. :)
nebenher kannst du von diesen low res FPS ja noch nichtmal irgendwelche generellen zukunftssicherheiten ableiten nach dem motto ich nehme einfach den faktor 0,25 und schon habe ich die performance in spielen in 3 jahren :freak:
ein wenig mehr als nur stupide auf zahlen schauen ist das ja nun schon noch gell?! :wink:
natürlich ist ein raytracer ein guter indikator für die vorhandene Rohleistung der jeweiligen CPU vorallem da sie meistens hervorragend mit SMP skalieren...und auf lange sicht kommt es schlicht nur auf die rohleistung an! :tongue: im übrigen ist es nur EIN indikator...EINER...wer kauft sich bitte eine CPU nur aufgrund einer anwendung?! :freak: und wer kauft sie sich NUR für spiele?
Ähm du ^^
nebenher hat HTT dem P4 zu seinen lebzeiten in spielen nie viel gebracht! heutzutage macht das auf der gleichen CPU teilweise dann eben DOCH einen gewinn von 40% aus. :freak: das ganze war seinerzeit ein einmal effekt da die meisten spiele noch nicht weit genug waren um SMT bzw SMP anständig ausnutzen zu können.
die software wurde der rohleistung des P4 im grunde nicht wirklich gerecht. aber auch das war damals schon bekannt... :)
Komisch, damals galt es für den Intel was heute für AMD gilt. Ja wie denn nun? ;D
wunderbar und das GPU limit umgehen wir um dann festzustellen....jup bei 800*600 ist XYZ schneller und alles fluppt bei 300FPS... :freak:
sry DAS ist für mich der größte fail ever.
Richtig, wenn du Spiele spielst um CPU zu testen, falsch wenn du wissen möchtest welche CPU noch Potential bei zukünftiger GPU-Power hat!
es spielt einfach keine sau in derartigen settings...wenn man die einstellungen dann hochdreht passieren dann auch plötzlich "eigenartige sachen" und "vollkommen überraschend" sind dann scheinbar ach so "lahmarschige" CPUs aufeinmal nachweis und reproduzierbar auch bei den min-FPS vor oder gleichauf mit diversen hochpreisigen boliden?! oh überraschung...es verschieben sich ja eben doch teilweise die kräfteverhältnisse wenn das gesamtsystem mehr gefordert wird.
ich spreche ausserdem garnicht davon gleich massiv ins GPU limit zu gehen mit 8xSSAA und ähnlichen scherzen. es reicht ja schon wenigstens die auflösung und die details in der nähe real genutzter settings zu halten...und sich bitte auf spiele zu beschränken die nicht nachweißlich in der praxis nahezu rein GPU limitiert sind...und davon gibt es einen ganzen haufen. :)
nebenher kannst du von diesen low res FPS ja noch nichtmal irgendwelche generellen zukunftssicherheiten ableiten nach dem motto ich nehme einfach den faktor 0,25 und schon habe ich die performance in spielen in 3 jahren :freak:
Du checkst es einfach nicht!
ein wenig mehr als nur stupide auf zahlen schauen ist das ja nun schon noch gell?! :wink: Genau, wer in seiner eigenen traumwelt lebt ist blind für tatsächliche Fakten!
Savay
2010-04-28, 22:11:08
Ähm du ^^
gut das du besser weißt als ich aus welchen gründen und auf basis welcher kriterien ich meine wahl treffe! kennen wir uns eigentlich? :rolleyes:
Komisch, damals galt es für den Intel was heute für AMD gilt. Ja wie denn nun? ;D
"wie nun" was? ich habe mit keinem wort AMD in dem zusammenhang erwähnt :freak:
aber um das nachzuholen nur für dich:
was damals für den P4 galt, gilt z.B. heutzutage erst recht für AMDs 6 kerner UND auch genauso für den 980X!
es tut mir leid, ich dachte das wäre klar und müsste in dem zusammenhang nicht extra nochmal jedem gast auf die nase gebunden werden. :freak:
solange wir in einem zeitalter leben in dem die anzahl der CPU kerne und threads schneller steigt als die software entwickler diese ausnutzen können/wollen...haben wir halt dieses dilemma...aber die zeit arbeitet nuneinmal für die multicore CPUs. der einzige vorteil ist das sich SMP und SMT mittlerweile durchgesetzt haben und die software entwicklung sich dem mehr und schneller anpasst als noch zu P4 zeiten!
Richtig, wenn du Spiele spielst um CPU zu testen, falsch wenn du wissen möchtest welche CPU noch Potential bei zukünftiger GPU-Power hat!
da bringen low-res tests aber rein garnichts...ausser du willst extra für ein und das selbe spiel mehrere GPU upgrades durchführen um irgendwann auf deine avg. 300 FPS in dem grade jenem spezifischen titel zu kommen! ;D
Du checkst es einfach nicht!
das kann ich getrost zurück geben :)
Genau, wer in seiner eigenen traumwelt lebt ist blind für tatsächliche Fakten!
fakten sind im übrigen immer "tatsächlich"... ;)
Juhu, es gibt Spiele die von sechs Kernen profitieren ;D Artikel kommt heute Nacht.
Das es jetzt dunkel ist, und ichs gerade überprüft habe, bin ich mal so frei und poste den Link:
http://www.pcgameshardware.de/aid,746325/Phenom-II-X6-im-Praxis-Test-Diese-Spiele-profitieren-von-sechs-CPU-Kernen/CPU/Test/
Schon lustig ... CPU Physik quasi als X6 Killerapplikation :freak:
y33H@
2010-04-29, 00:57:29
Jaja, das "böse" PhysX lässt AMD-GPUs alt und AMD-CPUs jung aussehen. Welch Ironie :ulol:
+41% Fps bei +50% Kernen ist echt krass.
Jaja, das "böse" PhysX lässt AMD-GPUs alt und AMD-CPUs jung aussehen. Welch Ironie :ulol:
Lol, jo wirklich, nette Anekdote, mal schauen, ob sich AMD bedankt :freak:
y33H@
2010-04-29, 01:03:25
Die könnten einen X6 locker machen *hrhrhr*
BigBen
2010-04-29, 01:12:18
Wäre jedenfalls ein passender Anlass für AMD, Dir dafür in angemessener Weise Dank zu zollen. :D
Klasse Aktion y33H@! Jetzt existieren endlich unleugbare Fakten. :uup:
Da ich BC2 momentan zocke und die olle S939-Hardware schnellstmöglich abgerüstet werden muss, hat der X6 nach dem jüngsten Preisrutsch wieder eine Favoritenposition eingenommen. :)
mapel110
2010-04-29, 01:14:11
BC2 ist auch wenig überraschend. Die Entwickler haben in Interviews ja immer wieder betont, dass die Engine Multithreaded ist und mehr Kerne liebt.
y33H@
2010-04-29, 01:14:16
Das behauptet jeder Wald- und Wiesen-Entwickler ;D
dildo4u
2010-04-29, 01:16:18
Erstaunlich das Bad Company 2, schon in der Engine Version(1.5) so gut skaliert,Konsolen behindern also whol dort nicht den Fortschritt.
y33H@
2010-04-29, 01:20:25
Hinsichtlich CPU-Multithreading fördern sie es imho sogar - und zwar nicht zu knapp. sub-HD-Optik mag zwar bei mir Augenkrebs hervorrufen, aber dafür gibt's zumindest die Multithreading-Optimierungen als Ausgleich :ulol:
Erstaunlich das Bad Company 2, schon in der Engine Version(1.5) so gut skaliert,Konsolen behindern also whol dort nicht den Fortschritt.
Jein:
Grafiktechnisch definitiv, da die eingebaute GPUs immer älter werden
Prozessortechnisch aber nicht, da die Cells und 6Thread XBOX Teile ausgenutzt werden müssen.
Hier ein paar Präsentationen zur FB Engine:
http://www.slideshare.net/repii/parallel-graphics-in-frostbite-current-future-siggraph-2009-1860503?from=ss_embed
http://www.slideshare.net/repii/parallel-futures-of-a-game-engine-2478448?from=ss_embed
In Zukunft wollen sie dann auf die GPUs migrieren.
dildo4u
2010-04-29, 01:23:18
Hinsichtlich CPU-Multithreading fördern sie es imho sogar - und zwar nicht zu knapp. sub-HD-Optik mag zwar bei mir Augenkrebs hervorrufen, aber dafür gibt's zumindest die Multithreading-Optimierungen als Ausgleich :ulol:
Wird die 5870 jetzt für die nästen CPU Test's der PCGH beibehalten?Oder gibt bald ein neuen CPU Index mit GTX480?Unter 1680*1050 limitiert die ATI ja schon extrem.
y33H@
2010-04-29, 01:30:03
So schnell wird es da wohl keinen Wechsel geben, zumal für dieses Jahr nichts fettes in Sachen CPUs mehr kommen dürfte. Prinzipiell bin natürlich dafür, alle CPUs mit der GTX480 zu scheuchen, aber Zeit ist nun mal ein rares Gut und sooo viel ändert eine GTX480 am Ranking dann auch wieder nicht. Viel eher müssten forderndere Spiele her, aber das beliebte GTA4 hat sich seit v1.0.6.0 (ärgerlicherweise^^) deutlich in Richtung GraKa-Fresser bewegt. Bad Company 2 statt CoD MW2 wäre eine Option, aber hier rennt man mit einer HD5870 auch verdammt schnell ins GPU-Limit. Vll im Herbst mit Crysis 2 ... we'll see. Ich mag es, aktuell zu sein.
Alles nicht so einfach, wenn man nicht in 800 x 600 benchen will :usad:
Undertaker
2010-04-29, 08:48:41
Hübscher Test. :) Zwei Wünsche: Bitte nutzt doch jetzt die 800x600 Messungen für jeden CPU Test, zumindest zusätzlich - nach diesem Test sollten doch auch die AMD-Anhänger nichts mehr dagegen haben. ;)
Zum zweiten bitte noch i5 und i7 als direkten Vergleich ergänzen, wäre interessant was SMT jetzt in diesen Situationen bringt.
BigBen
2010-04-29, 11:08:51
Ha! - schon geht's mit den Wünschen weiter. ;)
@Undertaker
Im mehrmals geupdateten (sehr löblich!) PCGH-Artikel 'Battlefield Bad Company 2: Grafikkarten- und CPU-Benchmarks (http://www.pcgameshardware.de/aid,706492/Battlefield-Bad-Company-2-Grafikkarten-und-CPU-Benchmarks-Update-DirectX-11-Werte/Action-Spiel/Test/)', ist der i7-860 samt aktiviertem SMT nur einen Hauch schneller als ein X4 965.
puntarenas
2010-04-29, 11:15:26
"Phenom II X6 im Praxis-Test: Diese Spiele profitieren von sechs CPU-Kernen"
Die Spiele profitieren offensichtlich von mehr als 4 Kernen, aber profitieren sie wirklich von 6 CPU-Kernen. Jajajaja, pedantisch... aber einen Benchdurchlauf mit 5 Kernen im Vergleich (shit, Cache...!) hätte ich trotzdem gern gesehen. Erbsenzähler könnten damit auch die gefühlte Freischaltglücksmomentbangbuckwahrscheinlichkeit bei Zosma besser einschätzen.
Ansonsten Chapeau y33H@, erstklassige Arbeit und interessanter Artikel. Besonders gut gefällt mir auch die Gegenüberstellung mit den 800er-Balken, da wird sich mancher nun fragen, welche Benchmarks denn nun eigentlich "die Wahrheit" sagen, "realitätsnah" oder Settings "in denen kein Mensch spielt". Ich tippe ja auf weder noch, vermutlich muss man mitdenken und eigene Schlüsse ziehen, bei der mutmaßlichen Leistungsfähigkeit in kommenden Spielen oder mit einer dicken GTX680 würde ich persönlich jedenfalls von den 800er-Realitätsfernsettings ausgehen.
Ha! - schon geht's mit den Wünschen weiter. ;)
@Undertaker
Im mehrmals geupdateten (sehr löblich!) PCGH-Artikel 'Battlefield Bad Company 2: Grafikkarten- und CPU-Benchmarks (http://www.pcgameshardware.de/aid,706492/Battlefield-Bad-Company-2-Grafikkarten-und-CPU-Benchmarks-Update-DirectX-11-Werte/Action-Spiel/Test/)', ist der i7-860 samt aktiviertem SMT nur einen Hauch schneller als ein X4 965.
allerdings ist dort auch ein Q6600 nicht weit ab vom feld (1.8% hinter PII965BE) da fragt man sich dann inwieweit das grösstenteils GPU limitiert ist
Gastrula
2010-04-29, 11:24:20
Ich hole mit heute den "kleinen" 1055T und setze ihn auf mein Asrock AOD790GX/128M. Das Beta Bios 1.81 habe ich bereits geflasht. Testbericht gibt's aber erst nächste Woche.
Undertaker
2010-04-29, 11:50:58
Ha! - schon geht's mit den Wünschen weiter. ;)
@Undertaker
Im mehrmals geupdateten (sehr löblich!) PCGH-Artikel 'Battlefield Bad Company 2: Grafikkarten- und CPU-Benchmarks (http://www.pcgameshardware.de/aid,706492/Battlefield-Bad-Company-2-Grafikkarten-und-CPU-Benchmarks-Update-DirectX-11-Werte/Action-Spiel/Test/)', ist der i7-860 samt aktiviertem SMT nur einen Hauch schneller als ein X4 965.
Völlig GPU-limitiert leider. :(
Fetter Fettsack
2010-04-29, 12:03:48
Völlig GPU-limitiert leider.
Wieso leider? Vielleicht verstehe ich dich falsch, aber mir ist es lieber, dass das Game im GPU Limit beheimatet ist als dass der Flaschenhals bei der CPU liegt.
Ich hole mit heute den "kleinen" 1055T und setze ihn auf mein Asrock AOD790GX/128M. Das Beta Bios 1.81 habe ich bereits geflasht. Testbericht gibt's aber erst nächste Woche.
Klingt gut, schon mal Danke im Vorraus.
Falls Du zwischendurch Zeit für ne kleine "läuft" - "läuft nicht" Meldung hast, wäre das auch ganz praktisch. Bei Beta BIOSen gibts ja immer ne kleine Unsicherheit ;)
Undertaker
2010-04-29, 12:21:41
Wieso leider? Vielleicht verstehe ich dich falsch, aber mir ist es lieber, dass das Game im GPU Limit beheimatet ist als dass der Flaschenhals bei der CPU liegt.
Ich meinte um festzustellen, wie die CPU-Leistungsrelationen sind. ;) Warum wurden die 6-Kern Tests wohl unter 800x600 gefahren ;)
y33H@
2010-04-29, 12:49:18
Mir ist ein CPU-Limit deutlich lieber. Denn ein GPU-Limit bedeutet, dass oft hohe Auflösungen oder hochwertiges AA sowie Optik-Tweaks in unspielbaren Fps enden.
Fetter Fettsack
2010-04-29, 14:13:02
Deine Einstellung, y33h@, setzt aber auch eine potente CPU voraus, die für das jeweilige Spiel genügend Rohleistung liefert, da man ansonsten eine 10fps Diashow mit SGSSAA hat ;D .
Jemand, der wie ich einen E5200 sein Eigen nennt, wird es wohl angenehmer finden, wenn eher die GPU limitiert (wiewohl ich nichts gegen deine Ansicht habe, das will ich nur klarstellen, wenn ich mich hardwaremäßig mit dir messen könnte, würde ich sie sicherlich teilen :-) ).
y33H@
2010-04-29, 14:21:34
Eine potente CPU zu haben ist idR deutlich einfacher (OC!) und billiger als ständig eine potente GraKa zu besitzen. Hatte eh noch nie Verständnis für Leute, die eine fette GraKa mit einer Gülle-CPU kombinieren. So Kombis wie 8800 Ultra und A64 3200+ etwa :ulol:
Fetter Fettsack
2010-04-29, 14:49:17
Eine Sichtweise, die eigentlich sehr schlüssig ist (und auf die ich noch nie gedacht habe, wie ich gestehen muss^^). Zumal man eine "gute" CPU eigentlich um einiges länger verwenden kann als eine "gute" Karte. Daher auch ein ökonomisch sehr sinnvoller Weg.
Ich mochte jedoch noch anmerken, dass ich mit potentere CPU nicht nur den Takt, sondern auch die Kernanzahl gemeint habe. Ich habe etwa meinen E5200 auch auf 3,15GHz (2,50GHz Stock) hochgetaktet, aber irgendwann kommt dann eben im Vergleich zu anderen CPUs auch die Cachegröße und die Coreanzahl zum Tragen. Dahingehend war das von mir gemeint.
Aber nichts gegen einen 3200+, ich hatte das Ding als Notebookversion (so es da eine Differenzierung gab), hatte bei 1,6GHz schon 59° im Idle :ulol: .
EDIT: Und wie mir gerade im hinblick auf den PCHG-Test einfällt, wenn man eher in die CPU investiert, dann stören auch die Konsolenports nicht mehr so (zumindest, wenn sie AA offerieren), die sich ja eher bei höherer CPU-Leistung wohlfühlen.
Vertigo
2010-04-29, 15:02:11
BTW: Gigabyte hat heute für eine ganze Reihe weiterer AM2+-Boards entsprechende BIOS-Updates bereitgestellt, z. Bsp. für das GA-MA790X-UD3P - imo eines der interessanteren AM2+-Bretter für "Quereinsteiger". Habe leider keine aktuelle Liste gefunden - am besten auf der Herstellerseite nach dem jeweiligen Board suchen und da nach dem BIOS. :)
Naitsabes
2010-04-29, 15:39:26
Und für das GA-MA790GP-UD4H gibt es noch immer kein x6 Support :mad:
Undertaker
2010-04-29, 17:28:16
Mir ist ein CPU-Limit deutlich lieber. Denn ein GPU-Limit bedeutet, dass oft hohe Auflösungen oder hochwertiges AA sowie Optik-Tweaks in unspielbaren Fps enden.
Wie siehts denn nun aus mit ein paar weiteren CPUs in dem 6-Kern Test? Interessant wären natürlich vor allem i5 750, i7 860/870 und 980X. =)
y33H@
2010-04-29, 17:48:58
Kommende PCGH 07/2010. Alles online verballern ist nicht sooo der Hit.
Savay
2010-04-29, 18:19:21
Ich meinte um festzustellen, wie die CPU-Leistungsrelationen sind. ;) Warum wurden die 6-Kern Tests wohl unter 800x600 gefahren ;)
wie die CPU leistungsrelationen sind sieht man doch eh besser woanders :wink:
das ist es ja grade was mir an den 800*600 tests so aufstößt.
augenscheinlich sollen sie zwar die tauglichkeit der CPUs für spiele beleuchten (wenn es anders wäre würde es keinen sinn machen spiele dafür her zu nehmen) haben aber null bezug zur praxis da 99% aller spiele in irgendeiner form immer in ein GPU limit rennen bei üblichen settings...der eine titel mehr der andere weniger...und das geht stellenweise soweit das ein vorhandener 41%iger leistungsvorteil nahezu vollkommen obsolet wird. :freak:
allein die sysifus arbeit von y33H@ um überhaupt den unbestreibar vorhandenen rohleistungsvorteil des X6 im vergleich zum X4 aufzuzeigen beweist einfach das spiele allein idR nichts taugen um CPUs zu bewerten. hier profitiert nen titel nur von 2 kernen, im nächsten titel ist in der praxis alles GPU limitiert und im dritten muss man mods, custom maps oder cherry picking bemühen um einen unterschied aufzuzeigen etc. pp.
für mich sind die spielebenchmarks viel interessanter um die spiele aus technischer sicht zu bewerten...aber nicht die verwendeten CPUs.
was in fordernden anwendungen schnell ist...wird es nunmal auch zwangsläufig in spielen sein wenn auch nicht unbedingt im schlecht multicore optimierten feld und wiesen titel...aber grade für sowas sind die multikern boldien allesamt mehr als schnell genug! :)
das ist es ja grade was mir an den 800*600 tests so aufstößt.
Mag sein. Man testet aber nur so, wenn man die CPU-Leistung und nicht die Spiele-Leistung bewerten will. Am Ende darf jeder seine Schlüsse für sich ziehen. Wenn du häufiger die CPU aufrüstest oder die GPU selten aufrüstest, dann befindest du dich sowieso im GPU-Limit und hast recht – eine noch schnellere CPU macht keinen Sinn. Deswegen sind Phenom II und Core i7 aber nicht gleichschnell in Spielen. Das Spiel performt nur gleichschnell auf beiden Systemen unter den derzeitigen Gegebenheiten (GPU-Limit), wobei sich die Performance von GPU-Upgrade zu GPU-Upgrade immer weiter zum Vorteil des i7 verschiebt (und in einem Jahr ist ein i7 immer noch aktuell, während die Schwäche der Phenoms immer deutlicher wird, wenn erstmal die nächsten GPU-Generationen draußen sind). Wer sich aber auf solche (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/22/#abschnitt_crysis) dilettantischen Messreihen verlassen möchte und damals geglaubt hat, ein Q8200 sei so schnell wie ein i7-920 (:ulol:): bitteschön. Nur zu.
Savay
2010-04-29, 19:17:55
Das Spiel performt nur gleichschnell auf beiden Systemen unter den derzeitigen Gegebenheiten (GPU-Limit), wobei sich die Performance von GPU-Upgrade zu GPU-Upgrade immer weiter zum Vorteil des i7 verschiebt (und in einem Jahr ist ein i7 immer noch aktuell, während die Schwäche der Phenoms immer deutlicher wird, wenn erstmal die nächsten GPU-Generationen draußen sind).
das ist ja einer der trugschlüsse...von heutigen spielen kannst du nicht auf die spiele von morgen schließen, sondern nur auf eben jenem titel der getestet wurde.
ausserdem kannst du nicht davon ausgehen das dir ein GPU upgrade soviel bringt, dass du in titeln, die in einem jahr aktuell sind, dann aufeinmal nicht mehr mit dem i7 im GPU limit liegst!
die spieleentwicklung skalieren schon bald seit einer dekade besser mit den GPU- als mit den CPU generationen mit...egal wie schnell die GPUs auch werden...in zukünftigen spielen wirst du in dann gängigen settings auch wieder zu einem großteil im GPU limit landen.
zusätzlich implimziert das ganze nicht, dass dann zwangsläufig eine schwäche bei den Phenoms deutlich wird...im falle des X6 dürfte sogar absolut das gegenteil der fall sein wenn man bedenkt wie wenige titel bisher 6 kerne ausnutzen können!
selbst nen profaner X4 wird wohl auch noch eine ganze lange lange weile halten. für das auftreten einer plötzlichen nutzlosigkeit ist die leistung selbst der "langsamen" AMD quadcores ingesamt einfach zu hoch und die ausnutzung der rohleistung in spielen insgesamt gesehen noch zu gering! :wink:
ich wage schlicht einfach mal zu prophezeihen das sich die CPUs auf dauer AUCH in spielen so einordnen werden wie sie es in Cinebench tun...denn letztlich kommt es nur auf die rohleistung an und auf dauer wird die schon ausgenutzt werden auch wenn es heute in spielen noch nicht wirklich deutlich wird! :)
Mag sein. Man testet aber nur so, wenn man die CPU-Leistung und nicht die Spiele-Leistung bewerten will. Am Ende darf jeder seine Schlüsse für sich ziehen. Wenn du häufiger die CPU aufrüstest oder die GPU selten aufrüstest, dann befindest du dich sowieso im GPU-Limit und hast recht – eine noch schnellere CPU macht keinen Sinn. Deswegen sind Phenom II und Core i7 aber nicht gleichschnell in Spielen. Das Spiel performt nur gleichschnell auf beiden Systemen unter den derzeitigen Gegebenheiten (GPU-Limit), wobei sich die Performance von GPU-Upgrade zu GPU-Upgrade immer weiter zum Vorteil des i7 verschiebt (und in einem Jahr ist ein i7 immer noch aktuell, während die Schwäche der Phenoms immer deutlicher wird, wenn erstmal die nächsten GPU-Generationen draußen sind). Wer sich aber auf solche (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/22/#abschnitt_crysis) dilettantischen Messreihen verlassen möchte und damals geglaubt hat, ein Q8200 sei so schnell wie ein i7-920 (:ulol:): bitteschön. Nur zu.
kannst du dich noch an die Pre-HD5000 Zeit erinnern? Da da war ein Phenom2 940 oft so schnell wie ein i7 920 / 860 etc, meist etwas schneller als ein i5 750. Und heute? Da hat der schnellste Phenom2 mit 3.4 Ghz mühe an einem kleinen i5 750 zu reichen. Ich wette bei der nächste Graka-Generation wird der Unterschied noch größer.
Savay
2010-04-29, 19:26:05
Ich wette bei der nächste Graka-Generation wird der Unterschied noch größer.
wo? in den titeln von "gestern", in settings von "gestern" die die GPU leistung garnicht ausnutzen?
der unterschied KANN nicht größer werden...die CPUs SIND halt unterschiedlich schnell weil sie es von anfang an waren...um das zu beweisen braucht es keine low-res tests! :freak:
Undertaker
2010-04-29, 19:31:29
wo? in den titeln von "gestern", in settings von "gestern" die die GPU leistung garnicht ausnutzen?
der unterschied KANN nicht größer werden...die CPUs SIND halt unterschiedlich schnell weil sie es von anfang an waren...um das zu beweisen braucht es keine low-res tests! :freak:
Das Posting verstehe ich nicht. In heutigen Spielen / mit heutigen GPUs brauchst du low-res Tests, um eine unterschiedliche Leistungsfähigkeit nachzuweisen - siehe X4 vs. X6 oder i5/i7. In späteren Spielen steigen die Anforderungen und die GPU-Leistung, die Unterschiede heutiger low-res Messungen werden tendenziell auch in immer höheren Auflösungen sichtbar.
Savay
2010-04-29, 19:41:58
In späteren Spielen steigen die Anforderungen und die GPU-Leistung, die Unterschiede heutiger low-res Messungen werden tendenziell auch in immer höheren Auflösungen sichtbar.
tendenziell hast du sicherlich recht...nur sind heutige spiele auf das heutige techlevel, in diesem fall die heute übliche durchschnittliche kernzahl der anvisierten kundschaft, ausgelegt.
die heutigen spielen sagen somit mit viel gutem willen nur indirekt etwas über die verhältnisse in zukünftigen spielen aus :)
vorallem muss man bedenken: in späteren spielen steigt auch insbesondere die anforderung an die GPU leistung tendenziell stärker als die anforderung an die CPU leistung. :wink:
das bedeutet demzufolge nicht das du dich mit ner schnelleren GPU in zukünftigen spielen auf der CPU xyz aus dem GPU limit raushebst...das passiert sicherlich früher oder später lässt sich über heutige spiele aber IMO nicht besonders toll vorhersagen weil einem das techlevel wieder einen strich durch die rechnung macht...
das ist halt das problematische an der steigenden kernzahl...die software muss sich daran anpassen und die hinkt nunmal etwas hinter her...
das einzige was hilft ist sich vor einem GPU upgrade gedanken zu machen ob es mit seiner CPU denn überhaupt noch etwas bringt...und grade da sind "realitätsnahe" settings meiner ansicht nach hilfreicher als alles andere. :)
Es wurde vor der HD5000 Serie fleißig mit Crysis getestet, es wurde mit der HD5000 Serie Crysis getestet und jetzt muss Cyrsis bei der GT480 wieder herhalten. So what?!
Savay
2010-04-29, 20:03:42
fein und wir stellen fest: crysis ist auf 100€ wald und wiesen CPUs immernoch im GPU limit. ;)
ich wage schlicht einfach mal zu prophezeihen das sich die CPUs auf dauer AUCH in spielen so einordnen werden wie sie es in Cinebench tun...denn letztlich kommt es nur auf die rohleistung an und auf dauer wird die schon ausgenutzt werden auch wenn es heute in spielen noch nicht wirklich deutlich wird! :)
Wieso ausgerechnet Cinebench? Was hat das mit Spielen gemein? Mal abgesehen davon, dass besonders in Anwendungen ein i7 ja deutlich überlegen ist.
fein und wir stellen fest: crysis ist auf 100€ wald und wiesen CPUs immernoch im GPU limit. ;)
Das ist abhängig von der Szene, die du betrachtest:
http://www.xbitlabs.com/images/cpu/phenom-ii-x6-1090t/Charts/crysis.png
Actionhank
2010-04-29, 20:09:14
Immerhin für das ga-ma790gp-ds4h
PS: Quelle: http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x6-1090t_6.html#sect0
das ist ja einer der trugschlüsse...von heutigen spielen kannst du nicht auf die spiele von morgen schließen, sondern nur auf eben jenem titel der getestet wurde.
Ein i7 ist in 99,9 % aller Spiele überlegen @ 800 x 600. In der Auflösung, ohne GPU-Limit, sogar deutlich, teilweise 50 % und mehr. Beweise:
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/24/#abschnitt_company_of_heroes
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/25/#abschnitt_crysis
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/26/#abschnitt_far_cry_2
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/27/#abschnitt_world_in_conflict
Savay
2010-04-29, 20:20:11
Wieso ausgerechnet Cinebench? Was hat das mit Spielen gemein?
weil cinebench hervorragend mit dem takt und den kernen skaliert und die vorhandene rohleistung sehr gut umsetzt...auf lange sicht ist das einzige was zählt die insgesamt zur verfügung stehende rohleistung der CPU.
Mal abgesehen davon, dass besonders in Anwendungen ein i7 ja deutlich überlegen ist.
WTF?! wieso überhaupt "mal abgesehen davon"!?! habe ich bisher in diesem thread auch nur einen qualitativen vergleich eines PhII mit einem i7 aufgestellt?
das ganze hat mit dem sachverhalt auch überhaupt nichts zu tun...das problem betrifft alle CPUs von beiden herstellern ja wohl gleichermaßen :freak:
Das ist abhängig von der Szene, die du betrachtest:
http://www.xbitlabs.com/images/cpu/phenom-ii-x6-1090t/Charts/crysis.png
was schonmal bullshit ist...nen X6 KANN einfach nicht langsamer sein als ein X4 wenn das spiel anständig mit kernen skalieren würde. :rolleyes:
das ist nun wahrlich kein guter beweis für die übertragbarkeit der ergebnisse von heutigen spielen auf "spiele von morgen"
nebenher ist MQ ja wohl kaum ein "gängiges" setting. :freak:
Ein i7 ist in 99,9 % aller Spiele überlegen @ 800 x 600. In der Auflösung, ohne GPU-Limit, sogar deutlich, teilweise 50 % und mehr. Beweise:
du hast den von dir zitierten satz nicht wirklich gelesen oder? ;)
Da ist er nun der Phenom-II X6
*wow* ? Nein! Der Beweis von AMD persönlich, welcher Zeigt das die Phenom-Architektur einfach nicht mehr zeitgemäß ist.
Man schaue sich stellvertretend den Cinebench 11 an, jüngster Multicore-Benchmark mit AMD Optimierung. Das Ergebnis ist ernüchternd. Gerade mal gleichauf mit einem QuadCore des Kongurenten. Und das bei größerer Die-Fläche, mehr Transistoren und höheren Stromverbrauch. Bis zu 45 Watt zieht die X6-Plattform mehr als der gleich teuere und schnellere i7 860.
Das ganze hat einen Touch vom Fermi => mehr Fläche, mehr Transistoren, mehr Energieaufnahme, aber dann doch nicht wirklich schneller.
AMD => Fail 2010 ;D, next year another try
r.i.p.
y33H@
2010-04-29, 20:40:52
Fermi [GTX 480] ist zumindest die schnellste GraKa *SCNR*
Fermi [GTX 480] ist zumindest die schnellste GraKa *SCNR*
deswegen steht das "aber" dort.
y33H@
2010-04-29, 20:46:24
Verstehe ich nicht. Die GTX 480 ist die schnellste GraKa, der 1090T aber ist nur gehobenes Mittelfeld bis Oberklasse. i7-870 und alle i7-9xx ab 950 sind flotter, in Spielen oft schon ein i5-750.
Savay
2010-04-29, 20:49:33
der X6 ist halt nen goodie für alle leute mit einem AM2+ oder AM3 system...nen upgrade auf nen i7-860 würde samt board (und evtl. speicher) in dem fall ja nun wohl doch einiges teurer kommen als einfach einen X6 reinzuflanschen und darauf zu spekulieren das sein board irgendwann auch noch nen bulldozer fressen wird.
da kann er dann auch ruhig mehr verbrauchen...es rechnet sich immernoch selbst in der umweltbilanz...immerhin erspart man der welt die produktion und transport eines kompletten mainboards um den halben globus. ;) ...für "bestandskunden" ist er jedenfalls schon interessant! für alle anderen ist er es wohl eher nicht, das ist wahr. :)
Verstehe ich nicht. Die GTX 480 ist die schnellste GraKa, der 1090T aber ist nur gehobenes Mittelfeld bis Oberklasse. i7-870 und alle i7-9xx ab 950 sind flotter, in Spielen oft schon ein i5-750.
wo wird etwa gegenteiliges behauptet? man beachte die wortwahl => "Fermi Touch" != "ist wie Fermi", ergo es wäre wie der fermie, wenn es die schnellste cpu wäre, ist sie aber nicht, aber dafür hat sie sämtliche schlechten eigenschaften des fermi ;) einen fermi-touch eben ;D
der X6 ist halt nen goodie für alle leute mit einem AM2+ oder AM3 system...nen upgrade auf nen i7-860 würde samt board in dem fall ja nun wohl doch teurer kommen als einfach einen X6 reinzuflanschen und darauf zu spekulieren das sein board irgendwann auch noch nen bulldozer fressen wird.
da kann er dann auch ruhig mehr verbrauchen...es rechnet sich immernoch ;) ...für "bestandskunden" jedenfalls! :)
Halt mal den Ball flach.
Wenn ich einen i5 650 habe und möchte zum i7 860 aufrüsten, brauche ich auch kein neues Board. Den i5 650 verkaufe ich sogar für mehr als den alten AM2+ Chip und der i7 860 ist günstiger als der X6.
y33H@
2010-04-29, 20:55:06
@ Gast
Al right :D
Savay
2010-04-29, 21:00:18
Halt mal den Ball flach.
:freak: halt ihn selber erstmal flach! was soll der ton? mit dem falschen bein aufgestanden, salz in den kaffee gekippt oder allgemein einfach nur zum streiten aufgelegt?!
"ein goodie für leute mit AM2+ und AM3 sytem" hat ja wohl kaum leute eingeschlossen die bereits einen core i sonstwas im rechner haben! :freak:
aylano
2010-04-29, 21:04:54
*wow* ? Nein! Der Beweis von AMD persönlich, welcher Zeigt das die Phenom-Architektur einfach nicht mehr zeitgemäß ist.
...
Das ganze hat einen Touch vom Fermi => mehr Fläche, mehr Transistoren, mehr Energieaufnahme, aber dann doch nicht wirklich schneller.
Die Architektur vom Phenom II ist nicht so schlecht.
Was du anscheinend nicht weißt, ist die deutlich bessere Fertigung von Intel mit High-K & Co, während Fermi eben die selbe Problematische Fertigung hat wie der Konkurrent.
Immerhin kommen bald Quad-Phenoms bei AMD in die Notebooks und das in 25 & 35 & 45 Watt-Bereichen und nicht so wie Intel in 45 & 55 Watt-Bereichen.
Da wird es interessant, um wie viel schneller dann ein 1,73 Ghz-Intel-Quad dann gegen einen 2,3 Ghz-AMD-Quad ist, die beide 45Watt-TDP haben.
Also, so schlecht ist die Phenom-K10.5-Architektur nicht.
Das wird man dann mit Fusion-K10.5 sehen, der dann mit 32nm & High-K & Turbo-Core & Power-Gating dann ordentlich nachziehen kann.
AMD => Fail 2010 ;D, next year another try
r.i.p.
Es ist schon lange bekannt, dass 2010 für AMD schwierig wird.
Wobei, AMD vor kurzem mit G32&G34 sowie Thuban bisher so überraschte, dass sie vielleicht sogar jedes Quartal im Jahr 2010 Gewinn machen können.
Und genau das ist das Ziel von Aktiengesellschaften und nicht irgendwelche Extreme-Gamer zu befriedigen.
Fetter Fettsack
2010-04-29, 21:15:23
Fermi [GTX 480] ist zumindest die schnellste GraKa *SCNR*
Und der 1090T ist der schnellste 6-Kern Prozssor :ulol: .
Die Architektur vom Phenom II ist nicht so schlecht.
Was du anscheinend nicht weißt, ist die deutlich bessere Fertigung von Intel mit High-K & Co, während Fermi eben die selbe Problematische Fertigung hat wie der Konkurrent.
Jau Intel != AMD, gut erkannt, aber warum bist du der Meinung das die Architektur nicht schlecht ist, wenn man a) mehr transistoren braucht und b) mehr Fläche (beide in 4nm) benötigt. Ergo ist die Architektur schlechter. Das wie schlecht läßt sich natürlich nicht so leicht sagen.
Immerhin kommen bald Quad-Phenoms bei AMD in die Notebooks und das in 25 & 35 & 45 Watt-Bereichen und nicht so wie Intel in 45 & 55 Watt-Bereichen. Jau das hört man schon lange, so ähnliches gabs auch zu core2/X2 zeiten. man hat immer auf das von morgen gehoft und das der kongurent stehen bleibt. doch wie so oft kommt es erstens anders und zweitens als DU denkst ;D
Da wird es interessant, um wie viel schneller dann ein 1,73 Ghz-Intel-Quad dann gegen einen 2,3 Ghz-AMD-Quad ist, die beide 45Watt-TDP haben.
Der Intel natürlich, rechne doch mal den derzeitigen rückstand der high-clock-quads herunter.
Also, so schlecht ist die Phenom-K10.5-Architektur nicht.
Das wird man dann mit Fusion-K10.5 sehen, der dann mit 32nm & High-K & Turbo-Core & Power-Gating dann ordentlich nachziehen kann.
lol, du redest dir ein das vermutlich etwas von morgen vermeindlich gut wird, zumindest etwas aufholt und siehst es dann als beweis das die architektur gar nicht mal so schlecht ist. junge, wie arm ist das, kein funken an beweis, keine messbaren zahlen, nur zukunftsvisionen, aber der meinung sein es ist gut, weil es irgendwann mal gut sein wird ;D knaller!
Es ist schon lange bekannt, dass 2010 für AMD schwierig wird.
Wobei, AMD vor kurzem mit G32&G34 sowie Thuban bisher so überraschte, dass sie vielleicht sogar jedes Quartal im Jahr 2010 Gewinn machen können.
Und genau das ist das Ziel von Aktiengesellschaften und nicht irgendwelche Extreme-Gamer zu befriedigen.
Komisch, Intel verdient scheinbar gut und die aktuellen Zahlen zu den Prozessoranteilen belegen das Intel mehr am Markt zugelegt hat als AMD.
y33H@
2010-04-29, 21:24:34
Und der 1090T ist der schnellste 6-Kern Prozessor.Ich hab das was von einem i7-980X gehört ;D
Savay
2010-04-29, 21:26:57
Ich hab das was von einem i7-980X gehört ;D
das ist doch ein 12-thread prozessor ;D
y33H@
2010-04-29, 21:31:29
Er ist auch ohne SMT schneller ;D
Savay
2010-04-29, 21:32:57
bestreitet niemand ;) aber wenn man ihn unbedingt anders als den X6 klassifizieren wollte könnte man es halt auf diese weise tun... ;D
y33H@
2010-04-29, 21:35:51
Ich find den Smiley nur so geil ;D
puntarenas
2010-04-29, 21:38:10
Wie verhält sich denn jetzt eigentlich der Turbo, wenn man gezielt Kerne ausknippst? ;D
y33H@
2010-04-29, 21:40:42
Das ist dem Turbo egal. Deswegen heißt er ja "Turbocore", weil er sich nur um die Kerne schert und nicht um deren Anzahl ;D
Ist ja keine Temperatur- oder TDP-Bugdet-Abhängigkeit wie bei Intel.
puntarenas
2010-04-29, 21:43:50
Also steppt der Bär, wenn die Hälfte der Kerne Däumchen dreht? Was ist denn dann bei 5 oder 3 aktiven Kernen? ;D
Das ist dem Turbo egal. Deswegen heißt er ja "Turbocore", weil er sich nur um die Kerne schert und nicht um deren Anzahl ;D
Ist ja keine Temperatur- oder TDP-Bugdet-Abhängigkeit wie bei Intel.
Einige pöse amd fanbois behaupten sogar das amds turbo ansatz aufgrund seiner einfachheit klüger sei als intels komplexe und durchdachte logik. tja wenn man nur etwas vom turbo sehen würde.
turbo wo bist du? komm raus trau dich ;D
Menace
2010-04-29, 22:03:04
Jau Intel != AMD, gut erkannt, aber warum bist du der Meinung das die Architektur nicht schlecht ist, wenn man a) mehr transistoren braucht und b) mehr Fläche (beide in 4nm) benötigt. Ergo ist die Architektur schlechter. Das wie schlecht läßt sich natürlich nicht so leicht sagen.
[...]
lol, du redest dir ein das vermutlich etwas von morgen vermeindlich gut wird, zumindest etwas aufholt und siehst es dann als beweis das die architektur gar nicht mal so schlecht ist. junge, wie arm ist das, kein funken an beweis, keine messbaren zahlen, nur zukunftsvisionen, aber der meinung sein es ist gut, weil es irgendwann mal gut sein wird ;D knaller!
[...]
Komisch, Intel verdient scheinbar gut und die aktuellen Zahlen zu den Prozessoranteilen belegen das Intel mehr am Markt zugelegt hat als AMD.
Und? Wo ist das Problem, dass die Architektur der CPU etwas schlechter ist, als die von intel? Wo, außerhalb weniger Spezialanwendungen fällt der limitierende Faktor wirklich gravierend auf?
Ich arbeite viel mit meinem PC (Adobe illustrator, photoshop, flash, dreamweaver, capture one, Mediator, Quark xprexx, 3ds-max, etc.; spiele (in vernünftigen 1920x1200) momentan neben allzeit fallout 3, hoh2, hoh3, mass effect 1+2, etc.) und Du glaubst wirklich, ich würde mit dem Phenom X6 dadurch einen fühlbaren Nachteil zu einem intel haben? Ich werde die 3. Aufrüstung machen können ohne das Mainboard wechseln zu müssen (vom ersten Phenom I, über Phenom II zum Thuban). Das Geld, das ich dadurch spare, werde in schön in was sinnvollerem investieren.
puntarenas
2010-04-29, 22:10:13
[...] Du glaubst wirklich, ich würde mit dem Phenom X6 dadurch einen fühlbaren Nachteil zu einem intel haben?
Ich glaube, dass man in Spielen im CPU-Limit über den Daumen 20-30% Nachteil gegenüber einem Core i5/i7 hat. Ich finde auch nicht, dass das Welten sind, aber das kann gerade im Grenzbereich durchaus mal entscheidend und dann auch fühlbar sein.
Ich werde die 3. Aufrüstung machen können ohne das Mainboard wechseln zu müssen (vom ersten Phenom I, über Phenom II zum Thuban). Das Geld, das ich dadurch spare, werde in schön in was sinnvollerem investieren.
Vernünftige AM2+ Boards waren die langlebige Plattform schlechthin. Das ist aber Geschichte, für die Zukunft nützt einem das nichts, wenn man jetzt ein neues System zusammenstellt. :)
Und? Wo ist das Problem, dass die Architektur der CPU etwas schlechter ist, als die von intel? Wo, außerhalb weniger Spezialanwendungen fällt der limitierende Faktor wirklich gravierend auf?
Nirgends! Es zeigt nur das die Architektur am Ende ist.
Ich arbeite viel mit meinem PC (Adobe illustrator, photoshop, flash, dreamweaver, capture one, Mediator, Quark xprexx, 3ds-max, etc.; spiele (in vernünftigen 1920x1200) momentan neben allzeit fallout 3, hoh2, hoh3, mass effect 1+2, etc.) und Du glaubst wirklich, ich würde mit dem Phenom X6 dadurch einen fühlbaren Nachteil zu einem intel haben?
Ohne Vergleich ist das natürlich essig! Aber schon mal daran gedacht das du die heute X6-Power schon vor 1 1/2 hättest haben können ;)
Ich werde die 3. Aufrüstung machen können ohne das Mainboard wechseln zu müssen (vom ersten Phenom I, über Phenom II zum Thuban). Das Geld, das ich dadurch spare, werde in schön in was sinnvollerem investieren. blablub, zeig mir mal ein AM2 (kein +) Board was einen X6 a) Unterstützt b) alle Features dessen nutzt.
Menace
2010-04-29, 22:17:07
Ich glaube, dass man in Spielen im CPU-Limit über den Daumen 20-30% Nachteil gegenüber einem Core i5/i7 hat. Ich finde auch nicht, dass das Welten sind, aber das kann gerade im Grenzbereich durchaus mal entscheidend und dann auch fühlbar sein.
Ich war so frei, gewisse Sachen hervorzuheben. Diese 3 Einschränkungen relativieren halt die meisten Benchmarks und die heftige Diskussion darum. Für mich ist -trotz Eingeständnis und Zahlung an AMD- intel nur in Ausnahmesituationen kaufbar, da ich weiß, wie wichtig Konkurrenz ist. Daneben kommen weitere Faktoren, wie z.B. für welchen Zweck man seinen CPU nutzt und welchen Preis man dafür gewillt ist zu zahlen.
Vernünftige AM2+ Boards waren die langlebige Plattform schlechthin. Das ist aber Geschichte, für die Zukunft nützt einem das nichts, wenn man jetzt ein neues System zusammenstellt. :)
Wie wurde AMD vorgeworfen, dass sie ihre Plattformen nicht lang genug unterstützen. Was AMD mit AM2+ gemacht hat, ist einfach genial, wenn man denkt, was für Dreckschleudern Hardware-Produkte beinhalten. Ich traue AMD in Sachen Langlebigkeit momentan weit aus mehr zu, als intel (das mag sich auch mal wieder ändern). Ich hoffe, dass AMD das mit einer neuen Plattform, die mit BD kommen könnte so fortsetzt.
Menace
2010-04-29, 22:29:28
Nirgends! Es zeigt nur das die Architektur am Ende ist.
Für eine Architektur, die am Ende ist, arbeite ich aber noch ganz gut damit. Für welche Aufgaben nutzt Du eigentlich Deine CPU(s)? Ach, ich nutze noch BOINC, ohne allerdings auf highscores aus zu sein.
Ohne Vergleich ist das natürlich essig! Aber schon mal daran gedacht das du die heute X6-Power schon vor 1 1/2 hättest haben können ;)
Für welchen Preis? Ich verdiene immer noch mit meinem X4 mein Geld. Wenn wir ehrlich sind, ist bis auf Filme rendern doch meist ein X4 gelangweilt. Ich spende die meiste Rechenzeit für WCG. Ansonsten wäre X6 nett, für etwas rendern und für RAW-Konvertierungen. Und beides schafft AMD doch hervorragend. Wer allerdings in 800x600 spielt (ganz ehrlich, solche Tests sind nicht wirklich seriös), der soll ruhig ein intel kaufen, da er die fps-Unterschiede bestimmt bemerkt. ;)
blablub, zeig mir mal ein AM2 (kein +) Board was einen X6 a) Unterstützt b) alle Features dessen nutzt.
Blablubb sagt mir jetzt als Argument nicht sooo viel. Sprach ich von einem AM2? Trotzdem hat AM2 (sofern von Mainboardherstellern unterstützt) gute Dienste geleistet (http://www.planet3dnow.de/vbulletin/showthread.php?t=324688).
puntarenas
2010-04-29, 22:31:18
Für mich ist -trotz Eingeständnis und Zahlung an AMD- intel nur in Ausnahmesituationen kaufbar, da aich weiß, wie wichtig Konkurrenz ist. Daneben kommen weitere Faktoren, wie z.B. für welchen Zweck man seinen CPU nutzt und welchen Preis man dafür gewillt ist zu zahlen.
Ich begrüße sehr, wenn Leute ein wenig umsichtiger kaufen und deine Überlegungen finde ich ausgesprochen respektabel! :smile:
Ich hoffe, dass AMD das mit einer neuen Plattform, die mit BD kommen könnte so fortsetzt.
Der erste Desktop-Bulldozer wird wohl auf AM3+ aufsetzen, parallel kommt dann wohl für den Mainstream ein neuer Sockel. Ob ein Bulldozer-Refresh dann ebenfalls für den neuen Sockel mit Pins für integrierte Grafik, für einen ganz neuen Sockel oder nochmal für AM3+ kommt, weiß ich nicht. Ich zitiere mich einfach mal selbst:
[...]
AMDs neue Bulldozer-Archtektur, deren Desktop-Ableger auf den Codenamen Zambezi (http://www.pcgameshardware.de/aid,699304/AMD-Bulldozer-erste-Architektur-Informationen-zum-Phenom-Nachfolger/CPU/News/), soll dagegen auf Sockel AM3r2 aufsetzen. Der neue Sockel wird vermutlich als AM3+ in den Markt kommen, es gilt aber als sehr wahrscheinlich, dass man Bulldozer-Prozessoren auch auf heutigen AM3-Boards einsetzen können wird. Für den Bulldozer-Refresh wiederum wird AMD sich möglicherweise von AM3(+) verabschieden, um auf einen Sockel mit Anschlüssen für eine integrierte GPU zu wechseln, Grafikeinheiten in der Northbridge sollen dann wie bei Intel durch Grafikeinheiten in der CPU ersetzt werden.
(Note to self: Quellen fehlen, Forum fragen!)
Angenommen mit Bulldozer schließt AMD zur Pro/Mhz-Leistung der Nehalem-Architektur auf und nehmen wir ferner realistisch an, dass Bulldozer ebenfalls Taktraten zwischen 3,6Ghz und 4Ghz erreicht, dann wird das heute gekaufte Phenom II System nach einer weiteren Aufrüstung die Leistung bereitstellen, die vom Intelsystem durch Übertaktung bereits von Anfang an geboten wird. Möglicherweise etwas mehr, vielleicht etwas weniger, je nachdem wie gut Taktbarkeit und IPC der neuen Architektur ausfallen.
Dafür hätte man dann nach der Bulldozer-Aufrüstung 8 native Kerne beim AMD-System statt 4 (oder 4+4HT beim Core i7 860) zur verfügung. Desweiteren bleibt zu spekulieren, ob Spiele zu Lebzeiten der Systeme von mehr als 4 Threads Gebrauch machen, momentan sind Spiele die von mehr als drei oder vier CPU-Kernen profitieren noch rar gesät. Je nachdem, welche Antworten man selbst auf diese spekulativen Fragen prognostiziert, ist die AMD-Lösung zukunftstauglicher oder nicht.
Intel oder AMD - Zukunftstauglichkeit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7981355#post7981355)
Daher mein Einwand, wer jetzt ein Phenom II X6 System neu kauft, kauft nicht unbedingt die bessere Zukunftstauglichkeit.
Wie wurde AMD vorgeworfen, dass sie ihre Plattformen nicht lang genug unterstützen. Was AMD mit AM2+ gemacht hat, ist einfach genial, wenn man denkt, was für Dreckschleudern Hardware-Produkte beinhalten. Ich traue AMD in Sachen Langlebigkeit momentan weit aus mehr zu, als intel (das mag sich auch mal wieder ändern). Ich hoffe, dass AMD das mit einer neuen Plattform, die mit BD kommen könnte so fortsetzt.
Ganz einfach:
Beispiel Aufrüsten
IntelUser, neue CPU aber auch neues Brett, stört den überzeugten IntelPowerUser nicht, da er ohnehin dann laange mit dem setup (powerüberschuß ;D) auskommen kann
AMDUser, der Sparfuchs oder auch Hartz IV Gamer überlegt sich, ob er aufrüstet, wenn er sein board mitnehmen kann, freut er sich natürlich um so mehr ;D und amd hält so einen kunden, den Intel nicht verloren hätte ;)
y33H@
2010-04-29, 22:34:49
Hartz IV Gamer :usad:
Savay
2010-04-29, 22:37:41
IntelPowerUser
Hartz IV Gamer
mal was ganz anderes...warum sind gast accounts eigentlich immernoch im forum erwünscht? solch polemischen dünnpfiff könnte ich mir wirklich ohne einen ansatz von reue zu verspüren ersparen. :wink: und die ignore funktion hilft da generell nur leidlich...die qualität der threads steigt durch eine gastbeteiligung zu 95% jedenfalls nicht...eher im gegenteil :facepalm:
Menace
2010-04-29, 22:42:43
Daher mein Einwand, wer jetzt ein Phenom II X6 System neu kauft, kauft nicht unbedingt die bessere Zukunftstauglichkeit.
Da gebe ich Dir Recht, da wäre -sofern möglich- noch etwas Warten angesagt, wie gut BD und seine Auslegung (Plattform) wird.
Allerdings (und da komme ich zurück auf das, was man reell spürt, nicht auf das, was man benötigt um Angeben zu können) halte ich AMD auf Grund der Preisleistung nicht völlig unkaufbar.
IntelUser, neue CPU aber auch neues Brett, stört den überzeugten IntelPowerUser nicht, da er ohnehin dann laange mit dem setup (powerüberschuß ;D) auskommen kann
Wofür den Powerüberschuss, wenn er ihn nie benötigt (Benchmarks außen vor). Du hast noch nicht verraten, wofür Du diesen Powerüberschuss benötigst. Und wie lange Deine Bretter im Schnitt eingebaut sind.
AMDUser, der Sparfuchs oder auch Hartz IV Gamer überlegt sich, ob er aufrüstet, wenn er sein board mitnehmen kann, freut er sich natürlich um so mehr ;D und amd hält so einen kunden, den Intel nicht verloren hätte ;)
Ich finde es ja gut, wenn auch für die sozial schwächeren Optionen zum Kauf gibt. Aber dass Du intel gerne das Geld schenkst, lässt mir den Verdacht aufkommen, dass Du davon profitierst. Wo landen denn die alten mainboards?
So richtig Argumente (außer mehr oder wenig versteckter Überheblichkeit der "inteluser" vers. "amd-hartz IV-User") fand ich bei Deine Aussagen bisher noch nicht. Was bringt die Mehrpower bei den meisten wirklich?
Menace
2010-04-29, 22:44:18
polemischen dünnpfiff
Ich finde solche Äußerungen immer recht gut, da sie die Argumentationskette derjenigen Personen unterstreicht (oder soll ich sagen relativiert)?
Für eine Architektur, die am Ende ist, arbeite ich aber noch ganz gut damit. Für welche Aufgaben nutzt Du eigentlich Deine CPU(s)? Ach, ich nutze noch BOINC, ohne allerdings auf highscores aus zu sein.
Boinc auf einer AMD-CPU ist mit unter das dümmste was mach tunen kann, es gibt nicht mal 2 Projekte wo eine AMD-CPU nur einen Hauch schneller als eine Intel-CPU ist. Und ernergie-technisch wollen wir mal gar nicht reden, da sieht es noch düster aus [credits/Watt].
Für welchen Preis? Ich verdiene immer noch mit meinem X4 mein Geld. Wenn wir ehrlich sind, ist bis auf Filme rendern doch meist ein X4 gelangweilt. Ich spende die meiste Rechenzeit für WCG. Ansonsten wäre X6 nett, für etwas rendern und für RAW-Konvertierungen. Und beides schafft AMD doch hervorragend. Wer allerdings in 800x600 spielt (ganz ehrlich, solche Tests sind nicht wirklich seriös), der soll ruhig ein intel kaufen, da er die fps-Unterschiede bestimmt bemerkt. ;)
Och ein i7 920 und X58 Board kam vor 1 1/2 Jahren nicht mehr als ein heutiges AM3 Board + Thuban
Blablubb sagt mir jetzt als Argument nicht sooo viel. Sprach ich von einem AM2? Trotzdem hat AM2 (sofern von Mainboardherstellern unterstützt) gute Dienste geleistet (http://www.planet3dnow.de/vbulletin/showthread.php?t=324688).
Tja eben, ich kann auch auf einem Sockel 775 die CPU 3 mal wechsel, oder beim Sockel 1156 von DualCore+HT auf Quad und dann auch Quad+HT wechseln, sagt aber rein garnix aus. Zumindest nicht mehr als das was du ursprünglich gesagt hast. ;)
Matrix316
2010-04-29, 22:53:20
Wenn man bedenkt, dass eine 290 Euro CPU in Spielen oft langsamer ist, als eine 160 Euro CPU... und damit mein ich i5 750 aber auch den X4 965...
puntarenas
2010-04-29, 22:55:19
Allerdings (und da komme ich zurück auf das, was man reell spürt, nicht auf das, was man benötigt um Angeben zu können) halte ich AMD auf Grund der Preisleistung nicht völlig unkaufbar.
Ich kann mir auch nicht vorstellen, dass sich ein halbwegs vernünftiger Mensch zu einer derart absoluten und verkürzten Aussage hinreißen lassen würde. Erstens ist der Performanceunterschied im Grenzbereich überschaubar und zweitens spielen noch eine ganze Reihe anderer Faktoren eine Rolle.
Wofür den Powerüberschuss, wenn er ihn nie benötigt (Benchmarks außen vor). Du hast noch nicht verraten, wofür Du diesen Powerüberschuss benötigst.
Ich habe ein ganz konkretes Beispiel. Ich würde gern nochmal Gothic3 spielen und das Ding braucht maximale Single-Thread-Leistung. Mit einem Phenom II käme ich nicht weit genug über die Leistungsfähigkeit meines damaligen Core2Duo@3,2Ghz hinaus, mit einem Core i5 würde es mich dagegen in den Fingern jucken, der könnte ausreichend flott sein.
Solche Situationen, in denen brachiale Single-Thread-Leistung gefragt ist, wird es meiner Meinung nach im Spielebereich auch in Zukunft immer wieder geben. Selbst wenn Spiele zunehmend parallelisiert werden sollten, ich bin sicher "der eine, alles limitierende Thread vieler Spiele" wird dafür sorgen, dass Prozessoren mit dem höchten Single-Thread-Potential (also Leistung/Mhz * Taktpotential) noch lange Zeit für Spieler allererste Wahl sein werden, ausreichende Kernanzahl vorausgesetzt.
Undertaker
2010-04-29, 23:37:21
Immerhin kommen bald Quad-Phenoms bei AMD in die Notebooks und das in 25 & 35 & 45 Watt-Bereichen und nicht so wie Intel in 45 & 55 Watt-Bereichen.
Da wird es interessant, um wie viel schneller dann ein 1,73 Ghz-Intel-Quad dann gegen einen 2,3 Ghz-AMD-Quad ist, die beide 45Watt-TDP haben.
Das ist ein ziemlicher Äpfel-Birnen Vergleich, da die Performance auf vollkommen anderem Niveau liegt und die TDP verschiedene Komponenten umfasst. Ein Beispiel:
Ein i7 620M (35W TDP) taktet selbst bei Vollauslastung mit Prime bei etwa 3,06GHz, entspricht damit praktisch exakt einem i3 540 auf dem Desktop - Singlethread sogar noch mehr, da dort bis 3,33GHz.
Ein kommender Danube Phenom II X4 ist eigentlich nur ein Athlon II, da ohne L3 Cache - bei 2,3GHz somit ~22% langsamer als ein X4 630, der wiederum etwa dem i3 540 entspricht.
Die TDP eines X4 umfasst dabei nur den Kern samt IMC, bei Clarkdale ist zusätzlich noch eine IGP und der PCIe-Controller enthalten.
Ein i7 820QM (45W) umfasst zwar nur noch den PCIe-Controller zusätzlich, ist aber auch nochmal ein gutes Stück schneller als der i7 620M - und durch die breitere TDP-Basis wohl immernoch sparsamer als der X4.
Gut für uns alle ist die kommende AMD-Mobilplattform nichtsdestotrotz, zumindest die Preise der kleinen Arrandales geraten damit hoffentlich unter Druck. :)
Menace
2010-04-30, 07:01:14
Ich habe ein ganz konkretes Beispiel. Ich würde gern nochmal Gothic3 spielen und das Ding braucht maximale Single-Thread-Leistung. Mit einem Phenom II käme ich nicht weit genug über die Leistungsfähigkeit meines damaligen Core2Duo@3,2Ghz hinaus, mit einem Core i5 würde es mich dagegen in den Fingern jucken, der könnte ausreichend flott sein.
Solche Situationen, in denen brachiale Single-Thread-Leistung gefragt ist, wird es meiner Meinung nach im Spielebereich auch in Zukunft immer wieder geben.
Für Deine Prioritäten ist das durchaus ein Argument. Es wurden im Spielebereich ja auch bei AMD lange Zeit die schnellen Dual-Cores vor dem Phenom leistungsmäßig bevorzugt. Dafür nutze ich jetzt wiederum Spiele zu wenig, als das ausschlaggebend wäre, da zwar wenige, aber für mich wichtige Software, doch jeden Kern nutzt.
Edit: Meine Frage, wofür man den CPU nutzt war auch eher an den/die Gast/Gäste gerichtet, die meinten, die Architektur von AMD wäre zu Ende, also die intel-Poweruser.
Ein i7 ist in 99,9 % aller Spiele überlegen @ 800 x 600. In der Auflösung, ohne GPU-Limit, sogar deutlich, teilweise 50 % und mehr. Beweise:
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/24/#abschnitt_company_of_heroes
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/25/#abschnitt_crysis
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/26/#abschnitt_far_cry_2
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/27/#abschnitt_world_in_conflict
leider kippt das bild in hohen auflösungen
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/19/#abschnitt_far_cry_2
und der i7 wird immer langsamer, je höher die auflösung, der phenom nicht :D
Könnte gnädigerweise jemand diesen humanoiden Intel-Spambot löschen? Besten Dank.
Gehört zwar nur indirekt hier hinein, aber dennoch setze ich es hier rein: Beim Zosma steht nun Q3. Ab wann beginnt bei AMD Q3? Und wann kommt der 95Watt 955BE?
Könnte gnädigerweise jemand diesen humanoiden Intel-Spambot löschen? Besten Dank.
Gehört zwar nur indirekt hier hinein, aber dennoch setze ich es hier rein: Beim Zosma steht nun Q3. Ab wann beginnt bei AMD Q3? Und wann kommt der 95Watt 955BE?
juli beginnt q3
vorallem muss man bedenken: in späteren spielen steigt auch insbesondere die anforderung an die GPU leistung tendenziell stärker als die anforderung an die CPU leistung. :wink:
ich glaube hier liegt dein Denkfehler
anders als bei der GPU rüstet man im allgemeinen die CPU+Plattform weit seltener auf
ich sehe mich da jetzt nicht als sonderfall meine letzte CPU (A64 X2 3800+) durchlebte folgene GPU wechsel:
- X800GTO
- X1950pro
- X1900XT
- HD3850
- 8800GT
und ich denke mal es ist offensichtlich das in neueren Spielen sich die Anfangs durchaus einigermassen potente CPU dann irgendwann als lahme Ente rausgestellt
hätte man da Anfangs mit einem core2duo E6600 der X800GTO und damaligen Spielen verglichen dann ergäbe sich anfangs, anders als zum Ableben des X2 3800+ mit 88GT und Spielen aus dem jahr 2009, keine unterschiede
ich wage schlicht einfach mal zu prophezeihen das sich die CPUs auf dauer AUCH in spielen so einordnen werden wie sie es in Cinebench tun...denn letztlich kommt es nur auf die rohleistung an und auf dauer wird die schon ausgenutzt werden auch wenn es heute in spielen noch nicht wirklich deutlich wird! :)
nochmal: das wars auch früher schon nicht
http://666kb.com/i/bisuk7h20kdlez43h.gif
hätte gern auch noch spätere Werte genommen, nur da war der "echte" P4 dann leider nicht mehr von der Partie :(
ich finde es auch ziemlich "lustig" das du heutigen spielen in nicht GPU limitierten szenen eine Aussagekraft auf künftige Spiele abspricht aber einen Raytracer als Indikator hervorragend geeignet siehst ;D welcher nun mit der Materie absolut garnix am Hut hat
leider kippt das bild in hohen auflösungen
http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/19/#abschnitt_far_cry_2
und der i7 wird immer langsamer, je höher die auflösung, der phenom nicht :D
http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/30/#abschnitt_far_cry_2
Komisch, das aktuelle Topmodell erreicht doch nichtmal die Leistung des 2,5 Jahre alten Penryn in einer mittleren Ausbaustufe. :D
http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/30/#abschnitt_far_cry_2
Komisch, das aktuelle Topmodell erreicht doch nicht einmal mal die Leistung des 2,5 Jahre alten Penryn der mittleren Ausbaustufe. :D
http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/20/#abschnitt_anno_1404
Komisch, das 4x billigere Topmodell übertrumpft den stromsaufenden Saurier.
Na ja, ein jeder amüsiert sich auf seine (einfältige) Weise.
http://www.behardware.com/articles/789-10/amd-phenom-ii-x6-1090t-1055t.html
Komisch, wenn es richtig fordernd wird, brechen die X2-X6 komplett weg. Bei einem Bruchteil des Verbrauchs.
http://www.behardware.com/articles/789-10/amd-phenom-ii-x6-1090t-1055t.html
Komisch, wenn es richtig fordernd wird, brechen die X2-X6 komplett weg. Bei einem Bruchteil des Verbrauchs.
komisch du hast noch nicht geraffelt, dass wir nicht über sinnlose 800er benches reden sondern 1680 aufwärts :D
Solche Situationen, in denen brachiale Single-Thread-Leistung gefragt ist, wird es meiner Meinung nach im Spielebereich auch in Zukunft immer wieder geben. Selbst wenn Spiele zunehmend parallelisiert werden sollten, ich bin sicher "der eine, alles limitierende Thread vieler Spiele" wird dafür sorgen, dass Prozessoren mit dem höchten Single-Thread-Potential (also Leistung/Mhz * Taktpotential) noch lange Zeit für Spieler allererste Wahl sein werden, ausreichende Kernanzahl vorausgesetzt.
Glaub ich eher nicht, denn wenn ein single-thread zerpflückt wird, dann werden die ganzen Codeteile eben auch gleichmäßiger verteilt. Das entspannt das Ganze ungemein. Der langsamste Thread limitiert natürlich nachwievor, aber verglichen mit nem einzelnen Thread sind das dann Peanuts.
Wer recht hat wird die Zukunft zeigen. Bin dabei gespannt, wieviel Spielethreads für die CPU übrig bleiben, wenn alles was auf GPUs laufen kann dorthin ausgelagert wurde.
Ciao
Alex
puntarenas
2010-04-30, 13:14:56
Wer recht hat wird die Zukunft zeigen. Bin dabei gespannt, wieviel Spielethreads für die CPU übrig bleiben, wenn alles was auf GPUs laufen kann dorthin ausgelagert wurde.
Meine Glaskugel ist ja auch nur ein Einsteigermodell und für qualifiziertes Kaffeesatzlesen fehlt mir die Expertise, aber selbst wenn entspannte Zeiten für einzelne CPU-Kerne anbrechen sollten, dann reden wir bei dieser extremen Entspannung durch gleichmäßige Arbeitsverteilung über viele Threads und Verlagerung von zunehmend mehr Berechnungen auf die GPU meiner Meinung nach nicht von Zeiträumen, die heutige Prozessoren noch erleben werden.
Im Umfeld von AMDs Fusion wird ja auch schon gern orakelt, dass AMD die relative IPC-Schwäche ganz einfach durch GPGPU-Computing auf der integrierten Grafikeinheit überkompensieren wird. Das wäre dann bereits nächstes Jahr, ich glaube kaum, dass die Spieleentwickler so schnell mitziehen können oder wollen, selbst wenn derartiges möglich sein sollte und eine industrieweite API unumstritten wäre.
Meine Glaskugel ist ja auch nur ein Einsteigermodell und für qualifiziertes Kaffeesatzlesen fehlt mir die Expertise, aber selbst wenn entspannte Zeiten für einzelne CPU-Kerne anbrechen sollten, dann reden wir bei dieser extremen Entspannung durch gleichmäßige Arbeitsverteilung über viele Threads und Verlagerung von zunehmend mehr Berechnungen auf die GPU meiner Meinung nach nicht von Zeiträumen, die heutige Prozessoren noch erleben werden.
Was meinstest Du dann hier mit Zukunft ?
nach im Spielebereich auch in Zukunft immer wieder geben.
Wenn Du nur die nächsten 1-2 Jahre meinst, ok ... aber das würde ich dann nicht Zukunft nennen ;-)
Undertaker
2010-04-30, 13:35:59
Meine Glaskugel ist ja auch nur ein Einsteigermodell und für qualifiziertes Kaffeesatzlesen fehlt mir die Expertise, aber selbst wenn entspannte Zeiten für einzelne CPU-Kerne anbrechen sollten, dann reden wir bei dieser extremen Entspannung durch gleichmäßige Arbeitsverteilung über viele Threads und Verlagerung von zunehmend mehr Berechnungen auf die GPU meiner Meinung nach nicht von Zeiträumen, die heutige Prozessoren noch erleben werden.
Das sowieso. ;) Aber selbst wenn mehr Anteile auf die GPU wandern sollten - was sich aus technischen Gründen in Grenzen halten dürfte, wirklich gut parallelisieren lassen sich eben nur Dinge wie Physik - wird die zur Verfügung stehende CPU-Leistung, welche auch mit jeder weiteren Generation weiter anwachsen wird, eben anderweitig verpulvert. ;) Ich glaube nicht, dass wir in naher Zukunft noch einmal eine ähnliche langlebige Generation wie den Core 2 Duo erleben werden.
komisch du hast noch nicht geraffelt, dass wir nicht über sinnlose 800er benches reden sondern 1680 aufwärts :D
Hmm, keine CPU kann aber mit steigender Auflösung schneller werden - was in 800x600 zu langsam ist, wird es auch in jedem anderen Setting darüber sein. ;)
puntarenas
2010-04-30, 13:38:38
Was meinstest Du dann hier mit Zukunft ?
Naja, es macht jetzt wenig Sinn darüber zu streiten, ob die Zukunft in zwei oder in vier Jahren beginnt und danach ist der PC als Spieleplattform sowieso tot, das wird ja auch regelmäßig für die Zukunft vorausgesagt. :smile:
Ich kann mir schon vorstellen, dass irgendwann kein einzelner Thread mehr in einem Spiel limitierend wirkt, weil die einzelnen Kerne einfach genug Leistungspotential haben und/oder die Aufgaben auf viele Threads über die Multicore-CPU und die GPU aufgeteilt wurden. Ich kann mir aber auch das genaue Gegenteil vorstellen und ich - rein aus meiner trüben Glaskugel gelesen - sehe für die nächsten Jahre immer noch den limitierenden, einen Thread vor mir, der möglichst schnell abgearbeitet werden muss und dem man dann auch nicht durch noch so viele zusätzliche Kerne oder GPGPU auf die Sprünge helfen kann.
Das wiederum betrachte ich als kleine Einschränkung, wenn es darum geht über die Zukunftstauglichkeit des Phenom II X6 in kommenden Spielen zu spekulieren. Ich denke, er wird lange Zeit nur sehr selten besser abschneiden als ein Core i5/i7, in vielen Fällen aber schlechter.
Ich glaube nicht, dass wir in naher Zukunft noch einmal eine ähnliche langlebige Generation wie den Core 2 Duo erleben werden.
Interessant, ich habe eher das Gefühl, die Entwicklung wird in absehbarer Zeit keine so großen Sprünge mehr machen und die Plattformen daher allesamt relativ langlebig bleiben.
Tick-Tock-Tick-Tock immer mal 15%-20% Leistungszuwachs und schrittchenweise die Kernanzahl erhöht, aber da wir für Spiele nicht im gleichen Atemzug davon profitieren, kann man sich das Aufrüsten eine ganze Zeit lang schenken, wieder 2-3 Jahre halte ich für ein heute gekauftes Core i5/i7 System für realistisch.
Undertaker
2010-04-30, 13:49:09
Ich kann mir schon vorstellen, dass irgendwann kein einzelner Thread mehr in einem Spiel limitierend wirkt, weil die einzelnen Kerne einfach genug Leistungspotential haben und/oder die Aufgaben auf viele Threads über die Multicore-CPU und die GPU aufgeteilt wurden.
Möglich wäre allerdings auch der genau entgegengesetzte Trend: Wenn die realistisch mögliche Parallelisierung des auf einer CPU sinnvollen Workloads erreicht ist - mit Physik allein fallen da schon einige Threads weg - wird der Fokus noch stärker auf die pro-Thread Leistung rutschen... Schwer vorauszusagen, wo da eine realistische Grenze liegt.
Hmm, keine CPU kann aber mit steigender Auflösung schneller werden - was in 800x600 zu langsam ist, wird es auch in jedem anderen Setting darüber sein. ;)
aber mit steigerdender auflösung überproportional langsamer, so wie der i7 ;)
puntarenas
2010-04-30, 13:52:57
Möglich wäre allerdings auch der genau entgegengesetzte Trend: [...] wird der Fokus noch stärker auf die pro-Thread Leistung rutschen... Schwer vorauszusagen, wo da eine realistische Grenze liegt.
Murphy sagt, so wird es kommen. Die Pro-Threadleistung einer CPU zu erhöhen ist bestimmt schwieriger, als sie um zusätzliche Kerne zu verbreitern und gleichzeitig werden die Softwareentwickler weiter an Performancegräbern mit überproportional fordernden Einzelthreads basteln. :biggrin:
aber mit steigerdender auflösung überproportional langsamer, so wie der i7 ;)
Glaube ich erst, wenn ich es sehe. Bis dahin gehe ich davon aus, dass Core i5/i7 nicht mit zunehmender Auflösung überproportional verlieren, sondern dass sie ausschließlich im GPU-Limit ein paar FPS weniger liefern.
GPU-Limit:
http://www.abload.de/img/vu-a676q88.jpg (http://www.abload.de/image.php?img=vu-a676q88.jpg)
Naja, es macht jetzt wenig Sinn darüber zu streiten, ob die Zukunft in zwei oder in vier Jahren beginnt und danach ist der PC als Spieleplattform sowieso tot, das wird ja auch regelmäßig für die Zukunft vorausgesagt. :smile:
Ja passt dann schon, war dann nur ein Mißverständnis. Ich versteh unter Zukunft immer langfristiges, irgendwas in 10 Jahren, wenn Du nur die nächsten paar Jahre meinst ... ja da wird single-thread sicherlich noch ne gewisse Wichtigkeit haben.
Interessant, ich habe eher das Gefühl, die Entwicklung wird in absehbarer Zeit keine so großen Sprünge mehr machen und die Plattformen daher allesamt relativ langlebig bleiben.
Jupp so schauts aus. Hab gerade erst ein PDF vom S.Naffziger über zukünftige Chips gelesen. Da beschreibt er, dass einfach alles ausgereizt ist. Takt, Transitor, Spannung, sogar der Prozess. Den Leuten gehen die Tricks aus. Intel hat IMCs übernommen, AMD rüstet dafür Bulldozer mit CMP+JMP Fusion ala C2D aus und übernimmt eventuell hochgetaktete Pipelines nach P4 Art. Alles alter Wein in neuen Schläuchen. Bin mal gespannt was Sandy Bridge ausser AVX großes Neues bieten soll ... wird ja angeblich ein "Riesen" Ticktock Schritt.
Als nächsten großen Schritt gibt der AMDler Naffziger übrigens Fusion bzw. noch mehr Integration aus ... naja war ja klar ;-)
ciao
Alex
Fetter Fettsack
2010-04-30, 14:32:22
Ich hab das was von einem i7-980X gehört ;D
Reine Propaganda, mit OC ist der uneinholbar für sein Intelpedant :ulol:
Er ist auch ohne SMT schneller ;D
Weiß da jemand schon wieder mehr als andere oder weiß ich wieder einmal zu wenig? ;D
Kann mir eigentlich irgendwer freundlicherweise den ungefähren technischen Grund erklären, warum die Intel CPUs bei weniger Takt die gleiche oder gar mehr Leistung als die AMD CPUs bringen?
EDIT: Ich finde das insofern sonderbar, da ja die beiden Unternehmen Patantaustauschabkommen haben, welche ja einen Technologietransfer (in gewissem Maße) ermöglichen sollten.
Glaube ich erst, wenn ich es sehe. Bis dahin gehe ich davon aus, dass Core i5/i7 nicht mit zunehmender Auflösung überproportional verlieren, sondern dass sie ausschließlich im GPU-Limit ein paar FPS weniger liefern.
und warum liegen in 800er auflösung die PII machmal 30% hinter dem i7, ab 1680 dann plötzlich 10% davor?
und warum liegen in 800er auflösung die PII machmal 30% hinter dem i7, ab 1680 dann plötzlich 10% davor?
Der i7 langweilt sich in den GPU-limitierten Auflösungen so sehr, dass er ein kleines Nickerchen nebenbei hält. ;D
EDIT: Ich finde das insofern sonderbar, da ja die beiden Unternehmen Patantaustauschabkommen haben, welche ja einen Technologietransfer (in gewissem Maße) ermöglichen sollten.
Gegenfrage::Kannst Du fließend Französisch, nur weil Du ein Regal voller Französisch Bücher hast ?
Patente allein nützen nichts, die muss man auch beherrschen. Sowas dauert, siehe z.B. µOp Fusion.
puntarenas
2010-04-30, 15:03:17
und warum liegen in 800er auflösung die PII machmal 30% hinter dem i7, ab 1680 dann plötzlich 10% davor?
Ich habe keine Ahnung, auf was du dich jetzt konkret beziehst und habe auch keine Lust, mir aus den zahllosen Gastbeiträgen was Passendes rauszusuchen. Wahrscheinlich geht es dir um irgendwas bei Computerbase, ist aber auch egal.
Du kannst vernünftigerweise nur solange mit Relationen jonglieren, wie die Messungen wenigstens weitestgehend eine Aussage über die Leistungsfähigkeit der einzelnen CPUs erlauben. Oben habe ich ein Bild zum GPU-Limit gepostet, sobald die Benchmarszenen zunehmend von der Grafikkarte limitiert werden, schieben sich die Messergebnisse zusammen und Aussagen über Verhältnisse zwischen verschiedenen CPUs werden in gleichem Maße unpräziser. Die CPUs rücken scheinbar näher zusammen.
Den Höhepunkt des Ganzen erlebt man dann, wenn eine Szene (fast) vollständig GPU-limitiert ist. Dort kannst du seriöserweise überhaupt keine Relationen mehr ablesen, du kannst nur noch die absoluten Werte zur Kenntnis nehmen. Machst du es trotzdem und liegen die FPS dabei im unteren zweisteligen Bereich, dann erscheinen einstellige FPS-Unterschiede schonmal wie bemerkenswerte zweistellige prozentuale Verschiebungen im Testfeld. Random Bullshitting Deluxe! =)
Disclaimer: Weil wir die Deabtte auch schon hatten und um vorzubeugen: Die CPUs rücken in der gebenchten, GPU-limitierten Szene genau genommen natürlich nicht nur scheinbar, sondern tatsächlich zusammen, sie idlen halt unterschiedlich viel dabei. Darauf wollte ich aber natürlich nicht hinaus, die Realtionen der Leistungspotentiale in Spielen verschieben sich nur scheinbar, das ist mein Punkt.
aylano
2010-04-30, 15:52:33
Jau Intel != AMD, gut erkannt, aber warum bist du der Meinung das die Architektur nicht schlecht ist, wenn man a) mehr transistoren braucht und b) mehr Fläche (beide in 4nm) benötigt. Ergo ist die Architektur schlechter. Das wie schlecht läßt sich natürlich nicht so leicht sagen.
Entscheidend ist die core-fläche und da ist der K10.5 in 45nm deutlich kleiner als Nehalem. (Und AFAIK ist die Transistor-Menge in ählichen Außmaß kleiner.)
Und wenn man ignoeriert, dass eben High-K & Co - Technologie eben zu Spannungsenkungen führen, was eben zu niedrigen Stromverbrauch führt, dann ...
Jau das hört man schon lange, so ähnliches gabs auch zu core2/X2 zeiten. man hat immer auf das von morgen gehoft und das der kongurent stehen bleibt. doch wie so oft kommt es erstens anders und zweitens als DU denkst ;D
http://www.acer-ee.com/acer/product.do;jsessionid=22E01E1CC736307870AFB7987FA92076.public_a_us004?LanguageIS OCtxParam=en&rcond5e.c2att92=74&inu49e.current.c2att92=74&link=ln314e&CountryISOCtxParam=EE&kcond47e.c2att92=74&rcond159e.att21k=1&kcond48e.c2att101=78827&rcond190e.att21k=1&acond23=EE&rcond4e.att21k=1&sp=page17e&rcond157e.c2att92=74&var9e=793&ctx1g.c2att92=74&rcond42e.att21k=1&kcond50e.c2att92=74&rcond45e.att21k=1&rcond158e.c2att1=6&ctx2.c2att1=6&inu53e.current.c2att92=74&rcond38e.c2att1=6&var13e=EE&rcond44e.c2att1=6&rcond186e.c2att92=74&rcond3e.c2att1=6&rcond28e.attN2B2F2EEF=3265&rcond189e.c2att1=6&ctx1.att21k=1&CRC=3656103098
AMD Phenom™ II quad-core mobile processor N930 (2 MB L2 cache, 2 GHz, 1333 MHz FSB, 35 W)
AMD Phenom™ II quad-core mobile processor P920 (2 MB L2 cache, 1.60 GHz, 1066 MHz FSB, 25 W)
AMD Phenom™ II dual-core mobile processor N620 (2 MB L2 cache, 2.80 GHz, 1333 MHz FSB, 35 W)
lol, du redest dir ein das vermutlich etwas von morgen vermeindlich gut wird, zumindest etwas aufholt und siehst es dann als beweis das die architektur gar nicht mal so schlecht ist. junge, wie arm ist das, kein funken an beweis, keine messbaren zahlen, nur zukunftsvisionen, aber der meinung sein es ist gut, weil es irgendwann mal gut sein wird ;D knaller!
Tja, wenn man in der Vergangenheit nicht sah, was High-K & Co brachte, verstehe ich, wenn du das nicht siehst.
Aber es war ja auch nicht beim GT300 anders. Manche sehen es erst, wenn die Produkte komme und die Balken es zeigen.
Komisch, Intel verdient scheinbar gut und die aktuellen Zahlen zu den Prozessoranteilen belegen das Intel mehr am Markt zugelegt hat als AMD.
Wennst den Text nochmal liest, verstehst ihn vielleicht.
AMD überraschte mit den Produkten, die eben noch keine Auswirkungen auf das erste Quartal haben, weil surprise surprise, sie erst am ende des 1Q vorstellten.
Und zweitens muss AMD in erster Linie Geld verdienen.
Nix da mit "AMD => Fail 2010 , next year another try" Ganz im Gegenteil. Sie können vielleicht sogar jedes Quartal Gewinn machen, was vorher ganz anders war.
Der richtige AMD-Angriff kommt sowieso erst 2011.
Und da wird der K10.5 in Fusion garnicht so schlecht aussehen, weil der Sandy-Brige-Core eben fast doppelt so groß wird wie der K10.5-Core.
Hoffentlich ist der Markt dann mal fair. Aber wer die Vergangenheit mitverfolgt hat, weiß, dass es sehr lange braucht, bis da AMD aufholt, wenn wenn wenn sie eine super CPU haben.
Das ist ein ziemlicher Äpfel-Birnen Vergleich, da die Performance auf vollkommen anderem Niveau liegt und die TDP verschiedene Komponenten umfasst. Ein Beispiel:
Mein Vergleich war weniger Apfel-Birnen als deiner.
Ich habe Quad- gegen Quad in 45nm verglichen.
Ich gehe davon aus, dass der Intel-1,7 Ghz-Quad schneller ist als AMDs-Quad ebenfalls in 45nm.
Es wäre schlimm für Intel, wenn da AMD jetzt ohne High-K ohne Low-K und mit alter Architektur schon auf Augenhöhe wäre.
Die TDP eines X4 umfasst dabei nur den Kern samt IMC, bei Clarkdale ist zusätzlich noch eine IGP und der PCIe-Controller enthalten.
Der Clarkdale hat keine iGPU.
Jetzt hat mal AMD nicht den Nachteil von IMC sondern einen Vorteil wegen dem PCIe-Controller.
Undertaker
2010-04-30, 15:53:07
aber mit steigerdender auflösung überproportional langsamer, so wie der i7 ;)
Worauf willst du da hinaus? Im aktuellsten CB-Rating in 1680x1050 liegen z.B. i5 750 und X4 965BE absolut gleichauf - in 800x600 ist der i5 noch ~15% schneller.
Natürlich wird der i5/i7 mit steigender Auflösung prozentual weiter einbrechen, da er in CPU-limitierten Szenarien klar schneller ist - so wie ein Porsche von der Autobahn zum Stadtverkehr auch mehr Geschwindigkeit verliert als ein Golf (Autovergleiche sind was tolles...). ;)
Der Clarkdale hat keine iGPU.
Oh doch. Genau wie Arrandale.
Entscheidend ist die core-fläche und da ist der K10.5 in 45nm deutlich kleiner als Nehalem.
Die Coregröße ist völlig egal, wenn du nicht zwei CPUs mit gleichem Cachebedarf vergleichst. Den kleinsten Kern dürfte mit Abstand der Core 2 haben, der brauchte aber eben auch Tonnen an Cache. ;) Zahlen muss der Hersteller so oder so für die gesamte Diefläche, egal was sich darauf befindet.
Mein Vergleich war weniger Apfel-Birnen als deiner.
Ich habe Quad- gegen Quad in 45nm verglichen.
Dann kann man also auch einen E3200 gegen einen E8600 vergleichen, weil beide 45nm und Dualcores?
Entscheidend ist einzig und allein die Leistungsklasse (und die daraus resultierende Preisklasse), völlig egal ob eine CPU dafür 1,2, oder 4 Kerne, oder aber 1, 2 oder 4 GHz braucht.
aylano
2010-04-30, 16:09:34
Oh doch. Genau wie Arrandale.
http://www.pcmasters.de/fileadmin/news/intel/Intel-Calpella-Roadmap.jpg
Und da steht bei Clarksfield eben nichts von iGPU und bei Allendale wird es betont.
oder
http://www.golem.de/0909/70027.html
Die Geräte werden alle mit einem diskreten Grafikprozessor versehen sein, denn als Chipsatz gibt es nur den PM55 von Intel, der aus einem Baustein besteht und keine Grafiklogik enthält.
Die Coregröße ist völlig egal, ohne das du zwei CPUs mit gleichem Cachebedarf vergleichst.
Wenn man auch den Stromverbrauch berücksichtig, dann ist die Coregröße mit dementsprechende Transistoren wichtig, da dort die ganzen Stromhungrigen Transistoren sitzen. Vorallem, wenn die Spannung bei den einem deutlich niedriger ist.
Wenn man nur die Diefläche betrachtet, dann ist natürlich auch der Rest interessant.
Dann kann man also auch einen E3200 gegen einen E8600 vergleichen, weil beide 45nm und Dualcores?
Entscheidend ist einzig und allein die Leistungsklasse (und die daraus resultierende Preisklasse), völlig egal ob eine CPU dafür 1,2, oder 4 Kerne, oder aber 1, 2 oder 4 GHz braucht.
Was ist daran so schwer zu verstehen, dass ich zwei Quads unterschiedlichen Hersteller und somit unterschiedlicher Architektur vergleichen hat?
Lies mal texte/Absetzte genau und nicht nur einzelne Sätze.
Hier geht es vorallem um Architektur-Vergleiche.
Viele ignorieren im Desktop die niedrige Spannung und hypen die Architektur.
Und bei AMD-Quad vs. Intel-Quad sieht man gut, dass wenn auch die Spannungen ähnlicher sind, da die K10.5-Architektur besser aussieht, als im Desktop-Vergleich.
Dass ich den K10.5 gar nicht so schlecht finde, hat eben auch den Grund, weil die Akku-Zeit bei Danube und Fusion weiter gesteigert werden, während er bei Allendale vielleicht teils sogar sank. Ja, ich habe mir da schon 20-30 Test genauer angesehen.
Und ja, der Notebook-Markt ist ein Verdammt großer Markt und wenn der K10.5 dort gut ist, und in Desktop-Markt vielleicht schon zu alt, dann hat dieser noch seine absolute Rechtfertigung.
So wie der Atom momentan seine absolute Rechtfertigung im Netbook-Markt hat.
Undertaker
2010-04-30, 16:11:58
Ich habe auch nie behauptet, dass Clarksfield eine GPU besitzt. :)
Wenn man auch den Stromverbrauch berücksichtig, dann ist die Coregröße mit dementsprechende Transistoren wichtig, da dort die ganzen Stromhungrigen Transistoren sitzen. Vorallem, wenn die Spannung bei den einem deutlich niedriger ist.
Auch das ist kein kausaler Zusammenhang. Ein kleiner Core mit wenigen Transistoren muss nicht sparsamer sein als ein anderer, größerer mit vielen Transistoren.
Was ist daran so schwer zu verstehen, dass ich zwei Quads unterschiedlichen Hersteller und somit unterschiedlicher Architektur vergleichen hat?
Kann man gerne machen, nur ist das so sinnfrei wie Thuban gegen Gulftown oder Clarkdale gegen Regor zu stellen: Wenn ich als Käufer ein Gerät erwerbe habe ich doch im Regelfall eine Preis- und Leistungsvorstellung im Blick und nicht eine Zahl von x Kernen.
Ronny145
2010-04-30, 16:14:59
http://www.acer-ee.com/acer/product.do;jsessionid=22E01E1CC736307870AFB7987FA92076.public_a_us004?LanguageIS OCtxParam=en&rcond5e.c2att92=74&inu49e.current.c2att92=74&link=ln314e&CountryISOCtxParam=EE&kcond47e.c2att92=74&rcond159e.att21k=1&kcond48e.c2att101=78827&rcond190e.att21k=1&acond23=EE&rcond4e.att21k=1&sp=page17e&rcond157e.c2att92=74&var9e=793&ctx1g.c2att92=74&rcond42e.att21k=1&kcond50e.c2att92=74&rcond45e.att21k=1&rcond158e.c2att1=6&ctx2.c2att1=6&inu53e.current.c2att92=74&rcond38e.c2att1=6&var13e=EE&rcond44e.c2att1=6&rcond186e.c2att92=74&rcond3e.c2att1=6&rcond28e.attN2B2F2EEF=3265&rcond189e.c2att1=6&ctx1.att21k=1&CRC=3656103098
AMD Phenom™ II quad-core mobile processor N930 (2 MB L2 cache, 2 GHz, 1333 MHz FSB, 35 W)
AMD Phenom™ II quad-core mobile processor P920 (2 MB L2 cache, 1.60 GHz, 1066 MHz FSB, 25 W)
AMD Phenom™ II dual-core mobile processor N620 (2 MB L2 cache, 2.80 GHz, 1333 MHz FSB, 35 W)
Davon ist noch nichts lieferbar, solange hat das keinen Wert. Ankündigen kann man immer viel.
Botcruscher
2010-04-30, 16:51:48
Streitet ihr euch jetzt wirklich wegen den lächerlichen 10% Leistung? Da fehlt ja nur noch das Cherrypicking aus dem Fermithread - nur hat der X6 nicht solchen krassen Nachteile. Das Ding ist schlicht fair eingepreist. Das wichtigste Argument gegen den X6 ist imo die fehlende Bulldozer-Unterstützung der AM3- boards. Das ist leider sehr traurig. Eine spätere Option wäre imo das Argument für den X6. So sind beides leider Aufrüstsackgassen.
aylano
2010-04-30, 16:52:47
Ich habe auch nie behauptet, dass Clarksfield eine GPU besitzt. :)
Altsheimer?
Oh doch. Genau wie Arrandale.
Davon ist noch nichts lieferbar, solange hat das keinen Wert. Ankündigen kann man immer viel.
Dann wart halt noch paar Wochen;-)
http://www.amd.com/us/press-releases/Pages/complete-platforms-2010apr26.aspx
http://blogs.amd.com/work/2010/04/23/performance-power-and-thermal-challenges/
Undertaker
2010-04-30, 16:57:53
Dass ich den K10.5 gar nicht so schlecht finde, hat eben auch den Grund, weil die Akku-Zeit bei Danube und Fusion weiter gesteigert werden, während er bei Allendale vielleicht teils sogar sank. Ja, ich habe mir da schon 20-30 Test genauer angesehen.
Arrandale. Nicht Allandale. Und das ein Arrandale bei gleicher Leistung eine kürzere Akkulaufzeit als ein Core 2 Vorgänger haben soll - also z.B. i5 540M vs. X9100 - möchte ich doch arg bezweifeln.
Altsheimer?
Oh doch. Genau wie Arrandale.
Mäßige doch bitte deinen Ton und öffne dafür deine Augen und lies, was du geschrieben hast. Du wirfst munter Codenamen durcheinander - Clarkdale und Clarksfield, Arrandale und Allandale - schreibst Unfug dazu und möchtest mir deinen Fehler unterjubeln. Ich habe nie geschrieben das Clarksfield eine GPU hat, du hast hingegen behauptet Clarkdale habe keine. Das war Blödsinn von dir, nicht mir.
Danke. :)
Btw: Den K10.5 gibts schon ne ganze Weile im Notebookmarkt, Athlon II und Turion II.
Fetter Fettsack
2010-04-30, 17:00:44
Gegenfrage::Kannst Du fließend Französisch, nur weil Du ein Regal voller Französisch Bücher hast ?
Alles klar, habe es verstanden, danke :)
Das wichtigste Argument gegen den X6 ist imo die fehlende Bulldozer-Unterstützung der AM3- boards. Das ist leider sehr traurig. Eine spätere Option wäre imo das Argument für den X6. So sind beides leider Aufrüstsackgassen.
Ähh ... hab ich was verpasst ?
Mir ist nichts dergleichen in Sachen Sackgasse bekannt.
Verwechselst Du da vielleicht etwas mit Sandy Bridge und Sockel 1155/1156 ?
Der aktuelle Stand auf dem ich bin sind die letzten Roadmaps und da steht Zambezi = AM3. Was soll da inkompatibel sein ?
@Fetter Fettsack:
Bitte.
ciao
Alex
Undertaker
2010-04-30, 17:20:07
Der aktuelle Stand auf dem ich bin sind die letzten Roadmaps und da steht Zambezi = AM3. Was soll da inkompatibel sein ?
AM3 ist auch AM2 kompatibel und trotz läuft Thuban auf kaum einem AM2 Board. ;) Die Frage wird, wie es bzgl. Spannungswandlerrichtlinien, BIOS u.ä. aussieht. Der reine Sockel sagt erstmal nur, das es nicht von vornherei inkompatibel ist. Zumindest AM2 und AM2+ sind ohne DDR3 definitiv raus. Schade z.B: für mich. :(
aylano
2010-04-30, 18:00:12
Mäßige doch bitte deinen Ton und öffne dafür deine Augen und lies, was du geschrieben hast. Du wirfst munter Codenamen durcheinander - Clarkdale und Clarksfield, Arrandale und Allandale - schreibst Unfug dazu und möchtest mir deinen Fehler unterjubeln. Ich habe nie geschrieben das Clarksfield eine GPU hat, du hast hingegen behauptet Clarkdale habe keine. Das war Blödsinn von dir, nicht mir.
Du bist echt unglaublich.
Wenn du dich in Gespräche bei anderen einmischt, dann lies und verstehe die Texte & Inhalt.
Damit ich möglichst die Kern-Architektur vergleichen kann, hatte ich ganz bewusst 45Watt- & 45nm gesprochen.
Deine Antworten gehen mir echt am Arsch (vorallem weil ich schon öfters drauf hingewiesen haben), weil du oft am Thema/Zitierten völlig vorbeigehst und du das garnicht merkst. Denn der Vergleich war eben nicht, gleich-Performante-Notebook-CPU von Intel und AMD. Und schon garnicht 32nm mit oder ohne IGPU oder iMC oder war auch immer gegen 45nm.
Sondern ich stellte bewusst gewisse Rahmenbedingungen von 45Watt- & Quad & 45nm, weil eben der Unterschied nur iPCI war.
Klar hatte ich mich jetzt mit clarkdale verschrieben, weil das Thema eben Clarksfield war und den Quad hatte ich jetzt den ganze Zeit im Kopf.
Und ich betone. Wenn ich gleich Performance-CPU vergleiche, dann sind deine Vergleich in Ordnung.
ABER !!!! wenn ich bewusst Rahmenbedingungen erwähne, dann will ich bewusst wie Core oder TDP vergleiche und eventuelle sagen: "Die Intel-Quad-Core ist im Notebok ca. 25% (=irgendwelch Zahl) schneller als die von AMD".
Arrandale. Nicht Allandale. Und das ein Arrandale bei gleicher Leistung eine kürzere Akkulaufzeit als ein Core 2 Vorgänger haben soll - also z.B. i5 540M vs. X9100 - möchte ich doch arg bezweifeln.
Dann schau dir mal tests an.
Und bitte nicht wie üblich deine Rosienen-Vergleich.
Also, keine i5 540M - 35-Watt-Massen-CPU gegen eine X9100-45watt-Extrem-Edition.
Also, 35Watt-Massen-CPUs gegen 35Watt-Massen-CPU und mehrere Test anssehen, damit man ein gefühl kriegt;-)
Und noch ein Hinweis.
Auch die Akkus-Berücksichtigen;-)
Also, keine 35Watt-Monetvina-Notebooks mit jeweils 30-40 Wh mit Westermere-35-Watt-Notebokos mit 50-60 Wh vergleichen.
Vergleiche machen nur Sinn, wenn man (möglichst) gleich Bedingungen vergleicht.
Botcruscher
2010-04-30, 18:08:37
Was soll da inkompatibel sein ?
Die Meldungen dazu reichen von läuft möglicherweise bis mit fast absoluter Sicherheit geht da nichts. Fakt ist das AM3+ kommt und AMD sich diesbezüglich nicht äußert.
Russisches Roulette mit unbekannter Anzahl Kugeln in der Trommel.
puntarenas
2010-04-30, 18:26:44
Russisches Roulette mit unbekannter Anzahl Kugeln in der Trommel.
Drastisch formuliert, aber eine gewisse Unsicherheit bleibt natürlich. Ich hätte es auch für klug befunden, wenn AMD zusammen mit den Chipsätzen der 8er-Serie gleich öffentlich bekannt gegeben hätte, dass die Mainboard Design Guide für neue Boards gleich auf Bulldozer ausgelegt wurde und die Sockel auf 8er-Boards somit dem ominösen und spekulativen AM3r2 (aka AM3+) entsprechen.
Allerdings sind die Kistenschrauber als Zielgruppe für AMD vermutlich derart uninteressant, dass man sich wegen ein paar Hardwareforumsinsassen da keine Mühen macht. Bei Intel ist es natürlich noch beser, da weiß man dass die nächste Prozessorgeneration nicht mehr aufs Board passt. :ulol:
bis mit fast absoluter Sicherheit geht da nichts.
Zeig mir bitte mal eine, mMn kann das nur unbegründetes Geschreibsel, nach dem Motto "ich glaube daran" / "Sehe in meiner Kristkallkugel, dass" ... sein.
Vorneweg - ich sag nicht, dass Zambezi 100%ig auf jedem AM3 Brett laufen wird, aber bei Dir kams so rüber als liefe es 100%ig garantiert nicht.
Was man hat sind die 3 Folien hier:
http://img.hexus.net/v2/news/amd/2011-roadmap-desktop.jpg
http://ht4u.net/news2/news_images/amd_desktop_roadmap_bis_2011.jpg
http://images.anandtech.com/reviews/cpu/amd/FAD2009/desktoproadmap.jpg
Da haben wir einmal AM3r2 und einmal AM3, ganz oben haben mir keine Angaben, aber unter Chipsätze wird da die 800er Reihe angegeben. Ich glaube kaum, dass die Mainboardhersteller so begeistert wären, wenn sie für Zambezi neue 800er Bretter basteln müßten.
Wenn Du jetzt noch weisst, dass diese kleine "r" bei Sockel-F immer nur kleine Änderungen beschreibt, dann halte ich es sehr gewagt da von einer 100%igen Sackgasse zu schreiben. Bin mir eher zu 95% sicher, dass das laufen wird - neues BIOS natürlich vorausgesetzt, aber auf die Mainboardhersteller hat AMD keinen Einfluss.
Wahrscheinlich wird man auf DDR3-1866/2166 verzichten müssen. Für solche RAM Speed Upgrades bräuchte es auch schon einen AM3r2, da die Parameter dafür festgekopft werden müssen. Für den berüchtigten 4x4 Sockel-F mit unbuffered RAM gabs z.B. auch eine extra Socket-Fr3 Version.
Auf alle Fälle ist die Sachlage besser als bei Intel, da geht definitiv nichts mit aufrüsten - das ist da bestätigt. Da kann man von Sackgasse reden. Bei der AM3 Geschichte ist das dagegen im Moment schlimmstenfalls ne Reise ins Ungewisse ;-)
Edit:
Aja, vielleicht ist AM3r2 auch nur der Name für die DDR3 only CPUs. Die aktuellen AM3 CPUs mit 938 Pins sind ja noch DDR2 / AM2+ Sockel kompatibel, der hat 940 Kontaktlöcher. Das macht bei Bulldozer wirklich keinen Sinn mehr, der wird deshalb wahrscheinlich mit den vollen 941 Pins kommen, soviel Kontakte gibts nämlich im Sockel AM3 ;-)
ciao
Alex
Botcruscher
2010-04-30, 18:50:02
Die Roadmap ist leider ohne AMDs Aussage relativ wertlos. Laut Gerüchten gibt es neben neuem Sockel auch neue Chipsätze. Die 8XX spielen dann eh keine Rolle mehr. Da AMD offiziell schweigt ist der Drops imo gelutscht. Als Pro-Argument kann man eine eventuelle Aufrüstung einfach stecken lassen. S1156 war schon tot als er rausgekommen ist. Das war aber auch bekannt.
http://www.hardwareboard.eu/threads/15998-Neuer-Sockel-AM3-zusammen-mit-AMD-990FX-und-SB950-in-2011
Die Roadmap ist leider ohne AMDs Aussage relativ wertlos. Laut Gerüchten gibt es neben neuem Sockel auch neue Chipsätze.
Hmmm ... also für mich ist eine orginal AMD Roadmap wertvoller als jedes Gerücht. Auf der AMD Roadmap steht unter chipset 8xx, das ist was Handfestes. Gerüchte dagegen ... da kann auch mal einer was falsch verstanden haben.
http://www.hardwareboard.eu/threads/15998-Neuer-Sockel-AM3-zusammen-mit-AMD-990FX-und-SB950-in-2011
Zitat:
Nach Intel plant nun auch AMD im Jahr 2011 einen neuen Sockel vorzustellen. Hierbei wird es sich wohl um den s.g. Bulldozer Sockel handeln
Da hat wohl jemand was falsch verstanden ...
Das einzige was also gesichert ist, ist das AMD 2011 einen neuen Sockel bringt. Das ist richtig, 2011 kommt der Fusion Sockel. Den "Bulldozer Sockel" reimt sich der Autor anscheinend in seiner Fantasie zusammen.
In jedem Fall stimmt das Ganze nicht mit obiger AMD Orginalroadmap vom Herbst 09 überein und mit dem Fusion Sockel gibts ne plausible Erklärung.
Abgesehen davon, selbst wenn ein Sockel AM3+ käme heißt das noch nicht, dass das Ganze inkompatibel wäre.
ciao
Alex
Undertaker
2010-04-30, 19:41:00
Klar hatte ich mich jetzt mit clarkdale verschrieben, weil das Thema eben Clarksfield war und den Quad hatte ich jetzt den ganze Zeit im Kopf.
Kein Problem, dann schlage aber bitte auch einen passenden Umgangston an, wenn der Fehler auf deiner Seite lag. Alles andere ist Kindergarten. Bitte danke.
ABER !!!! wenn ich bewusst Rahmenbedingungen erwähne, dann will ich bewusst wie Core oder TDP vergleiche und eventuelle sagen: "Die Intel-Quad-Core ist im Notebok ca. 25% (=irgendwelch Zahl) schneller als die von AMD".
Dein Ausgangspunkt war, 45/55W Clarksfield Quads gegen 25/35/45W X4 Modelle zu stellen. Nun, kannst du gerne machen. Die Frage ist aber, was du damit aussagen möchtest: Nichts objektives vermute ich, denn die CPUs spielen in völlig verschiedenen Leistungsklassen, dass entscheidende Thema - Energieffizienz - wird somit völlig verzerrt. Wenn bereits 35W Dualcoremodelle mit breiterer TDP-Basis den 45W X4 deutlich schlagen, brauchen wir über den Verbrauch der 45/55W i7 nicht weiter zu diskutieren.
Dann schau dir mal tests an.
Und bitte nicht wie üblich deine Rosienen-Vergleich.
Also, keine i5 540M - 35-Watt-Massen-CPU gegen eine X9100-45watt-Extrem-Edition.
Also, 35Watt-Massen-CPUs gegen 35Watt-Massen-CPU und mehrere Test anssehen, damit man ein gefühl kriegt;-)
Sehr schön, dann machen wir das: Was wäre ein fairer Vergleich, schlag einfach mal zwei Modelle vor. Ich würde Topmodell gegen Topmodell rechnen, i7 620M gegen T9900. Den Verbrauchsvergleich gewinnt der i7 bereits, der zusätzlich PCIe Controller, IMC und GPU in seinen 35W TDP vereint. Zur Leistung: Welche Vergleichsbasis möchtest du? Ich würde Cinebench R10 vorschlagen, mit ~9200 zu ~8300 Punkten rechnet der i7 620M etwa 10% schneller.
Fassen wir zusammen: Mehr Leistung bei weniger Verbrauch. Die Energieeffizienz sollte um etwa 25% gestiegen sein. Ich suche gleich mal noch ein paar schöne Beispiele heraus.
Edit: Die Macbooks eignen sich perfekt.
1. 2009er Modell mit T9600
2. 2010er Modell mit i7 620M
-> Beide 35W TDP Klasse. GPU einmal GT330M (höhergetaktete 240M, also >=23W TDP) und einmal 9600M GT (23W TDP), im idle jeweils iGPU Betrieb. Perfekte Voraussetzungen.
http://www.notebookcheck.com/Test-Apple-MacBook-Pro-15-inch-i7-2010-04-Notebook.29436.0.html
http://www.notebookcheck.com/Test-Apple-MacBook-Pro-15-Mid-2009-2-8-GHz.18779.0.html
Verbrauch idle: 9,4W zu 6,6W für das i7 Modell
Verbrauch load: 76,4W zu 75,5W für das i7 Modell
Leistung:Cinebench R10 Multi 6200 zu 9200 Punkte
StevenB
2010-04-30, 20:04:05
Verbrauch idle: 9,4W zu 6,6W für das i7 Modell
Verbrauch load: 76,4W zu 75,5W für das i7 Modell
Leistung:Cinebench R10 Multi 6200 zu 9200 Punkte
Kurz ne frage, was sagt eigentlich dieser Cinebench aus? Sagt das etwas über die Spieltauglichkeit aus? Oder einfach nur um die Allgemeine Performance des Systems?
Undertaker
2010-04-30, 20:09:41
Cinebench ist ein Benchmark zu Cinema 4D, also eine gut parallelisierte Renderanwendung. Sagt zu Spielen natürlich gar nichts aus, aber durch verschiedene Grafikkarten kann man da eh keine Vergleichsbenches fahren.
Was man machen kann, ist die Leistung der Desktop-Äquivalente zu interpolieren.
Laut CB z.B. ist ein 2,93GHz i3 530 19% schneller in Spielen als ein 3,0GHz E8400, taktbereinigt also ~22% schneller. Ein i7 620 taktet im Regelfall bei Last auf 2-4 Threads mit 3,06GHz, was ihn also mehr als 33% schneller in Spielen macht als den T9600 mit 2,8GHz ("mehr" deshalb, weil der T9600 im Gegensatz zum E8400 einen geringeren FSB hat, dürfte etwa 5% Leistung kosten).
StevenB
2010-04-30, 20:14:57
Cinebench ist ein Benchmark zu Cinema 4D, also eine gut parallelisierte Renderanwendung. Sagt zu Spielen natürlich gar nichts aus, aber durch verschiedene Grafikkarten kann man da eh keine Vergleichsbenches fahren.
Was man machen kann, ist die Leistung der Desktop-Äquivalente zu interpolieren.
Laut CB z.B. ist ein 2,93GHz i3 530 19% schneller in Spielen als ein 3,0GHz E8400, taktbereinigt also ~22% schneller. Ein i7 620 taktet im Regelfall bei Last auf 2-4 Threads mit 3,06GHz, was ihn also mehr als 33% schneller in Spielen macht als den T9600 mit 2,8GHz ("mehr" deshalb, weil der T9600 im Gegensatz zum E8400 einen geringeren FSB hat, dürfte etwa 5% Leistung kosten).
Aha, Danke! Und wieder etwas dazugelernt.
aylano
2010-05-01, 00:24:46
Kein Problem, dann schlage aber bitte auch einen passenden Umgangston an, wenn der Fehler auf deiner Seite lag. Alles andere ist Kindergarten. Bitte danke.
Wennst mich verarscht, habe ich einen gewissen Umgangston.
Dein Ausgangspunkt war, 45/55W Clarksfield Quads gegen 25/35/45W X4 Modelle zu stellen. Nun, kannst du gerne machen. Die Frage ist aber, was du damit aussagen möchtest: Nichts objektives vermute ich, denn die CPUs spielen in völlig verschiedenen Leistungsklassen, dass entscheidende Thema - Energieffizienz - wird somit völlig verzerrt. Wenn bereits 35W Dualcoremodelle mit breiterer TDP-Basis den 45W X4 deutlich schlagen, brauchen wir über den Verbrauch der 45/55W i7 nicht weiter zu diskutieren.
Nicht kapiert oder verarscht du mich? Ich hole den Text nochmal. Und zwar den ganzen Absatz.
Die Architektur vom Phenom II ist nicht so schlecht.
Was du anscheinend nicht weißt, ist die deutlich bessere Fertigung von Intel mit High-K & Co, während Fermi eben die selbe Problematische Fertigung hat wie der Konkurrent.
Immerhin kommen bald Quad-Phenoms bei AMD in die Notebooks und das in 25 & 35 & 45 Watt-Bereichen und nicht so wie Intel in 45 & 55 Watt-Bereichen.
Da wird es interessant, um wie viel schneller dann ein 1,73 Ghz-Intel-Quad dann gegen einen 2,3 Ghz-AMD-Quad ist, die beide 45Watt-TDP haben.
Also, so schlecht ist die Phenom-K10.5-Architektur nicht.
Das wird man dann mit Fusion-K10.5 sehen, der dann mit 32nm & High-K & Turbo-Core & Power-Gating dann ordentlich nachziehen kann.
Hier geht es um die K10.5 Architektur und nicht um aktuelle Notebook-CPU-Vergleiche!!!!!!!!!!!!!!!
Der Grund, warum ich Intel-Quad-45nm-45Watt-Nehalem mit AMD-Quad-45nm-45Watt-Danube-K10.5 verglich ist, weil ich in kürze nur damit die Architektur K10.5 & Nehalem mit "gleichen" Waffen (=45nm) im Notebook-Sekment !!!! vergleichen kann, da es eben keinen Nehalem-Dual-Core-45nm gibt.
Und daraus kann man sich IMO die Energie-Effizienz im Notebook-Bereich an besten Ausrechen.
Der AMD-Quad-1,6Ghz-25Watt wäre noch effizienter, wenn alle Cores genutzt werden, aber ich halte nichts von unfairen Rosienen-Vergleiche.
Sehr schön, dann machen wir das: Was wäre ein fairer Vergleich, schlag einfach mal zwei Modelle vor. Ich würde Topmodell gegen Topmodell rechnen, i7 620M gegen T9900. Den Verbrauchsvergleich gewinnt der i7 bereits, der zusätzlich PCIe Controller, IMC und GPU in seinen 35W TDP vereint. Zur Leistung: Welche Vergleichsbasis möchtest du? Ich würde Cinebench R10 vorschlagen, mit ~9200 zu ~8300 Punkten rechnet der i7 620M etwa 10% schneller.
Fassen wir zusammen: Mehr Leistung bei weniger Verbrauch. Die Energieeffizienz sollte um etwa 25% gestiegen sein. Ich suche gleich mal noch ein paar schöne Beispiele heraus.
Edit: Die Macbooks eignen sich perfekt.
1. 2009er Modell mit T9600
2. 2010er Modell mit i7 620M
-> Beide 35W TDP Klasse. GPU einmal GT330M (höhergetaktete 240M, also >=23W TDP) und einmal 9600M GT (23W TDP), im idle jeweils iGPU Betrieb. Perfekte Voraussetzungen.
http://www.notebookcheck.com/Test-Apple-MacBook-Pro-15-inch-i7-2010-04-Notebook.29436.0.html
http://www.notebookcheck.com/Test-Apple-MacBook-Pro-15-Mid-2009-2-8-GHz.18779.0.html
Verbrauch idle: 9,4W zu 6,6W für das i7 Modell
Verbrauch load: 76,4W zu 75,5W für das i7 Modell
Leistung:Cinebench R10 Multi 6200 zu 9200 Punkte
Eigentlich ganz guter Vergleich, obwohl ich sagte, du sollst für dich mehrere Notebooks anschauen.
Also, wenn der neue Mac Optimus hat und der alte nicht, dann ist es so wie ich es sagte.
Unter Load ist die Akku-Zeit praktisch gleich.
DVD ist i7 deutlich besser, aber das könnte eben auch am verbesserten (Dual-stream) oder andere Video Ausgabe (iGPU statt eGPU) zusammenhängen.
Wenn man sich mehrere Test ansieht, kommt man drauf, dass bei Intel-Notebooks mit IGP & Low-End GPUs die Akku-Zeit zwischen Surfen & DVD sehr ähnlich ist, während Intel-Notebooks mit Mainstream-GPUs eine deutlich geringere Akku-Zeit unter DVD als Sufen haben.
Aber wegen Optimus passt es zu den übrigen Test, wo die Surf-Akku-Zeit sehr ähnlich dem DVD-Akku-Zeit ist.
Surfen ist praktisch gleich
Idle profitiert der i7 wegen Optimus. Das hat leider nicht mit der i7 Architektur zu tun.
(Ein Tipp, eher den durschnitts-Idle-Verbrauch nehmen und nicht den einmalgemessenen minimal-Verbrauch, auch wenn er in diesem Fall den Abstand von ca. 3 Watt hat)
http://www.apple.com/at/macbookpro/features.html
Die neue energieeffiziente Architektur in jedem MacBook Pro und der automatische Grafikwechsel beim 15"- und 17" Modell erzielen eine wesentlich längere Batterielaufzeit.
Also, wie ich schon sagte. Wenn der ältere Apple eben keinen Optimus hat, wovon ich jetzt mal ausgehen da ich sowas im Jahr 2009 nicht kenne, dann ist es so wie ich es sagte.
Das Interessante:
Beide CPUs haben 35 Watt-TDP und beide haben ähnliche Akku-Zeite, obwohl der i7 ja noch iGPU & iPCI (in 45 statt 65nm) im CPU-Package hat.
Das hat mich eben etwas überrascht. Na ja, nicht ganz, weil es eben keine Massen-Dual-Nehalem-45nm-Notebook-CPUs gibt;-)!!!!!
PS: Wie ich schon sagte, wenn man mehr Tests ansieht, dann bekommt man ein besseres Gefühl.
Und ich habe nähmlich alle ix-32nm-Tests angesehen;-)
Eben weil ich bei so einer Diskusion letztes Jahr draufgekommen bin, wie gut eigentlich AMD-Turion-Notebook so sind.
n0_FX
2010-05-01, 00:26:47
Mich würde der x6 ja wirklich reizen. Hab derzeit einen e8600@4,25ghz, welcher mir aber beim HD-Videos konvertieren zu lahmarschig ist. Ich werd mir noch n paar Benchmarks zu gemüte führen und dann entscheiden, ob sich ein umstieg für mich lohnt.
Wie schauts eigentlich bei den am3-boards aus, kann man da noch mit "altem" 1000er ddr2-ram was anfangen oder muss man unbedingt auf ddr3 umsteigen? Möchte meine 8gb gern weiterhin nutzen.
Wenn DU DDR2 hast, brauchst Du ein AM2+ Brett mit X6 BIOS.
Das Problem ist dabei dann, dass ein BIOS drauf sein, muss, dass den X6 erkennt ... falls Du irgendnen Bekannten mit AM2/AM2+ CPU hast wäre das perfekt.
ciao
Alex
n0_FX
2010-05-01, 01:13:54
Leider nein, hab selbst im htpc nur nen am3-brett. werde also noch ein paar Tage abwarten, bis es genug Feedback von x6-usern gibt. Gigabyte soll ja eine recht gute x6-unterstützung angekündigt haben, hatte zumindest im Forum eine Liste mit verschiedenen boards + neuen biosen gesehen.
Leider nein, hab selbst im htpc nur nen am3-brett. werde also noch ein paar Tage abwarten, bis es genug Feedback von x6-usern gibt. Gigabyte soll ja eine recht gute x6-unterstützung angekündigt haben, hatte zumindest im Forum eine Liste mit verschiedenen boards + neuen biosen gesehen.
Ok, dann wäre die billigste Alternative AsRock plus bestellen eines frisch geflashten Bios Bausteins bei www.biosflash.com. Kostet so ~10-15 Euro extra.
Schau Dir mal das gute alte AOD790GX an:
http://gzhls.at/deutschland/a365733.html
Ist mMn besser als das Nachfolgemodell GXH. X6 Beta BIOS gibts schon.
ciao
Alex
Hier geht es um die K10.5 Architektur und nicht um aktuelle Notebook-CPU-Vergleiche!!!!!!!!!!!!!!!
Der Grund, warum ich Intel-Quad-45nm-45Watt-Nehalem mit AMD-Quad-45nm-45Watt-Danube-K10.5 verglich ist, weil ich in kürze nur damit die Architektur K10.5 & Nehalem mit "gleichen" Waffen (=45nm) im Notebook-Sekment !!!! vergleichen kann, da es eben keinen Nehalem-Dual-Core-45nm gibt.
Und daraus kann man sich IMO die Energie-Effizienz im Notebook-Bereich an besten Ausrechen.
Der AMD-Quad-1,6Ghz-25Watt wäre noch effizienter, wenn alle Cores genutzt werden, aber ich halte nichts von unfairen Rosienen-Vergleiche.
So ganz verstehe ich dich nicht?!
1. Du vergleichst 45nm Intel Desktop-Quads mit zukünftigen AMD-Mobile-Quads, obwohl es bereits aktuellere 32nm DualCore-Ht-CPUs gibt, welche es locker mit einem low-clock-AMD-Quad aufnehmen könnten. Was bingt dir das?
2. Über die reine TDP unterschiedlicher CPUs und Hersteller hinweg zu vergleichen ist mMn Käse. Warum?
1) Modellübergreifend: Kann eine CPU näher an einer TDP-Grenze sein als eine andere, aber beide fallen in die gleiche Klasse, der tatsächliche Verbrauch jedopch nicht.
2) Herstellerübergreifend: Macht ein TDP-Vergleich keinen Sinn, da die CPU nicht das gleiche Leisten.
Wenn eine CPU A mit TDP 35 Watt, realer Verbrauch 33 Watt mit CPU B TDP 35 Watt, realer Verbrauch 30Watt aber nur 75% Leistung von CPU A hat, verglichen wird dann ist die CPU A effizienter, obwohl sie mehr verbraucht.
(Die Zahlen sind aus der Lust gegriffen)
http://www.computerbase.de/news/hardware/prozessoren/amd/2010/mai/amd_phenom_ii_x6_preis/
Tja da spiegelt sich die wahre Leistungsfähigkeit wieder und der Preis passt sich an.
Blöd nur für die ganzen "Früh-Käufer", die machen bei einem Wiederverkauf extra großen Verlust, aber das ist man ja bei AMD-CPUs gewohnt ;D
puntarenas
2010-05-01, 11:21:12
http://www.computerbase.de/news/hardware/prozessoren/amd/2010/mai/amd_phenom_ii_x6_preis/
Tja da spiegelt sich die wahre Leistungsfähigkeit wieder und der Preis passt sich an.
Selbstverständlich spiegelt sich die Leistungsfähigkeit im Preis wieder, was denn sonst. Allerdings kann von einem Preisverfall IMHO noch nicht die Rede sein, dass sich die Preise bei breiter Verfügbarkeit ein wenig unter den ersten Listungen einpendeln ist doch völlig normal und ich denke, AMD selbst hat noch keine Anpassungen vorgenommen.
Interessant finde ich vielmehr die deutliche Spreizung zwischen 1055T und 1090T, hier könnte man über Ausbeute spekulieren und ob AMD das Spitzenmodell vielleicht überhaupt nicht attraktiver platzieren konnte. Spekulation bliebe es trotzdem und Einblick in AMDs Mischkalkulation haben wir auch nicht, vielleicht ist ja sogar bereits der 1055T für sich genommen ein auskömmliches Geschäft.
Blöd nur für die ganzen "Früh-Käufer", die machen bei einem Wiederverkauf extra großen Verlust, aber das ist man ja bei AMD-CPUs gewohnt ;D
Das ist man von jeder Computerhardware gewohnt und Early Adaptors verlieren dabei immer am Meisten.
Selbstverständlich spiegelt sich die Leistungsfähigkeit im Preis wieder, was denn sonst. Allerdings kann von einem Preisverfall IMHO noch nicht die Rede sein, dass sich die Preise bei breiter Verfügbarkeit ein wenig unter den ersten Listungen einpendeln ist doch völlig normal und ich denke, AMD selbst hat noch keine Anpassungen vorgenommen.
Das kapier ich allerdings auch nicht, ist schon Sommerloch ? Ist doch das Normalste der Welt, dass nach ca. 1 Woche nach Produkteinführung die Abzockerpreise bei den Händlern verschwinden ...
Dafür dann gleich ne Extra Meldung zu bringen ... :freak:
Menace
2010-05-01, 12:42:55
http://www.computerbase.de/news/hardware/prozessoren/amd/2010/mai/amd_phenom_ii_x6_preis/
Tja da spiegelt sich die wahre Leistungsfähigkeit wieder und der Preis passt sich an.
"Wahre" Leistungsfähigkeit? Im Vergleich zu was? Definiere da doch mal was der Preis mit "Wahrheit" zu tun hat. Gerne auch als mathematische Formel. :freak:
Edit: Bekomme ich eigentlich von den intel-Power-User-Gästen noch die Antwort, wofür sie ihren "Powerüberschuss" der CPU nutzen? Oder habe ich diese Überlesen.
irgendwie vermisse ich immernoch das userfeedback, kann doch nicht sein das soviele begeistert sind und keiner kauft sich ihn.
Edit: Bekomme ich eigentlich von den intel-Power-User-Gästen noch die Antwort, wofür sie ihren "Powerüberschuss" der CPU nutzen? Oder habe ich diese Überlesen.
Was nützt dir diese Information?
Undertaker
2010-05-01, 13:17:04
Ok, dann wäre die billigste Alternative AsRock plus bestellen eines frisch geflashten Bios Bausteins bei www.biosflash.com. Kostet so ~10-15 Euro extra.
Schau Dir mal das gute alte AOD790GX an:
http://gzhls.at/deutschland/a365733.html
Ist mMn besser als das Nachfolgemodell GXH. X6 Beta BIOS gibts schon.
ciao
Alex
Hab ich und würde ich keinesfalls weiterempfehlen:
1. Kein OC mit C&Q möglich
2. Extreme Spannungsschwankungen, im Bereich um 1,4V etwa 0,075V Schwankungsbreite
Desweiteren existiert momentan nur ein Beta-BIOS für den X6. Finger weg!
@aylano: Besten Dank, mit dem letzten Beitrag hast du dich disqualifiziert. Weder Umgangsformen noch Inhalt (wofür hat das 2009er MBP wohl eine 9400+9600? Selbstverständlich wird die dezidierte GPU idle deaktiviert) machen eine Fortsetzung sinnvoll oder möglich. Beleidigungen sind gemeldet.
Wie geil ;D
http://extreme.pcgameshardware.de/komplette-rechner-zusammenstellung-und-praxisprobleme/39131-hartz-4-rechner-aufbau-hilfe.html
n0_FX
2010-05-01, 13:33:17
Hab ich und würde ich keinesfalls weiterempfehlen:
1. Kein OC mit C&Q möglich
2. Extreme Spannungsschwankungen, im Bereich um 1,4V etwa 0,075V Schwankungsbreite
Desweiteren existiert momentan nur ein Beta-BIOS für den X6. Finger weg!
Danke, gut zu wissen. Ich hab gerade das Gigabyte MA790X-UD3P näher ins Auge gefasst. -> http://geizhals.at/deutschland/a437087.html
Bin auf der Suche nach Vergleichsreviews, vorallem zwischen dem 770 und 790x/fx (g bzw gx ist für mich nicht relevant, brauch keine onboard-grafik)
Das wird noch was werden mitm hexa :eek:
Menace
2010-05-01, 15:14:45
Was nützt dir diese Information?
Mein Verdacht ist, dass viele sogenannte "Poweruser" diese Power eigentlich gar nicht benötigen, da sie selten ihr CPU (nicht ihre GPU) ans Limit reizen, außer natürlich bei Benchmarks. Das relativiert die allermeisten Aussagen auf pures AMD- oder intel-Bashing. Das wiederum relativiert nämlich auch die sogenannte Preis-Leistungs-Geschichte, die abhängig ist vom eigenen Nutzungsprofil.
Eine weitere Relativierung ist die angeblich Architektur, die am Ende ist. Das hängt nämlich ebenso von der Nutzung des PCs ab. Wäre aber nur in der Lage ist, Balkenlängen zu betrachten, dem mag das alles egal sein. Ich zumindest nannte Gründe, warum für MICH der X6 durchaus eine gute Möglichkeit darstellt.
Edit: Bekomme ich eigentlich von den intel-Power-User-Gästen noch die Antwort, wofür sie ihren "Powerüberschuss" der CPU nutzen? Oder habe ich diese Überlesen.
Ich nutze sie zur PS2-Emulation (sehr sehr CPU-hungrig). Und hier mal ein Zitat eines Entwicklers des Emulators:
The instruction set itself matters very little. The fundamental design of the CPU however matters a lot more. Core2 CPUs have better out-of-order instruction execution, better branch prediction, an extra execution unit, and faster execution units in general (especially for SSEs) compared to PhenomII's. The Core2 also has the "Denormals are Zero" optimization, which is a huge speedup for PCSX2 in certain games.
Thus, even without SSE4, the Core2 chips, clock-for-clock, are always much better at running PCSX2 than PhenomII's. (edit: in PhenomII's defense, they tend to come with higher stock clocks -- though tend not to overlock as well either. Man it's hard to defend them right now.)
Er redet wohlgemerkt noch nicht mal vom Nehalem, sondern vergleicht den Core2 mit Phenoms. :D
Mein Verdacht ist, dass viele sogenannte "Poweruser" diese Power eigentlich gar nicht benötigen, da sie selten ihr CPU (nicht ihre GPU) ans Limit reizen, außer natürlich bei Benchmarks. Das relativiert die allermeisten Aussagen auf pures AMD- oder intel-Bashing. Das wiederum relativiert nämlich auch die sogenannte Preis-Leistungs-Geschichte, die abhängig ist vom eigenen Nutzungsprofil.
Eine weitere Relativierung ist die angeblich Architektur, die am Ende ist. Das hängt nämlich ebenso von der Nutzung des PCs ab. Wäre aber nur in der Lage ist, Balkenlängen zu betrachten, dem mag das alles egal sein. Ich zumindest nannte Gründe, warum für MICH der X6 durchaus eine gute Möglichkeit darstellt.
Was hat die Architekturschwäche mit Benutzerverhalten zu tun?
Außerdem: Es geht hier (in der OT-Disku) um dem X6 und dessen Gegenspieler i7 860. Beide kosten gleich viel (wenn der X6 auf einer AM3 Plattform betrieben wird), beide leisten gleich viel in multicore optimierten anwendungen, aber der i7 ist in idle sowie unter load sparsamer * (um 10%) und ist in weniger multicore optimierten anwendungen dem X6 haushoch überlegen.
Warum die Architektur am Ende ist? mMn ist es ein logischer Schluss, wenn man berücksichtigt, das der X6 deutlich mehr Transistoren und Die-Fläche benötigt, um mit einem betagten 45nm Quadcore Prozessor mithalten zu können. Wobei der Größen-Vergleich etwas hinkt, da der Lynnfield einen PCIE-Controller OnDie hat, wodurch er größer ist, aber dennoch insg. deutlich kleiner ausfällt.
Amd hat zwar deutlich kleinere Kerne (und dadurch eine geringere single-thread-performance), aber dafür auch einen über großen UnCore-Bereich, der diesen Platzvorteil auffrißt. Außerdem: Wenn BD wirklich von 3fach issue auf 2fach issue kastriert wird, braucht man wirklich 2 Kerne (=1 Modul) um mit einem SD-Kern mithalten zu können.
(* Stromverbrauch in einem realistischen Szenario: http://www.anandtech.com/show/3674/amds-sixcore-phenom-ii-x6-1090t-1055t-reviewed/10 )
an extra execution unit, and faster execution units in general (especially for SSEs)
Halte ich für ein Gerücht ... K10 hat drei 128bit SSE Einheiten, Intel nur 2 und die werden dann auch noch gleichzeitig für INT Befehle benützt. Also irgendwie weiss der Kollege, der das geschrieben hat nicht 100% Bescheid, wobei der Rest stimmen könnte.
http://www.realworldtech.com/page.cfm?ArticleID=RWT051607033728&p=6
Er redet wohlgemerkt noch nicht mal vom Nehalem, sondern vergleicht den Core2 mit Phenoms. :DWobei die Frage ist, ob sich die Nehalems besser schlagen würden, Emulatoren könnte v.a. der schöne große C2D L2 gefallen ... Gibts dazu irgendwo Aussagen ?
Außerdem: Wenn BD wirklich von 3fach issue auf 2fach issue kastriert wird, braucht man wirklich 2 Kerne (=1 Modul) um mit einem SD-Kern mithalten zu können. Auch Du vergisst wieder mal den Takt ... ;-)
Von den restlichen Verbesserungen rede ich nicht mal, selbst wenn das 2fach Issue zu träfe, wäre es sicher schneller als das alte 3fach.
Aber dafür gibts nen anderen Thread ;-)
ciao
Alex
Auch Du vergisst wieder mal den Takt ... ;-)
Von den restlichen Verbesserungen rede ich nicht mal, selbst wenn das 2fach Issue zu träfe, wäre es sicher schneller als das alte 3fach.
Ach ist BD etwa AMDs Pentium 4? ;D
Halte ich für ein Gerücht ... K10 hat drei 128bit SSE Einheiten, Intel nur 2 und die werden dann auch noch gleichzeitig für INT Befehle benützt. Also irgendwie weiss der Kollege, der das geschrieben hat nicht 100% Bescheid
Ähm. Der Mann ist einer der PCSX2-Entwickler. Ich denke schon, dass er weiß, was er schreibt.
Ach ist BD etwa AMDs Pentium 4? ;D
Jupp, kann durchaus darauf rauslaufen, aber nichts Genaues weiss man nicht.
Ähm. Der Mann ist einer der PCSX2-Entwickler. Ich denke schon, dass er weiß, was er schreibt.
Ja schau Dir meinen Link an, und sag mir, wo die vielen, vielen Einheiten sein sollen ... :freak:
Kannst auch gerne einen anderen Link ausgraben, wenn Du einen hast.
Ich nehme mal an, dass er was verwechselt hat, die C2Ds haben 1 Einheit mehr, ja - aber nicht gegenüber den Phenoms, sondern gegenüber den P3 / mobile Core Vorgängern.
Menace
2010-05-01, 19:19:32
Ich nutze sie zur PS2-Emulation (sehr sehr CPU-hungrig). Und hier mal ein Zitat eines Entwicklers des Emulators:
Das ist doch mal ein Wort. Diese Nutzung kannte ich gar nicht. Falls das so hungrig ist, dass ein X6 nicht mithalten kann, dann gebe ich Dir Recht.
Was hat die Architekturschwäche mit Benutzerverhalten zu tun?
Weil mein Benutzungsprofil entscheidet, mit welchem CPU ich sehr gut leben kann. Ich würde nie behaupten, dass die Atom-Architektur am Ende ist, nur weil ich sie für 90 % meines Benutzerprofil unbrauchbar ist. Es gibt andere Benutzer, für die ist schon die Dual-Core absoluter Overkill, da sie maximal mit ihrem PC surfen und E-Mails abrufen. Anders als die GPU nutzen die allermeisten User ihre CPU doch kaum, von daher ist die Architektur gut genug.
PS.: Ich fürchte eher, dass sie den BD in den Sand setzen.
Wobei die Frage ist, ob sich die Nehalems besser schlagen würden, Emulatoren könnte v.a. der schöne große C2D L2 gefallen ... Gibts dazu irgendwo Aussagen ?
Läuft auf Nehalem sogar noch ein Stückchen schneller. Ist dir überhaupt eine einzige Anwendung bekannt, die auf einem Nehalem nicht besser sondern nennenswert schlechter läuft als auf einem Core 2? Gerne auch Beispiele nennen.
Das die Cachemenge eine Architekturfrage ist hatten wir bereits.
Weil mein Benutzungsprofil entscheidet, mit welchem CPU ich sehr gut leben kann. Ich würde nie behaupten, dass die Atom-Architektur am Ende ist, nur weil ich sie für 90 % meines Benutzerprofil unbrauchbar ist. Es gibt andere Benutzer, für die ist schon die Dual-Core absoluter Overkill, da sie maximal mit ihrem PC surfen und E-Mails abrufen. Anders als die GPU nutzen die allermeisten User ihre CPU doch kaum, von daher ist die Architektur gut genug.
Nochmal: WAS HAT CPU-ARCHITEKTUR UND DEREN SCHWÄCHEN [LEISTUNG/VERBRAUCH/CHIPFLÄCHE] MIT DEM BENUTZERPROFIL ZU TUN?
Menace
2010-05-01, 20:28:39
Nochmal: WAS HAT CPU-ARCHITEKTUR UND DEREN SCHWÄCHEN [LEISTUNG/VERBRAUCH/CHIPFLÄCHE] MIT DEM BENUTZERPROFIL ZU TUN?
Wenn Du mich schon anbrüllst, dann melde Dich an. Bitte, danke.
1. Leistung: Wofür ist die Leistung des X6 zu schwach? Bitte nenne Deine von Dir genutzte Anwendungen. Ich hätte Vorteile, beim Konvertieren meiner RAWs, da 6 parallele Berechnungen schneller gehen, als vier. Ähnliches gilt für meine DAM-Software. Berechne mir bitte, wie viel Zeit ich im Vergleich zu einem gleich teuren intel-Software mit Capture One und IDimager einsparen könnte. Dann sage ich Dir, ob die Architektur zeitgemäß ist.
2. Chipfläche: Was interessiert mich als Kunde die Chipfläche? Wie hat der Dicke das schon so treffend gesagt, wichtig ist, was hinten raus kommt.
3. Verbrauch: Wenn ich die Tests richtig interpretiere, dann hat AMD es geschafft, dass der X6 ähnliche TDP-Einstufungen besitzt wie der X4, die ich momentan nutze. Von der Gesamtökobilanz bstimmt günstiger als ein Plattformwechsel, wenn ich dadurch ein größere Upgrade hinauszögere. Leider schafft es AMD nicht, an den Verbrauch von intel ranzukommen. Da möchte ich für die Zukunft Verbesserungen sehen.
Was bringt mir die beste Architektur, wenn ich sie nicht nutze. Eine Architektur ist imho dann veraltet oder am Limit, wenn ich mit ihr nicht mehr sinnvoll arbeiten kann und/oder wenn der Konkurrent mir beim Arbeiten einen zum Preis gerechtfertigten wesentlich besseren Vorteil liefert. Beides sehe ich nicht.
Edit: Vielleicht wird die Sache klarer, wenn ich noch ergänze, dass es durchaus Anwendungen gibt, in der sich der Wechsel zu Intel auf jeden Fall bezahlt macht (Rendern?). Aber trifft das auf alle zu? Heutzutage hängt man doch immer an irgendeinem anderem Limit (Bus, GPU, Festplatte).
Wenn Du mich schon anbrüllst, dann melde Dich an. Bitte, danke.
Warum? Ich kann dich auch als Gast anbrüllen solange du darauf reagierst ;D
1. Leistung: Wofür ist die Leistung des X6 zu schwach? Bitte nenne Deine von Dir genutzte Anwendungen. Ich hätte Vorteile, beim Konvertieren meiner RAWs, da 6 parallele Berechnungen schneller gehen, als vier. Ähnliches gilt für meine DAM-Software. Berechne mir bitte, wie viel Zeit ich im Vergleich zu einem gleich teuren intel-Software mit Capture One und IDimager einsparen könnte. Dann sage ich Dir, ob die Architektur zeitgemäß ist.
Was hat das mit meiner Frage zu tun?
2. Chipfläche: Was interessiert mich als Kunde die Chipfläche? Wie hat der Dicke das schon so treffend gesagt, wichtig ist, was hinten raus kommt.
Was hat das mit meiner Frage zu tun?
3. Verbrauch: Wenn ich die Tests richtig interpretiere, dann hat AMD es geschafft, dass der X6 ähnliche TDP-Einstufungen besitzt wie der X4, die ich momentan nutze. Von der Gesamtökobilanz bstimmt günstiger als ein Plattformwechsel, wenn ich dadurch ein größere Upgrade hinauszögere. Leider schafft es AMD nicht, an den Verbrauch von intel ranzukommen. Da möchte ich für die Zukunft Verbesserungen sehen.
Was hat das mit meiner Frage zu tun?
Was bringt mir die beste Architektur, wenn ich sie nicht nutze. Eine Architektur ist imho dann veraltet oder am Limit, wenn ich mit ihr nicht mehr sinnvoll arbeiten kann und/oder wenn der Konkurrent mir beim Arbeiten einen zum Preis gerechtfertigten wesentlich besseren Vorteil liefert. Beides sehe ich nicht.
Nochmal, ich finde AMDs Architektur schlechter bzw. sie hat Schwächen, weil sie trotz mehr Transistoren, mehr Chip-Fläche, mehr Verbrauch nicht schneller bzw. oft langsamer als ein kleinerer und stromsparender IntelChip.
Ob ich als Nutzer dies sinnvoll Nutze oder nicht, ist nicht von Belang.
Und nur weil AMD diesen MonsterChip für ein Appel und Ei verscherbelt macht ihn nicht besser. Im Gegenteil, AMD verdient wiedermal fast nichts.
Da bin ich ja froh, dass der Chip so "schlecht" ist, sonst währe er nicht zu diesem Preis zu haben.
*Sheibenwischer*
mironicus
2010-05-01, 22:36:03
Ich nutze sie zur PS2-Emulation (sehr sehr CPU-hungrig). Und hier mal ein Zitat eines Entwicklers des Emulators:
Er redet wohlgemerkt noch nicht mal vom Nehalem, sondern vergleicht den Core2 mit Phenoms. :D
Die PCSX2-Macher sollten ihren Code mal lieber so optimieren, dass auch Mehrkern-Prozessoren besser ausgenutzt werden. Ich habe auf meinem Quadcore immer nur eine Auslastung von 25% bei Verwendung von PCSX2. Das der Emulator auf einen 3GHz+ Quad nicht immer flüssig läuft müsste ja wirklich nicht sein. Power ist mehr als genug da, nur wird sie halt nicht genutzt...
Da bin ich ja froh, dass der Chip so "schlecht" ist, sonst währe er nicht zu diesem Preis zu haben.
*Sheibenwischer*
ehrlich gesagt ist da was dran....AMD würde sicher auch gern ein paar 100€ pro "top"CPU nehmen nur is die Leistung halt nicht da
kurzsichtig betrachtet ist das für den Kunden gut da er seine AM2+/AM3 boards günstig aufrüsten kann
langfristig geht halt AMD geld durch die lappen welches dann für folgegenerationen fehlt
ideal für den kunden wärs halt wenn deren top modelle ein bisschen leistungsfähiger wären und für ein paar 100€ zu verticken wären und der schnäpchenjäger sich dann ein kleines modell als OC wunder zulegen kann und das nach bedarf melken kann
Menace
2010-05-01, 23:05:12
Warum? Ich kann dich auch als Gast anbrüllen solange du darauf reagierst ;D
Kapiert. ;D Nur weil Du den Zusammenhang zur Frage nicht siehst, bedeutet es noch lange nicht, das es keinen gibt. Ich sehe ein, dass es Dir nicht um eine Diskussion geht.
BTW: Dass die Architektur "schlechter" ist, ist was ganz anderes als am Ende. Danke für das Gespräch, sind wir uns also doch einig. :rolleyes:
Wenn es für Dich nicht von Belang ist, ob Du sie sinnvoll nutzt oder nicht, dann ist das wiederum das Problem Deines Kaufverhaltens (es ist ja völlig legitim). Versuche aber nicht die Grundlage dieses Verhalten als allgemeingültige Handlungsweise zu postulieren um am Anschluss dieser seltsamen Logik AMDs Prozessoren das Ende zu erklären.
Die PCSX2-Macher sollten ihren Code mal lieber so optimieren, dass auch Mehrkern-Prozessoren besser ausgenutzt werden. Ich habe auf meinem Quadcore immer nur eine Auslastung von 25% bei Verwendung von PCSX2. Das der Emulator auf einen 3GHz+ Quad nicht immer flüssig läuft müsste ja wirklich nicht sein. Power ist mehr als genug da, nur wird sie halt nicht genutzt...
Parallelisierung lässt sich nicht durchführen, indem man einfach 2 zusätzliche Zeilen Code produziert und schwupps werden 4 Kerne ausgenutzt. Bei so einem Emulator (der seit Jahren einzige, der überhaupt ernstzunehmend funktioniert) spielt erst einmal Stabilität und Kompatibilität eine größere Rolle.
Savay
2010-05-02, 00:28:47
nochmal: das wars auch früher schon nicht
hätte gern auch noch spätere Werte genommen, nur da war der "echte" P4 dann leider nicht mehr von der Partie :(
HTT hat früher in spielen rein garnichts gebracht weil fast nichts davon damals multithreaded ausgelegt war..noch dazu konnten alle betriebsysteme vor 7 ja nichtmal zwischen physischen und logischen kernen differenzieren :freak:
besorg dir die PCGH 04/2010 und schau dir die benchmarks mit den 50 CPUs mal ganz genau an! da sind mehrere netburst CPUs dabei...sogar extra benches wieviel eine netburst CPU in aktuellen spielen durch SMT gewinnt :rolleyes:
ich finde es auch ziemlich "lustig" das du heutigen spielen in nicht GPU limitierten szenen eine Aussagekraft auf künftige Spiele abspricht aber einen Raytracer als Indikator hervorragend geeignet siehst
es geht um die ausnutzung der vorhandenen kerne/threads...die rohleistung ist da, sie wird nur oft (noch!) nicht ausgenutzt weil die programme und in diesem fall die spiele (noch!) nicht hinreichend multithreaded ausgelegt sind...das wandelt sich aber im laufe der zeit.
deiner meinung nach hat nen 1090T weniger rohleistung als ein 965 nur weil 2 bis 4 der kerne im wald und wiesen spiel däumchen drehen?! ;D mal im ernst: das ist wirklich "lustig"
nochmal cinebench taugt als indikator für die vorhandene rohleistung einfach ziemlich gut. es skaliert linear mit dem takt und hervorragend mit den kernen...es nutzt die IPC der architekturen plausibel aus. (1 thread benches)
wenn ein software entwickler bestrebt ist ein programm zu entwickeln das die vorhandene rohleistung aller cpus bestmöglich einsetzt...wird sich zwangsläufig nahezu das selbe gefüge einstellen wie bei cinebench. :tongue: da multithreading ungebrochen weiter vorrangetrieben wird muss sich die software zwangsläufig auf dauer daran anpassen und das heißt nichts anderes als das früher oder später sich ein gefüge einstellt das der rohleistung der CPUs entspricht.
du kannst auch mal gerne benchmarks des X3 720BE vs. E8400 zum release des X3 mit den heutigen ergebnissen in aktuellen titeln vergleichen. das ist genau das gleiche bild das sich auf dauer auch im bezug zum X6 einstellen wird!
Menace
2010-05-02, 07:46:17
nochmal cinebench taugt als indikator für die vorhandene rohleistung einfach ziemlich gut. es skaliert linear mit dem takt und hervorragend mit den kernen...es nutzt die IPC der architekturen plausibel aus.
Ist eigentlich Cinebench dank Compilers nicht intel-Optimiert? Dachte ich hätte da mal was gehört.
Fakt aber ist, dass man seine CPU nach seinen Anwendungen aussucht. Spielst Du in niedrigen Auflösungen, kannst Du natürlich die Balkenlänge der niedrigen Auflösungen anschauen, ich persönlich halte das für Augenwischerei und ich frage mich immer wieder, warum da auch "Fachzeitschriften und Fachseiten" diese betreiben.
ich gebs auf dafür ist mir meine Zeit nun wirklich zu schade
in diesem Sinne:
have fun von der performance eines syntetischen benchmarks basierend auf cinema4d auf zukünftige spieleleistung zu schliessen
und have fun CPU vergleiche im GPU limitieren Szenarien durchzuführen
:uclap::uclap::uclap:
ehrlich gesagt ist da was dran....AMD würde sicher auch gern ein paar 100€ pro "top"CPU nehmen nur is die Leistung halt nicht da
kurzsichtig betrachtet ist das für den Kunden gut da er seine AM2+/AM3 boards günstig aufrüsten kann
langfristig geht halt AMD geld durch die lappen welches dann für folgegenerationen fehlt
ideal für den kunden wärs halt wenn deren top modelle ein bisschen leistungsfähiger wären und für ein paar 100€ zu verticken wären und der schnäpchenjäger sich dann ein kleines modell als OC wunder zulegen kann und das nach bedarf melken kann
Ja am Besten währe es natürlich wenn die Konkurrenzprodukte gleich schnell währen und die Kontrahenten gleichen Marktanteil hätten.
Aber das wird Nie so eintreffen.
Dass man als Kunde zukünftig profitieren wir wenn der Prozessorhersteller Jetzt viel Geld verdient halte ich für naiv.
Bei Intel ist und war das noch Nie der Fall.
Menace
2010-05-02, 11:08:16
und have fun CPU vergleiche im GPU limitieren Szenarien durchzuführen
Bringt genauso wenig. :wink: Ehrlich wäre zu sagen: In folgenden Anwendungen und Spiele gibt es keinen Vorteil und nur die Benchs zeigen, in dem Anwendungen und Spiele in reellen Einstellungen wirklich profitieren.
Ist eigentlich Cinebench dank Compilers nicht intel-Optimiert? Dachte ich hätte da mal was gehört.
Das war beim CB10 der Fall, der CB11er besitzt AMD-Optimierungen.
Ja am Besten währe es natürlich wenn die Konkurrenzprodukte gleich schnell währen und die Kontrahenten gleichen Marktanteil hätten.
Aber das wird Nie so eintreffen.
Dass man als Kunde zukünftig profitieren wir wenn der Prozessorhersteller Jetzt viel Geld verdient halte ich für naiv.
Bei Intel ist und war das noch Nie der Fall.
Intel musste auch noch nie am Hungertuch nagen ;)
die haben eh nur immer das nötigste gemacht, als es sich abzeichnete das Netburst ein griff ins Klo war (langfristig gesehen) und man gegen A64 keine Chance hat haben sie mal wieder ihre Hausaufgaben gemacht
derzeit gibts halt nicht die maximale Leistung durch relativ konservativ getaktete CPUs
und bis ein Intel 6Kerner mal "günstig" wird das wird noch dauern da die PII X6 ja noch mit Quadcores problemlos in Schach gehalten werden.
Im Prinzip haben wir hier einen Technologiestillstand der dadurch kaschiert wird das 2 zusätzliche Cores drangepappt werden.
Intel musste auch noch nie am Hungertuch nagen ;)
die haben eh nur immer das nötigste gemacht, als es sich abzeichnete das Netburst ein griff ins Klo war (langfristig gesehen) und man gegen A64 keine Chance hat haben sie mal wieder ihre Hausaufgaben gemacht
derzeit gibts halt nicht die maximale Leistung durch relativ konservativ getaktete CPUs
und bis ein Intel 6Kerner mal "günstig" wird das wird noch dauern da die PII X6 ja noch mit Quadcores problemlos in Schach gehalten werden.
Im Prinzip haben wir hier einen Technologiestillstand der dadurch kaschiert wird das 2 zusätzliche Cores drangepappt werden.
Naja Multicore würde ich schon als eine Art Technologie bezeichnen.
Dass immer wieder die gleiche Strukturen verwurstet werden ist bei Intel, wie auch AMD seit Jahrzehnten Tradition.
Kompatibilität ist eine heilige Kuh, auf der man Reiten wird, egal was es an Zusatzleistung und Fortschritt kostet.
Savay
2010-05-02, 13:16:11
ich gebs auf dafür ist mir meine Zeit nun wirklich zu schade
natürlich ist sie das letzten endes...weil wir beide spekulieren und beide theorien gewisse unsicherheitsfaktoren besitzen...da sind diskussionen müßig und nur die zeit wird zeigen wer tendenziell richtig liegt :smile:
du gehst davon aus das zukünftige spiele ähnlich multithreaded sind wie heute...
ich gehe davon aus das sie sich der entwicklung auf dem CPU markt anpassen werden...
beides legitim und beide davon abhängig wie schnell oder langsam sich der markt daran anpasst.
nur sehe ich mittlerweile einfach eine eher zügige adaption im bezug auf die steigende kern/thread zahl der CPUs. das wird durch die aktuellen konsolen natürlich auch noch begünstigt ganz im gegensatz zu P4 zeiten.
die 360 hat nen 6 thread prozessor...die PS3 hat Cell...deren rohleistung will genutzt werden und das geht nuneinmal besser über multithreading :wink:
in diesem Sinne:
...lasse uns in 1-2 jahren nochmal drüber sprechen :biggrin:
have fun von der performance eines syntetischen benchmarks basierend auf cinema4d auf zukünftige spieleleistung zu schliessen
ich schließe daraus auf ein verhältniss der CPUs untereinander...nicht auf absolute werte...das ist ein unterschied...es geht um tendenzen! nicht mehr und nicht weniger :freak:
du willst doch nicht abstreiten das der X6 mehr rohleistung besitzt als ein X4 auch wenn sie vorallem in spielen noch nicht ausgenutzt wird!? :|
die benchmarks von y33h@ in metro und BC2 zeigen doch eh schon eindeutig wo es hin geht (bis auf die tatsache das man in der praxis keinerlei unterschied merken wird ;D) und das sind ja nun wirklich keine spiele von "morgen" :wink:
in dem sinne sind low-res tests natürlich interessant allerdings vorallem um zu beurteilen ob die spiele schon soweit sind!
das ist meiner ansicht nach dann letztlich aber eher eine technische beurteilung der spiele als eine beurteilungsgrundlage für eine CPU weil es nichts darüber aussagt wie sich ein Anno 1010 irgendwann auf 12, 8, 6 und 4 kern CPUs verhalten wird.
und have fun CPU vergleiche im GPU limitieren Szenarien durchzuführen
das ich das nicht möchte hättest du lesen können wenn du meine postings mal wirklich nachvollziehen würdest...
ich habe doch geschrieben das in einem CPU test spiele die in der praxis rein GPU limitiert sind eigentlich nichts zu suchen haben (egal ob man das GPU limit mit ultra-low res umgehen kann) und somit höchstens ausser wertung laufen sollten :)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.