Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Phenom-II-X6-Thread
Tarkin
2010-04-08, 09:36:55
Infos zur neuen "Turbo Core" Technik
Anandtech: AMD Divulges Phenom II X6 Secrets, Turbo Core Enabled (http://www.anandtech.com/show/3641/amd-divulges-phenom-ii-x6-secrets-turbo-core-enabled)
Techreport: Six-core Phenom II to feature Turbo Core tech, high frequencies (http://www.techreport.com/discussions.x/18731)
Reviews:
http://ht4u.net/news/22028_hexa-core_fuer_alle_-_amd_phenom_ii_x6_im_test/
http://www.computerbase.de/artikel/prozessoren/2010/test_amd_phenom_ii_x6_1055t_1090t_be/
http://www.pcgameshardware.de/aid,745670/Phenom-II-X6-1090T-und-1055T-im-Test-Sechs-CPU-Kerne-zum-Kampfpreis/CPU/Test/
http://www.tomshardware.de/amd-phenom-ii-x6-1090t-890fx,testberichte-240541.html
http://www.hardwareheaven.com/reviews.php?reviewid=964
http://www.guru3d.com/article/phenom-ii-x6-1055t-1090t-review/
http://www.hexus.net/content/item.php?item=24332
http://hothardware.com/Articles/AMD-Phenom-II-X6-6Core-Processor-Review/
http://www.legionhardware.com/articles_pages/amd_phenom_ii_x6_1090t_be_1055t,1.html
http://www.neoseeker.com/Articles/Hardware/Reviews/amd_phenom_x6_1090t/
http://www.pcper.com/article.php?aid=910
http://www.bit-tech.net/hardware/cpus/2010/04/27/amd-phenom-ii-x6-1090t-black-edition/1
http://www.tomshardware.com/reviews/amd-phenom-ii-x6-1090t-890fx,2613.html
http://www.extremetech.com/article2/0,2845,2363071,00.asp
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/31407-amd-phenom-ii-x6-1055t-1090t-six-core-processors-review.html
http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x6-1090t.html
http://www.overclockersclub.com/reviews/amd_phenom2_x6_1090t/
http://www.hardwaresecrets.com/article/982
http://www.techspot.com/news/38729-amd-phenom-ii-x6-1090t-be--phenom-ii-x6-1055t-review.html
http://anandtech.com/show/3674/amds-sixcore-phenom-ii-x6-1090t-1055t-reviewed
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=508&Itemid=63
http://www.bjorn3d.com/read.php?cID=1853
http://www.lostcircuits.com/mambo//index.php?option=com_content&task=view&id=81&Itemid=1
http://www.pureoverclock.com/article966.html
http://www.vmodtech.com/main/article/amd-leo-platform/all/1/
http://techreport.com/articles.x/18799
http://www.pcworld.fr/article/materiel/cpu/phenom-core-980x-guerre-processeurs-cores/487061/
http://www.hardware.fr/articles/789-1/amd-phenom-ii-x6-1090t-1055t.html
DeadMeat
2010-04-08, 09:48:39
Guter weg mehr Leistung zu holen und trotzdem in der TDP zu bleiben.
Somit dürften die sogar für Umsteiger nen Nutzen haben, die 6Kerne ansich bringen ja nicht viel zzt.
Undertaker
2010-04-08, 09:50:58
Wenn man 6 Kerne nicht braucht, dürfte der X4 965BE mit 3,4GHz auf 4 Kernen aber auch weiterhin die beste Wahl bleiben - vor allem aber die deutlich günstigere. ;) Interessant wird jetzt, wie oft der Turbo in der Praxis anspringt.
puntarenas
2010-04-08, 11:03:51
Wenn man 6 Kerne nicht braucht, dürfte der X4 965BE mit 3,4GHz auf 4 Kernen aber auch weiterhin die beste Wahl bleiben - vor allem aber die deutlich günstigere. ;)
Oder der neue X4 960T, mal sehen wo er sich preislich einordnet, welchen Vorteil er in der Leistungsaufnahme taktbereinigt real gegenüber einem "alten" Deneb-Quadcore hat und wie das Übertaktungspotential aussieht.
Wie bei Intels TurboBoost-Technik wird allerdings auch bei AMDs "Turbo CORE" auch die Versorgungsspannung angehoben. Da AMDs Thuban-Prozessoren jedoch keine Monitoring-Funktion zur Überwachung der Leistungsaufnahme besitzen, ist es fraglich wie AMD sicherstellen will, dass bei der automatischen Übertaktung nicht die TDP-Grenze (Thermal Design Power) überschritten wird. Auf den Folien gibt man sich zumindest selbstbewusst und versichert, dass die TDP stets eingehalten wird.
HT4U - Offizielle Informationen zu AMDs "Turbo CORE"-Technologie (http://ht4u.net/news/21934_offizielle_informationen_zu_amds_turbo_core-technologie/)
Das macht doch zumindest Hoffnung. Andererseits - im Vergleich zu Intel eine sehr hausbackene Technik, Power Gating wäre schon hübsch gewesen. Immerhin sollte der Windows7-Sheduler ja mittlerweile keinen Ärger mehr machen, kein Mensch will so Quark wie "DualCore-Optimizer" installieren, damit AMD-Prozessoren halbwegs laufen wie angedacht und auch den Ruf des Ur-Phenom mit seinen verschieden getakteten Kernen hat zu einem nicht unerheblichen Teil Microsoft auf dem Gewissen.
Bei AMDs Preisvorstellungen muss ich aber staunen, zusammen mit einem 890GX-Board steht man im direkten Wettbewerb mit einem Core i7 auf P55 und der dürfte als Quad mit Hyperthreading in vielen Anwendungsfällen die Nase vorn haben. Recht "selbstbewusstes" Auftreten bei vergleichbarem Preis anstinken zu wollen.
Interessant wird jetzt, wie oft der Turbo in der Praxis anspringt.
:popcorn:
Undertaker
2010-04-08, 11:25:02
Der X4 960T ist aber wohl ein teildeaktvierter Thuban, ob das nicht mal ein bisschen Energieeffizienz kostet?
puntarenas
2010-04-08, 11:35:06
Wenn ich doch Bookmarks machen und ordentlich verwalten würde... Ich habe diese Frage jedenfalls auch schonmal gestellt und - ich glaube anddill war so frei - bekam plausibel erläutert, dass die abgeschalteten Chipbereiche zwar tatsächlich ein wenig Leistung verbraten, aber dass dies absolut nicht ins Gewicht fällt.
Müsste man sehen, überhaupt wäre ein Leistungsaufnahme-Review schön, bei dem einem Prozessor sukzessive ein um der andere Kern ausgeknippst wird, bis nur noch einer aktiv ist. Die Optionen dafür gibt es ja im BIOS (ordentlicher Boards) und bei Thuban könnte man aus 5 Messungen ein wunderhübsches Diagramm basteln. :smile:
Sollte man sowieso machen, denn ich frage mich auch, ob der Turbomodus sich automatisch auf die Kernanzahl einstellt. Wie agiert er, wenn nur noch 5 oder 3 Kerne aktiv sind, was macht ein X6@X4, besteht ein Unterschied, ob man Core 1 und 4 ausknippst oder stattdessen Core 5 und 6?
DeadMeat
2010-04-08, 12:19:15
Bei AMDs Preisvorstellungen muss ich aber staunen, zusammen mit einem 890GX-Board steht man im direkten Wettbewerb mit einem Core i7 auf P55 und der dürfte als Quad mit Hyperthreading in vielen Anwendungsfällen die Nase vorn haben. Recht "selbstbewusstes" Auftreten bei vergleichbarem Preis anstinken zu wollen.
Naja die Preise für die Top Phenoms sind ja schon oft schnell gefallen, die Phenoms dürften da schnell wieder drunter liegen und die Plattform ansicht ist ja sowieso schon günstiger (und zt sogar besser).
Von dem was bekannt ist dürften die 6 Kerner immernoch nur soviel Kosten wie I 5er.
Die sollten sich da eigentlich nicht im wegstehen, das die 6er bis auf sehr wenige Ausnahmen nicht viel bringen haben sollt sowieso klar sein.
Matrix316
2010-04-08, 15:49:15
Gibbet es denn schon irgendwelche Benchmarks, die aussagekräftig sind? 6 Kerne ( a 3,2 GHz) für 300 Euro hört sich ja schon ganz interessant an.
aylano
2010-04-08, 15:56:08
Naja die Preise für die Top Phenoms sind ja schon oft schnell gefallen, die Phenoms dürften da schnell wieder drunter liegen und die Plattform ansicht ist ja sowieso schon günstiger (und zt sogar besser).
Damals hatte Intel (und AMD) noch viel mehr Reserven, die dann von beiden auch teils genutzt wurden.
Ich rechne bei weiten nicht mehr mit so stark fallenden Preisen.
Gibbet es denn schon irgendwelche Benchmarks, die aussagekräftig sind? 6 Kerne ( a 3,2 GHz) für 300 Euro hört sich ja schon ganz interessant an.
Die stünden hier ... Geduld ...
Vertigo
2010-04-08, 17:16:14
Wenn man 6 Kerne nicht braucht, dürfte der X4 965BE mit 3,4GHz auf 4 Kernen aber auch weiterhin die beste Wahl bleiben - vor allem aber die deutlich günstigere. ;)
Es gibt aber recht wenig Software, bei der genau 4 Kerne das Optimum darstellen - und nur dann wäre der 965BE besser. Werden bis zu 3 Kerne genutzt, ist der 1090T mit 3.6 GHz dabei und sonst stehen 6 Kerne @ 3.2 GHz gg. 4 Kerne @ 3.4 GHz.
Interessant wird jetzt, wie oft der Turbo in der Praxis anspringt.
Das und wie die Verlustleistung in der Realität aussieht. An 125W TDP für den 1090T kann ich angesichts der 965BE C3 noch nicht so recht glauben.
Gibbet es denn schon irgendwelche Benchmarks, die aussagekräftig sind? 6 Kerne ( a 3,2 GHz) für 300 Euro hört sich ja schon ganz interessant an.
Nahezu nichts. Siehe i7-980X-Benchmarks. Und wenn es 6 Kern-Anwendungen gibt, wird ein i7 mit Hyper Threading kaum schlechter performen, da deutlich höhere Pro-MHz-Leistung und bessere Übertaktbarkeit.
Nahezu nichts. Siehe i7-980X-Benchmarks. Und wenn es 6 Kern-Anwendungen gibt, wird ein i7 mit Hyper Threading kaum schlechter performen, da deutlich höhere Pro-MHz-Leistung und bessere Übertaktbarkeit.
Damit es nicht wie ein Flame aussieht:
http://images.anandtech.com/graphs/corei7980x_031010193451/21986.png
http://images.anandtech.com/graphs/corei7980x_031010193451/21987.png
http://images.anandtech.com/graphs/corei7980x_031010193451/21980.png
Ein etwa gleichgetakteter i7-975 (3,33 GHz) ist zwischen 40 und 50 % schneller als ein Phenom X4 965 (3,4 GHz). Dabei profitiert der i7 in keinem der aufgelisteten Spiele von SMT.
AMD braucht unbedingt eine neue Architektur.
Undertaker
2010-04-08, 20:10:21
Es gibt aber recht wenig Software, bei der genau 4 Kerne das Optimum darstellen - und nur dann wäre der 965BE besser. Werden bis zu 3 Kerne genutzt, ist der 1090T mit 3.6 GHz dabei und sonst stehen 6 Kerne @ 3.2 GHz gg. 4 Kerne @ 3.4 GHz.
Ich hatte dabei auch eher einen Blick auf die kleineren X6 geworfen, die preislich wohl ebenfalls alle deutlich über dem 965BE liegen werden - diesen aber nur in extrem gut parallelisierten Anwendungen ein- und überholen können.
Leder ist der L3-Cache nicht mitgewachsen, das schmälert den Mehrwert der beiden Extrakerne auch noch ein klein wenig. :(
Matrix316
2010-04-08, 21:15:17
[...]
Ein etwa gleichgetakteter i7-975 (3,33 GHz) ist zwischen 40 und 50 % schneller als ein Phenom X4 965 (3,4 GHz). Dabei profitiert der i7 in keinem der aufgelisteten Spiele von SMT.
AMD braucht unbedingt eine neue Architektur.
Einerseits... aber andererseits kostet ein gleich getakteter i7 auch gleich mal ne Stange mehr als ein AMD Prozessor. Ok, man kann ja übertakten, aber ich mein ja nur.
puntarenas
2010-04-08, 22:15:52
Einerseits... aber andererseits kostet ein gleich getakteter i7 auch gleich mal ne Stange mehr als ein AMD Prozessor.
Im Moment werden für das Spitzenmodell Phenom II X6 1090T BE zwischen 300$ und 350$ kolportiert, das wären dann zwischen 225€ und 260€.
Ein Intel Core i7-860 für S1156 (http://geizhals.at/deutschland/a445043.html) geht derzeit für 240€ über den Ladentisch, mit seinen 2,8Ghz und Hyperthreading dürfte er mehr als nur konkurrenzfähig zu einem Thuban bei 3,2Ghz sein und lässt AMD preislich keinen Spielraum. Die kleinern Modelle stoßen preislich dagegen in eine Lücke zwischen dem hyperthreadinglosen i5-750 und seinem großen Bruder, bloß allzu groß wird der Markt für Leute mit ausdrücklichen Ambitionen auf mehr als 4 Threads aber ausgesprochem schmalen Budget dann doch nicht sein. Vielleicht verhökern ja die einschlägigen Kistenschieber günstige Sechskerner, ich könnte mir schon vorstellen, dass sich das in einem Werbeprospekt ganz nett macht.
Bei gleichem Preis spricht für AMD sicherlich SATA6GB/s und die vollbrüstige USB3-Anbindung auf entsprechenden 890GX-Boards. Außerdem punktet natürlich die integrierte Grafik. Bei Intel kann man (bei geschickt gewähltem Board) allerdings zumindest entweder SATA6GB/s oder USB3.0 ohne Bauchschmerzen nachrüsten und im Moment ist der Bedarf ja noch sehr überschaubar.
Ok, man kann ja übertakten, aber ich mein ja nur.
Klar, nur wenn jemand Übertaktungspotential sagt, muss er auch Intel sagen. Allerdings kann man natürlich einen schicken Thuban auch frevlerisch auf ein 770er-Board zum Kampfpreis schnallen und noch ein paar Euro sparen. Trotzdem sehe ich das wie der Gast oben, AMD ist in höchster Not mit seinem ausgenudelten Design und braucht dringend eine neue Architektur. Die wiederum braucht zwingend den neuen Fertigungsprozess, hoffentlich geht das glatt.
-----------------------
Planet3DNow hat jetzt auch eine Zusammenfassung zum Turbo geschrieben:
P3DNow - AMD Turbo CORE technology (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1270741806)
Matrix316
2010-04-08, 22:41:15
Wobei ein Sixcore bei Games sicherlich Vorteile hat gegenüber einem i7 mit HT, gerade weil HT oft auch bremst. Ich meine, nicht selten sieht man einen i5 750 an der Spitze der Benchmarks, während der i7 860 oder 920 weiter hinten rangiert.
Nochmal: ein i7 mit über 3 GHz ist klar schneller als ein Phenom 2 mit gleichem Takt - kostet aber auch viel mehr.
puntarenas
2010-04-08, 22:46:06
Nochmal: ein i7 mit über 3 GHz ist klar schneller als ein Phenom 2 mit gleichem Takt - kostet aber auch viel mehr.
Ein Nehalem ist bei gleichem Takt und gleicher Kernzahl immer schneller als ein Phenom II. Die Phenom2-Architektur benötigt durchschnittlich zwischen 30% und 50% mehr Takt für die gleiche Leistung.
Wobei ein Sixcore bei Games sicherlich Vorteile hat gegenüber einem i7 mit HT, gerade weil HT oft auch bremst. Ich meine, nicht selten sieht man einen i5 750 an der Spitze der Benchmarks, während der i7 860 oder 920 weiter hinten rangiert.
Nochmal: ein i7 mit über 3 GHz ist klar schneller als ein Phenom 2 mit gleichem Takt - kostet aber auch viel mehr.
HT-Probleme gibt es in wenigen Spielen und die müssten mittlererweile auch alle weggepatcht worden sein. Zumindest wird es sowas in Zukunft nicht geben, weil nun jeder Dev weiß, dass der Marktführer HT wieder eingeführt hat.
Matrix316
2010-04-08, 22:50:36
Ein Nehalem ist bei gleichem Takt und gleicher Kernzahl immer schneller als ein Phenom II. Die Phenom2-Architektur benötigt durchschnittlich zwischen 30% und 50% mehr Takt für die gleiche Leistung.
Ei sag ich doch - kostet aber auch das X Fache
Phenom II 955 3,2 GHz vs Core i7-960 3,2 GHz
=
135 Euro vs 500 Euro
puntarenas
2010-04-08, 22:59:36
HT-Probleme gibt es in wenigen Spielen und die müssten mittlererweile auch alle weggepatcht worden sein.
Hyperthreading sollte unter Windows 7 ja keine Probleme mehr machen. Mag sein, dass auch einige Spiele ganz hauseigene Probleme hatten, aber vermutlich war es einfach nur dem Vista/XP-Sheduler geschuldet.,
Ei sag ich doch - kostet aber auch das X Fache
Phenom II 955 3,2 GHz vs Core i7-960 3,2 GHz
=
135 Euro vs 500 Euro
Kaufst du Taktraten oder Leistung? Dein Phenom II müsste mit ~4,2Ghz takten, um mit einem i7 960 gleichzuziehen. Dazu kommt, dass du jetzt einen Quadcore einem Quadcore mit Hyperthreading gegenüberstellst, ich habe keine Ahnung was du mir sagen willst. :confused:
Leistungs- und Preistechnisch vergleichbar dürften der Core i7 860 und der Phenom II X6 1090T sein. 2,8Ghz zu 3,2Ghz passt ganz gut, 6 Kerne gegen 4+4HT passt ganz gut, Preis wird wohl hinhauen, Plattformkosten auch.
P.S. sehr wohlwollend gerechnet :)
Matrix316
2010-04-08, 23:09:57
Also, die Ursprüngliche Aussage war
Ein etwa gleichgetakteter i7-975 (3,33 GHz) ist zwischen 40 und 50 % schneller als ein Phenom X4 965 (3,4 GHz)
Ein i7 mit 3,33 GHz (über 800 Euro) kostet aber auch ca. 500% mehr als ein Phenom 2 965 (ca. 150 Euro). Wenn man jetzt Preis und Leistung in Relation setzt, hat ein Phenom 2 zumindest bei gleicher Taktfrequenz (nicht Leistung) ein besseres P/L Verhältnis.
puntarenas
2010-04-08, 23:14:17
Wenn man jetzt Preis und Leistung in Relation setzt, hat ein Phenom 2 zumindest bei gleicher Taktfrequenz (nicht Leistung) ein besseres P/L Verhältnis.
LOL ;D
Ich gebs auf und gestehe, das ist echt mal ein kreativer Ansatz. Nimm noch einen offenen Muktiplikator mit rein, dann kratz Intel an der 999$-Marke und preis-/leistungstechnisch regelt AMD runtergerechnet auf einen Athlon alles weg. YMMD!
Matrix316
2010-04-08, 23:17:27
Klar. Zum Beispiel ein Phenom 2 965 ist oft auf einem Level mit einem Core i5 750 und die kosten in etwa auch das gleiche. Nur im High End Bereich schwächelt AMD etwas. Aber hier kommt der Sixcore genau richtig.
BigBen
2010-04-08, 23:57:07
Von den zusätzlichen Cores wird man vorerst jedoch nur in hierfür optimierten Anwendungen profitieren (Video-Encoding, 3D-Rendering, etc.). In dieser Hinsicht ist der Phenom X6 sicher äußerst attraktiv - edit: wobei die Messwerte dies noch bestätigen müssen. Nutzt man dieses Leistungsplus jedoch nicht entsprechend oder zockt vorwiegend, wäre ein performanter Quad-Prozessor wohl geeigneter.
nVoodoo
2010-04-08, 23:59:39
Von den zusätzlichen Cores wird man vorerst jedoch nur in hierfür optimierten Anwendungen profitieren (Video-Encoding, 3D-Rendering, etc.). In dieser Hinsicht ist der Phenom X6 sicher äußerst attraktiv. Nutzt man dieses Leistungsplus jedoch nicht entsprechend oder zockt vorwiegend, wäre ein performanter Quad-Prozessor wohl geeigneter.
Naja dafür wäre ja der "Zosma" mit 3,2 / 3,3 Ghz super bei 2 Core Auslastung mit 3,6 / 3,7Ghz :)
BigBen
2010-04-09, 00:23:51
Klar, an die 4 GHz wären diesbezüglich schon ganz nett! So kann AMD auch die höhere - vom Übertaktungspotential mal abgesehen - Pro-MHz-Leistung der Intels etwas ausgleichen. :)
puntarenas
2010-04-09, 00:30:47
Das ändert doch alles nichts am Status Quo. Zosma ist teuer in der Fertigung, aber als Resteverwertung vermutlich sehr willkommen.
Am Ende stellt er sich zum direkten Konkurrenten Core i5-750 aber kaum besser als ein bisheriger Phenom II X4 und wohlgemerkt, nicht nur bei Zosma zündet gegebenenfalls der Turbo.
y33H@
2010-04-09, 00:40:10
Die 3,0 GHz Version des X6 soll wohl unter 300€ kosten. Zumindest in Anwendungen sieht es da für einen i7-860/870 ziemlich übel aus. Klar, in Spielen wird der Thuban bei max. 3,6 GHz per Turbo nichts reißen und der Stromverbrauch ist auch eklig. ABER mit nem günstigen Board ist das Teil in Apps imho aus PLV-Sicht eine Wucht.
aylano
2010-04-09, 00:47:35
Trotzdem sehe ich das wie der Gast oben, AMD ist in höchster Not mit seinem ausgenudelten Design und braucht dringend eine neue Architektur. Die wiederum braucht zwingend den neuen Fertigungsprozess, hoffentlich geht das glatt.
Wenn AMD so gute CPUs rausbringt, dass sie sogar den Preis gegenüber den vorigen Spitzen-Modelle steigern kann, dann würde ich nicht von ausgenudelten Design sprechen;-)
Natürlich, der 2. Platzierte braucht immer soooo dringend eine neue Architektur damit er wieder erster werden kann.
Dann wird halt dann der andere Zweiter, der dann soooo dringend eine neue Architektur/Design/Fertigung braucht.
Ein Nehalem ist bei gleichem Takt und gleicher Kernzahl immer schneller als ein Phenom II. Die Phenom2-Architektur benötigt durchschnittlich zwischen 30% und 50% mehr Takt für die gleiche Leistung.
Bald zählt dieses alte Denken nicht mehr.
Vorallem, beim Server-Markt & Many Course sieht man es jetzt schon gut.
puntarenas
2010-04-09, 00:48:08
Zumindest in Anwendungen sieht es da für einen i7-860/870 ziemlich übel aus.
In handverlesenen Anwendungen vielleicht, wenn 6 Kerne voll ausgelastet werden und gleichzeitig keine "fiese" Intel-Optimierung verfügbar ist. Allzu übel dürfte es dennoch nicht werden.
ABER mit nem günstigen Board ist das Teil in Apps imho aus PLV-Sicht eine Wucht.
Es gibt bestimmt Anwendungsfälle, wo er sehr preislich sehr attraktiv ist, aber "Wucht" oder "Bombe" finde ich schon etwas dick aufgetragen, sympathischer Underdog hin oder her.
Ich warte trotzdem gespannt auf Benchmarks und die Reviewseiten werden ja bestimmt ein paar Anwendungsfälle hervorkramen, in denen der Phenom seine Stärken ausspielen kann.
y33H@
2010-04-09, 00:50:52
Naja, nimm die Werte eines 940 BE und schlage in den Apps ~40% drauf. Dann ist der X6 vor jeglichen Lynnfields. Zwar auf Kosten der Leistungsaufnahme [wie bisher auch], aber NV macht's aktuell ja auch mit der Brechstange *Schulter zuck* Die HD58x0 gleichen das wieder aus ;-)
Die 3,0 GHz Version des X6 soll wohl unter 300€ kosten. Zumindest in Anwendungen sieht es da für einen i7-860/870 ziemlich übel aus. Klar, in Spielen wird der Thuban bei max. 3,6 GHz per Turbo nichts reißen und der Stromverbrauch ist auch eklig. ABER mit nem günstigen Board ist das Teil in Apps imho aus PLV-Sicht eine Wucht.
Du wirst sehen, der X6 wird auch in Anwendungen einem i7 nicht überlegen sein. Hier hast du eine Anwendung, die 1:1 von 6 Kernen profitiert (i7-980X 3,33 GHz rund 50 % schneller als i7-975 3,33 GHz):
http://images.anandtech.com/graphs/corei7980x_031010193451/21966.png
Übertrage ich das auf den X4 965 3,4 GHz und addiere 50 % Leistungsplus hinzu, bin ich bei 30,5 FPS. Bei gleichem Takt wäre ein i7 mit 4 Kernen + SMT immer noch schneller.
Die Pro-MHz-Leistung und SMT machen 2 fehlende Kerne einfach wieder wett.
Das heißt natürlich nicht, dass die Preis-Leistung eines solchen AMDs für solche Anwendungen nicht ordentlich wäre, aber das ist mir persönlich insofern egal, als dass ich einen X3440 für 200 € besitze und problemlos über i-975-Niveau übertakten kann.
Und hier nochmal bzgl. Rendering und Ray-Tracing:
http://images.anandtech.com/graphs/corei7980x_031010193451/21968.png
http://images.anandtech.com/graphs/corei7980x_031010193451/21971.png
Da kann ein AMD auch mit 6 Kernen kein Land gewinnen.
puntarenas
2010-04-09, 01:00:40
Wird in den Benchmarks SSE4.2 verwendet oder nicht?
P.S. Quellenangaben gehören eigentlich zum guten Ton
Wird in den Benchmarks SSE4.2 verwendet oder nicht?
P.S. Quellenangaben gehören eigentlich zum guten Ton
Keine Ahnung.
Die Quelle erreichst du per Rechtsklick und "Grafikadresse kopieren". Anandtech ist die Quelle. Genauer: http://anandtech.com/show/2960/1
y33H@
2010-04-09, 01:06:43
@ Gast
Hmmm, da hatte ich den 965 BE zu stark im Kopf :ugly:
puntarenas
2010-04-09, 01:08:34
Die Quelle erreichst du per Rechtsklick und "Grafikadresse kopieren
Hmm, Deep Linking ist ja fast noch übler, als Bilder ohne Quellenangabe.
:uhammer:
Den Artikel werde ich trotzdem mal komplett lesen, dafür vielen Dank!
Damit es nicht wie ein Flame aussieht:
http://images.anandtech.com/graphs/corei7980x_031010193451/21986.png
http://images.anandtech.com/graphs/corei7980x_031010193451/21987.png
http://images.anandtech.com/graphs/corei7980x_031010193451/21980.png
Ein etwa gleichgetakteter i7-975 (3,33 GHz) ist zwischen 40 und 50 % schneller als ein Phenom X4 965 (3,4 GHz). Dabei profitiert der i7 in keinem der aufgelisteten Spiele von SMT.Ich will nicht bestreiten, dass Intel sehr oft messbar schneller ist. Aber so dramatisch wie Dus darstellst, ist es dann auch wieder nicht.
Lustig ist z.B. FarCry 2. Wieder der übliche Medium Quality Krams.. bei Max Quality stürzen die Nehalems ab wie Eintagsfliegen nach 24h. Wieso weiss keiner - interessiert auch keinen (das Problem ist schon bald ein Jahr bekannt) - man bencht halt dann einfach mit Medium, damits wieder gut ausschaut.
Dann: Was passiert bitte mit dem 870er bei WoW ?
Was ist da auf einmal kaputt, dass der 750er 20 fps schneller ist ? Hyperthreading ? Sollte sich dann aber auch beim i7 920 bemerkbar machen, der trotz weniger Takt noch 15 fps in Front liegt.
Fazit: Glaube keine Benches, die Du nicht selbst ausgesucht hast ;-)
Der anandtest ist schon dilettantisch (Keine Info zu HTh oder Turbo,da muss man mal PCGH & cb loben) und Du pickst dann noch Rosinen raus.
ciao
Alex
y33H@
2010-04-09, 01:26:57
Das SMT-Problem ist seit v3.3.3 in WoW behoben. Das in FC2 nicht ;D Gut, zockt eh keiner im Vergleich zu WoW *g*
Ich will nicht bestreiten, dass Intel sehr oft messbar schneller ist. Aber so dramatisch wie Dus darstellst, ist es dann auch wieder nicht.
Ansichtssache. Wir können auch PCGH-Werte nehmen, wenn dir PCGH eher zusagt:
http://pcgameshardware.de/screenshots/original/2010/03/Intel-Gulftown-GTA4.png
(i7 bei gleichem Takt 41 % schneller als X4 965 BE)
http://www.pcgameshardware.de/screenshots/original/2010/03/Intel-Gulftown-Anno1404.png
(i7 bei gleichem Takt 29 % schneller als X4 965 BE)
http://www.pcgameshardware.de/screenshots/original/2010/03/Intel-Gulftown-DAOx.png
(i7 bei gleichem Takt 53 % schneller als X4 965 BE)
Wohlgemerkt überall mit maximalen Details @ 1680 x 1050.
Link: http://www.pcgameshardware.de/aid,698809/Intels-Gulftown-CPU-im-Test-Core-i7-980X-auf-Westmere-Basis/CPU/Test/?page=2
Lustig ist z.B. FarCry 2. Wieder der übliche Medium Quality Krams.. bei Max Quality stürzen die Nehalems ab wie Eintagsfliegen nach 24h. Wieso weiss keiner - interessiert auch keinen (das Problem ist schon bald ein Jahr bekannt) - man bencht halt dann einfach mit Medium, damits wieder gut ausschaut.
Dazu bitte mal einen Link (außer Computerbase). Es limitiert höchstens die GPU und alle CPUs sind gleichauf. Von abstürzenden Nehalems sehe ich nichts. Siehe 3DCenter-Test: http://www.3dcenter.org/artikel/intel-core-i5-750-lynnfield-review/benchmarks-far-cry-2
Dann: Was passiert bitte mit dem 870er bei WoW ?
Was ist da auf einmal kaputt, dass der 750er 20 fps schneller ist ? Hyperthreading ? Sollte sich dann aber auch beim i7 920 bemerkbar machen, der trotz weniger Takt noch 15 fps in Front liegt.
Fazit: Glaube keine Benches, die Du nicht selbst ausgesucht hast ;-)
Der anandtest ist schon dilettantisch (Keine Info zu HTh oder Turbo,da muss man mal PCGH & cb loben) und Du pickst dann noch Rosinen raus.
Die messen ja wohl kaum alle CPUs bei jedem Mal aufs Neue. Evtl. wurde der i7-870 viel früher gebencht, mit einem anderen Patch oder Treiber oder sonstwas und beim i7-920 eben zu einem anderen Zeitpunkt. Passiert bei Computerbase auch: http://www.computerbase.de/artikel/grafikkarten/2010/test_ati_radeon_hd_5830/10/#abschnitt_anno_1404 (Nanu? HD 5830 deutlich schneller als HD 5870? ;))
Air Force One
2010-04-09, 01:59:46
Ohne AA soll doch die 5830er schneller sein als die 5850er, und bei der 5870er wäre es ja auch möglich.
Sobald allerdings AA hinzu kommt, kackt die 5830er ab.
Ich bin mit meinem i7-860er sehr zufrieden.
Mit 4GHz und HTT sehe ich da keinen Grund auf einen AMDler mit 6 Cores umzusteigen.
Da sollte der i7er immer noch schneller sein.
Ohne AA soll doch die 5830er schneller sein als die 5850er, und bei der 5870er wäre es ja auch möglich.
Sobald allerdings AA hinzu kommt, kackt die 5830er ab.
Das ist nicht einmal theoretisch möglich. Hier wurde lediglich bei der HD 5830 der neueste Performance-Treiber benutzt und bei den restlichen Karten eben auf frühere Werte (mit Uralt-Catalyst) zurückgegriffen.
Das SMT-Problem ist seit v3.3.3 in WoW behoben. Das in FC2 nicht ;D Gut, zockt eh keiner im Vergleich zu WoW *g*Ja da war mal was - aber wie ich schon schrieb ... wieso hat der 920er keine Probleme ? Haben sie den dann mit 3.3.3 gebencht, oder wie ? Das Bildchen gibt keinen Sinn irgendwas ist da dran falsch.
Da es dazu passt, darf auch gleich mal der Gast zu Wort kommen:
Die messen ja wohl kaum alle CPUs bei jedem Mal aufs Neue. Evtl. wurde der i7-870 viel früher gebencht, mit einem anderen Patch oder Treiber oder sonstwas und beim i7-920 eben zu einem anderen Zeitpunkt. Passiert bei Computerbase auch: http://www.computerbase.de/artikel/g...nitt_anno_1404 (http://www.computerbase.de/artikel/grafikkarten/2010/test_ati_radeon_hd_5830/10/#abschnitt_anno_1404) (Nanu? HD 5830 deutlich schneller als HD 5870? ;)) Doll ... also wenns so wäre: 0 Vergleichswert, da keiner weiss wie mit wem was bei welchem Grafiktreiber / Patch Stand getestet hat. Entweder man testet alle auf den gleichen Stand, oder läßt es bleiben. Pauschale Schlussfolgerungen wie Du es machst, kann man dann eben nämlich nicht anstellen, da man keinen blassen Schimmer hat, an welchem der 20 Faktoren es liegt. Du scheinst es ja im 5870/5830 Fall selbst zu erkennen :)
Ansonsten, zu den Benches, erst einmal allgemeine Frage an PCGH, oder falls es jemand anderes weiss:
Wurden die 1366er i7 wirklich nur mit dual channel und 4GB RAM vermessen ? Da steht ja überall 2x2 GB ... :confused:
Ist das bisher noch Keinem aufgefallen, oder hab ich irgendwo ne Info dazu überlesen ?
GTA4 & Anno:
Geschenkt, da hilft Hyperthreading, GTA4 ist v.a. auch RAM hungrig, da hülfe Triple channel, falls es denn doch vorhanden war.
Wie auch immer, ein AMD 6 Kerner wird sich bei den Spielen auch gut schlagen -> erstmal keine neue Arch. zwingend nötig ;-)
Dragon Age:
Zitat PCGH:
Generell scheint Dragon Age Origins Intel-CPUs zu präferierenhttp://www.pcgameshardware.de/aid,698745/Dragon-Age-Origins-16-CPUs-im-Test-Quadcore-bis-zu-75-Prozent-vor-Dualcore/Rollenspiel-Adventure/Test/
Grund:
» Dragon Age Origins Fully Optimized for Intel Architecture (http://software.intel.com/sites/billboard/game-gallery/dragon-age.php#/featured-article)
Ist somit weniger ein Hardware als ein Softwareproblem. Was Du da bemängeln kannst, ist die schlechtere Unterstützung, die AMD Spieleschmieden bereitstellt, bzw. bereitstellen kann.
Zu FC2:
Da wurden oft Tests in diesem Thread verlinkt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=472355
Eventuell liegts an der Szene, was dann aber nur verdeutlichen würde, wie unsinning Tests mit einer einzigen Szene sind ...
Wie auch immer, "abstürzen" war im gleichen Maß wie Deine 50% übertrieben, ich meinte abstürzen aufs gleiche Niveau - es tut sich nicht viel ;-)
Ansonsten: Unsinnig ist ausserdem die CPU Leistung anhand der AVG Werte zu bestimmen. Schau mal bei Anno .. da hat der AMD 1 fps *mehr* Min fps als die Spitzen Intel CPU, die angeblich fast 30% schneller sein soll...
Gut möglich, dass die Intel Architektur in wenig aufregenden Szenen besser ist, aber wenn es Hart auf Hart kommt, scheint AMD - zumindest bei Anno mit dem gewählten Benchszenario "robuster" zu sein ...
Dringend neue Architektur nötig ? -> Nein ;-)
Summa Summarum sollten die X6 (mal wieder onTopic ^^), bei Anno richtig gut abschneiden.
ciao
Alex
Du hast jetzt zu absolut allen Werten eine Begründung gefunden, warum sie nicht sein dürfen, wie sie sind. Dilettantisches Anandtech, auf Intel optimierte Spiele, Hyper Threading zählt nicht, min. FPS, Triple Channel ... Dann habe ich eigentlich nichts mehr zu sagen. :D
Du hast jetzt zu absolut allen Werten eine Begründung gefunden, warum sie nicht sein dürfen, wie sie sind. Dilettantisches Anandtech, auf Intel optimierte Spiele, Hyper Threading zählt nicht, min. FPS, Triple Channel ... Dann habe ich eigentlich nichts mehr zu sagen. :D
Na dann passt es ja ;-)
Nur noch zu Hyperthreading:
Zählen tuts schon, aber wenn man statt 4 gehypte Cores 6 echte Cores im gleichen TDP Bereich bekommen kann, nehm ich besser die ;-)
Je nachdem, wie Deine Definition von "Architektur" ist, kann mans zur "Architektur" dazuzählen, oder nicht.
Na dann passt es ja ;-)
Nur noch zu Hyperthreading:
Zählen tuts schon, aber wenn man statt 4 gehypte Cores 6 echte Cores im gleichen TDP Bereich bekommen kann, nehm ich besser die ;-)
Je nachdem, wie Deine Definition von "Architektur" ist, kann mans zur "Architektur" dazuzählen, oder nicht.
Ich nicht. Genau so wenig, wie ich meine Prozessoren nach MHz-Zahlen kaufe. Wenn 4 Kerne nicht weniger als 6 echte Kerne leisten, weil die Pro-MHz-Leistung viel höher ist und SMT zusätzlich nochmal um die 30 % Performanceboost bringen kann, nehme ich auch gerne die 4 Kerne.
Für AMD hoffe ich inständig, dass sie wenigstens mit dem Begriff "6-Kerne" im Marketing punkten können. Bei einem Marktanteil von über 80 % für Intel hoffe ich das wirklich, weil AMD zwar die 2. Geige spielt, aber auch sehr gute CPUs baut.
Wäre von Vorteil wenn Intel sich von AMD etwas Druck machen lässt bezüglich der Kernanzahl und aufgrund dessen 6-cores im Preisbereich 4-500€ raus bringt.
Eine Alternative zu den 900 € Modellen wäre schon was.
y33H@
2010-04-09, 09:47:40
@ S940
Das ist das Problem der meisten Webseiten: Weder die Benchmarks, noch die Spielversion, noch die Settings sind eindeutig definiert - damit ist eine Fehlerquelle praktisch unmöglich auszumachen. Die Versionsidee gefällt mir ganz gut, da am einleuchtesten. Das kommt halt davon, wenn man lustig Spielversionen und Treiber zusammen panscht :rolleyes
Und nein, alle 1366er waren 3x 2G - das muss gefixt werden. THX!
Undertaker
2010-04-09, 10:00:11
Als Anhaltspunkt für die Anwendungsleistung nehme ich immer gerne Cinebench R10, dort erreicht ein X4 965BE etwa das gleiche Ergebnis wie ein i5 750, was ein realistisches Bild der durchschnittlichen Performance darstellen sollte.
Westmere konnte, z.B. bei Computerbase, von den 50% mehr Kernen 38% Performance zulegen, auf einen X4 925 umgerechnet ergibt das ~16.200 Punkte.
Ein 2,8GHz Thuban liegt damit in Anwendungen deutlich vor einem X4 965BE (14500) oder einem i5 750 (14200), aber auch wiederum deutlich hinter einem i7 860 (ein i7 870 schafft ~18300). Für das 3,2GHz Modell sollte es damit auf ~Gleichstand zum i7 860 hinauslaufen, bei allerdings auch weiterhin deutlich schlechterer Spieleleistung: Dort wo die Performance bei wenigen Threads zählt, tritt kaum eine Verbesserung zum X4 965BE ein, dort wo viele Threads genutzt werden, z.B. RE5, führt ein i7 mit zu viel Abstand.
Bald zählt dieses alte Denken nicht mehr.
Vorallem, beim Server-Markt & Many Course sieht man es jetzt schon gut.
Ja und was sieht man da? Das ein Westermere mit 6 Cores sehr sehr nahe an ein 12 Core MC System kommt. Der große Nachteil des MC ist doch die äußerst bescheidene Single-Thread-Performance, was eben durch die sehr geringe Taktrate zu begründen ist. Aber mit höheren Taktraten säuft das Ding im Stromverbrauch ab, so können sie wenigstens etwas mithalten in Sachen Gesamtleistung/Verbrauch.
aylano
2010-04-09, 11:17:56
Das ein Westermere mit 6 Cores sehr sehr nahe an ein 12 Core MC System kommt.
Immerhin kann AMD im Desktop-Markt da auch ordentliche Stückzahlen liefern.
(Und das trotz Vorteil von 32nm & High-K.)
Der große Nachteil des MC ist doch die äußerst bescheidene Single-Thread-Performance, was eben durch die sehr geringe Taktrate zu begründen ist.
Single-Thread wird immer unbedeutender.
Jetzt sieht man schon, im Server-Markt zählt jetzt schon Performance-Pro-(Watt & mm²). Ähnich wie im GPU-Markt. Dort interessiert ja auch keinen die Anzahl der Stream-Prozessoren sowie deren Art (5D vs. 1D in 850 vs. 1400 Mhz) sondern eben was hinten rauskommt.
Der 8-Core-Nehalem wird immer noch in 45nm gefertigt.
Mit Bulldozer wird das dann viel stärker sichtbar, der eben auf Performance-Pro-(Watt & mm²) ausgerichtet wird.
Für AMD hoffe ich inständig, dass sie wenigstens mit dem Begriff "6-Kerne" im Marketing punkten können. Bei einem Marktanteil von über 80 % für Intel hoffe ich das wirklich, weil AMD zwar die 2. Geige spielt, aber auch sehr gute CPUs baut.
Dieses Gequatsche höre ich seit Jahren.
Intel ist so toll im High-End-Bereich und deshalb ist auch Intel im Massen-Markt so gut.
Das stimmt nicht, abgesehen vom verzerrten Performance-Vergleiche.
Nachhinein erfuhr man, wie illegal Intel ihre 80% halten konnten oder wie alle auf 590SLI-Mainboards testeten und glaubten die CPU fresse zuviel Strom bis dann RS690 kam.
Air Force One
2010-04-09, 12:21:13
Mal eine Frage, wo würde sich der Phenom II X6 so einordnen?
Hab mal ein Benchmark gemacht mit meinem i7:
http://www.imagebanana.com/img/hxtaxih/Benchmark.PNG
Mit 4GHz sind es bei mir ca. 7.20 Punkte.
Ich nicht. Genau so wenig, wie ich meine Prozessoren nach MHz-Zahlen kaufe. Wenn 4 Kerne nicht weniger als 6 echte Kerne leisten, weil die Pro-MHz-Leistung viel höher ist und SMT zusätzlich nochmal um die 30 % Performanceboost bringen kann, nehme ich auch gerne die 4 Kerne.
Kannst Du gerne machen. Wenn es wirklich so wäre.
Problem ist aber, dass Du von 2 verschiedenen Sachen sprichst. Mit den SMT Nehalems bekommst Du entweder topp Pro MHz Leistung *oder* topp Durchsatz. Beides gleichzeitig bekommst Du aber leider nicht.
Wenn Du z.B. eins der vielen Xbox Konsolen Spiele hast, die mittlerweile 6 Threads einigermaßen gebrauchen können, dann kanns Dir passieren, dass die Leistung einbricht, bzw. zumindest nicht ansteigt, da 4 Threads auf 2 Kernen laufen und nur die übrigen 2 Threads eigene Kerne haben. Soetwas ist topp, wenn man Durchsatzt haben will, wie z.B. bei DIvX, x264 umcodieren oder sonstigen HPC / Boinc Krams.
Wenn Du aber Min FPS haben willst, ist das kontraproduktiv, da der erste Thread logischerweise nicht schneller wird, wenn ein zweiter Thread auf dem gleichen Kern läuft. Das ist halt die Crux mit dem Hyperthreading. Es kann bestenfalls +30% bringen , aber im schlimmsten Fall halt leider auch Leistung kosten.
Nachdem Du aber bisher nur Spiele erwähnt hast, und keine Codierungs/HPC Programme, gehe ich mal davon aus, dass Dein geschilderter Fall von +30% aufgrund HTh sehr selten bzw. so gut wie gar nicht eintritt.
Vergleich z.B. die Anno Werte des 860 und des 750, da sehe ich nichts von einem SMT Plus. Das magere, eine MIN fps kann man schon mit den 133 MHz mehr erklären, die +0,3fps im Durchschnitt könnten auch gut schon Messfehler sein. Dabei sollte aber Anno doch eigentlich *das* Game schlechthin sein, das jeden Thread ausnützt. Dass das wirklich so ist, sieht man ja auch am Ergebnis des 980X mit 6 Kernen. SMT dagegen bringt da nichts. Von +30% kann man bei Spielen somit nur träumen.
Für AMD hoffe ich inständig, dass sie wenigstens mit dem Begriff "6-Kerne" im Marketing punkten können. Bei einem Marktanteil von über 80 % für Intel hoffe ich das wirklich, weil AMD zwar die 2. Geige spielt, aber auch sehr gute CPUs baut.
Jo das wird schon klappen, die +2 Kerne kann nicht mal AMDs Marketing Abteilung schlecht reden (hoffe ich) :freak:
Nachdem sogar auch die Taktraten stimmen werden (3,2 GHz sind schon ganz ordentlich), bin ich optimistisch.
@y33H@:
Jo, sehe ich auch so, so ein Treiber/Versions/Patchchaos gibts leider viel zu oft. Und dann soll man da was vergleichen - krank.
alle 1366er waren 3x 2G - das muss gefixt werden. THX!
You are welcome :)
ciao
Alex
Undertaker
2010-04-09, 13:33:25
Über 60% Plus mit SMT:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i3-530_540_core_i5-661/29/#abschnitt_resident_evil_5
(2. Benchmark)
Bei den Lynnfield/Nehalems limitiert zu oft die Parallelisierung des Programms. Aber hier bringt SMT ja sogar mehr als 50% mehr Kerne. :freak:
Wenn Du z.B. eins der vielen Xbox Konsolen Spiele hast, die mittlerweile 6 Threads einigermaßen gebrauchen können, dann kanns Dir passieren, dass die Leistung einbricht, bzw. zumindest nicht ansteigt, da 4 Threads auf 2 Kernen laufen und nur die übrigen 2 Threads eigene Kerne haben. Soetwas ist topp, wenn man Durchsatzt haben will, wie z.B. bei DIvX, x264 umcodieren oder sonstigen HPC / Boinc Krams. Wenn Du aber Min FPS haben willst, ist das kontraproduktiv, da der erste Thread logischerweise nicht schneller wird, wenn ein zweiter Thread auf dem gleichen Kern läuft. Das ist halt die Crux mit dem Hyperthreading. Es kann bestenfalls +30% bringen , aber im schlimmsten Fall halt leider auch Leistung kosten.
Seit Windows 7 gibt es bis auf wenige Ausnahmen, z.B. WoW vor dem letzten Patch, eigentlich keine Einbrüche mit SMT mehr, einige Spiele profitieren mittlerweile gar leicht von den zusätzlichen Threads. In Anno sind es bei den Min FPS als auch im Durchschnitt ~10% mehr mit SMT:
http://www.pcgameshardware.de/aid,691470/Lynnfield-im-Test-Benchmarks-des-Intel-Core-i5-750-und-Core-i7-860-in-Anno-1404/CPU/Test/
Problem ist aber wohl, dass bisher kaum Spiele wirklich etwas mit >4 Kernen oder Threads anfangen können, dass Schicksal hatte auch der 980X. Dadurch sind die SMT Gewinne bei den i3/i5 deutlich größer, und darum erwarte ich von den neuen Hexacores im Spielebereich auch keine Verbesserung zu den aktuellen Modellen. Selbst mit Turbo stagniert der Takt nur, und im Kern scheint es auch keine Verbesserungen gegeben zu haben, die die Leistung steigern.
Seit Windows 7 gibt es bis auf wenige Ausnahmen, z.B. WoW vor dem letzten Patch, eigentlich keine Einbrüche mit SMT mehr, einige Spiele profitieren mittlerweile gar leicht von den zusätzlichen Threads. Die WinXP/Vista Thread Scheduling Sache meinte ich gar nicht. Die ist in Win7 behoben - ja - aber das bringt Dir im maximalen Auslastungsfall mit 8 Threads nichts. Win7 behebte nur das XP Problem, dass 2 Threads auf nur 1 Kern verteilt wurden, und die restlichen Kerne Däumchen drehen. Mit 8 Threads ist das Ganze aber egal.
In Anno sind es bei den Min FPS als auch im Durchschnitt ~10% mehr mit SMT:
http://www.pcgameshardware.de/aid,691470/Lynnfield-im-Test-Benchmarks-des-Intel-Core-i5-750-und-Core-i7-860-in-Anno-1404/CPU/Test/
Was soll ich jetzt mit den alten Werten von Anno 1.00 vom Mai 09 unter Vista ?
Die sind veraltet, fast schon ein Jahr alt. Da kommt wieder die Geschichte mit den Patch und Versionsständen rein. Das war vielleicht mal früher so, aber mittlerweile wurde das behoben, aktuell ist Anno 1.1, Win7 und wir schreiben das Jahr 2010. Vielleicht liegts an der Grafikkarte, möglich, dass der nV Treiber mehr Threads auslastet als der ATi Treiber. Wer weiss. Dagegen spräche allerdings das gute Abschneiden des 6Kerners mit Anno 1.1 im aktuellen PCGH Bench.
Wie auch immer - es gelten die aktuellen Werte. Was früher mal war sind bestenfalls behobene Bugs, daraus pauschal zu schließen, dass SMT +10% brächte ist - höflich gesagt - sehr gewagt, noch dazu, da es ja neuere Ergebnisse gibt. Eventuell hat sogar auch in diesem Fall der Win7 Scheduler seine Finger mit im Spiel. Müsste man austesten, ob das OS einen Unterschied machen würde.
Problem ist aber wohl, dass bisher kaum Spiele wirklich etwas mit >4 Kernen oder Threads anfangen können, dass Schicksal hatte auch der 980X.
Jo, aber eben nicht bei Anno.. Das ist *der* Titel der jeden Thread begierig aufsaugt ;-) Der Min Balken des 980X ist doch wirklich eindeutig ;-)
Les mal auf PCGH den technischen Hintergrund von Anno, ganz interessant. Wenn jetzt ausgerechnet bei diesem multithreaded Spiel Hyperthreading nichts bringt, dann ist das ein K.O. Kriterium.
Dadurch sind die SMT Gewinne bei den i3/i5 deutlich größer, und darum erwarte ich von den neuen Hexacores im Spielebereich auch keine Verbesserung zu den aktuellen Modellen. Selbst mit Turbo stagniert der Takt nur, und im Kern scheint es auch keine Verbesserungen gegeben zu haben, die die Leistung steigern.
Jedes bisschen zählt ;-)
Aktuell frage ich mich z.B. wie stark die Grafikkartentreiber die CPU belasten. Falls das eine nennenswerte Last ist, sollte der schlaue Win7 Scheduler intelligent genug sein, und dem GPU Treiber freie Kerne zuweisen. Die 4 Threads der diversen Spiele hätten dann weniger Resourcenkonflikte, was dann ein Leistungsplus zur Folge haben sollte.
Aber auch gut möglich, dass es unbedeutend ist - muss man abwarten, solange keiner was zur Treiberlast sagen kann.
In Anno sollte AMDs 6 Kerner aber in jedem Fall deutlich zulegen. Das zerlegen in kleinere Probleme (=Threads) sollte auch den Durchschnitts FPS zugute kommen.
ciao
Alex
Die WinXP Thread Scheduling Sache meinte ich gar nicht. Die ist in Win7 behoben - ja - aber das bringt Dir im maximalen Auslastungsfall mit 8 Threads nichts. Win7 behebte nur das XP Problem, dass 2 Threads auf nur 1 Kern verteilt wurden, und die restlichen Kerne Däumchen drehen. Mit 8 Threads ist das Ganze aber egal.
Ich rede ganz allgemein von den messbaren Auswirkungen von SMT unter Windows 7. Die von dir beschriebenen möglichen Leistungsverluste gibt es dort eben nicht (mehr), insofern ist auch egal wieso und weshalb.
Was soll ich jetzt mit den alten Werten von Anno 1.00 vom Mai 09 unter Vista ?
Die sind veraltet, fast schon ein Jahr alt. Da kommt wieder die Geschichte mit den Patch und Versionsständen rein. Das war vielleicht mal früher so, aber mittlerweile wurde das behoben, aktuell ist Anno 1.1, Win7 und wir schreiben das Jahr 2010. Vielleicht liegts an der Grafikkarte, möglich, dass der nV Treiber mehr Threads auslastet als der ATi Treiber. Wer weiss. Dagegen spräche allerdings das gute Abschneiden des 6Kerners mit Anno 1.1 im aktuellen PCGH Bench.
Wenn dann werden die SMT Gewinne unter Windows 7 gewachsen sein. ;) Neue Version, neue Werte, deswegen ist SMT aber nicht auf einmal mehr ohne Zugewinne - das schwankt einfach je nach Szene im Ausmaß. Hier hat man auch eine Differenz zwischen i5 750 und i7 860 gemessen, die über die Taktdifferenz hinaus geht:
http://www.hardware.fr/articles/778-13/comparatif-geant-146-processeurs-intel-amd.html
Was du übrigens nicht machen darfst, ist aus den Min FPS etwas herauslesen zu wollen. Wir reden hier von einem einzigen isolierten Frame, der bei einmaligem Vorkommen in einem längeren Benchmark völlig irrelevant sein kann. Wir brauchen Frameverläufe oder aber Aussagen wie "xx% unter 30fps". Insofern bin ich noch etwas skeptisch, dass selbst Anno von den 6 Kernen des Thuban mehr profitiert, als es durch den Taktnachteil wieder einbüßt.
Jo, aber eben nicht bei Anno.. Das ist *der* Titel der jeden Thread begierig aufsaugt ;-) Der Min Balken des 980X ist doch wirklich eindeutig ;-)
Siehe oben zum Thema Min FPS. Gerade wenn SMT nur 10% oder Szenenweise noch weniger bringt, werden auch zwei zusätzliche Kerne die Leistung eher kaum steigern. Das SMT selbst deutlich mehr bringen kann sehen wir ja bei Clarkdale, der bei Computerbase schon im Mittel über 30% in Spielen zulegt. Folglich limitiert bei den i7 mit 8 Threads nur die hohe absolute Threadanzahl weitere Gewinne.
Aktuell frage ich mich z.B. wie stark die Grafikkartentreiber die CPU belasten. Falls das eine nennenswerte Last ist, sollte der schlaue Win7 Scheduler intelligent genug sein, und dem GPU Treiber freie Kerne zuweisen. Die 4 Threads der diversen Spiele hätten dann weniger Resourcenkonflikte, was dann ein Leistungsplus zur Folge haben sollte.
Aber auch gut möglich, dass es unbedeutend ist - muss man abwarten, solange keiner was zur Treiberlast sagen kann.
In Anno sollte AMDs 6 Kerner aber in jedem Fall deutlich zulegen. Das zerlegen in kleinere Probleme (=Threads) sollte auch den Durchschnitts FPS zugute kommen.
Dann würde SMT aber nicht nur bei Clarkdale, sondern auch bei Lynnfield oder Nehalem gute Gewinne in Spielen bringen. Wie es scheint, sind aktuell 4 Threads einfach mehr als genug für Spiele, OS und Treiber.
Wenn Du z.B. eins der vielen Xbox Konsolen Spiele hast, die mittlerweile 6 Threads einigermaßen gebrauchen können, dann kanns Dir passieren, dass die Leistung einbricht, bzw. zumindest nicht ansteigt, da 4 Threads auf 2 Kernen laufen und nur die übrigen 2 Threads eigene Kerne haben. Soetwas ist topp, wenn man Durchsatzt haben will, wie z.B. bei DIvX, x264 umcodieren oder sonstigen HPC / Boinc Krams.
Sorry mein Guter, aber du hast da irgendwo einen elementaren Denkfehler.
Die Effizienz lässt generell etwas nach wenn man mehr Threads verwendet als physikalisch ausgeführt werden können, aber ganz bestimmt nicht so sehr, dass nachher ein Leistungsverlust unter dem Strich steht.
In der Regel werden Threads auch nicht auf CPU-Kerne festgesetzt, sondern der Scheduler verschiebt sie munter hin und her bei jedem Task-Switch.
Air Force One
2010-04-09, 15:38:11
Also beim Rendern bringen die Simulierten Threads (SMT/HTT) ein deutliches Leistungsplus.
Man kann diese ja zum Test im Bios abschalten.
Bei Spielen bringt HTT eher wenniger etwas.
Die Leistung bleibt eher gleich als mit oder ohne HTT.
Ich denke, das liegt einfach daran, das diese in Spielen einfach nicht richtig ausgelastet werden können.
puntarenas
2010-04-09, 15:38:47
Wenn es um AMD-Prozessoren geht, ist es im 3DCenter doch seit dem Phenom gute Sitte, dass man Spieleleistung eher tief hängt bei der Einschätzung und darauf verweist, dass es auch noch andere Anwendungsfälle gibt. Bei Multimedia-Geschichten sind wir dann im Forum so zuvorkommend, dass wir SSE4.2-Optimierungen auch ausklammern.
Darüber hinaus wird stillschweigend nicht groß an die Glocke gehängt, dass AMD leistungsmäßig dort am Ende ist, wo Intels Oberklasse erst beginnt. Die lässt der Platzhirsch sich schließlich ordentlich bezahlen und deshalb lasssen wir in Diskussionen kollektiv Vernunft walten und hängen Preis/Leistung über alles, als ob die Hardwaregeeks hier im Forum einhellig Vernunft als Primärtugend innerhalb ihres Hobbys betrachten würden.
Damit die Phenoms im Rennen mit Intels Mittleklasse nicht aus der ersten Kurve fliegen, gestehen wir auch ausdrücklich zu, dass Overclocking höchstens für eine klitzekleine Randgruppe in Frage kommt. Gut, hier im Forum mag der eine oder andere schon einmal dezent an der Taktschraube gedreht haben, aber da wir AMD fair vergleichen wollen lassen wir das außen vor und verweisen auf Lischen Müller.
Deshalb vergleichen wir Prozessoren, wie sie im Handel zu ähnlichen Preisen erhältlich sind. Abschließend mäkelt auch niemand allzu penetrant an der Leistungsaufnahme der AMD-Systeme herum, Ausrutscher durch allzu intel-affine Programmierung lassen wir unter den Tisch fallen, gemeine Compileroptimierungen gereichen Intel zum Punktabzug und Einzelfälle, wo AMD überproportional abschneidet, feiern wir lauthals und seitenlang. Wenn die Balken einen Phenom taktbereinigt in etwa auf Penryn-Niveau sehen, dann freuen wir uns, dass er kein zusammengeklebter Dual-Core ist und lobpreisen AMDs Pionierleistung, den ersten echten Quadcore für Desktopprozessoren gebracht zu haben.
Es lebe der sympathische Underdog, der auch sehr gute Prozessoren herstellt, die für gewisse Anwendungszwecke einfach die bessere Wahl sind. Lischen Müller wird dazu zwar vermutlich nichts einfallen, aber es ist nicht zu leugnen, man muss nur lang genug suchen.
Himmel, Arsch und Zwirn... trotzdem kommt immer wieder ein Honk ums Eck und verlinkt entweder FarCry2 im GPU-Limit oder erzählt sonst eine geqirlte Moppelkotze, was nicht alles noch gemein, fragwürdig und nicht aussagekräftig sei. Wir machen uns die Welt, wiedewiedewie sie uns gefällt.
Wenn Hyperthreading so schlecht ist, dann werden wir ja bald Balken über Balken sehen, bei denen ein Phenom II X6 einen Core i7 860 in Grund und Boden stampft oder ihn wenigstens mal im Mittel über besonders parallelisierbare Anwendungen in Schach hält. Freileich deutet darauf überhaupt nichts hin. Im Moment muss man doch aus der Masse an Benchmarks wirklich Einzelfälle herauskramen, damit man einen Phenom II X4 mit einem Core i5 750 insgesamt gleichauf sehen kann, aber wir lassen ja wohlwollend Fünfe gerade sein. Der Phenom II X6 ist in der Pro/Mhz-Leistung bei Vollauslastung bezogen auf einen Kern allerdings sogar eher ein kleiner Schritt zurück, weil der L3-Cache nicht mitgewachsen ist. Okay, okay, es gibt auch Anwendungsfälle, wo der Cache keine große Rolle spielt, ich weiß schon.
Richtig bescheuert finde ich dann noch, wenn jemand beispielsweise im Kaufberatungsforum ausdrücklich eine Gamer-CPU wünscht und ihm ein Phenom als Preis-Leistungsgranate mit konkurrenzlosem Standing angepriesen wird. Hakt man nach kommt dann oftmals kleinlaut, dass ja die Grafikkarte sowieso limitiert, man allzu viel CPU-Leistung sowieso nicht braucht oder kurz, jemand legt eine ähnliche Preis-/Leistungsbewertungbewertung aufs Parkett, wie Matrix316 gestern Abend (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7959109#post7959109) und "rechnet" sich um Kopf und Kragen. Ich finde das bedauerlich, denn derartiger Unsinn ist weit verbreitet in der deutschen Hardwareforenlandschaft.
Ironischerweise fällt Intel hier vielleicht sogar ein Stück weit auf die Füße, was sie jahrelang selbst mit großem Werbebudget vermittelt haben. Heute heißt es halt in den Foren "nimm doch einen Phenom, da hast du mehr Ghz für dein Geld"! Um abschließend nochmal Lischen Müller ins Boot zu holen, die sitzt uns ja in CPU-Diskussionen hier im Forum sowieso kategorisch auf dem Schoß, Frau Müller kauft keinen Phenom II X6, die ruft bei Dell an oder geht zu Media Markt und schießt sich ein Core i3/i5 System. :P
-> AMD braucht eine neue Architektur. Punkt. Ich brauche jetzt dringend einen frischen Kaffee und etwas Süßes!
Das musste raus.
vielleicht würde aber auch schon ein shrink wieder reichen;)
Schnell genug sind jedenfalls die AMD-CPUs, außer für Herrn Müller-Vincent-Baptiste, sie sind preiswert und die Palette ist breit aufgestellt, die Infrastruktur/Boards ist problemlos und sehr kompatibel (das will ich mal bei Intel sehen), solche Späße mit abgeschalteten Features gibt es fast nicht usw...
Air Force One
2010-04-09, 16:07:20
kp ob das jemanden Interessiert, mal eben einen kleinen Benchmark mit und ohne HTT gemacht:
Cinebench 11.5
http://www.imagebanana.com/img/ibl8naaa/Unbenannt2.PNG
Ohne HTT: 1 Minute 44 Sekunden
Mit HTT: 1 Minute 20 Sekunden
Macht hier einen unterschied von 24 Sekunden.
Ist das viel?
Auf den ersten Blick nicht, aber wenn man bedenkt das es nur ein Frame war, weiß man das man am ende doch etwas davon hat.
BlackBirdSR
2010-04-09, 18:06:09
Ich denke man muss überhaupt nicht darüber diskutieren, ob xMT eine gute Technik ist oder nicht. Da gibt es nichts zu rütteln, es ist effektiver als nahezu jeder andere Technik, die man einer CPU spendieren kann.
Ja Intel hat den Vorteil und Ja, AMD bräuchte es schon lange.
Mein Fazit für den X6 ist: Geil, will ich haben - weils cool ist!
Aber ansonsten ist der Nutzen für die Meisten doch recht gering, in Spielen schon gleich recht.
DeadMeat
2010-04-09, 18:35:15
Mein Fazit für den X6 ist: Geil, will ich haben - weils cool ist!
.
Als ob das nicht sowieso der beste Grund wäre :)
Triskaine
2010-04-09, 20:23:54
Im Moment muss man doch aus der Masse an Benchmarks wirklich Einzelfälle herauskramen, damit man einen Phenom II X4 mit einem Core i5 750 insgesamt gleichauf sehen kann, aber wir lassen ja wohlwollend Fünfe gerade sein.
Auch wenn du es Fünfzig mal wiederholst, wird es dadurch nicht wahrer. Ein 965 BE ist im Gesamtschnitt sehrwohl mit einem i5 750 auf der selben Höhe, mit Tendenz zu ~ 5% Rückstand. Die Mehrzahl der Reviews gibt mir dabei recht:
http://www.behardware.com/articles/778-14/giant-roundup-146-intel-and-amd-processors.html
http://techreport.com/articles.x/18448/17
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/33/#abschnitt_performancerating
Der Grundtenor deiner Aussage ist (leider[für manche jedenfalls]) wahr und man sollte es mit der Schönrederei nicht übertreiben. AMD liefert für die Mehrzahl der User genügend Performance zu erschwinglichem Preis, wer anspruchsvoller ist kann gerne zu Intel greifen. Dieser Graph aus dem Techreport-Test stellt es besonders anschaulich dar:
http://techreport.com/r.x/cpu-roundup-2010q1/value-perf-bar-sysprices.gif
Es ist in vielen Foren (auch in diesem) häufiger zu hören das AMD nur lahme Krücken im Angebot habe. Ich sage aber, wer einen Rückstand von vielleicht 5% zwischen zwei ähnlich teuren Prozessoren als "vernichtende Niederlage" bezeichnet, der leidet unter Realitätsverlust.
Solange AMD Produkte auf den Homepages vieler OEM's nur in versteckten Untermenüs und in gewissen Dau-Märkten gar nicht zu finden sind und diese wenigen Produkte auch noch mit einer erschreckenden Lieblosigkeit entwickelt werden, können AMD Prozessoren dreimal so schnell sein, Zweifufzig kosten und Strom ins Netz zurückspeisen und an der Marktsituation wird sich gar nichts ändern. :frown:
Undertaker
2010-04-09, 20:43:39
Ich denke nicht, dass er den aktuellen AMD-CPUs das sehr gute P/L absprechen wollte, als vielmehr einige Punkte aktueller Diskussionen anzusprechen: Natürlich ist die Phenom II Architektur maximal zum zwei Jahre alten Yorkfield konkurrenzfähig und es bringt nichts, über Messungen im GPU-Limit, Verschwörungstheorien bzgl. geheimer Optimierungen oder Argumente wie "eh alles schnell genug" zu lamentieren. Um die Entwicklung voran zu treiben wäre es wichtig, dass AMD auch wirklich mal wieder im oberen Preisbereich mitmischen kann, doch dafür war Deneb und jetzt auch Thuban nur ein kleiner Schritt in die richtige Richtung. Das sollte man nicht abstreiten sondern ins Auge fassen und hoffen, dass sich die große Lücke der momentanen Leistungsfähigkeit mittelfristig wieder schließt - wäre für uns alle das Beste. :)
Triskaine
2010-04-09, 20:56:05
Etwas anderes wollte ich gar nicht sagen. Da CPU-Architekturen langfristig angelegt sind und ein Wechsel dieser ein ebenso langwieriger Prozess ist, wird sich an der momentanen Situation bis einem Jahr wenig bis gar nichts ändern. Stagnation Ahoi! Da allerdings in der Mehrzahl der Usage-Cases keine Mehrleistung von Nöten ist und noch nichts von einer neuen Killerapplication zu sehen ist, ist diese Stagnation verschmerzbar.
(!VORSICHT! Damit meine ich nicht das heutige CPU's für alles schnell genug sind, bevor hier die nächste Diskussion los bricht.)
Vertigo
2010-04-09, 21:08:59
Es ist in vielen Foren (auch in diesem) häufiger zu hören das AMD nur lahme Krücken im Angebot habe. Ich sage aber, wer einen Rückstand von vielleicht 5% zwischen zwei ähnlich teuren Prozessoren als "vernichtende Niederlage" bezeichnet, der leidet unter Realitätsverlust.
Verwechselst Du da nicht was? AMDs aktuell beste Desktop-CPU ist der 965BE. Dieser ist leistungsmäßig mit einem Core i5-750 zu vergleichen (alle Augen zugedrückt). Deswegen kosten beide auch ähnlich viel. Aber wenn man sich mal anschaut, wo sich der i5-750 in Intels Lineup befindet und dann noch sieht, wo sich ein Phenom II pro MHz ggü. einem über drei Jahre alten Kentsfield einordnet, ist doch nicht von der Hand zu weisen, dass AMD sehr deutlich im Rückstand ist. AMDs aktuelle Architektur ist am Ende des Machbaren, Thuban wird das auch nicht ändern können. Immerhin kann AMD bald auch eine 6-Kern-CPU anbieten. Das war's dann aber auch schon. Man kann nur hoffen, dass Bulldozer bald kommt und den erhofften Leistungssprung bringen wird.
Undertaker
2010-04-09, 21:17:19
Wenn man genügend Die-Fläche in die Hand nimmt ist es letztlich nie ein Problem, eine schnelle Multicore-CPU zu bauen. Mit knapp 350mm² wie Thuban hätten man auch bereits vor 4 Jahren drei Allendale Core 2 Duo in 65nm(!) zusammenschweißen können. Auf realistische 2,5-2,6GHz getaktet wäre eine solche Konstruktion auch trotz schlechter Skalierung mit dem FSB noch beachtlich konkurrenzfähig für heutige Verhältnisse, wenn die Anwendung ausreichend parallelisiert ist. Was AMD benötigt, ist in jedem Fall mehr Leistung pro Kern, mit immer breiteren Architekturansätzen wird die Softwareentwicklung wohl nicht dauerhaft mithalten, zumindest speziell im Spielebereich.
boxleitnerb
2010-04-09, 21:20:10
Ist da nicht irgendwann eine Grenze erreicht, was technisch überhaupt machbar ist mit aktuellen Mitteln? Wenn man die Taktfrequenz jetzt mal außer Acht lässt, wie kann man die IPC pro Kern noch steigern?
Air Force One
2010-04-09, 21:21:00
Naja einen Vorteil hat ja das System von AMD.
Damit meine ich die Kompatibilität.
Und scheinbar ist die Plattform noch nicht ganz ausgereizt, man versucht ja noch die TDP zu senken.
Finde es allerdings schade, das das HighEnd Model von AMD dort endet, wo das LowEnd Model bei Intel beginnt. (Nicht falsch verstehen, damit will ich nicht sagen das der i5-750er eine LowEnd CPU ist, sondern vom Intel i5-i7 Ranking).
Ich hoffe ihr verteht was ein Laie hier geschrieben hat X-D
Undertaker
2010-04-09, 21:23:22
Ist da nicht irgendwann eine Grenze erreicht, was technisch überhaupt machbar ist mit aktuellen Mitteln? Wenn man die Taktfrequenz jetzt mal außer Acht lässt, wie kann man die IPC pro Kern noch steigern?
Afair sind auch heutige, äußerst IPC-starke Architekturen wie Nehalem noch weit davon entfernt, ihre theoretisch Anzahl von Instruktionen pro Takt auch wirklich praktisch zu erreichen - Optimierungspotential sollte es also noch reichlich geben. Die Frage ist, wieviel davon auch wirklich praktisch sinnvoll erreichbar ist.
boxleitnerb
2010-04-09, 21:28:01
Du meinst mit dem Aufwand, den man dafür treiben muss?
[...]
-> AMD braucht eine neue Architektur. Punkt. Ich brauche jetzt dringend einen frischen Kaffee und etwas Süßes!
Das musste raus.
'nuff said! (y)
Undertaker
2010-04-09, 21:50:29
Du meinst mit dem Aufwand, den man dafür treiben muss?
Genau. Es ist sicherlich nicht sinnvoll, für eine 10% bessere Auslastung 50% mehr Diefläche oder Stromverbrauch opfern zu müssen.
LovesuckZ
2010-04-09, 22:51:42
Im Zuge der GPU als "paralleles Monster" machen Mehr-Kerne nur bedingt sind. Die CPU-Hersteller müssen dringend die Pro-Kern Leistung deutlich steigern.
BlackBirdSR
2010-04-09, 22:58:17
Im Zuge der GPU als "paralleles Monster" machen Mehr-Kerne nur bedingt sind. Die CPU-Hersteller müssen dringend die Pro-Kern Leistung deutlich steigern.
wie gut dass dies so einfach ist und auf dem gebiet bisher nichts passiert ist.
mapel110
2010-04-09, 23:10:02
wie gut dass dies so einfach ist und auf dem gebiet bisher nichts passiert ist.
Hat keiner gesagt, dass es leicht ist. But It needs to be done! Heute und auch in Zukunft. Sonst bekommt der Home-User keine Leistungssteigerungen mehr und kauft keine CPUs mehr.
Air Force One
2010-04-10, 01:00:36
Im Zuge der GPU als "paralleles Monster" machen Mehr-Kerne nur bedingt sind. Die CPU-Hersteller müssen dringend die Pro-Kern Leistung deutlich steigern.
Das ganze geht doch mittlerweile schon so weit, das man die CPU aufgaben auf die GPU auslagert (Rendering, Codieren, Physik u.s.w)
Viel bleibt da eig. nicht mehr für die CPU.
Mich würde es auch ehrlich gesagt nicht mehr wundern, wenn die CPUs irgendwann mal aussterben bzw. verdrängt werden von den GPUs.
Das klingt jetzt alles irgendwo Übertrieben, verständlich.
Und ja, nur eine Handvoll Spiele nutzt PhysX oder Anwendungen halt OpenCL u.s.w
War halt nur ein Beispiel :)
Das ganze geht doch mittlerweile schon so weit, das man die CPU aufgaben auf die GPU auslagert (Rendering, Codieren, Physik u.s.w)
Viel bleibt da eig. nicht mehr für die CPU.
Mich würde es auch ehrlich gesagt nicht mehr wundern, wenn die CPUs irgendwann mal aussterben bzw. verdrängt werden von den GPUs.
Das klingt jetzt alles irgendwo Übertrieben, verständlich.
Und ja, nur eine Handvoll Spiele nutzt PhysX oder Anwendungen halt OpenCL u.s.w
War halt nur ein Beispiel :)Ist zwar OT, aber hallo! GPUs werden demnächst in auf den CPU-Die integriert. Dieser Fakt wird die diskrete GPU-Produktion stark einbrechen lassen.
boxleitnerb
2010-04-10, 10:15:04
Im Lowest End Bereich, ja.
Stechpalme
2010-04-10, 10:18:34
@Air Force One
Das ist wohl eher wunschdenken seitens der GPU Hersteller. Besonders nVidia. Die GPU ist zu speziell und kann nur einen sehr kleinen Teil der Berechnungen übernehmen. Zugegeben, diese wenigen Anwendungen sind auf der GPU wirklich flott, aber es sind nicht wirklich viele. Komplexe Berechnungen überfordern die technischen Möglichkeiten der GPU bei weitem.
puntarenas
2010-04-10, 10:25:01
Ich denke nicht, dass er den aktuellen AMD-CPUs das sehr gute P/L absprechen wollte [...]
Das wollte ich wirklich nicht, aber leider habe ich ein wenig zu emotional auf die FUD-Flut reagiert und mich dann etwas im Ton vergriffen. Wenn ich meinen Beitrag jetzt im Nachhinein lese erschrecke ich selbst ein wenig über den Flamecharakter.
Ich versuche nur, im Vorfeld über Erwartungen zu reden, die man einem Phenom II X6 berechtigterweise entgegenbringen kann und ich finde, wir müssen uns nicht dumm stellen, die "Schwarmintelligenz" hier im Forum ist doch groß genug und handfeste Benchmarks von Phenom II CPUs massenhaft verfügbar. Ich glaube also nicht, dass die teilweise absurden Überaschätzungen der altehrwürdigen AMD-Architektur auf ein naives Informationsdefizit zurückgehen, vielmehr drängt sich der Gedanke auf, dass hier bewusst Fehlinformationen eingestreut werden sollen. Ich kann mir keinen vernünftigen Grund denken, so etwas zu tun, aber es hat mich trotzdem oder gerade deshalb mal wieder geärgert.
AMD hat besonders im unteren Bereich ein sehr ordentliches P/L-Verhältnis. Ein kleiner Phenom II oder ganz besonders die Athlon X4 Prozessoren auf einem günstigen Board mit integrierter Grafik, da muss sich AMD nicht verstecken. Hier reden wir aber vom Phenom II X6, das Ding kann allein aufgrund seiner Größe kein Preisbrecher werden und entwächst einer ausgereizten Architektur. Außerdem sieht AMD die Prozessoren für die Leo-Plattform vor und schon die 890GX-Boards haben derzeit keinen Preisvorteil gegenüber P55-Brettern, sie punkten lediglich über das bessere Featureset, wobei USB3.0 verteuernd per NEC-Zusatzchip angeboten werden muss.
Ich denke, Intel ist in einer für uns unangenehm komfortablen Position und ich denke, das spiegelt sich auch schon darin wieder, wie asketisch die P55-Plattform auf Mainstream gezimmert wurde. Single-GPU und durch knapp kalkulierte PCIe-Lanes kaum Aufrüstoptionen, wer hier SATA 6GB/s oder USB3.0 wünscht, der kämpft mit dieser Eigenheit und muss Kompromisse eingehen. Intels Prozessor-LineUp von Core i3 bis Core i7 für S1156 lässt AMD derweil kaum Luft zum Atmen. Billig zu fertigen und weit vom Taktpotential der Architektur entfernt kann man zusehen, wie AMD das letzte Quäntchen Takt aus der eigenen Architektur quetschen muss.
Hier kommt jetzt der Phenom II X6 ins Spiel. Das Argument der "ausreichenden CPU-Leistung" geht doch irgendwie ins Leere, wer zufriedenstellende Mindestleistung zum günstigen Preispunkt sucht, der landet realistischerweise nicht beim Spitzenmodell sondern allenfalls beim günstigsten BE-Quadcore für unter 150€.
Das Ding kommt auf den Markt und Intel wird bedauerlicherweise aller Voraussicht nach nicht einmal reagieren müssen, denn der Core i7 860 steht bereits Gewehr bei Fuß und wird die sinnvollen Anwendungsszenarien vermutlich leicht für sich entscheiden. Alles unterhalb von 6 Threads ging auch bisher schon an Intels Architektur bei entspannten 2,6Ghz und wer mehr benötigt oder möchte, der landet sowieso bei S1366 oder dreht an der Taktschraube.
Ich bin mit meinem i7-860er sehr zufrieden.
Mit 4GHz und HTT sehe ich da keinen Grund auf einen AMDler mit 6 Cores umzusteigen.
Da sollte der i7er immer noch schneller sein.
Laß dich nicht verunsichern, im Rendering wird dein Core i7 vom Phenom II X6 bestimmt nicht deklassiert werden, allenfalls erscheint für diesen Anwendungsfall Ende des Monats eine Alternative aus dem Hause AMD, sofern man kein Overclocking betreibern möchte.
-----
Heise.de - AMD: Prozessoren mit "Turbo-Core"-Betrieb und neue Chipsätze erwartet (http://www.heise.de/newsticker/meldung/AMD-Prozessoren-mit-Turbo-Core-Betrieb-und-neue-Chipsaetze-erwartet-974695.html)
aylano
2010-04-10, 15:07:36
Ich versuche nur, im Vorfeld über Erwartungen zu reden, die man einem Phenom II X6 berechtigterweise entgegenbringen kann und ich finde, wir müssen uns nicht dumm stellen, die "Schwarmintelligenz" hier im Forum ist doch groß genug und handfeste Benchmarks von Phenom II CPUs massenhaft verfügbar.
Das Problem ist, nicht jeder nimmt die gleichen Benchmarks als Referenz und gewisse Tests ändern sich mit Patch oder sonst was, die manche User nicht mitbekommen und somit nicht immer aktuell sind. Und dazu bewerte jeder Mensch wegen anderen Ansichten die Ergebnisse etwas anders.
Man könnte auch dir zu hohe Übertreibungen von Schwächen vorwerfen.
Denn nein, eine CPU muss nicht besser sein damit sie gekauft werden.
Bei einem Fairen Markt, wo Menschen andere Bedürfnisse (=Auswahl der Benchmarks) & Benmark-Kenntnisse & Geld & sonst was haben, wird sehrwohl auch der "2. Platzierte" gscheit gekauft, vorallem wenn der Preis stimmt.
Ach ja, du glaubst es gibt handfeste beweise.
Es gab ja mal eine Zeit, wo AMD-CPUs sehr oft nur auf 590SLI-Boards getestet wurden, die AMD-CPUs ziemlich schlecht aussehen liesen.
Ich kann man nicht an dich erinnern, dass du da auf unfairen Tests aufmerksam machte. Kurz gesagt, kaum wer merkte es.
Und damals konnte auch man immer höheren. AMD-CPUs sind alle soooo stromfressend und Intel ist so toll weil schon das xte-Stepping nachlegen.
(Damals verkauften sich dann aufeinmal die K8 schlecht gegen Netburst)
Die Überraschung war groß, als RS690 kam und auf einmal hatten die AMD-CPUs im mainstream-Bereich die selbe/ähnliche Effizienz wie Intel.
Damals konnte AMD den CPU-Haufen, der sich bis April/Mai 2007 stapelte wieder recht schnell verkaufen und obwohl dann Core2-Duo Mitte 2007 am Markt kamen, gabs es bei AMD-mainstream bis Ende 2007 kaum/keine Preissenkungen.
Dazu hörte man ja auch jahre Lang. Intel-CPUs sind so toll und deshalb verkauft sich Low-End & Mainstream auch so gut.
Die Realität war halt etwas anders, wie man jetzt nach der EU-Klage mitbekommen hat.
Also bitte, nicht glauben, dass alles so handfest und real ist, so wie du es siehst.
Und mit deinen Teils subjektiven Ausschmückungen scheinst du zur Fud-Flut mitzugehören, den du ja krisitisierst.
Ich kann man noch gut erinner, wo man diskutierte, ob K10-B2 mit 3,0 Ghz nicht zu langsam gegen die Core2-Duo sind und nicht mit 3,2 oder 3,4 Ghz herkommen soll.
Für mich wäre es nur Wichtig mit min 3,0 Ghz zu kommen. Ob der jetzt paar % schneller oder langsamer war, war mir wurscht.
Und Argumentationen waren auch nicht viel anders als jetzt. Nachhinein wäre man froh über einen K10-3-Ghz-Modell gewesen.
Witzigerweise führte ich die selben Diskussionen mit K10.5-45nm. Mit 3,0 Ghz wäre der auch viel zu langsam gewesen. Mir reichte auch nur die 3,0 Ghz-Grenze zu überschreiten und wenn sie genug Reserven hat, werden eh nachfolger Modelle kommen.
Auch mit nur der 3,0 Ghz, hatte Deneb einen sehr Positiven Klang im Markt bekommen.
Deshalb hoffte ich, dass Thuban auch die 3,0 Ghz Grenze überschreit und idealerweise in 125Watt-TDP.
------
Grundsätzlich ist es schon eine verdammte Überraschung, wenn Thuban mit 3,2 Ghz und mit 125 Watt-TDP und mit Turbo-Core liefern kann.
Dass dieser Intel nicht schlagen wird, kann man jetzt schon sagen. Aber AMD kann Intel den Druck erhöhen sodass mit den Preis des Spitzen-Modell deutlich höher raufgehen kann.
Und Ziel ist es von AMD auch nicht, Intel in Jahre 2010 anzugreifen, sondern im Jahre 2011 mit Bulldozer & Bobcat & Fusion (& North-Island)
(Na ja, Larrabee konnte man indirekt schon verdrängen.)
Ziel war es eher, mit alter vorhanderner Technik im Jahr 2010 besser dazustehen, was in AMD Situation eher mit den neuen Plattformen ging/geht.
Dass sie 2010 mit der G34/32-Server-Plattform und wahrscheinlich mit Danube & Nile sogar recht gut mithalten können, ist schon eine Überraschung, wenn man an die Einschätzungen von Letzten Jahres denkt.
Mich beindurckt momentan die Flexibilität die AMD mometan hat alias 6-Core-Einführung Juni 2009 sowie E0-Stepping mit Turbo-Core.
Im GPU-Markt lief es bei AMD schon länger gut & flexibel und man sieht, wo sie dort jetzt stehen.
Mich beindurckt momentan die Flexibilität die AMD mometan hat alias 6-Core-Einführung Juni 2009 sowie E0-Stepping mit Turbo-Core.
Im GPU-Markt lief es bei AMD schon länger gut & flexibel und man sieht, wo sie dort jetzt stehen.
Schönrederei!
1. Im Desktopbereich sind sie derzeit bestensfalls auf Penryn-Niveau [leistung/verbrauch]
2. mit dem verbesserten e0-stepping und der intel-turbo-kopie schließt man bestenfalls auf die alte i7 generation auf, ist aber dennoch mind. ein jahr hinter der aktuellen generation
3. den gpu-markt kannst du nicht auf den cpu-markt übertragen, nvidia schwächelt und hat sich verzockt (fermi), intel dagegen baut seinen vorsprung weiter aus.
Schönrederei!
1. Im Desktopbereich sind sie derzeit bestensfalls auf Penryn-Niveau [leistung/verbrauch]
2. mit dem verbesserten e0-stepping und der intel-turbo-kopie schließt man bestenfalls auf die alte i7 generation auf, ist aber dennoch mind. ein jahr hinter der aktuellen generation
3. den gpu-markt kannst du nicht auf den cpu-markt übertragen, nvidia schwächelt und hat sich verzockt (fermi), intel dagegen baut seinen vorsprung weiter aus.
Soll jetzt AMD keinen 6-Kern Prozessor bringen, weil der die Core i5/i7 nicht schlägt?
Darauf kommt es doch erstmal nicht an, sonder wie viel er letztendlich kostet.
Sorry mein Guter, aber du hast da irgendwo einen elementaren Denkfehler.
Bleib bitte sachlich. So schwache Anreden von der Seite hast Du nun wirklich nicht nötig. Oder willst Du Dich den ganzen Gast Trollen als Galionsfigur andienen ?
Die Effizienz lässt generell etwas nach wenn man mehr Threads verwendet als physikalisch ausgeführt werden können, aber ganz bestimmt nicht so sehr, dass nachher ein Leistungsverlust unter dem Strich steht.Wenn 2 Threads auf *einem* Kern laufen, dann läuft ein einzelner Thread langsamer. Das ist altbekannt. Wenn nun der gewonnene TLP SpeedUp größer ist, als der SMT SpeedDown, dann bleibt unterm Strich natürlich ein Plus übrig. Wenn aber nicht mehr viel TLP übrig ist, bzw. aufgrund überbeanspruchten Caches / TLBs & Register Files / Speicherkontroller & Prefetcher zuviel Konkurrenzsituationen zw. den Threads entstehen, wars das mit dem Plus.
Alles aus der Spielesicht - die SpeedDowns interessieren bei HPC & Co. natürlich nicht, da zählt nur der Durchsatz und dafür ist SMT erste Wahl. Ausserdem hat man da eh TLP ohne Ende.
Zu glauben, dass SMT *die* goldene Lösunge aller Probleme sei, ist aber zu rosarot. Erst wird unter Verlust ein Problem auf 2 (oder mehr) Threads ausgelagert, und diese Threads läßt man dann mittels SMT wieder nur auf einem einzelnen Kern laufen. Das geht gut, solange man sehr viele Stalls in einem Thread hatte, z.B. von einem Thread auf 2 geht, aber schon von 2 auf 4 wirds (bei Spielen) mäßig. Wenn man jetzt noch mehr zerlegt, wie im Anno Fall und auch durch SMT mehr Threads zur Verfügung hätte, dann gibts augenscheinlich keinen SpeedUp mehr... schau Dir die Ergebnisse an.
Das einzige was man bei den PCGH Ergebnissen bemängeln könnte, wäre der fehlenden CPU Auslastungsgraph. Wenn das Game selbst PCGHs BigCity Szenario nicht hinreichend gut aufteilen könnte, wäre meine Argumentation falsch. Müßte man ausprobieren. Falls Du einen i7 hast, darfst Du das gerne machen und mich widerlegen. Gegen sachlich fundierte Kritik hab ich nie etwas einzuwenden.
In der Regel werden Threads auch nicht auf CPU-Kerne festgesetzt, sondern der Scheduler verschiebt sie munter hin und her bei jedem Task-Switch.Ist richtig ... aber hat denn jemand was anderes behauptet ... ? Wenn Du 6 Threads auf 4x2 SMT Kerne hast, hast Du immer 2x2+2x1 belegte Kerne - welche das sind darfst Du Dir aussuchen :)
@Gast:
Ich rede ganz allgemein von den messbaren Auswirkungen von SMT unter Windows 7. Die von dir beschriebenen möglichen Leistungsverluste gibt es dort eben nicht (mehr), insofern ist auch egal wieso und weshalb.Nochmal: Ich hab von den Win7 SMT-Scheduler Vorteilen gegenüber XP/Vista *nie* geredet. Mit dem Thema hast Du angefangen, insofern ist das wieso und weshalb wirklich egal. Du darfst Dein Selbstgespräch gerne beenden, es war nie Diskussionsgegenstand :freak:
Wenn dann werden die SMT Gewinne unter Windows 7 gewachsen sein. Neue Version, neue Werte, deswegen ist SMT aber nicht auf einmal mehr ohne Zugewinne - das schwankt einfach je nach Szene im AusmaßSorry, aber jetzt wirds abstrus. Schau mal nochmal die aktuellen PCGH Anno Ergebnisse an und sag mir, wo da was von Vista -> Win7 "gewachsen" ist ...
PCGH hat genau die gleiche Szene verwendet. Dass Du jetzt schon wieder eine andere Seite mit anderen Ergebnissen ausgräbst ist höchst amüsant und erinnert mich ganz stark an das Argumentationsmuster aus meinem Freund in der Signatur.
Was du übrigens nicht machen darfst, ist aus den Min FPS etwas herauslesen zu wollen. Wir reden hier von einem einzigen isolierten Frame, der bei einmaligem Vorkommen in einem längeren Benchmark völlig irrelevant sein kann. Wir brauchen Frameverläufe oder aber Aussagen wie "xx% unter 30fps". Frag mal bei PCGH an, wie oft die einen Test durchlaufen lassen, um so etwas auszuschließen ...
Eventuell würde es auch reichen, wenn Du die Testbeschreibung lesen würdest, sollte da auch zu finden sein. Frameverläufe wären aber trotzdem ganz nett zu sehen, da stimme ich zu.
Siehe oben zum Thema Min FPS. Gerade wenn SMT nur 10% oder Szenenweise noch weniger bringt, werden auch zwei zusätzliche Kerne die Leistung eher kaum steigern.Jo, siehe oben, damit ist alles gesagt ;-)
Das SMT selbst deutlich mehr bringen kann sehen wir ja bei Clarkdale, der bei Computerbase schon im Mittel über 30% in Spielen zulegt. Folglich limitiert bei den i7 mit 8 Threads nur die hohe absolute Threadanzahl weitere Gewinne.AH ok, Computerbase, also jetzt Seite No 3. Ja da stimme ich zu. Wir sind zwar auch bei einer anderer Szene, aber SMT scheint unter den CB Konstellationen etwas zu bringen. So wies ausschaut ist der TLP Anteil des CB Szenarios hinreichend groß, so dass ein Plus übrig bleibt (oder aber die Stalls aufgrund L2 miss sind so zahlreich, dass es was bringt, siehe unten).
Aaber ... - und damit komme ich wieder an den Anfang der Gast Debatte (wobei ich mir nicht sicher bin, ob Du noch der gleiche Gast bist), ursprünglich ging es darum, ob AMD dringend eine neue Architektur braucht. Nachdem Du jetzt die CB Ergebnisse in den Ring geworfen hast, bist Du Dir sicher darüber im Klaren, wie der Phenom2 965 abschneidet, oder ?
(Für alle stillen Mitleser, die es nicht wissen: Der P2 965 ist da auf Platz No.1 vor den teuersten Intel extrem Teilen und so gut, dass CB die Anno Werte aus der Gesamtwertung genommen hat, weil das ja irgendwie nicht stimmen kann und es ein Bug sein muss :freak:.)
Die (neuen) Intels glänzen da ganz allgemein nicht, auch nicht die Clarkdales. Ja SMT bringt ausnahmsweise mal was, ganz ordentlich sogar, von 25 fps auf 31. Aber dazwischen liegt mit 28,5 fps ein Phenom2 X2 mit 233 MHz weniger. Das entspricht ziemlich gut den 8% Unterschied bei den fps. Wo da der Vorteil der Intel Architektur sein soll, müßtest Du mir erklären (wenn Du noch der gleiche Gast wärst), ich sehe solange keinen Zwang für eine neue Architektur, höchstens einen Zwang für mehr Takt :)
Link:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i3-530_540_core_i5-661/23/#abschnitt_anno_1404
Interessant ist auch der 980X Bench von computerbase. Las ich erst gerade durch. Da ist der 6Kerner langsamer als der 975X mit 4 Kernen.
Sieht wirklich so aus, als ob das cb Szenario stark cachelastig wäre, was ich schon länger aufgrund der guten C2Q Werte vermutete. Gulftowns L3 ist das einzige, was schlechter =langsamer ist. Ein X6 sollte bei cb dann auch nicht schlechter abschneiden - solange AMD nicht auch an der L3 Latenz gedreht hat. Die zusätzlichen 2 Kerne sollten aber wohl nicht viel bringen, ansonsten müßte der 980X den L3 Nachteil wettmachen.
Bei PCGH sollte es einen schönen Min FPS Boost geben, ein Anwachsen des Durchschnitts schließe ich dort auch nicht aus - aber warten wirs mal ab.
Dann würde SMT aber nicht nur bei Clarkdale, sondern auch bei Lynnfield oder Nehalem gute Gewinne in Spielen bringen. Wie es scheint, sind aktuell 4 Threads einfach mehr als genug für Spiele, OS und Treiber. Das stimmt, wenn die ganzen SMT Threads den L2 nicht zum Überlauf bringen (können) oder anderes überlasten. Was passiert, wenn der L2 Cache nicht mehr mitzieht, sieht man oben an CBs Anno Bench.
Falls Du Cache Auslastungs-Messungen hast, bitte posten, ansonsten warten wir mal die AMD X6 Werte ab. Wenn sich da dann auch nichts tut, kann man davon ausgehen, dass Du recht hattest.
y33H@
2010-04-10, 15:57:24
Interessant ist auch der 980X Bench von computerbase. Las ich erst gerade durch. Da ist der 6Kerner langsamer als der 975X mit 4 Kernen.Ich kenne kein offizielles Intel-Statement, aber beim i7-980X gegenüber dem i7-975 XE wurden die Cache-Latenzen "gestreckt". Daher ist der 980er in Spielen, die max. 4C nutzen, reproduzierbar einen Tick langsamer.
@Gast:
Nochmal: Ich hab von den Win7 SMT-Scheduler Vorteilen gegenüber XP/Vista *nie* geredet. Mit dem Thema hast Du angefangen, insofern ist das wieso und weshalb wirklich egal. Du darfst Dein Selbstgespräch gerne beenden, es war nie Diskussionsgegenstand :freak:
Leistungsnachteile durch SMT hast du in das Thema gebracht und stehst nun vor dem Problem, diese weder belegen noch erklären zu können. Unter Windows 7, und jetzt fang nicht wieder mit dem Scheduler-Kram an, kostet SMT keine Leistung. Insofern solltest du diesen Fehler korrigieren.
Sorry, aber jetzt wirds abstrus. Schau mal nochmal die aktuellen PCGH Anno Ergebnisse an und sag mir, wo da was von Vista -> Win7 "gewachsen" ist ...
PCGH hat genau die gleiche Szene verwendet. Dass Du jetzt schon wieder eine andere Seite mit anderen Ergebnissen ausgräbst ist höchst amüsant und erinnert mich ganz stark an das Argumentationsmuster aus meinem Freund in der Signatur.
Deine Freunde sind mir leider unbekannt. Fakt ist, dass Ergebnisse nuneinmal Szeneabhängig sind. Hier, am Beispiel des Clarkdale, sehen wir ~25% Performanceplus durch SMT:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i3-530_540_core_i5-661/23/#abschnitt_anno_1404
Bei einem i7 wird das durch die absolut höhere Threadanzahl geringer Ausfallen, da können wir je nach Szene und Patch mal 10%, mal aber auch gar keinen Gewinn haben, wenn bereits 4 Threads ausreichend sind.
(Für alle stillen Mitleser, die es nicht wissen: Der P2 965 ist da auf Platz No.1 vor den teuersten Intel extrem Teilen und so gut, dass CB die Anno Werte aus der Gesamtwertung genommen hat, weil das ja irgendwie nicht stimmen kann und es ein Bug sein muss :freak:
Die Frage ist aber, warum der Phenom bei drei anderen Computerbase-Szenen, bei der PCGH und bei Behardware gegen die i5/i7 so einbricht. Womöglich bremst hier der sehr viel langsamere L3 Cache des Phenom 2? In der einen Computerbase-Szene, wo er vorne liegt, scheint wiederum nur der Takt zu zählen - aber dennoch, im Mittel ist der X4 965 hier klar hinter einem i5 750.
Außerdem sieht AMD die Prozessoren für die Leo-Plattform vor Wen interessiert die Vorsehung ? ;-) Wenn Du magst, dann kannst Du den X6 auch in ein 35 Euro AsRock Brett packen:
http://gzhls.at/deutschland/a322378.html
(Beta Bios gibts bei pctreiber).
und schon die 890GX-Boards haben derzeit keinen Preisvorteil gegenüber P55-Brettern, sie punkten lediglich über das bessere Featureset, wobei USB3.0 verteuernd per NEC-Zusatzchip angeboten werden muss.HMm .. den NEC Chip brauchst Du bei Intel aber doch auch :confused: Zusätzlich dann noch einen Sata3 Chip und dazu noch am Besten eine PCIe Bridge, damits keine Engpässe gibt.
Naja wie auch immer, die 890er Bretter werden sicherlich im 100 Euro Preisbereich bleiben, das waren die 790GX auch schon, darunter kommt dann 880G, mal schauen ob es auch Kombinationen mit der SB850 geben wird.
Ich denke, Intel ist in einer für uns unangenehm komfortablen Position und ich denke, das spiegelt sich auch schon darin wieder, wie asketisch die P55-Plattform auf Mainstream gezimmert wurde. Jupp, "asketisch" ist gut und neutral formuliert :)
Hier kommt jetzt der Phenom II X6 ins Spiel. Das Argument der "ausreichenden CPU-Leistung" geht doch irgendwie ins Leere, wer zufriedenstellende Mindestleistung zum günstigen Preispunkt sucht, der landet realistischerweise nicht beim Spitzenmodell sondern allenfalls beim günstigsten BE-Quadcore für unter 150€.Jein ... ich würde zustimmen, wenn der X6 keinen Turbo Mode hätte. Hat er aber, somit wird das schon mit 3,6 Ghz und 3 Kernen interessant, v.a. auch da der Stromverbrauch anscheinend nicht höher wird.
Sowohl für Übertakter (weniger Stromverbrauch) als auch nicht Übertakter(Turbo) interessant ;)
Schnäppchenjäger werden aber wirklich beim 966/965 hängen bleiben, die bieten eben auch schon ausreichend Leistung, mit OC sowieso.
Das Ding kommt auf den Markt und Intel wird bedauerlicherweise aller Voraussicht nach nicht einmal reagieren müssen, denn der Core i7 860 steht bereits Gewehr bei Fuß und wird die sinnvollen Anwendungsszenarien vermutlich leicht für sich entscheiden. Alles unterhalb von 6 Threads ging auch bisher schon an Intels Architektur bei entspannten 2,6Ghz und wer mehr benötigt oder möchte, der landet sowieso bei S1366 oder dreht an der Taktschraube.Jo wenn Du wieder das Leistungskriterium über alle anderen stellst ist die Aussage richtig. Ich persönlich rüste gerne auf, da reicht mir "ausreichend" Leistung nun, und die Aufrüstoption im (über)nächstem Jahr.
ciao
Alex
aylano
2010-04-10, 16:30:53
Schönrederei!
1. Im Desktopbereich sind sie derzeit bestensfalls auf Penryn-Niveau [leistung/verbrauch]
2. mit dem verbesserten e0-stepping und der intel-turbo-kopie schließt man bestenfalls auf die alte i7 generation auf, ist aber dennoch mind. ein jahr hinter der aktuellen generation
Sage ich ja. RV770 mit Leistung/Verbrauch war auch auf GT280 Niveau.
Sogar etwas schlechter, nur in Low-End & Mainstream deutlich besser.
Bulldozer wird IMO noch einen Zahn zulegen, ähnlich wie es mit der 5000er-Serie kommt.
3. den gpu-markt kannst du nicht auf den cpu-markt übertragen, nvidia schwächelt und hat sich verzockt (fermi), intel dagegen baut seinen vorsprung weiter aus.
Manche wollen die Schwäche von Fermi nicht erkennen.
Fermi ist so eingeführt worden, wie ich schon seit Jänner erwartet und kurz nach GT200b unter Umständen befürchtet habe.
Intel tut sich schwer mit dem Ausbauen des Vorsprung.
Larrabee Gen 1 ist tot.
Atom ist noch immer nicht im ARM-Markt. Eh so wie ich es immer sagte.
2010 hätte der große Einstieg erfolgen sollen.
WiMax ist halt so gerade noch am Leben
So wie Itanium.
Intel ist mit der Fertigung halt immer einen Schritt voraus.
Aber der High-K (& 32nm)-Vorsprung wird dann in 8 Monaten geschichte sein.
Dazu die ganzen neuen Architekturen.
Vorallem hat AMD jetzt den Nachteil bei den Chipsätzen, dass sie wegen den 40nm-TSMC-Probleme keine 40nm-Chips draußen haben, wo AMD sonst immer einen deutlichen Vorsprung hatte.
Man sieht halt schön, im ARM & GPU-Markt geht es ziemlich fair zu und da hat Intel momentan ansatzweise keine Chance.
Sage ich ja. RV770 mit Leistung/Verbrauch war auch auf GT280 Niveau.
Sogar etwas schlechter, nur in Low-End & Mainstream deutlich besser.
Davon hat man aber in den Reviews nichts gesehen.
Bulldozer wird IMO noch einen Zahn zulegen, ähnlich wie es mit der 5000er-Serie kommt.
Zulegen, sicherlich. Aber wieviel? Ob es reicht um auf den i7 aufzuschließen? Was macht Intel bis dahin? Mehr Takt/cache etc? Die bleiben stehen und warten auf AMD? Nein sicherlich nicht.
Manche wollen die Schwäche von Fermi nicht erkennen.
Fermi ist so eingeführt worden, wie ich schon seit Jänner erwartet und kurz nach GT200b unter Umständen befürchtet habe.
Ich erkenne da keine Paralelle zu Intel. Intel kann es sich einfach leisten etwas größere Chips zu bauen, welche in gesamten betrachtet das bessere Paket darstellt. Intel hat auch nicht wie NVidia mit einem schlechten Prozess zu kämpfen, nein man hat sogar einen noch fortschrittlicheren und sehr sehr gute Yields. Kein Problem für BigChips.
Intel tut sich schwer mit dem Ausbauen des Vorsprung.
Larrabee Gen 1 ist tot.
Atom ist noch immer nicht im ARM-Markt. Eh so wie ich es immer sagte.
2010 hätte der große Einstieg erfolgen sollen.
WiMax ist halt so gerade noch am Leben
So wie Itanium.
Und was hat das mit CPUs zu tun?
Was hat eigentlich AMD dort [Server+RAS, ARM, WiMax) zu melden? NICHTS!
Intel ist mit der Fertigung halt immer einen Schritt voraus.
Aber der High-K (& 32nm)-Vorsprung wird dann in 8 Monaten geschichte sein.
nö, bis AMD das im Griff hat und ordentlich produzieren kann, ist Intel mit 22nm am Start. Gleiche Situation wie sonst auch. Und ja man hört das doch jedesmal, das AMD nächtes Jahr mit dem neuen Prozess aufgeholt hätte. Täglich grüßt das....
Dazu die ganzen neuen Architekturen.
Vorallem hat AMD jetzt den Nachteil bei den Chipsätzen, dass sie wegen den 40nm-TSMC-Probleme keine 40nm-Chips draußen haben, wo AMD sonst immer einen deutlichen Vorsprung hatte. Kaum zu glauben, Intel stellt die "bessere" Plattform ;)
Man sieht halt schön, im ARM & GPU-Markt geht es ziemlich fair zu und da hat Intel momentan ansatzweise keine Chance.
Ja genau, als wenn du da genauere Einblicke hättest. Träum weiter!
aylano
2010-04-10, 20:08:30
Davon hat man aber in den Reviews nichts gesehen.
Kein Wunder, Thuban ist auch noch nicht da.
Zulegen, sicherlich. Aber wieviel? Ob es reicht um auf den i7 aufzuschließen? Was macht Intel bis dahin? Mehr Takt/cache etc? Die bleiben stehen und warten auf AMD? Nein sicherlich nicht.
Vielleicht schafft es Intel bis dahin einen 8-Core in 32nm rauszubringen.
Schlafen wird Intel nicht. Nach einem großen Sprung sieht es momentan nicht aus.
Und mit AVX wird Bulldozer dort ordentlich zulegen, wo Core2 mit SSS3 und Westermere noch mit SSE4.2 jetzt ihre gewissen Vorteile hat.
Außerdem klingt das Bulldozer-Konzept sehr interessant alias einen 2.Integer-Core mit nur 12%-Modul-Vergrößerung
Ich erkenne da keine Paralelle zu Intel.
Intel hat auch nicht wie NVidia mit einem schlechten Prozess zu kämpfen, nein man hat sogar einen noch fortschrittlicheren und sehr sehr gute Yields. Kein Problem für BigChips.
Ich meinte nicht das Technische, sondern die Situation, dass AMD Stück für Stück näher kommt.
Zuerst mussten sie bei der Deneb-Einführung von 2,6 auf 3,0 Ghz springen um den schon zu groß gewordenen Abstand zu reduzieren.
AMD legte nach, aber Intel hatte noch verdammt große Reserven, die genutzt wurden.
Mittlerweile konnte AMD so aufholen, dass sie wieder die Preise für Spitzen-Modelle deutlich erhöhen konnten.
Und mit Bulldozer werden sie IMO wieder ordentlich zulegen, weil zusätzlich noch High-K kommt.
Wie gesagt, so konnte man es auch im GPU-Markt sehen und das schon vor 1 Jahr gut (also kurz nach GTX285-Problemen), aber es sahen die Wenigsten, weil Nvidia noch den längsten Balken hatte.
Manche sehen heute nicht, dass Nvidia nicht nur das Problem des 40nm hat sondern ein generelles.
Und was hat das mit CPUs zu tun?
Was hat eigentlich AMD dort [Server+RAS, ARM, WiMax) zu melden? NICHTS!
Nichts, nur hat Intel schon 80% des CPU-Marktes und müsste sich woanders ausbreiten um zu expandieren. Der Wille war da, nur kam nicht viel raus.
AMD kann im CPU-Markt noch sehr viel wachsen und brauchen somit keine neuen Märkte zu erschließen.
nö, bis AMD das im Griff hat und ordentlich produzieren kann, ist Intel mit 22nm am Start. Gleiche Situation wie sonst auch.
So wie es aussieht, hast du noch keinen Defekt-Rates gesehen, sowie keine Cross-Over-Zeitpunkte mitbekommen. Denn sonst würdest das nicht schreiben.
Kaum zu glauben, Intel stellt die "bessere" Plattform ;)
Richtig lesen schadet nicht.
Wären die 40nm-Probleme nicht da, hätte AMD mit der 800er-Chipsatz-Serie sicher auf 40nm umgestellt, was mehr Performance & weniger Stromverbrauch bedeutet hätte.
Wegen den 40nm-TSMC-Problem hatte Intel da ordentlich aufholen können.
Und ja man hört das doch jedesmal, das AMD nächtes Jahr mit dem neuen Prozess aufgeholt hätte. Täglich grüßt das....
So wie du die Texte liest, wunderst mich nicht, warum du jedesmal sowas liest.
Solche Aussagen wurde schon gemacht. Aber das war vorallem vor der Dirk-Mayer-CEO Zeit.
Wobei mit Chartered könnten da so einigen Entwicklungen schneller verlaufen und so vielleicht 1-2 Quartale aufholen. Aber das ist noch uninteressant, weil das bräuchte sicher noch paar Jährchen.
Ja genau, als wenn du da genauere Einblicke hättest. Träum weiter!
Anscheinend kennst du nicht die Pläne die Intel bekannt gegeben hat.
Naja, hast wohl noch nichts von Larrabee 1.Generation mitbekommen, der eigentlich schon 2008 kommen hätte sollen.
Atom kam 2008.
2009 wollten sie in den ARM-Markt reinschnuppern und erste Geräte beliefern, was deutlich unter den Erwartungen war.
2010 wollte Intel durchstarten, aber auf der CES erkannte man, wie Atom von Tegra II & Co "fertig" gemacht wurden.
Und die Atoms jetzt bei TSMC weiterzuentwickeln ist AFAIK jetzt schon schon ins Stocken geraten oder stehengeblieben.
Leistungsnachteile durch SMT hast du in das Thema gebracht
Das stimmt, und ich hab mittlerweile starken TLP Gewinn bzw. häufige L2 misses ausgenommen. Scheint beim Clarkdale beides zu sein.
Unter Windows 7, und jetzt fang nicht wieder mit dem Scheduler-Kram an, kostet SMT keine Leistung. Insofern solltest du diesen Fehler korrigieren.
Lol ... zitier mich doch bitte wo ich was vom Scheduler erzähle, der einzige der andauernd damit anfängt, bist Du. Dabei wolltest Du doch aufhören, oder nicht ? Du hast in #57 damit angefangen und meinen xbox Text zitiert. Falls die xbox mit XP Scheduler laufen sollte: Nein das habe ich nicht gemeint :freak:
Fakt ist, dass Ergebnisse nuneinmal Szeneabhängig sind. Hier, am Beispiel des Clarkdale, sehen wir ~25% Performanceplus durch SMT Hatte ich doch schon oben verlinkt und was dazu geschrieben. Ansonsten stimme ich der Szenenabhängigkeit zu - aber mich würde unabhängig davon interessieren, wo die 10% SMT Vorteil bei der PCGH Szene beim Wechsel auf Win7/Anno 1.1 hingekommen sind. Eventuell gabs da nen Anno Bug oder es wurde was an der Engine geändert, wäre interessant zu wissen, was und wieso :)
Bei einem i7 wird das durch die absolut höhere Threadanzahl geringer Ausfallen, da können wir je nach Szene und Patch mal 10%, mal aber auch gar keinen Gewinn haben, wenn bereits 4 Threads ausreichend sind.Wenn wirklich nicht mehr als 4 Threads laufen - logisch.
Die Frage ist aber, warum der Phenom bei drei anderen Computerbase-Szenen, bei der PCGH und bei Behardware gegen die i5/i7 so einbricht. Womöglich bremst hier der sehr viel langsamere L3 Cache des Phenom 2?Nö, AMD ist schlicht und ergreifend langsamer. Intels IPC ist höher. Wenn ein Nehalem Kern nicht ewig auf Daten aus dem L3 warten muss, und alles aus dem L1/L2 Cache bedient werden kann, geht das Teil ab. Ist doch nichts Neues, steht doch in jedem Wald- und Wiesen Bench.
In der einen Computerbase-Szene, wo er vorne liegt, scheint wiederum nur der Takt zu zählenWie der Takt ? Solche Pauschalausagen sind unbrauchbar. Intel hat bei gleichem Takt normalerweise die höhere IPC, deswegen braucht AMD mehr Takt um gegenhalten zu können. Kennt doch jeder: i5 750 @2,66/2,8GHz entsprich grob nem Phenom2 955/965 bei 3,2 GHz/3,4 GHz.
Wenn jetzt aber die Sache bei Intel unplanmäßig läuft und L1/L2 misses en masse auftreten, dann bringt das schnellste Rechenwerk nichts, da die Daten zu langsam ankommen. Dann braucht natürlich auch Intel mehr Takt (wenn SMT auch nichts mehr hilft) - logisch. Pauschal von "mehr Takt" zu reden, ist aber zu eindimensional, da muss man immer hinter die Kulissen schauen, und nachforschen was da los ist.
- aber dennoch, im Mittel ist der X4 965 hier klar hinter einem i5 750.Welches Mittel ? Das aus den 3 Szenen ? Geschenkt, da darf der i5 gerne rechnerisch vorne bleiben. In solchen Fällen interessiert mich die artifizielle Arithmetik null, da schau ich mir lieber die Spielbarkeit an. 10 oder 20 fps Unterschied sind im 100fps Bereich nebensächlich. Mir reicht es zu wissen, dass der AMD dann im 30-40 fps Bereich nicht so stark einbricht.
Ich kenne kein offizielles Intel-Statement, aber beim i7-980X gegenüber dem i7-975 XE wurden die Cache-Latenzen "gestreckt". Daher ist der 980er in Spielen, die max. 4C nutzen, reproduzierbar einen Tick langsamer.Naja, Offizielles braucht man in dem Fall ja nicht, man kann die Latenz ja messen. Haben die Leute bei CB ja gemacht, und festgestellt, dass die anwuchsen. Insofern ist das 100% bestätigt. Es verwundert dann nur, dass sich bei Eurem Anno Szenario der 980X ganz gut schlägt, bei CB aber nicht.
Das würde bedeuten, dass das (größere!) CB Szenario weniger Threads als Eures beschäftigt. Fände ich ersteinmal komisch, aber nun gut - muss fast ja so sein. Andere Erklärungen wären höchsten noch ne kuriose Treibergeschichte.
Edit:
Wie sich in 10 Seiten herausstellen wird, war meine Annahme über die Szenariogröße ein Irrtum, das PCGH Szenario ist größer (100k Ew, zu 82k Ew), von daher ist alles in Butter.
Noch ne Korrektursache:
Wenn ich mich recht erinnere war ja um Neujahr Personalnot bei PCGH, sieht man noch an den Clarkdalediagrammen. Die sind recht asketisch (das Wort gefällt mir jetzt) ;-)
a) Keine SMT/Turbo Info (nicht soo schlimm)
b) Fehlerhafte Sysinfo, der 940 hat sicherlich kein DDR3 ;-)
c) Ungenaue Save Game Angabe "PCGH Savegame", anstatt PCGH Big City max Details (dachte zuerst schon, das wäre was anderes, aber:
d) Die Vergleichswerte stammen augenscheinlich aus dem Lynnfieldtest und wurden übernommen, allerdings sind das die Min Werte, nicht die Durchschnittswerte. Sollte man auch erwähnen.
Clarkdale Link:
http://www.pcgameshardware.de/aid,702005/Test-Intel-Core-i3-und-Core-i5-Clarkdale-auf-dem-CPU-Pruefstand/CPU/Test/
Lynnfield:
http://www.pcgameshardware.de/aid,691470/Lynnfield-im-Test-Benchmarks-des-Intel-Core-i5-750-und-Core-i7-860-in-Anno-1404/CPU/Test/
ciao
Alex
Ziemliche viele Worte hier, nur um festzustellen, dass ein i7 gerne mal 50 % vor einem X4 965 BE liegt, wenn sonst nichts limitiert. :D
Undertaker
2010-04-11, 01:23:42
Wenn es sonstige Limitierungen gibt, wird sich auch nie eine CPU von einer anderen absetzen können. Außer, wir fangen wieder an über ominöse +-2% im GPU-Limit zu diskutieren. ^^
Welches Mittel ? Das aus den 3 Szenen ? Geschenkt, da darf der i5 gerne rechnerisch vorne bleiben. In solchen Fällen interessiert mich die artifizielle Arithmetik null, da schau ich mir lieber die Spielbarkeit an. 10 oder 20 fps Unterschied sind im 100fps Bereich nebensächlich. Mir reicht es zu wissen, dass der AMD dann im 30-40 fps Bereich nicht so stark einbricht.
Die niedrigsten fps des i5 750 sind aber 35fps bei Computerbase, die niedrigsten fps des X4 965 30fps bei Behardware. Das würde dann bedeuten, dass bei der stärksten Belastung der X4 deutlicher einbricht als der i5, wenn man den Vergleich der Min fps über mehrere Reviews ziehen will.
Vergesst min. FPS-Werte. Da braucht nur eine unendlichstel Sekunde die HDD rattern bzw. an einer Stelle ein absolutes GPU-Limit auftauchen und man kann einen Vergleich komplett knicken.
Die niedrigsten fps des i5 750 sind aber 35fps bei Computerbase, die niedrigsten fps des X4 965 30fps bei Behardware. Das würde dann bedeuten, dass bei der stärksten Belastung der X4 deutlicher einbricht als der i5, wenn man den Vergleich der Min fps über mehrere Reviews ziehen will.
Wie testet behw ? Wie lange ist die Szene ? Sind das Min oder Durchschnittswerte ? Falls Durchschitt, wie wird der berechnet ?
Schau mal bitte nach, und sage mir, dass nicht der Fall eintritt:
Dabei erweist sich das Ermitteln der Bilder pro Sekunde als durchaus nicht einfach. Nimmt man gleich die ersten Sekunden mittels Fraps auf, können bis zu 60 Prozent höhere Frames gemessen werden. Da dies jedoch im weiteren Verlauf des Spiels nie wieder vorkommt, muss die Phase übergangen werden, erst dann wird mit der Messung bekommen. Vor allem bei den Core i7 hat dies zur Folge, dass man von weit über 50 Bildern pro Sekunden plötzlich nur noch im mittleren 30er Schnitt landet, wie unser Verlaufsdiagramm anzeigt. Nach einem Start mit 54 Bildern pro Sekunde folgt der langsame aber stetige Fall. Würde man die ersten zehn Sekunden vermessen, käme man auf eine Zahl von mehr als 42 Bilder pro Sekunde. Wie das Diagramm aber deutlich zeigt, sind diese nicht haltbar. Denn Schwankungen zwischen 44 und 34 Frames haben am Ende ein Ergebnis deutlich unter der 40-Frames-Marke zur Folge. Anders hingegen der Phenom II X4 965. Dieser fängt zwar schwächer an, pegelt sich aber deutlich über dem Core i7 ein, was ihn schlussendlich an die Spitze des Feldes setzt.
http://www.computerbase.de/artikel/prozessoren/2009/test_prozessoren_2009/12/
Ansonsten noch zur Anno Geschichte ... mir fiel gerade wieder ein, dass es da mit Cat 10.3 einen gewaltigen SpeedUp mit den üblichen i7 / Ati 5870 Testsystemen gab. Eventuell wars nur der GPU Treiber. Blöderweise testet aber halt keine Seite mit Phenom CPUs, sodass das Spekulation bleibt, da man nicht ausschließen kann, dass ein Ph2 nicht doch genauso profitieren würde.
Naja ... mit dem X6 Tests gibts hoffentlich ein paar aktuelle Testwerte.
@Gast:
Vergesst min. FPS-Werte. Da braucht nur eine unendlichstel Sekunde die HDD rattern bzw. an einer Stelle ein absolutes GPU-Limit auftauchen und man kann einen Vergleich komplett knicken.
Langsam wirds langweilig ... das Argument hab ich langsam 1000x gehört ... um solche Meßfehler auschließen zu können führen die (besseren) Seiten Tests mehrfach durch, nicht einfach, les mal das PCGH Testprozedere durch.
Langsam wirds langweilig ... das Argument hab ich langsam 1000x gehört ... um solche Meßfehler auschließen zu können führen die (besseren) Seiten Tests mehrfach durch, nicht einfach, les mal das PCGH Testprozedere durch.
Erkläre mal, wie du ein GPU-Limit durch Mehrfachtesten wegzauberst.
Erkläre mal, wie du ein GPU-Limit durch Mehrfachtesten wegzauberst.Sag Du mir erstmal woher Du das hervorzaubern willst. Wenn irgendeine CPU bessere Min Werte hat, weiss man, dass kein GPU Limit auftritt.
Wenn der 980X bei PCGH plötzlich 10 Min fps mehr gegenüber dem 975X hat, liegt sicherlich kein GPU Problem vor.
Sag Du mir erstmal woher Du das hervorzaubern willst. Wenn irgendeine CPU bessere Min Werte hat, weiss man, dass kein GPU Limit auftritt.
Wenn der 980X bei PCGH plötzlich 10 Min fps mehr gegenüber dem 975X hat, liegt sicherlich kein GPU Problem vor.
Meine Behauptung war, dass min. FPS-Angaben generell Unsinn sind. Was du jetzt genau für ein Problem hast (bzgl. i7-980X oder i7-975 bei PCGH), weiß ich nicht.
Kein Wunder, Thuban ist auch noch nicht da.
Mach dich nicht lächerlich, die Anwort gallt für "RV770 mit Leistung/Verbrauch" und nicht Thuban!
Vielleicht schafft es Intel bis dahin einen 8-Core in 32nm rauszubringen.
Schaffen? Sandy kommt doch als 8Core 32nm CPU. Man hat es sogar schon geschafft einen 8 Core in 45nm zu produzieren [schon letztes Jahr haben die Boardpartner ihre Testsamples bekommen], der Schritt zu 32nm sollte kein Problem darstellen, vorallem wenn es schon einen 6core in 32nm gibt (welcher mit einem 12Kerner MC gut mithalten kann).
Schlafen wird Intel nicht. Nach einem großen Sprung sieht es momentan nicht aus.
Wollen wir hoffen das AMD nicht wieder bis zu einem ähnlichen TLB-Bug-Problem "springt".
Und mit AVX wird Bulldozer dort ordentlich zulegen, wo Core2 mit SSS3 und Westermere noch mit SSE4.2 jetzt ihre gewissen Vorteile hat.
Außerdem klingt das Bulldozer-Konzept sehr interessant alias einen 2.Integer-Core mit nur 12%-Modul-Vergrößerung
Wird denn AVX per se von aller gängigen bereits verfügbaren Software unterstützt, oder muss das erst mit der Zeit aufgebaut werden?
Ich meinte nicht das Technische, sondern die Situation, dass AMD Stück für Stück näher kommt.
Ja wo denn? Man hinkt im Desktop weiter hinterher als je zuvor. Im Notebookmarkt haben sie erst kürzlich zum alten Core2 aufgeholt, aber man ist wie immer eine Generation zurück.
Allein im Servermarkt kann der MC durch Preisdumping und ManyCore/LowPower-Core etwas Boden gutmachen, aber eine Glanzleistung ist das nicht. Sieht eher als Verzweiflungsakt aus.
Zuerst mussten sie bei der Deneb-Einführung von 2,6 auf 3,0 Ghz springen um den schon zu groß gewordenen Abstand zu reduzieren.
AMD legte nach, aber Intel hatte noch verdammt große Reserven, die genutzt wurden.
Mittlerweile konnte AMD so aufholen, dass sie wieder die Preise für Spitzen-Modelle deutlich erhöhen konnten.
965BE <=> i5 750 [Preis/Leistung]
AMDs HighEnd hört da auf, wo Intel Mainstream anfängt - wow!
Und mit Bulldozer werden sie IMO wieder ordentlich zulegen, weil zusätzlich noch High-K kommt.
Wird auch langsam Zeit ;)
Wie gesagt, so konnte man es auch im GPU-Markt sehen und das schon vor 1 Jahr gut (also kurz nach GTX285-Problemen), aber es sahen die Wenigsten, weil Nvidia noch den längsten Balken hatte.
Manche sehen heute nicht, dass Nvidia nicht nur das Problem des 40nm hat sondern ein generelles.
Und was hat das mit Intel zu tun? Intel hat weder ein Problem mit 45nm noch mit 32nm. Und ein generelles Problem haben sie auch nicht.
Nichts, nur hat Intel schon 80% des CPU-Marktes und müsste sich woanders ausbreiten um zu expandieren. Der Wille war da, nur kam nicht viel raus.
AMD kann im CPU-Markt noch sehr viel wachsen und brauchen somit keine neuen Märkte zu erschließen.
Intel ist auch noch wo anders tätig und erfolgreich. Ist doch ganz normal das ein Konzern versucht sich auszubreiten. Ok AMD ist die Ausnahme, die verkleinern sich und geben ihre Fabs aus Geldmangel ab. Aber da hat ja Intel schuld........
So wie es aussieht, hast du noch keinen Defekt-Rates gesehen, sowie keine Cross-Over-Zeitpunkte mitbekommen. Denn sonst würdest das nicht schreiben.
Ja stimmt ich hab bis jetzt noch nix fertiges in 32nm von AMD gesehen.
Richtig lesen schadet nicht.
Wären die 40nm-Probleme nicht da, hätte AMD mit der 800er-Chipsatz-Serie sicher auf 40nm umgestellt, was mehr Performance & weniger Stromverbrauch bedeutet hätte.
Wegen den 40nm-TSMC-Problem hatte Intel da ordentlich aufholen können.
Blöd wenn man keine eigene Fab mehr für die eigene Plattform hat....
So wie du die Texte liest, wunderst mich nicht, warum du jedesmal sowas liest.
Da steckt Absicht dahinter ;)
Solche Aussagen wurde schon gemacht. Aber das war vorallem vor der Dirk-Mayer-CEO Zeit.
Ja diesmal wird alles besser ;D - wir werden sehen, nächstes Jahr, ähm über nächstes Jahr....
Wobei mit Chartered könnten da so einigen Entwicklungen schneller verlaufen und so vielleicht 1-2 Quartale aufholen. Aber das ist noch uninteressant, weil das bräuchte sicher noch paar Jährchen.
^^ warten und hoffen
Anscheinend kennst du nicht die Pläne die Intel bekannt gegeben hat.
Naja, hast wohl noch nichts von Larrabee 1.Generation mitbekommen, der eigentlich schon 2008 kommen hätte sollen.
Atom kam 2008.
2009 wollten sie in den ARM-Markt reinschnuppern und erste Geräte beliefern, was deutlich unter den Erwartungen war.
2010 wollte Intel durchstarten, aber auf der CES erkannte man, wie Atom von Tegra II & Co "fertig" gemacht wurden.
Und die Atoms jetzt bei TSMC weiterzuentwickeln ist AFAIK jetzt schon schon ins Stocken geraten oder stehengeblieben.
Sicher ist mir das bekannt, nur tut das nix zur Sache!
965BE <=> i5 750 [Preis/Leistung]
AMDs HighEnd hört da auf, wo Intel Mainstream anfängt - wow!
Was übrigens auch nicht wirklich stimmt (Preis-Leistung vielleicht schon). Ein i5-750 ist gut und gerne 10 - 20 % schneller.
Nur das der "Mainstream" völlig ausreicht heutzutage.:biggrin:
Ich für meinen Teil möchte lieber CPU, Chipsatz und Grafikkarte von einem Hersteller kaufen...Sozusagen alles aus einer Hand! Kann ich bei Intel nicht....
Da gibts nur zusammengewürfelten Mitschmatsch, kombiniert mit Fremdherstellern..;D
Und beim A-Team hab ich alles was ich brauche. Sogar ein preiswerter Dresdner 6Kerner mit 6x3,2Ghz und Turbo wird auf mein Board passen. Alles Perfekt...Wozu da Intel?
aylano
2010-04-11, 11:55:42
Wird denn AVX per se von aller gängigen bereits verfügbaren Software unterstützt, oder muss das erst mit der Zeit aufgebaut werden?
Lesen und verstehen;-)
Ein Tipp, der K10.5 hat kein SSSE3 und SSE4.2
Ja wo denn? Man hinkt im Desktop weiter hinterher als je zuvor. Im Notebookmarkt haben sie erst kürzlich zum alten Core2 aufgeholt, aber man ist wie immer eine Generation zurück.
...
965BE <=> i5 750 [Preis/Leistung]
AMDs HighEnd hört da auf, wo Intel Mainstream anfängt - wow!
Das reicht vollkommen um Mrd. Euro zu verdienen.
Intel weiß das und hat nicht umsonst den Markt unfair behandelt.
Allein im Servermarkt kann der MC durch Preisdumping und ManyCore/LowPower-Core etwas Boden gutmachen, aber eine Glanzleistung ist das nicht. Sieht eher als Verzweiflungsakt aus.
Etwas Boden gut machen ist sehr lustig.
Und was hat das mit Intel zu tun? Intel hat weder ein Problem mit 45nm noch mit 32nm. Und ein generelles Problem haben sie auch nicht.
Nochmals richtig lesen & verstehen tut gut. Es nervt nur.
Es ist nicht das Technische!!!!!!!!! und somit hat Intel keine 45 & 32nm Problemen.
Ja stimmt ich hab bis jetzt noch nix fertiges in 32nm von AMD gesehen.
Und, wennst weißt wie früher das AMD gemacht hat, dann ist da nichts ungewöhliches.
Blöd wenn man keine eigene Fab mehr für die eigene Plattform hat....
Das hat damit nichts zu tun.
Oder meinst du, AMD hat davor Chipssätze produziert?
Sicher ist mir das bekannt, nur tut das nix zur Sache!
Es tut sich viel zur Sache.
Immer wenn Intel war neues Revolutionäres entwickelt, geht verdammt vieles schief. Netburst deto.
Sie sind mit Core2-Pentium 3 sehr erfolgreich. Ich hoffe nur, sie vergeigen nichts, indem sie wieder was revolutionäres machen oder sie machen eben nur "kleine" Sprünge.
Ja diesmal wird alles besser ;D - wir werden sehen, nächstes Jahr, ähm über nächstes Jahr....
Wenn du nicht gesehen hast, wie deutlich besser es AMD mit Dirk Mayer geht, dann ist dir nicht zu helfen.
Aber es zeigt was du so mitbekommst und dann sind wieder deine Aussagen etwas zu verstehen.
Nochmals richtig lesen & verstehen tut gut. Es nervt nur.
Es ist nicht das Technische!!!!!!!!! und somit hat Intel keine 45 & 32nm Problemen.
Na dann erkläre uns mal die Gemeinsamkeiten zwischen NVidia und Intel in Bezug auf NVidias Probleme, damit wir es richtig lesen und verstehen können!
Stechpalme
2010-04-11, 12:12:55
Ich bin überrascht wie kleinlich man hier sein kann.
Mal im ernst, im Alltag merkt kein Mensch den Unterschied zwischen i5 750 und X4 965/955. Egal ob bei Spielen oder anderen Anwendungen. Und wenn man den Unterschied "subjektiv" nicht merkt, spielt es doch eh keine Rolle ob der Benchmark, gleich welcher, dem einen oder anderen ein paar Prozentpunkte mehr Leistung attestiert.
Ich persönlich warte auf den X6, der mit Sicherheit meinen Q6600 endlich in Rente schicken wird. Sicher, er mag in den gängigen Anwendungen keinen i7 860 (oder Vergleichbar) schlagen können. Noch nicht. Allerdings wird dieser auch nicht so viel Langsamer sein als das ich einen Unterschied merken werde. Auf der anderen Seite, bei Anwendungen die eben von mehr als 4 Kernen profitieren wird der X6 am i7 860 sicherlich vorbei ziehen können.
Am Ende ist mir eh die Plattform wichtiger. Derzeit bekomme ich eben keine naive SATA 3 Unterstützung bei Intel. Und da ich jemand bin der seine Plattform lange behält (siehe eben Q6600), ist mir das wichtig zumal eine SSD auch irgendwann folgen soll. Und diese werden in Zukunft SATA-3 sicher gut nutzen können.
Dazu sehe ich im X6 noch zwei weitere Vorteile gegenüber den Intel Modellen. Einmal ist er ziemlich Preisgünstig und liefert echte 6 Kerne und kein SMT das auch nur etwas bringt wenn die Physikalischen Kerne nicht komplett ausgelastet werden. Und ich bin überzeugt das es ähnlich sein wird wie beim Sprung von Dualcore auf Quadcore. Anfangs wurden die ersten Käufer belächelt, sogar verhöhnt das ein flotter Dualcore besser ist. War er auch, Anfangs. Jetzt kann ich über die Besitzer der flotten Dualcore CPUs lächeln. Ein Q6600@Stock Takt, schlägt in aktuellen Spielen und Anwendungen einen E8400 eigentlich immer.
Insgesamt ist der X6 für mich eine geniale CPU. Dazu die Plattform die derzeit einfach aktueller ist als die von Intel, zumindest in Bezug auf die Dinge welche ich benötige. Ob der X6 am Ende ein bisschen langsamer oder flotter ist als vergleichbare Intel Modelle, interessiert mich herzlich wenig. Wie gesagt, im Alltag merke ich das so oder so nicht. Zumindest hat das frühe erscheinen des X6 mich davon abgehalten mir einen i7 860 zu kaufen der eigentlich auf meiner Einkaufsliste stand. Eine umsrüstung von Q6600@3Ghz auf einen X4 (gleich welchen) würde mir rein gar nichts bringen.
Wenn ich hier zu Hause meine Rechner vergleiche, ist ein X4 810@3,12Ghz oder ein X4 940@3,4Ghz nirgends so viel schneller als das ich es merken würde wenn ich davor sitze und daran arbeite. Aber 2 Kerne mehr, damit kann ich was anfangen.
Wie testet behw
Savegame, Blick auf eine Stadt und ablesen der fps, ergo ein konstanter Wert. Hier erreicht der X4 965 weniger Frames, als der i5 minimal bei PCGames Hardware oder Computerbase erreicht - folglich scheint er bei Belastung stärker als die Core "i" Architektur einzubrechen. Bei der Differenz um etwa 15%-20% über verschiedene Reviews müsste der X4 965 wohl um ca. 600MHz auf 4GHz übertaktet werden, um mit dem i5 gleichzuziehen. Minimal wie Durchschnittlich.
Übrigens: Der andere Gast hat völlig Recht wenn er sagt, dass ein einzelner Minimalwert der fps ohne Sinn ist.
Meine Behauptung war, dass min. FPS-Angaben generell Unsinn sind. Was du jetzt genau für ein Problem hast (bzgl. i7-980X oder i7-975 bei PCGH), weiß ich nicht.
Ich hab ein Problem mit Deiner Aussage, da die einfach Unsinn ist ;-)
Das GPU Limit ist höchstens bei HD Auflösung und / oder hohem AA/F von Relevanz.
Edit:
Savegame, Blick auf eine Stadt und ablesen der fps, ergo ein konstanter Wert.
Ein konstanter Wert ? Wie soll das bitte gehen ? Passiert da nix und die Pausetaste wurde gedrückt ?
Übrigens: Der andere Gast hat völlig Recht wenn er sagt, dass ein einzelner Minimalwert der fps ohne Sinn ist.
Nö, siehe oben.
Das ist so nicht richtig. GPU-Limits sind eine momentane(!) Kombination aus CPU-Leistung, GPU-Leistung, CPU-Anforderung und GPU-Anforderung. Die letzten beiden Punkte sind szenenabhängig, je anch Kombination aller 4 kann es in jeder beliebigen Auflösung CPU- wie GPU-Limits geben.
Undertaker
2010-04-11, 12:35:38
Wie sinnfrei die minimalen FPS-Werte sind, braucht man doch bei PCGH nur ablesen: Dort soll ein 3,33GHz i7 975 minimal nur 2FPS oder ~7% schneller sein als ein i5 750, wo er diesen doch average um über 10FPS/>20% schlägt. Das lässt nur zwei Schlüsse zu:
1. Die minimalen FPS sind nicht CPU-limitiert - dann wäre aber auch der 980X Wert sinnlos
2. Die Schwankungsbreite der Werte ist zu groß für eine sinnvolle Bewertung
S940 verrennt sich hier etwas in seinen Theorien. ;)
Das ist so nicht richtig. GPU-Limits sind eine momentane(!) Kombination aus CPU-Leistung, GPU-Leistung, CPU-Anforderung und GPU-Anforderung. Die letzten beiden Punkte sind szenenabhängig, je anch Kombination aller 4 kann es in jeder beliebigen Auflösung CPU- wie GPU-Limits geben.
Jetzt wirds wieder lustig ...
Wieso sollte man ein Produkt aus X+Y nur mit X bezeichnen ? Das ist Unlogik pur.
Wenn bei irgendeiner Szene "momentan" die CPU die Frames begrenzt, dann hast Du nach Deiner Definition also ein GPU Limit, weil das ja auch von der CPU abhinge - ganz toll :freak:
Jetzt wirds wieder lustig ...
Wieso sollte man ein Produkt aus X+Y nur mit X bezeichnen ? Das ist Unlogik pur.
Du Unlogik ist, das dein " Produkt " kein Produkt sondern eine Summe ist, und wenn der Summand Y gegen 0 geht, hängt es in der Tat nur von X ab ;)
boxleitnerb
2010-04-11, 13:19:38
Es ist schon richtig, dass ein einzelner min-Wert nicht sonderlich aussagekräftig ist - auch bei Reproduzierbarkeit, wenn man Nachladeruckler etc. ausschließen kann.
Wichtiger ist, wie OFT und wie NAH die fps sich diesem Wert annähern. Ein (bei 20 fps) 50 ms-Ruckler stört doch weniger als wenn eine Szene über einen längeren Zeitraum sehr zäh läuft. Die Beschränkung auf einen einzigen Minimumwert vernichtet wichtige Informationen.
Vereinfachte Annahme:
Benchszene ist komplett CPU-limitiert. Es entstehen folgende Werte:
CPU A: 30 fps avg mit recht vielen Ausrutschern bis zu 22 fps
CPU B: 30 fps avg mit wenigen größeren Ausrutschern zu 18 fps hin
CPU A liefert die besseren min-fps, aber auf CPU B ist es die meiste Zeit besser spielbar. Ein Minimumwert ist nicht genug Information. Punkt.
Die Zeitkomponente darf man eben nicht vergessen.
Jetzt wirds wieder lustig ...
Wieso sollte man ein Produkt aus X+Y nur mit X bezeichnen ? Das ist Unlogik pur.
Wenn bei irgendeiner Szene "momentan" die CPU die Frames begrenzt, dann hast Du nach Deiner Definition also ein GPU Limit, weil das ja auch von der CPU abhinge - ganz toll :freak:
Du hast von dem Thema bisher kaum den Ansatz erfasst, was du da schreibst hat auch keiner behauptet. Erstmal ist X + Y ist kein Produkt. Eine CPU- oder GPU-Limitierung ist auch weder ein Produkt noch eine Summe. Wir haben hier vielmehr das Beispiel einer Arbeitskette, in der beide Komponenten bei einem isolierten Frame das Nadelöhr bilden können. Welche Komponente die Abarbeitungsgeschwindigkeit limitiert, hängt vom Arbeitsaufwand für Komponente A und B sowie deren jeweiliger Leistungsfähigkeit ab.
Du Unlogik ist, das dein " Produkt " kein Produkt sondern eine Summe ist,
Hahaha, angebissen ... ^o^
und wenn der Summand Y gegen 0 geht, hängt es in der Tat nur von X ab ;)
Wenn der Y gegen 0 geht, wieso sollte es dann erwähnenswert sein ? Lass das Teil dann ganz weg, und fertig.
Eine Variable einführen und dann gegen 0 gehen lassen .. jeder Physiker lacht sich krumm und jeder Mathematiker wird Dir sagen, dass Du das gerne machen darfst, das Endergebnis dann aber nicht X Limit nennen darfst, sondern X,Y Limit.
Benchszene ist komplett CPU-limitiert. Es entstehen folgende Werte:
CPU A: 30 fps avg mit recht vielen Ausrutschern bis zu 22 fps
CPU B: 30 fps avg mit wenigen größeren Ausrutschern zu 18 fps hin
Jo theoretisch denkbar, aber wie praxisrelevant ist das denn ? Ich seh beide Fälle als ruckelig an, den Unterschied zw. 18 und 22fps sieht doch keiner, einen Ruckler mehr oder weniger auch nicht - es nervt in jedem Fall ^^
Nichtsdestoweniger würde ich auch Frameverläufe gut heißen, schaden würden die ganz sicher nicht. Im Luxx gabs mehr als eine Meldung, dass Phenom2 "besser" bzw. "flüssiger" laufen würden. Gut möglich dass das nur Fanboy Gelaber war, aber eventuell war das sowas wie in Deinem Szenario oben, und es war eben doch wahrnehmbar.
Ohne Frameverläufe und mehrere Tests, bleibts aber Spekulation.
Bis dahin muss man mit den AVG und MIN Werten leben, da man eben nichts andres hat :(
ciao
Alex
Edit:
Erstmal ist X + Y ist kein Produkt
Noch einer ^^
Welche Komponente die Abarbeitungsgeschwindigkeit limitiert, hängt vom Arbeitsaufwand für Komponente A und B sowie deren jeweiliger Leistungsfähigkeit abDa erzählst Du nichts Neues, das weiss jeder und ich bin da voll auf Deiner Seite, aber den beschriebenen Sachverhalt kannst Du nicht "GPU" Limit nennen, da es eben von A und B bzw. X,Y abhängt.
aylano
2010-04-11, 14:26:00
Na dann erkläre uns mal die Gemeinsamkeiten zwischen NVidia und Intel in Bezug auf NVidias Probleme, damit wir es richtig lesen und verstehen können!
AMD machte seit RV670 gegen Nvidia da größere Sprünge, aber es war halt für viele nicht sichtbar, weil Nvidia noch den längsten Balken hatte.
Den Haben sie noch immer, der wegen höheren Stromverbrauch erkauft wurde.
Wobei das jetzt nur bei Single-GPU gilt. Die schnellste Karte haben sie nicht mehr, weil sie aufgrund des sparsameren GPU eben noch eine Dual-Karte ausging.
Und so !!ähnlich!! läuft es bei Intel vs. AMD, wobei es um 1-2 Jahre Zeitversetzt läuft.
Aber das ist nicht sooo sichtbar, da Intel a) viele Reserven im Stromverbrauch aufgrund niedrigen Verbrauchs hatte und so immer mit schnelleren oder mit neuer Architektur mit mehr Einheiten/Fetures und somit etwas stromfressender kontern/nachlegen konnte.
(Anders zu Nvidia, die mit niedrigen Spannungen ihre High-End-GPU besser aussehen lies.)
Dazu hat Intel noch ziemliche Reserven in der Spannung.
Siehe 6-Core der mit 1,14 Volt mit 3,3 Ghz betrieben wird, was bei diesen Taktraten sehr niedrig und beeindruckend ist.
(Aber Spannungsreserven bedeutet für Intel ja keine ungenutzten Reserven. Denn höhere Spannungen bedeuten auch höhere Yieldraten und somit bessere Wirtschaftlichkeit)
Ach ja, Reserven bedeuten auch, genug Modelle in alter Technik zu fertigen was wirtschaftlicher ist.
Es dürfte kein Zufall sein, als Intel die ganzen alten Fabriken aufgelassen hat, nachdem AMD die Deneb-Ghz-Rekorde zeigte.
Ich glaube, es waren 3 200mm-Fabriken.
Aber das kann man nicht genau sagen, da damals just zu dieser Zeit die Wirtschaftskrise kam, was sicher auch einen gewissen (wenn nicht mehr) Einfluss hatte.
Schwarz auf weiß fakten wie manche es gerne hätten, gibt es nicht, da wir einige Parameter wie Yield bei gewissen Spannungen & Takten usw usw usw nicht kennen.
Aber die kontenuierliche Steigerung von AMD-Spitzen-Modellen, zweigt den Aufwertstrend der letzten 1,5 Jahren und AMD.
Und das AMD im Jahr 2010 so gut mithalten könnte, hätte ich vor einem Jahr nicht gedacht.
Aber mittlerweile läuft der Laden rund.
Da erzählst Du nichts Neues, das weiss jeder und ich bin da voll auf Deiner Seite, aber den beschriebenen Sachverhalt kannst Du nicht "GPU" Limit nennen, da es eben von A und B bzw. X,Y abhängt.
Das hab ich auch nicht. Ich schrieb, dass ein GPU-Limit davon abhängt - das ist etwas völlig anderes. Du hast hingegen geschrieben, dass ein GPU-Limit nur HD/AA relevant ist. Das ist schlicht falsch, bei einer entsprechenden Kombination (schnelle CPU, Szene mit geringen GPU-Anforderungen und langsame GPU) wirst du auch in VGA-Auflösung ein GPU-Limit erzeugen können.
Botcruscher
2010-04-11, 15:20:02
Nuja rund ist relativ. Der Kritikpunkt ist ja nicht mal die Geschwindigkeit. Hauptproblem ist einfach die Leistungsaufnahme und irgendwo damit verbunden das OC. Preis Leistung zieht halt nur wenn man Intel nicht ordentlich taktet.
AMD machte seit RV670 gegen Nvidia da größere Sprünge, aber es war halt für viele nicht sichtbar, weil Nvidia noch den längsten Balken hatte.
Den Haben sie noch immer, der wegen höheren Stromverbrauch erkauft wurde.
Wobei das jetzt nur bei Single-GPU gilt. Die schnellste Karte haben sie nicht mehr, weil sie aufgrund des sparsameren GPU eben noch eine Dual-Karte ausging.
Und so !!ähnlich!! läuft es bei Intel vs. AMD, wobei es um 1-2 Jahre Zeitversetzt läuft.
Aber das ist nicht sooo sichtbar, da Intel a) viele Reserven im Stromverbrauch aufgrund niedrigen Verbrauchs hatte und so immer mit schnelleren oder mit neuer Architektur mit mehr Einheiten/Fetures und somit etwas stromfressender kontern/nachlegen konnte.
(Anders zu Nvidia, die mit niedrigen Spannungen ihre High-End-GPU besser aussehen lies.)
.
Du widersprichst dir doch selber, zuerst behauptest du das es so ähnlich sei, dann sagst du aber das Intel noch viele Reserver hat!. Ja wie denn nun?
Entweder Intel bleibt stehen, sind zwar "schnellster" aber AMD verkürzt den Abstand [und genau das ist nicht der Fall, Intel legt mehr zu als AMD aufholen kann] oder Intel baut den Vorsprung weiter aus (ohne den Verbrauch zu erhöhen, im Gegensatz zu NVidia!) und AMD hinkt wie immer hinterher. (so sieht es mMn aus).
Wenn du etwas anderes behauptest dann hast du einfach geschlafen oder bist nicht im Bilde!
Dazu hat Intel noch ziemliche Reserven in der Spannung.
Siehe 6-Core der mit 1,14 Volt mit 3,3 Ghz betrieben wird, was bei diesen Taktraten sehr niedrig und beeindruckend ist.
(Aber Spannungsreserven bedeutet für Intel ja keine ungenutzten Reserven. Denn höhere Spannungen bedeuten auch höhere Yieldraten und somit bessere Wirtschaftlichkeit)
Und wieder erkenne ich keine Paralelle zu NVidia, deren GT200b und GT300 liefen bereits am Limit!
Ach ja, Reserven bedeuten auch, genug Modelle in alter Technik zu fertigen was wirtschaftlicher ist.
Es dürfte kein Zufall sein, als Intel die ganzen alten Fabriken aufgelassen hat, nachdem AMD die Deneb-Ghz-Rekorde zeigte.
Ich glaube, es waren 3 200mm-Fabriken.
Aber das kann man nicht genau sagen, da damals just zu dieser Zeit die Wirtschaftskrise kam, was sicher auch einen gewissen (wenn nicht mehr) Einfluss hatte.
Schwarz auf weiß fakten wie manche es gerne hätten, gibt es nicht, da wir einige Parameter wie Yield bei gewissen Spannungen & Takten usw usw usw nicht kennen.
.
lassen wir mal so stehen.
Aber die kontenuierliche Steigerung von AMD-Spitzen-Modellen, zweigt den Aufwertstrend der letzten 1,5 Jahren und AMD.
Und das AMD im Jahr 2010 so gut mithalten könnte, hätte ich vor einem Jahr nicht gedacht.
Aber mittlerweile läuft der Laden rund.
Hey AMD war mal mit ihren FX Modellen an der Spitze, jetzt betreiben sie Preisdumping mit den s.g. "spitzenmodellen", man kämpft sich durch das mid-range-segment. wenn Intel den Preis der i5 Serie senkt, kann amd ihre Modelle gleich verschenken.
SavageX
2010-04-11, 16:57:42
Hey AMD war mal mit ihren FX Modellen an der Spitze, jetzt betreiben sie Preisdumping mit den s.g. "spitzenmodellen", man kämpft sich durch das mid-range-segment. wenn Intel den Preis der i5 Serie senkt, kann amd ihre Modelle gleich verschenken.
Wenn Intel den Preis der i5 Serie senkt, dann sieht es aber auch düster für Intels i3 und Pentium Serien böse aus. Intel mag die Marge, da will man mit den 296mm^2 der i5 Dinger sicherlich nicht die (deutlich) kleineren Geldkühe schlachten. Ich bin so oder so schon sehr verwundert, wieviel Silizium pro Dollar beim Lynnfield unter der Haube steckt, das ist eigentlich in letzter Zeit eher bei AMD üblich ;) - die betreiben aber zumindest eine Die-Mehrzweckverwertung.
Undertaker
2010-04-11, 17:22:03
Bei Lynnfield gehen allerdings im Gegensatz zu AMD nochmal ~40mm² für den PCIe-Controller drauf, den muss AMD mit dem Chipsatz bezahlen. Hier kann Intel eine SB zum Preis einer NB verkaufen.
Goldmund
2010-04-11, 17:49:37
Ein Nehalem ist bei gleichem Takt und gleicher Kernzahl immer schneller als ein Phenom II. Die Phenom2-Architektur benötigt durchschnittlich zwischen 30% und 50% mehr Takt für die gleiche Leistung.
LÜGNER
Truecrypt AES
PII 2,8 Ghz 465
i7 860 2,8 Ghz Ht:on turbo:off 459
i7 920 HT:on Turbo:on 461
Ein i5 750 ist übrigens auch ein Nehalem und
verglichen mit dem ist pro Takt sogar mein
9950 in diesem Bench eine Rakete
SavageX
2010-04-11, 17:58:43
Bei Lynnfield gehen allerdings im Gegensatz zu AMD nochmal ~40mm² für den PCIe-Controller drauf, den muss AMD mit dem Chipsatz bezahlen. Hier kann Intel eine SB zum Preis einer NB verkaufen.
Ich sage nicht, dass Lynnfield sich nicht rechnet, ich sage nur, dass Intel noch deutlich kleinere Dies für das untere Preissegment im Angebot hat, die man sicherlich ungerne kannibalisiert :)
LÜGNER
Truecrypt AES
PII 2,8 Ghz 465
i7 860 2,8 Ghz Ht:on turbo:off 459
i7 920 HT:on Turbo:on 461
Ein i5 750 ist übrigens auch ein Nehalem und
verglichen mit dem ist pro Takt sogar mein
9950 in diesem Bench eine Rakete
~1% ich lach mich tot. aber diese "schwäche" ist ja mit der neuen AES-Einheit Geschichte. Da sieht es für AMD düster aus.
SavageX
2010-04-11, 18:38:55
So, ich habe mir mal den 890GX Chipsatz vorgeknöpft um eine grobe Abschätzung zu haben, ob AMD hohe Kosten bei den Chipsätzen in Kauf nehmen muss.
Hierbei ist mir folgendes Bild der SB850 ganz nützlich:
http://www.pictureupload.de/originals/pictures/110410182037_4.jpg
(stammt von Anandtech)
Die Münze auf dem Bild ist ein amerikanischer Nickel, Durchmesser 21,21 mm. Ich komme deshalb für die SB850 auf eine Die-size von 5,3 mm * 7,138 mm = 37,849 mm^2.
Wenn ich nicht komplett danebenliege, dann sind die Seitenlängen der Chipverpackungen von NB und SB identisch. Anhand des Bildes komme ich auf pi * Daumen auf 23,66 mm. Richtige Experten würden das Package vermutlich sofort erkennen und diese Angabe etwas genauer hinbekommen ;)
Auf http://www.pictureupload.de/originals/pictures/110410182535_2.jpg ist die NB zu sehen. Hier komme ich auf 10,43 mm * 8,4 mm = 87,6 mm^2.
Damit bringt AMD auf ingesamt ca. 111,3 mm^2 auf einem 55nm Prozess insgesamt 24 PCIe 2.0 Lanes, einen Grafikkern, ein HT Interface, 14 USB 2.0 Ports, 6 SATA Ports, einen Ethernet MAC, einen PATA Controller und ein HD Audio Interface unter. Das erscheint mir halbwegs kompakt.
Hat jemand eine Idee, warum Intel für nur 16 PCIe Lanes (oder sind das mehr?) auf 45nm gleich 40 mm^2 benötigt? (Und der Chipsatz braucht ja auch noch einen Controller für ein paar Lanes...)
Das ist schlicht falsch, bei einer entsprechenden Kombination (schnelle CPU, Szene mit geringen GPU-Anforderungen und langsame GPU) wirst du auch in VGA-Auflösung ein GPU-Limit erzeugen können.Um Himmels willen, ja natürlich ... wenn Du nen 975X mit ner 4350 kombinierst wird selbstverständlich nicht viel bei rum kommen.
Deswegen nimmt man aber eben "etwas" schnellere GPUs.
Dachte, dass solche realitätsfernen Szenarien von vorne herein ausgeschlossen wären.
Abgesehen davon - mit ner lahmen GPU muss man dann halt bei der Auflösung nur noch weiter runter: 320x240 Ahoi :freak:
Hat jemand eine Idee, warum Intel für nur 16 PCIe Lanes (oder sind das mehr?) auf 45nm gleich 40 mm^2 benötigt? (Und der Chipsatz braucht ja auch noch einen Controller für ein paar Lanes...)Das Thema hatten wir mal, nachdem nachwievor QPI im Lynnfield steckt, geht wohl noch was für einen QPI Hostanschluss drauf. Die PCIe Ports hängen nicht direkt an Intels Crossbar. Anscheinend haben die da einfach eine halbe x58 IOH an ein Nehalem Die mit 2 DRAM Anschlüssen drangebastelt.
~1% ich lach mich tot. aber diese "schwäche" ist ja mit der neuen AES-Einheit Geschichte. Da sieht es für AMD düster aus.Bis das bei nennenswerter Software außer Sandra unterstützt wird, ist Bulldozer schon wieder veraltet:freak:
aylano
2010-04-11, 19:10:26
Du widersprichst dir doch selber, zuerst behauptest du das es so ähnlich sei, dann sagst du aber das Intel noch viele Reserver hat!. Ja wie denn nun?
Nvidia hatte ja auch damals noch reserven. Irgendwann ist halt der Punkt da wo man keine Reserven hat.
Und wieder erkenne ich keine Paralelle zu NVidia, deren GT200b und GT300 liefen bereits am Limit!
Ja, beide liefen am Limit.
Aber die 5000er-Serie hat eine deutlich bessere Effizienz. Mit GT200 & GT200b war Nvidia besser und hatte noch ein dementsprechenden besseren Ruf.
GT300 hätte eine niedere Spannung haben sollen.
Hätte die Performance gestimmt, dann hätten sie den Takt & Spannung nicht erhöht und dann würde die Efffizienz nicht sooo schlecht aussehen.
Aber sie wollten unbedingt den längsten Balken haben, Nvidia weiß halt wie viele Menschen so beschränkt denken, und hatten die Spannung und somit auch den Takt erhöht.
Das du Ähnlichkeiten nicht siehst, ist mir wurscht. Dann lass dich halt in Zukunft überraschen.
Ja ja damals auch witzig zu sehen wie einige Leute sich über die schlechte 65nm-Fertigung redeten, aber dann soooo überrascht waren, dass 45nm so gut lief.
Entweder Intel bleibt stehen, sind zwar "schnellster" aber AMD verkürzt den Abstand [und genau das ist nicht der Fall, Intel legt mehr zu als AMD aufholen kann] oder Intel baut den Vorsprung weiter aus (ohne den Verbrauch zu erhöhen, im Gegensatz zu NVidia!) und AMD hinkt wie immer hinterher. (so sieht es mMn aus).
Wenn du etwas anderes behauptest dann hast du einfach geschlafen oder bist nicht im Bilde!
Na gott sei dank hatte Intel mit einer neuen Architektur & 32nm gegenüber AMD & Intels alten Architekur & 45nm ausbauen können.
Wäre ja schlimm, wenn sie es nicht konnten.
Aber um Architekturen langfristig einschätzen zu können, "muss" man diesen Temporären Vorsprung wegrechnen können..
Und meiner Meinung macht Intel momentan eben kleine Sprünge.
Hey AMD war mal mit ihren FX Modellen an der Spitze, jetzt betreiben sie Preisdumping mit den s.g. "spitzenmodellen", man kämpft sich durch das mid-range-segment. wenn Intel den Preis der i5 Serie senkt, kann amd ihre Modelle gleich verschenken.
Ja, sie waren mal erster.
Und was hat es gebracht?
Nichts, damit macht man halt nicht das ganz großes Geld, aber das wissen in Foren halt nicht so viele.
Deshalb hat AMD eben ATI gekauft um auf gute Plattformen zu sehen.
Und mit G34 sieht man den großen Sprung im Vergleich zur vorigen Plattform.
Mit Danube wird auch ein gesunder Sprung aufgrund der CPU-Vielfalt und eventuell noch besseren Akku-Zeit passieren.
Um Himmels willen, ja natürlich ... wenn Du nen 975X mit ner 4350 kombinierst wird selbstverständlich nicht viel bei rum kommen.
Deswegen nimmt man aber eben "etwas" schnellere GPUs.
Dachte, dass solche realitätsfernen Szenarien von vorne herein ausgeschlossen wären.
Abgesehen davon - mit ner lahmen GPU muss man dann halt bei der Auflösung nur noch weiter runter: 320x240 Ahoi :freak:
Das übertriebene Beispiel sollte dir nur die Grundsätze verdeutlichen. Es gibt real genügend worst-case Szenarien, die auch übliche CPU-GPU Kombinationen wie i5 750/X4 965 + HD5770/GTX260 in FullHD-Auflösung ins CPU-Limit rutschen lassen. In FPS-Bereichen, die absolut relevant sind! Von üblichen Savegame Benchmarks kann man im Regelfall nocheinmal die Frames halbieren, die man in wirklich fordernden Szenen hat. Und viele Shooter werden schon unter 50fps arg schwammig in der Steuerung...
...Und gleiches gilt natürlich auch für das GPU-Limit in wieder anderen Szenen und Benches. ;)
Ja, sie waren mal erster.
Und was hat es gebracht?
Nichts, damit macht man halt nicht das ganz großes Geld, aber das wissen in Foren halt nicht so viele.
Echt lustig, als die FX Modelle draußen waren wurden die natürlich gekauft. Später gab es einen X2 3800+ welcher für >350€ wie warme Semmeln wegging. Der FX60/62 kam dann für 999€... und dann kam der Core2 6600 für ~250€ und erst ab diesem Zeitüunkt kam von AMD kein FX Model mehr!
Nicht weil es keine Kohle einbrachte, nein weil man ab diesem Zeitpunkt keine CPU mehr hatte, welche die schnellste war. Und daran hat sich bis heute nichts mehr geändert. Aber das weißt du sicherlich auch ;)
Bis Zambesi und Sandtiger wird sich da wohl auch nix mehr ändern...Dann wird der Spieß wieder umgedreht:wink:
Savay
2010-04-11, 22:47:50
Nicht weil es keine Kohle einbrachte, nein weil man ab diesem Zeitpunkt keine CPU mehr hatte, welche die schnellste war. Und daran hat sich bis heute nichts mehr geändert. Aber das weißt du sicherlich auch ;)
wählt ihr eure CPUs ernsthaft nur nach dem penis kriterium aus scheiß egal ob ihr euch den längsten überhaupt leisten könnt oder nicht? :freak:
Undertaker
2010-04-11, 22:53:03
Es ist unrealistisch zu glauben das eine einzige Generation ausreicht, um den momentanen Rückstand von ~35%, hier ist Thuban bereits eingerechnet, aufzuholen. Mit Bulldozer sollte man das Ziel verfolgen, diesen Rückstand möglichst einzugrenzen, was gegen einen auf 8 Kerne und ~120% Nehalem-Kernleistung (so zumindest bisherige Spekulationen) anwachsenden Sandy-Bridge schon kein einfaches Spiel werden wird.
Um mal die Dimensionen sichtbar zu machen: Selbst der 2,93GHz Core 2 Duo X6800 Extreme konnte sich in damaligen Anwendungsbenches nur ~30-40% vom schnellsten P4 (XE 965) absetzen. Und dieser Leistungssprung war wohl der mit Abstand größte der jüngeren CPU-Geschichte...
y33H@
2010-04-11, 23:00:47
Der i7-965 XE schaffte zum Launch im Vergleich zum QX9770 "nur" 20 bis 30 Prozent, bin gerade mal quer durch die Reviews gegangen. Der 940 BE nur grob 15 Prozent auf den 9950 BE.
Lawmachine79
2010-04-11, 23:10:23
Es ist unrealistisch zu glauben das eine einzige Generation ausreicht, um den momentanen Rückstand von ~35%, hier ist Thuban bereits eingerechnet, aufzuholen. Mit Bulldozer sollte man das Ziel verfolgen, diesen Rückstand möglichst einzugrenzen, was gegen einen auf 8 Kerne und ~120% Nehalem-Kernleistung (so zumindest bisherige Spekulationen) anwachsenden Sandy-Bridge schon kein einfaches Spiel werden wird.
Um mal die Dimensionen sichtbar zu machen: Selbst der 2,93GHz Core 2 Duo X6800 Extreme konnte sich in damaligen Anwendungsbenches nur ~30-40% vom schnellsten P4 (XE 965) absetzen. Und dieser Leistungssprung war wohl der mit Abstand größte der jüngeren CPU-Geschichte...
Solche Sprünge sind doch üblich, der Athlon hat den PIII so abgeräumt, der P4 den Athlon, der K8 den P4, der Conroe den K8. Wo ist der Punkt?
Undertaker
2010-04-11, 23:25:03
Kein einziger dieser Sprünge war vergleichbar groß. Selbst wenn wir für Sandy-Bridge sehr defensiv rechnen, entstehen allein durch die 33% mehr Kerne und ein paar % mehr IPC/Takt ~50% Mehrleistung zu Gulftown, dieser wiederum liegt die erwähnten ~35% in Anwendungen vor Thuban (Hochrechnung von Deneb vs. Nehalem anhand bekannter Taktraten + CB Anwendungsrating). Ergibt rund Faktor 2 Mehrleistung, die Bulldozer zu Thuban bräuchte.
Athlon vs. P3 bewegte sich bei vielleicht maximal 20% durchschnittlicher Differenz, P4 gegen Athlon XP vielleicht 15-20%, K8 gegen P4 noch deutlich weniger (hier teils sogar Gleichstand, Spiele ausgenommen). Conroe gegen P4 hatte ich oben genannt, ~30-40%, gegen den K8 also eher etwas weniger.
Wo erkennst du da einen Sprung solcher Dimension? Zumal schon der Core 2 eine absolute Ausnahme war, alles andere liegt bei <= 20%, erhöhte Kernanzahlen beiseite gelassen.
Für Bulldozer kann man wohl auch mit 8 "Kernen" im Desktopbereich rechnen (bzw. eher 4 realen Kernen + CMT), so dass hier der IPC/Taktsprung schon mehr als gigantisch ausfallen müsste.
Das übertriebene Beispiel sollte dir nur die Grundsätze verdeutlichen. Es gibt real genügend worst-case Szenarien, die auch übliche CPU-GPU Kombinationen wie i5 750/X4 965 + HD5770/GTX260 in FullHD-Auflösung ins CPU-Limit rutschen lassen.
Was jetzt ? CPU oder GPU ?
Falls CPU: Wenns real soviel gibt, dann pack mal die Beispiele aus, mMn bist Du mit den genannten Configs viel schneller im GPU Limit, oder redest Du von Spielen ala Pong ^^
GPU: Ist bei HD und den angesprochenen Grafikkarten ganz sicher auch drin ... hatte ich zuvor ja schon ausgeschlossen.
Aber wir sollten mal langsam wiede zum Thema zurückkommen ... für GPU Limits gibts bestimmt schon nen Straus passendere Threads.
aylano
2010-04-12, 00:43:58
Um mal die Dimensionen sichtbar zu machen: Selbst der 2,93GHz Core 2 Duo X6800 Extreme konnte sich in damaligen Anwendungsbenches nur ~30-40% vom schnellsten P4 (XE 965) absetzen. Und dieser Leistungssprung war wohl der mit Abstand größte der jüngeren CPU-Geschichte...
Du hast wohl den 23% größeren Takt vergessen.
Intel selber sprach von 60% gestiegener Effizienz.
Und diese Effizienzsteigerungen sind eben für zukünftige Taktsteigerungen bzwl Einheitensteigerungen bzw. Core-Vergrößerungen wichtig.
Außerdem darfst du nicht nur den IPC pro Core usw sehen.
Das ist altes Denken.
In Zeiten von Multi-Core wird die Core-Größe auch interessant, da bei kleinen Core-Größen eben mehr auf den Die draufpassen.
Okay, 2011 ist wegen der Software noch nicht das Jahr des Multi-Core, aber es wird von Jahr zu Jahr wichtiger.
Selbst wenn wir für Sandy-Bridge sehr defensiv rechnen, entstehen allein durch die 33% mehr Kerne und ein paar % mehr IPC/Takt ~50% Mehrleistung zu Gulftown, dieser wiederum liegt die erwähnten ~35% in Anwendungen vor Thuban
Alleine der 6-Core braucht schon 1,14 Volt und da geht sich kaum locker ein 8-Core aus.
Sicher kommt einer, aber der wird so wie jetzt 980X & 1000$ kaum jemand interessant sein.
Und ob der mit 3,3 Ghz daherkommt, muss sich auch erst zeigen.
Von 4 auf 6 Core konnte Intel den Takt halten, aber dafür brauchten sie eben 32nm. Beim Sprung von 6 auf 8-Core gibts keine kleinere Fertigung. Und mit 1,14 Volt ist der 6-Core eh schon verdammt niedrig gevoltet.
Bulldozer wird viel mehr ein Massenprodukt sein.
Zwar hören sich 8-Core viel an, aber um die Core zu verdoppeln musste AMD den Core nur um 12% steigern.
(mit anderen Erweiterungen/Anpassungen rechnet man mit 50% Core-Vergrößerung)
Daher wird sich der Bulldozer mit 4-Modul sich in Sachen Takt & Verbrauch & Die-Größe an dem 4-Core-Deneb orientieren und somit auch sehr gut in Masse zu produzieren.
Das bedeutet, der 8-Core Bulldozer wird dann wahrscheinlich eben die jetzten Deneb-Spannungen von 1,35 Volt und nicht 1,225 und schon garnicht 1,14 Volt haben um die 125 TDP bei hohen Takten halten zu können.
Hingegen hörts ich der 8-Core @ 32nm mehr nach Monster-Die an, bei den man nicht so nach belieben Takten & fertigen kann. Nicht umsonst, dass sie ihn eben jetzt nicht in 32nm fertigen (können).
Daher würde ich diesen 8-Core nicht unbedingt als direkten Gegner sehen und es nicht schlimm finden, wenn der 8-Core Bulldozer nicht an Intels-8-Core rankommt.
Echt lustig, als die FX Modelle draußen waren wurden die natürlich gekauft.
Natürlich wurden die FX-Modelle gekauft.
Ich glaub, ich las da mal was von 10.000 Stück pro Quartal.
Nur brachte es dem Gesamt-Konzern nicht viel.
AMD machte eben damals nur etwas gewinn, als sie Intel überlegen waren.
Das ist nicht zukunftssicher.
Deswegen kauften sie ATI um verstärkt auf Plattformen zu setzen.
Wäre der Markt fair, würde AMD dort ordentlich Geld verdienen. Viele glauben, man müsste da noch die beste CPU haben und das ist eben falsch.
Operativ machte AMD im letzten Quartal bei Computing Solution schon 150 Mio. Euro Gewinn und das obwohl die Desktop CPU max 150 Euro kostet
Der FX60/62 kam dann für 999€... und dann kam der Core2 6600 für ~250€ und erst ab diesem Zeitüunkt kam von AMD kein FX Model mehr!
So ist es.
Und jetzt kommt Thuban und beim Spitzen-Modell kann der Preis von 150 auf 300 Euro deutlich gesteigern.
Somit ist gleich & leicht zu erkennen, dass AMD Intel ein Stück naher gekommen ist, ohne dass ich es in vielen Postings zu sehr im Detail erklären hätte müssen, warum sie näher gekommen sind.
Lawmachine79
2010-04-12, 00:57:25
Kein einziger dieser Sprünge war vergleichbar groß. Selbst wenn wir für Sandy-Bridge sehr defensiv rechnen, entstehen allein durch die 33% mehr Kerne und ein paar % mehr IPC/Takt ~50% Mehrleistung zu Gulftown, dieser wiederum liegt die erwähnten ~35% in Anwendungen vor Thuban (Hochrechnung von Deneb vs. Nehalem anhand bekannter Taktraten + CB Anwendungsrating). Ergibt rund Faktor 2 Mehrleistung, die Bulldozer zu Thuban bräuchte.
Athlon vs. P3 bewegte sich bei vielleicht maximal 20% durchschnittlicher Differenz, P4 gegen Athlon XP vielleicht 15-20%, K8 gegen P4 noch deutlich weniger (hier teils sogar Gleichstand, Spiele ausgenommen). Conroe gegen P4 hatte ich oben genannt, ~30-40%, gegen den K8 also eher etwas weniger.
Wo erkennst du da einen Sprung solcher Dimension? Zumal schon der Core 2 eine absolute Ausnahme war, alles andere liegt bei <= 20%, erhöhte Kernanzahlen beiseite gelassen.
Für Bulldozer kann man wohl auch mit 8 "Kernen" im Desktopbereich rechnen (bzw. eher 4 realen Kernen + CMT), so dass hier der IPC/Taktsprung schon mehr als gigantisch ausfallen müsste.
Davon ab: woher kommst Du auf eine Steigerung der IPC-Leistung um den Prozentsatz? Wo entnimmst Du, daß damit nicht Gesamtleistung incl. Takterhöhung gemeint ist?
Daher würde ich diesen 8-Core nicht unbedingt als direkten Gegner sehen und es nicht schlimm finden, wenn der 8-Core Bulldozer nicht an Intels-8-Core rankommt.
Sehe ich auch so, im Desktopbereich kommt doch eh nur ein 4Kern Sandy für Sockel 1155. Der bekommt bekanntermaßen eine IGP mit auf den Weg, da bleibt nicht mehr viel DIE Platz für 8 Kerne.
8 Kerne gibts nur im Server/Enthusiasten Segment (Sockel 1366, btw. 1366 Nachfolger, falls da auch was Neues kommen sollte), und für den Fall gibts bei AMD dann wieder ein MCM, diesmal auf Bulldozer Basis also 2x8=16 Kerne.
Link:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i3-530_540_core_i5-661/23/#abschnitt_anno_1404
Tut mir bitte einen Gefallen und verlinkt bei Prozessor-Tests nie wieder auf CB. Deren Messungen sind an Dilettantismus nicht zu überbieten. Nicht nur, dass ein Performancerating von CPUs anhand von 1680 x 1050-Werten aufgestellt wird, nein, es sind dann noch nicht einmal CPU-fordernde Szenen (dann wäre auch die Auflösung egal), die getestet werden. Zwar nicht ganz so epic fail-mäßig wie früher (http://www.computerbase.de/artikel/prozessoren/2009/test_intel_core_i7_950_975_extreme_edition/18/#abschnitt_crysis), aber man nimmt dort auch heute ganz munter eine Modern Warfare-Szene, in der ein Athlon II X3 435 (2,90 GHz) 102 FPS und ein i7-960 mit aktiviertem Turbo 110 FPS erreicht oder eine Resident Evil-Szene, wo ein Athlon II X4 620 (2,60 GHz) exakt so schnell wie ein i7-870 mit aktiviertem Turbo ist. Auf dieser Grundlage ergibt sich dann ihr Performancerating für Spiele, wo ein X4 965 BE nahezu identisch schnell wie ein i7-975 EE arbeitet. Man kann ihnen nur noch zugute halten, dass sie jetzt durch die vermehrte Kritik auch noch ein "Performancerating niedrige Auflösung" aufstellen und nicht mehr von "realitätsfernen Settings" schreiben, völlig ohne Performancerating, aber dafür sind sie ja jetzt zufälligerweise Meister darin, Spieleversionen oder -stellen auszusuchen, die einen AMD enorm gut dastehen lassen. Sei es ein ArmA II, welches mit SMT nicht umgehen kann und ohne gleich mal > 20 % schneller läuft (was geht aber ins Rating? Natürlich der SMT-Wert) oder eine Anno 1404-Wunder-Stelle, wo ein X4 965 BE fast 30 % schneller als ein i5-750 ist. Natürlich ohne Savegameveröffentlichung und reproduzieren konnte sowas bisher auch keine Sau.
mboeller
2010-04-12, 08:16:06
Hans de Fries:
The Phenom II X6 1090T operating at a low voltage of 1.176V at 3.2GHz
1.176 V: ---- 3.2 GHz Phenom II X6 1090T, E0 Stepping, ------------- http://valid.canardpc.com/show_oc.php?id=1129267
1.344 V: ---- 3.2 GHz Phenom II X4 955, C2 Stepping, ---------------- http://www.anandtech.com/show/2754
1.067 V: ---- 2.2 GHz Magny Cours, Opteron 6174, D1 Stepping, ---- http://www.anandtech.com/show/2978/amd-s-12-core-magny-cours-opteron-6174-vs-intel-s-6-core-xeon
and benchmarks for the 1090T, including benchmarks for a "4 cores enabled" version running at 4.2GHz at 1.4V
http://translate.google.com/translate?u=http://forum.coolaler.com/showthread.php?t=235891&page=3&sl=zh-CN&tl=en&hl=&ie=UTF-8
Regards, Hans
Schaut doch sehr gut aus, oder?
Undertaker
2010-04-12, 08:57:30
Du hast wohl den 23% größeren Takt vergessen.
Intel selber sprach von 60% gestiegener Effizienz.
IPC allein ist ersteinmal uninteressant, der P4 war nuneinmal besser taktbar, was man nicht vergessen darf. Unter dem Strich standen "nur" 30-40% Mehrleistung für das P4 Topmodell gegen den schnellsten Core 2 Ableger erster Generation.
Alleine der 6-Core braucht schon 1,14 Volt und da geht sich kaum locker ein 8-Core aus.
Öhm, du willst jetzt von Gulftown auf Sandy Bridge schließen? Siehe AMD, wo allein ein neues Stepping (+evntl. Fertigungsverbesserungen) für 50% mehr Kerne bei gleicher TDP reichte.
Sicher kommt einer, aber der wird so wie jetzt 980X & 1000$ kaum jemand interessant sein.
Und ob der mit 3,3 Ghz daherkommt, muss sich auch erst zeigen.
Von 4 auf 6 Core konnte Intel den Takt halten, aber dafür brauchten sie eben 32nm. Beim Sprung von 6 auf 8-Core gibts keine kleinere Fertigung. Und mit 1,14 Volt ist der 6-Core eh schon verdammt niedrig gevoltet.
Nochmal, siehe AMD. Wir sind von einem perfekten 45nm Prozess auf die noch jungen 32nm gewechselt. Sandy Bridge ist eine neue Architektur und der Prozess ist ein Jahr neuer.
Bulldozer wird viel mehr ein Massenprodukt sein.
Zwar hören sich 8-Core viel an, aber um die Core zu verdoppeln musste AMD den Core nur um 12% steigern.
(mit anderen Erweiterungen/Anpassungen rechnet man mit 50% Core-Vergrößerung)
Sandy-Bridge wird wohl eine mindestens ebenso breite Preispalette umfassen wie Bulldozer, dass mit dem Massenprodukt ist schlicht falsch. Wenn eine Extreme Edition mit 8 Kernen wieder 1000$ kostet liegt das daran, dass man es sich durch dessen Leistungsfähigkeit erlauben kann. Würde Bulldozer so schnell werden, gäbe es ebenso einen FX zum gleichen Preis - die günstigeren Maximalpreise momentan sind keine Freundlichkeit des Herstellers, sondern schlicht Ausdruck der Unterlegenheit in der Leistungsfähigkeit.
Ein reiner Vergleich der Kernzahlen ist übrigens mittlerweile so unnütz wie jener der Taktraten, dafür ist die Performance pro Kern zu unterschiedlich: Aktuell werden 2-Kern Clarkdales gegen 4-Kern Athlon/Phenom II gestellt, und die Unterschiede werden noch größer: AMD macht einen Kern mit CVT per Marketing zu zwei Kernen, so dass die reine Anzahl für den Vergleich immer irrelevanter wird.
Daher wird sich der Bulldozer mit 4-Modul sich in Sachen Takt & Verbrauch & Die-Größe an dem 4-Core-Deneb orientieren und somit auch sehr gut in Masse zu produzieren.
Das bedeutet, der 8-Core Bulldozer wird dann wahrscheinlich eben die jetzten Deneb-Spannungen von 1,35 Volt und nicht 1,225 und schon garnicht 1,14 Volt haben um die 125 TDP bei hohen Takten halten zu können.
Jetzt wird es aber sehr viel Glaskugel. Spannungen und Taktraten wird momentan kaum AMD selbst vorhersagen können, wir haben eine neue Architektur und einen neuen Prozess - woher nimmst du jetzt deine Spekulationsgrundlage? Und wie meinst du deine Formulierung bzgl. der Spannung, dass klingt ja fast so als ob du denkst, dass eine hohe Spannung besser ist? :confused: Die aktuellen 1,35-1,4V eines Deneb/Propus werden wohl der Hauptgrund für die recht hohen Lastverbräuche sein, für die Veröffentlichung von Thuban war es essentiell, diese Werte deutlich absenken zu können. Mit einem kleineren Prozess sinken die Spannungen üblicherweise noch weiter, für 32nm wirst du tendenziell zunächst einmal deutlich kleinere Werte erwarten können.
Daher würde ich diesen 8-Core nicht unbedingt als direkten Gegner sehen und es nicht schlimm finden, wenn der 8-Core Bulldozer nicht an Intels-8-Core rankommt.
Weil die Preisklasse für Otto-Normal nicht bedeutsam ist, mag man das schon so sehen. Für AMD selbst ist das aber nicht so ganz egal: Es macht schon einen Unterschied, ob man seine CPUs für 30-150€, 300€ oder 1000€ verkaufen kann - jedes % Mehrleistung lässt sich in bare Münze wandeln. Wenn das Bulldozer-Topmodell den gleichen Rückstand auf das von Sandy Bridge aufweisen wird wie dies aktuell der Fall ist, läuft es wieder auf Höchstpreise um die 200€ hinaus.
Und jetzt kommt Thuban und beim Spitzen-Modell kann der Preis von 150 auf 300 Euro deutlich gesteigern.
Somit ist gleich & leicht zu erkennen, dass AMD Intel ein Stück naher gekommen ist, ohne dass ich es in vielen Postings zu sehr im Detail erklären hätte müssen, warum sie näher gekommen sind.
Diese Preissteigerung sieht zweifellos zunächst einmal sehr positiv aus. Allerdings hat man mit Thuban zu Westmere eine größere Differenz, als noch mit Deneb gegen Nehalem - hier profitiert man "von Intels Gnaden", die 32nm 6-Kerner als Premium-Produkt für die Extreme Edition vorbehalten zu wollen. Auch muss man abwarten, was mit den Preisen nach dem Launch passiert. Auch die X4 940/955 starteten für deutlich über 200€, um nach der Abzocke an den early Adoptern recht schnell deutlich abzusinken - wo anfangs ein X4 940 knapp unter dem i7 920 preislich platziert wurde, ist heute selbst der X4 965 deutlich tiefer angesiedelt.
Mit dem i7 880 rutscht vermutlich bald der i7 870 auf die Position des i7 860, und ob sich das 3,2GHz 1090T Modell gegen diesen wirklich behaupten kann, wage ich etwas zu bezweifeln. Im Cinebench R10 beispielsweise, der sich ganz gut als Anhaltspunkt für die durchschnittliche Anwendungsperformance aktueller CPUs eignet, würde ich hochgerechnet für den 1090T auf gleiche Ergebnisse wie für i7 860-870 kommen. In schlechter parallelisierten Anwendungen wird man wohl durch die niedrigere pro-Kern-Leistung trotz Turbo hinter jeden i5/i7 zurückfallen. Als Vergleichswert: Westmere konnte bei identischem Takt zum i7 975 im CB-Anwendungsrating nur 23% durch die zusätzlichen Kerne gewinnen, gleiches wird also auch für Thuban gelten.
Tarkin
2010-04-12, 09:16:36
Hans de Fries:
Schaut doch sehr gut aus, oder?
WOW - sieht sogar prima aus! wenn alle 6 Kerne dann mit 4GHz+ bei 1.4V laufen wäre das schon sehr cool!
Alte Phenoms benötigen da wesentlich mehr Volt. Das E0 Stepping sieht sehr LÄCKA aus!
Der 960T mit zwei deaktivierten Kernen könnte ein Renner werden =)
Würde Bulldozer so schnell werden, gäbe es ebenso einen FX zum gleichen Preis - die günstigeren Maximalpreise momentan sind keine Freundlichkeit des Herstellers, sondern schlicht Ausdruck der Unterlegenheit in der Leistungsfähigkeit.
Das ist eben der Unterschied zu Intel, sie verkaufen ihre CPUs auch wenn sie unterlegen sind für $1000, mittels Knebelverträgen klappt das sogar.
Ein reiner Vergleich der Kernzahlen ist übrigens mittlerweile so unnütz wie jener der Taktraten, dafür ist die Performance pro Kern zu unterschiedlich: Aktuell werden 2-Kern Clarkdales gegen 4-Kern Athlon/Phenom II gestellt, und die Unterschiede werden noch größer: AMD macht einen Kern mit CVT per Marketing zu zwei Kernen, so dass die reine Anzahl für den Vergleich immer irrelevanter wird.
Tzz. Per Marketing. Ein bisschen mehr Objektivität bitte. Alles bis auch die FPU ist doppelt vorhanden, und die braucht man eben nur selten, nimmt aber viel Platz ein. Das ist schlicht ein intelligenter Ansatz, die Leistung wird bis auf wenige Ausnahmefälle identisch sein wie mit zwei Kernen.
Hans de Fries:
Schaut doch sehr gut aus, oder?
Das sieht übelst nach Selektion aus! Nichts mit Massen-Makt taugliche CPU!
Undertaker
2010-04-12, 10:04:14
Das ist eben der Unterschied zu Intel, sie verkaufen ihre CPUs auch wenn sie unterlegen sind für $1000, mittels Knebelverträgen klappt das sogar.
Das Thema kann man gerne diskutieren, aber das objektiv gesehen seit dem Core 2 jede Extreme Edition zweifellos die schnellste Desktop-CPU ihrer Zeit war und mit einem schon eher zweifelhaften Aufpreis versehen werden kann, ist wohl klar.
Tzz. Per Marketing. Ein bisschen mehr Objektivität bitte. Alles bis auch die FPU ist doppelt vorhanden, und die braucht man eben nur selten, nimmt aber viel Platz ein. Das ist schlicht ein intelligenter Ansatz, die Leistung wird bis auf wenige Ausnahmefälle identisch sein wie mit zwei Kernen.
Das gilt es abzuwarten. Wenn AMD selbst von "nur" 80% spricht, ist das unter Anbetracht einer Herstellerangabe noch lange nicht Faktor 2. Am Ende ist die Differenz evntl. zumindest so groß, dass sie andere IPC-Verbesserungen auffrisst und pro "Kern" (nach AMD-Nomenklatur) sich nicht viel verändert.
Das sieht übelst nach Selektion aus! Nichts mit Massen-Makt taugliche CPU
*Lach* Ja deswegen kommen die X6 auch im 200-300 Euro Bereich, den sich viele Leute einfach nicht leisten können. Damit werden die Verkaufszahlen dann künstlich niedrig gehalten, Schweinerei ;D
@anderer Gast und die CB Tests:
Naja ... dann machs besser ... bin mir sicher, dass die AMD Fans bei anderen Tests dann ebenfalls was finden werden. Anno wurde übrigens aus der Wertung genommen, bin mal gespannt, obs am ATi Grafiktreiber lag.
puntarenas
2010-04-12, 12:22:16
ht4u.net - Einsatz von Low-K-Dielektrikum ermöglicht höhere Taktraten beim Phenom II X6 (http://ht4u.net/news/21950_einsatz_von_low-k-dielektrikum_ermoeglicht_hoehere_taktraten_beim_phenom_ii_x6/)
Schön zu hören, also doch nicht einfach Deneb mit zwei zusätzlichen Kernen und die TDP wieder etwas weiter ausgeschöpft. :)
Undertaker
2010-04-12, 12:27:21
Neue Benches:
http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137523&start=25
http://forum.coolaler.com/showthread.php?t=235891&page=3
Der 1090T scheint sich mit seinen 3,2GHz wie erwartet irgendwo in Richtung i7 860-870 zu platzieren, zumindest wenn die Parallelisierung passt. :) Edit: War ja auch nur ein 32Bit OS, dann also sogar eher i7 870. :)
@anderer Gast und die CB Tests:
Naja ... dann machs besser ...
:uclap: Stehen mir die CPUs bzw. Systeme alle zur Verfügung?
bin mir sicher, dass die AMD Fans bei anderen Tests dann ebenfalls was finden werden.
Was ist so schwer daran zuzugeben, dass die Kritik zu 100 % berechtigt ist und nichts mit "Fansein" zu tun hat? Was soll denn ein Rating auf Grundlage eines Tests, wo 15 verschiedene CPUs der Preisklassen 50 bis 1.000 € zwischen 102 und 109 FPS liefern? :uclap:
Palpatin
2010-04-12, 13:03:02
Neue Benches:
http://www.amdzone.com/phpbb3/viewtopic.php?f=52&t=137523&start=25
http://forum.coolaler.com/showthread.php?t=235891&page=3
Der 1090T scheint sich mit seinen 3,2GHz wie erwartet irgendwo in Richtung i7 860-870 zu platzieren, zumindest wenn die Parallelisierung passt. :) Edit: War ja auch nur ein 32Bit OS, dann also sogar eher i7 870. :)
Sehr schön wird wohl mein nächster, weiss nur noch nicht ob ich meine 8 Giga DDR2 behalt oder auf DDR3 umsteig, hoffentlich kommen da am Release Tag vernüftige Reviews die DDR2 auch testen.
Sehr schön wird wohl mein nächster, weiss nur noch nicht ob ich meine 8 Giga DDR2 behalt oder auf DDR3 umsteig, hoffentlich kommen da am Release Tag vernüftige Reviews die DDR2 auch testen.
Behalte Deine 8 GB DDR2, der L3 puffert gut, viel Unterschied ist da nicht. DDR3 kannst Du dann bei Bulldozer / Sandy Bridge kaufen, da gibts dann auch neue Bretter. Vielleicht sind nächstes Jahr die RAM Preise auch wieder besser.
:uclap: Stehen mir die CPUs bzw. Systeme alle zur Verfügung?
Ja ne das meinte ich nicht, ich meinte du solltest "bessere" Szenen vorschlagen.
Was ist so schwer daran zuzugeben, dass die Kritik zu 100 % berechtigt ist und nichts mit "Fansein" zu tun hat? Was soll denn ein Rating auf Grundlage eines Tests, wo 15 verschiedene CPUs der Preisklassen 50 bis 1.000 € zwischen 102 und 109 FPS liefern? :uclap:
Ganz einfach, solange Du keine CPU fordernde Szene nennst,trau ich Dir nicht ;-)
Das 102-109 fps Spektrum ist sicherlich nicht ideal, aber wie besagt, such erstmal ne bessere Szene.
Undertaker
2010-04-12, 14:48:13
PCGH kann man für ihre fordernden Savegames loben - auch wenn nach wie vor teils GPU-Limits die CPU-Tests versauen, hier müsste man wirklich auf Worst-Case Szenarien gehen bzw. die Grafikpower erhöhen. GTX480@OC als neue Test-GPU? ;)
Ja ne das meinte ich nicht, ich meinte du solltest "bessere" Szenen vorschlagen.
Ich würde da viel Kreativität zeigen. Angefangen von wahnsinnig CPU-fordender PS2-Emulation, weiter zum 100 % CPU-limitierten "Nerothos-Savegame" in Oblivion, wo ein C2D @ 3,3 GHz irgendwo bei 10 FPS rumkrepelt, bei irgendeinem aktuellen Shooter 64 Bots spammen in einem Outdoor-Bereich (bei sowas sackt sogar ein C2D @ 3 GHz bei 10 Jahre alten Quake 3-Games auf 60 FPS ab, wo sonst > 333 FPS normal sind) etc. In Spielen wie GTA IV (große offene Welt, viele CPU-Berechnungen) würde ich mir eine Stelle suchen, in der die FPS absacken und auf CPU-Limitierung überprüfen etc.
Bei Gothic 2 gibt's auch tolle Szenen. Afaik in Khorinis am Haven auf eine Box stellen, gen Stadt gucken und mit einem C2D @ 4,5 GHz genießen, wie man bei 20 FPS rumkrepelt.
aylano
2010-04-12, 15:27:59
IPC allein ist ersteinmal uninteressant, der P4 war nuneinmal besser taktbar, was man nicht vergessen darf. Unter dem Strich standen "nur" 30-40% Mehrleistung für das P4 Topmodell gegen den schnellsten Core 2 Ableger erster Generation.
Du kannst es gerne ignorien, wenn Intel sagte, sie haben damit die Effizienz um 60% gesteigert.
Außerdem kann man eben mit 3,0 Ghz besser höher takten als wenn man schon 4,0 Ghz hat.
Öhm, du willst jetzt von Gulftown auf Sandy Bridge schließen? Siehe AMD, wo allein ein neues Stepping (+evntl. Fertigungsverbesserungen) für 50% mehr Kerne bei gleicher TDP reichte.
Es ist erstmal falsch, dass AMD mit einem Neuen Stepping die Cores um 50% erhöhen kann.
Instanbul gabs schon viel früher.
Mit den neuen Stepping erreichten sie "nur" die Takterhöhung.
Aber auch nur, weil sie Low-K von 4 auf 2,4 senkten;-)
Also, eine Technologie-Einführung/Verbesserung, die auch nicht so oft stattfindet.
Und so großartig wird der Sandy-brigde-Core-Architektur nicht geändert.
Und wenn der 6-Core jetzt nur 1,14 Volt brauch, dann können sie kaum noch Spannungssenkungen für 8-Core machen, den eben auch AMD brauchte.
Nochmal, siehe AMD. Wir sind von einem perfekten 45nm Prozess auf die noch jungen 32nm gewechselt. Sandy Bridge ist eine neue Architektur und der Prozess ist ein Jahr neuer.
So viel besser wird die Fertigung auch nicht.
Große Sprünge gabs bei 45nm eben wegen High-K.
Verbesserungen werden schon kommen, aber die werden so wie in den letzten Jahren hauptsächlich in Sandie-Bridge-Erweiterungen kommen.
Core-Zuwächse kommen üblich mit kleineren Fertigungen, wo bei 45nm-->32nm der 6-Core-Desktop entstand. Und wenn dazu der 6-Core jetzt schon so an der Grenze arbeiteit, dann kann man vom 8-Core keine Wunder erwarten.
Wenn Intel mit Sandy-Brigde den 8-Core mit gleichen Takt & TDP wie 6-core rausbringt, würde ich das schon als großen Erfolg ansehen.
Aber das heißt nicht, dass dieser in den Desktop-Markt kommt.
Intels Dunnington kam auch nur in Server.
Sandy-Bridge wird wohl eine mindestens ebenso breite Preispalette umfassen wie Bulldozer, dass mit dem Massenprodukt ist schlicht falsch.
Ich schrieb von 8-Cores, wo der Bulldozer mit 8-Core ein Massen-Produkt sein kann und Sandy-Brigde IMO mit 8-Core eben nicht.
Der 8-Core Bulldozer wird höchstwahrscheinlich mit Sandy-Bridge 4-Core konkurrieren. Bulldozer hat halt das CMT-Konzept und Sandy-Bridge eben das SMT-Konzept.
Ein reiner Vergleich der Kernzahlen ist übrigens mittlerweile so unnütz wie jener der Taktraten, dafür ist die Performance pro Kern zu unterschiedlich: Aktuell werden 2-Kern Clarkdales gegen 4-Kern Athlon/Phenom II gestellt, und die Unterschiede werden noch größer: AMD macht einen Kern mit CVT per Marketing zu zwei Kernen, so dass die reine Anzahl für den Vergleich immer irrelevanter wird.
Richtig, deshalb würde ich den 8-Core Sandy-Bridge eben nicht mit 8-Core-Bulldozer vergleichen.
Aber das Interessante ist eben, dass bei Bulldozer 1Integer-Kern sogar schneller sein kann als beim K10.5 und das bei bessere Energie-Effizienz alias nur 12% -Core-Vergrößerung (=12&-Transistor-Zahl-Vergrößerung?????) durch 2.Integer-Kern.
Jetzt wird es aber sehr viel Glaskugel. Spannungen und Taktraten wird momentan kaum AMD selbst vorhersagen können, wir haben eine neue Architektur und einen neuen Prozess - woher nimmst du jetzt deine Spekulationsgrundlage?
Einerseits aus diversen Spekulationsthreads die z.B. die 2. Integer-Kern vor dem Anaylsten-Day erspektulierten und andererseits aus der Logik der Road-Maps sowie aus der Logik,dass AMD immer in Masse herstellen will sowie der Aussage von einem AMD-Mitarbeiter, der meinte: für den 2.Core wird der Core nur um 12% vergrößert.
Momentan hat AMD 2- & 4- & 6-Core.
Wobei der 6-Core zwischengeschoben ist und AMD-unüblich recht groß ist und zuerst eigentlich !!!!! nicht für Desktop !!!! geplant war.
Laut Desktop-Road-Maps kommt Bulldozer mit 4 & 8-core (=2 & 4-Modul) Also, die Nachfolger von 2 & 4 - Core.
Alleine durch die kleinere Fertigung sowie High-K gibt AMD eine Energie-Einsparung von 50% an, wodurch schon mit doppelten K10.5-Kerne ein Okta-32nm schon recht nach am Quad-45nm in Sachen Takt & Spannung & usw orientieren kann.
Bulldozers Konzept besteht eben darin, die Einheiten und somit Energie-Effizienz deutlich zu erhöhen. (siehe Integer-core-Verdopplung).
Und wie meinst du deine Formulierung bzgl. der Spannung, dass klingt ja fast so als ob du denkst, dass eine hohe Spannung besser ist? :confused: Die aktuellen 1,35-1,4V eines Deneb/Propus werden wohl der Hauptgrund für die recht hohen Lastverbräuche sein, für die Veröffentlichung von Thuban war es essentiell, diese Werte deutlich absenken zu können.
Hohe Spannungen bedeuten auch hohe Yield.
Das Problem am 2. Platzierten ist eben, sie müssen ihre Top-Modelle mit recht niedrigen Preisen (150-200 Euro) anbieten.
Und in dieser Preisklasse sind die Stückzahlen deutlich größer als bei 300 oder 500 oder 1000 Euro.
Deshalb brauchen sie auch hohe Yields, was mit höheren Spannungen und kleineren Takten geht.
Den Intel 6-Core kann man extrem selektieren und ihn somit mit recht hohen Takten & Niedrigen Spannungen anbieten.
Mit einem kleineren Prozess sinken die Spannungen üblicherweise noch weiter, für 32nm wirst du tendenziell zunächst einmal deutlich kleinere Werte erwarten können.
Die Spannungen sind bei AMDs 45nm-Produkten nicht viel anders als mit 90nm, wenn nicht sogar gleich.
EE-Modelle haben 1,25 Volt, AFAIK so wie damals (nur war EE-modell damals 65nm)
Die 90nm-Dual-Notebook-Modelle hatten damals auch schon 1,1 Volt. So wie heute.
Bei Intel wird es nicht viel anders sein.
Ich rede von Übliche (siehe deine Aussage).
Sondermodell können durchaus mit niedrigen Spannugnen kommen (Siehe EE-Modele oder Intels 6-Core)
Ich glaube eher, Spannungen werden nicht mit Fertigungen sondern mit Technologie wie High-K oder Low-K oder Dual-Stress usw gesenkt. Um kleinere Spannungen zu ermöglichen braucht man manchmal solche Technologie.
Alle Spannungesenkungen bei den ganzen Notebook-Plattformen von AMD passierten damals "kurz" nach einer Technologie-Einführung, wie z.B. SOI
Wenn das Bulldozer-Topmodell den gleichen Rückstand auf das von Sandy Bridge aufweisen wird wie dies aktuell der Fall ist, läuft es wieder auf Höchstpreise um die 200€ hinaus.
Da glaubst ja, nur weil Intel einen Sandy-Brigde in 8-Core rausbringt, kann er automatisch in Masse-Produziert werden.
Jetzt gibts ja auch einen 8-core nur eben nicht im Desktop-Markt;-)
Diese Preissteigerung sieht zweifellos zunächst einmal sehr positiv aus. Allerdings hat man mit Thuban zu Westmere eine größere Differenz, als noch mit Deneb gegen Nehalem - hier profitiert man "von Intels Gnaden", die 32nm 6-Kerner als Premium-Produkt für die Extreme Edition vorbehalten zu wollen.
Intel ist eine Aktiengesellschaft und keine Caritas.
Ich sehe es eher als die Wirtschaftlichste Lösung von Intel, die CPUs so anzubieten.
Das war 2007 auch nicht anders. Lieber paar % Marktanteile zu verlieren als die Preise zu senken. Ersteres ist damals wirtschaftlicher gewesen.
Ich warte lieber mal die Benches ab und da werde ich nicht nur auf Computerbase schauen.
Ich würde da viel Kreativität zeigen. Angefangen von wahnsinnig CPU-fordender PS2-Emulation, weiter zum 100 % CPU-limitierten "Nerothos-Savegame" in Oblivion, wo ein C2D @ 3,3 GHz irgendwo bei 10 FPS rumkrepelt, bei irgendeinem aktuellen Shooter 64 Bots spammen in einem Outdoor-Bereich (bei sowas sackt sogar ein C2D @ 3 GHz bei 10 Jahre alten Quake 3-Games auf 60 FPS ab, wo sonst > 333 FPS normal sind) etc. In Spielen wie GTA IV (große offene Welt, viele CPU-Berechnungen) würde ich mir eine Stelle suchen, in der die FPS absacken und auf CPU-Limitierung überprüfen etc.
Das waere ja noch schwachsinniger als der CB Test. Dann hast du eine Szene, in der die eine CPU 10 fps und die andere 12 fps hat.
Abgesehen davon bin ich mir nicht sicher ob es irgend jemanden interessiert mit welcher CPU Quake 3 mit 100 Bots fluessiger laeuft oder irgendwelche obskuren PS2 Emulationen die ungefaehr nur 0,000000000613% aller Menschen spielen. _DAS_ ist naemlcih realitaetsfern.
Aber ich gebe dir schon recht, sie sollten schon CPU-limitierte Szenen waehlen. Wenn es diese nicht gibt: ok, dann ist es auch schoen zu wissen dass es bei spiel xy keinen Unterschied macht eine schnellere CPU zu kaufen...
Das waere ja noch schwachsinniger als der CB Test. Dann hast du eine Szene, in der die eine CPU 10 fps und die andere 12 fps hat.
Abgesehen davon bin ich mir nicht sicher ob es irgend jemanden interessiert mit welcher CPU Quake 3 mit 100 Bots fluessiger laeuft oder irgendwelche obskuren PS2 Emulationen die ungefaehr nur 0,000000000613% aller Menschen spielen. _DAS_ ist naemlcih realitaetsfern.
Aber ich gebe dir schon recht, sie sollten schon CPU-limitierte Szenen waehlen. Wenn es diese nicht gibt: ok, dann ist es auch schoen zu wissen dass es bei spiel xy keinen Unterschied macht eine schnellere CPU zu kaufen...
Inwiefern besteht ein Zusammenhang zwischen der Anzahl der PS2-Emulator-Nutzer und der CPU-Leistung, die ich damit sehr gut messen kann? Es geht darum die CPU-Leistung zu messen, keine viel gespielten Shooter zu testen.
mboeller
2010-04-12, 16:21:05
Aber das Interessante ist eben, dass bei Bulldozer 1Integer-Kern sogar schneller sein kann als beim K10.5 und das bei bessere Energie-Effizienz alias nur 12% -Core-Vergrößerung (=12&-Transistor-Zahl-Vergrößerung?????) durch 2.Integer-Kern.
Einerseits aus diversen Spekulationsthreads die z.B. die 2. Integer-Kern vor dem Anaylsten-Day erspektulierten und andererseits aus der Logik der Road-Maps sowie aus der Logik,dass AMD immer in Masse herstellen will sowie der Aussage von einem AMD-Mitarbeiter, der meinte: für den 2.Core wird der Core nur um 12% vergrößert.
Ich will dich ja nicht zu sehr von deiner Wolke7 runterholen, aber ich glaube du überschätzt Bulldozer "ein klein wenig".
Das einzige was bekannt ist, sind die Server Vergleiche von AMD selbst. Interlagos mit Magny-Cours/Istanbul/4Cores verglichen. Schaut man sich die Integer-Vergleiche an dann schaut es so aus:
Quelle: HC21.24.110.Conway-AMD-Magny-Cours.pdf Seite 4
Integer (Rel. Performance)
4-Core 2008 / Istanbul / Magny Cours / Interlagos
10,25 / 17,5 / 26,4 / ~35,5
pro Core also:
2,56 / 2,9 / 2,2 / 4,44 pro Modul bzw. 2,46 pro INT-core (Modul/1,8).
=> Entweder wird Interlagos ziemlich langsam (ca. 2-2,4GHz) , oder aber die Bulldozer INT-cores sind nicht wirklich schneller als die K10.5 INT-Cores. Die INT-Leistung scheint sogar geringer zu sein als beim Istanbul. Ergo wird der Interlagos wohl niedriger takten oder aber die INT-Effizienz ist nicht besonders hoch. Die einzig mögliche (für Bulldozer) gute Erklärung wäre, das der Snoop-Filter beim Interlagos fehlt und dadurch die INT-Leistung beim Servereinsatz geringer ist.
Undertaker
2010-04-12, 16:23:58
Du kannst es gerne ignorien, wenn Intel sagte, sie haben damit die Effizienz um 60% gesteigert.
Außerdem kann man eben mit 3,0 Ghz besser höher takten als wenn man schon 4,0 Ghz hat.
Moment, moment. ;) Erstmal, von welcher Effizienz ist die Rede? Energieeffizienz? Davon reden wir nicht. Der zweite Absatz ist in der Allgemeinerung auf verschiedene Architekturen schlicht falsch. Bei völlig verschiedenen Prozessoren kann durchaus das 4GHz Modell besser taktbar sein als das 3GHz Modell eines völlig anderen Aufbaus. Was zählt ist nur die Leistung und der Energieverbrauch. IPC-Vergleiche machen Sinn, wenn wir die Taktraten auf Grund gleicher Höhe weitgehend ausblenden können.
Es ist erstmal falsch, dass AMD mit einem Neuen Stepping die Cores um 50% erhöhen kann.
Instanbul gabs schon viel früher.
Bei weniger Takt. ;) Ein X4 955 hat in C3 4 Kerne bei 125W TDP, der 1090T 6 Kerne.
Und so großartig wird der Sandy-brigde-Core-Architektur nicht geändert.
Und wenn der 6-Core jetzt nur 1,14 Volt brauch, dann können sie kaum noch Spannungssenkungen für 8-Core machen, den eben auch AMD brauchte.
Warum? Die Grenze setzt das Silizium bei ~0,7V. ;)
Core-Zuwächse kommen üblich mit kleineren Fertigungen, wo bei 45nm-->32nm der 6-Core-Desktop entstand. Und wenn dazu der 6-Core jetzt schon so an der Grenze arbeiteit, dann kann man vom 8-Core keine Wunder erwarten.
Wo arbeitet Westmere schon so an der Grenze? Die erste 45nm CPU war ein 3GHz Core 2 Quad, der 3,33GHz i7 975 ist in Anwendungen gut 40% schneller. Der erste 65nm Core 2 Duo X6800 kam mit 2,93GHz, der QX6800 konnte diesen Takt halten und die Kernzahl verdoppeln - auch wenn hier mehr TDP-Spielräume bestanden.
Nochmal, Sandy Bridge ist ein "Tock", eine neue Architektur. Auch im gleichen Prozess ist hier einiges an Steigerung zu erwarten.
Wenn Intel mit Sandy-Brigde den 8-Core mit gleichen Takt & TDP wie 6-core rausbringt, würde ich das schon als großen Erfolg ansehen.
Aber das heißt nicht, dass dieser in den Desktop-Markt kommt.
Intels Dunnington kam auch nur in Server.
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/april/gulftown-nachfolger_kernen/
Der 8-Kerner wird definitiver Nachfolger des 6-Kern Westmere. Übernächster Dunnigton-Nachfolger ist ein 10-Kerner.
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/april/nativer_zehn-kern-prozessor_intel_32/
Ich schrieb von 8-Cores, wo der Bulldozer mit 8-Core ein Massen-Produkt sein kann und Sandy-Brigde IMO mit 8-Core eben nicht.
Der 8-Core Bulldozer wird höchstwahrscheinlich mit Sandy-Bridge 4-Core konkurrieren. Bulldozer hat halt das CMT-Konzept und Sandy-Bridge eben das SMT-Konzept.
Keine Einwände hierzu. :) Aber wie man sieht, es es eben auch völlig egal, ob ein 8-Kerner gegen einen 4-Kerner oder eine 4GHz CPU gegen eine mit 2GHz antritt: Die Leistung zählt.
Einerseits aus diversen Spekulationsthreads die z.B. die 2. Integer-Kern vor dem Anaylsten-Day erspektulierten und andererseits aus der Logik der Road-Maps sowie aus der Logik,dass AMD immer in Masse herstellen will sowie der Aussage von einem AMD-Mitarbeiter, der meinte: für den 2.Core wird der Core nur um 12% vergrößert.
Ich rede von deinen Taktraten- und Spannungsspekulationen. Dazu ist bisher noch nichts bekannt oder veröffentlicht. Klar ist aber, das Deneb-Spannungen, die schon für 45nm mehr als hoch waren, in 32nm wohl nicht realistisch sind.
Hohe Spannungen bedeuten auch hohe Yield.
Nö. Sie bedeuten nur, dass man mit niedrigeren Spannungen das Taktziel wohl nicht erreichen konnte, also eher genau das Gegenteil. AMD ist sicherlich nicht glücklich, Deneb und Propus mit bis zu über 1,4V befeuern zu müssen und so recht hohe TDPs in Kauf nehmen zu müssen. Natürlich ist es von Vorteil, gute Yields auch mit sehr viel niedrigeren Spannungen erreichen zu können, wie dies z.B. bei Intel oder den neuen Rev. E K10.5 möglich ist.
Den Intel 6-Core kann man extrem selektieren und ihn somit mit recht hohen Takten & Niedrigen Spannungen anbieten.
Westmere hat mehr Taktpotential als die meisten Denebs, dass sieht nicht danach aus, als ob hier am Limit gearbeitet wird, was die Taktraten angeht.
Ich glaube eher, Spannungen werden nicht mit Fertigungen sondern mit Technologie wie High-K oder Low-K oder Dual-Stress usw gesenkt.
Das alles sind Eigenschaften der Fertigung. ;)
Da glaubst ja, nur weil Intel einen Sandy-Brigde in 8-Core rausbringt, kann er automatisch in Masse-Produziert werden.
Intel ist eine Aktiengesellschaft und keine Caritas.
Ich sehe es eher als die Wirtschaftlichste Lösung von Intel, die CPUs so anzubieten.
Du musst beides als Einheit sehen. ;) Klar könnte Intel auch Gulftown in Masse produzieren, der Die ist kleiner als der eines 80€ Phenom II X2 - aber du hast völlig Recht, warum sollte man? Wenn eine 200€ CPU auch 6 Kerne in 32nm und nur etwas weniger Takt hätte, würde kaum noch einer die schnelleren Modelle kaufen. Wenn man hingegen durch Konkurrenzprodukte dazu gezwungen wäre, sollten sicherlich auch ein 3,6GHz Gulftown und Mainstream 6-Kerner möglich sein, nur ist das momentan nicht der Fall.
=> Entweder wird Interlagos ziemlich langsam (ca. 2-2,4GHz) , oder aber die Bulldozer INT-cores sind nicht wirklich schneller als die K10.5 INT-Cores.
Oder die Zahlen sind einfach zu niedrig angegeben ;-)
Klingt erstmal nach ner tollen Ausrede, aber in Stein gemeiselt sind die ganz sicher nicht ;-)
Undertaker
2010-04-12, 16:50:58
Wie gesagt, da AMD aus einem Kern mit CMT verbal zwei Kerne macht ist nicht zu erwarten, dass dann noch jeder dieser Kerne schneller als ein aktueller wäre. Muss er auch nicht zwingend sein, wenn dafür entsprechend mehr Kerne verbaut werden können - Interlagos schlägt Magny-Cours ja auch so klar, wie man an MBoellers Zahlen sieht. :)
puntarenas
2010-04-12, 17:15:13
Wie gesagt, da AMD aus einem Kern mit CMT verbal zwei Kerne macht ist nicht zu erwarten, dass dann noch jeder dieser Kerne schneller als ein aktueller wäre. Muss er auch nicht zwingend sein, wenn dafür entsprechend mehr Kerne verbaut werden können [...]
Wobei ein solcher Prozessor dann natürlich wieder ein kleines Problem hinsichtlich seiner universellen Eignung hätte. Die Spieleleistung skaliert momentan - von wenigen Ausnahmen abgesehen - ja noch nicht einmal bis zu Quadcores vernünftig mit und es ist kaum anzunehmen, dass bereits 2011 sechs oder acht Kerne für Spieler einen greifbaren Mehrwert bringen.
Der Phenom II X6 scheint sich bei guter Parallelisierbarkeit auf Höhe eines Core i7 860/870 anzusiedeln. Beispielsweise aus Spielersicht (Verzeihung, Jehova!) ist aber wohl ein Vergleich mit dem Core i5 750 nicht ganz von der Hand zu weisen und auch wenn die Energieeffizienz etwas besser ausfallen dürfte als erwartet, preislich wird es da bitter. Naja, bleiben die Plattform, die zwei Kerne in Reserve, möglicherweise eine schmerzfreie Aufrüstoption auf einen Bulldozer und die ganzen emotionalen Sonderboni, die ich ja gar niemandem absprechen möchte.
Es wird zunehmend komplizierter werden und wie du schon sagtest, man kann nicht mehr einfach Kernzahlen, Taktraten oder IPC stumpf bemühen, man muss zunehmend auch nach Anwendungsszenarios differenzieren und als Universalgenie wird womöglich noch lange Zeit derjenige Prozessor sehr empfehlenswert sein, der im Zweifel den einen, limitierenden Thread am Schnellsten durch die Rechenwerke prügeln kann.
Undertaker
2010-04-12, 17:21:24
Genau. :) Bulldozer sollte ja durch 32nm zumindest noch ein wenig Taktbonus mit sich bringen, was auch eine Stagnation der IPC etwas ausgleichen könnte. Letztlich arbeitet die Zeit auch stark für die Multicores.
Wenn BD nur 12% grössere Module hat als jetzt K10-Kerne ist ein 4-Modul-BD erheblich kleiner als ein 45nm Deneb. Erschwerend hinzu kommt die äußerst hohe SRAM-Dichte, die in 32nm erstmals dichter gepackt ist als bei Intel und viel dichter als beim jetzigen 45nm-Prozess. Für einen 4-Modul-BD halte ich 200-220mm² Die-Size nicht für unrealistisch.
Um die Ausbeute zu optimieren hat Intel ja sogar die L3-Cache-Grösse pro Kern halbiert bei den Mainstream (LGA1155) Dingern - pro Kern (egal ob CPU oder GPU-Kern) gibts bei Sandy nurnoch 1MiB L3-Cache im Gegensatz zum Nehalm bzw. Westmere, welche 2MiB pro Kern bieten. So kommen ja auch die 6MiB für den 4-Kerner mit 2 GPU-Kernen zustande und 3MiB für einen 2/1-Kerner. Die Dinger werden höchstens ne Herausforderung für Llano und der bringt auchnoch eine erheblich potentere GPU mit ;).
Konkurrent zum Zambezi wird mMn aber nicht der 4-Kern-1155-Sandy sein, sondern eher ein 6-Kern-1365-Sandy. Der echte 8-Kern-Sandy dürfte aber schon einiges über dem Zambezi liegen leistungsmässig. Beide sind aber in der Produktion und in der Plattform erheblich teuerer als Zambezi auf seinem AM3 (volle 941Pins)-Unterbau werden dürfte. Nebenbei läuft Zambezi dann auchnoch in jedem AM3-Brett, ein entsprechendes AGESA-Update abbekommt. 200€ für einen Zambezi halte ich nur für die kleinste Version für möglich.
Man wird sehen, was der Thuban jetzt an Leistung bringt. Zambezi dürfte in jedem Fall einiges darüber liegen und mit Gulftown (welcher ja durchaus mit dem 6-Kern-Sandy vergleichbar ist) im schlechtesten Falle gleichziehen. Erschwerend hinzu kommt, dass Intel dieses Mal keinen Featurevorsprung haben wird. Diesmal wirds wohl eher umgekehrt sein, da Zambezi ja wohl neben AVX auch FMA4 und einige anders Spielzeuge beherrschen wird.
Undertaker
2010-04-12, 18:26:37
Nutzt die GPU den L3-Cache überhaupt mit, dass du so rechnen kannst? Liano dürfte mit 4 K10.5 Kernen wohl mit dem 2-Kern Sandy Bridge Ableger konkurrieren, immerhin ist bei ersterem kein wirklicher IPC-Sprung zu erwarten. Bei Sandy Bridge sollen es wohl ~20% mehr Leistung pro Kern werden wobei unklar ist, ob dies auch schon evntl. Taktsteigerungen umfasst.
Für den 4-Kern Sandy Bridge rechne ich dann mit einer Konkurrenz zu Bulldozer, gegen das 8-Kern Modell wird vermutlich kein Konkurrenz-Kraut (:D) gewachsen sein. Ob es gegen den 6-Kerner reicht wird interessant, da wäre schon ein überdurchschnittlicher Generationssprung nötig - immerhin muss man selbst gegen den schwächeren Gulftown im Serverbereich mit 12 Kernen auf 700mm² Diefläche kämpfen. Aber mal schauen. :)
Bringt Bulldozer eigentlich irgendeine Konkurrenz zu Intels AES-Beschleunigung mit?
Diesmal wirds wohl eher umgekehrt sein, da Zambezi ja wohl neben AVX auch FMA4 und einige anders Spielzeuge beherrschen wird.V.a. hat AMD diesmal auch den passenden Compiler...
Undertaker
2010-04-12, 18:46:49
Zu dem L3 Thema hab ich noch etwas gefunden:
http://www.computerbase.de/bildstrecke/29063/1/
Die GPU hat danach wie vermutet also keinen Zugriff auf diesen, ergo nicht 1MB L3/Kern, sondern 1,5MB.
Savay
2010-04-12, 19:12:33
Letztlich arbeitet die Zeit auch stark für die Multicores.
wohl wahr...man vergleiche nur mal die zum release zeitpunkt preislich vergleichbaren CPUs X3 720BE und den E8400...der intel war sogar ca. 10-15% teurer dafür in etlichen anwendungen schneller!
gut multicore optimiertes zeug lief auf dem X3 natürlich besser aber vorallem spiele waren im schnitt auf dem E8400 eher flotter...bei aktuellen titeln dreht sich die situation mittlerweile sogar in spielen schon um 180° so dass der X3 nahezu überall mindestens gleich schnell unterwegs ist...
grade deswegen sind die aktuellen SMT dual cores von intel auch ne zweischneidige sache...der trend geht auch in spielen zu besserer multicore unterstützung. da sehen sie momentan noch besser aus als sie es in zukunft wohl werden.
SMT hin oder her das steigert zwar die auslastung der einheiten aber letztlich ersetzt es immernoch keine echten cores.
y33H@
2010-04-12, 19:15:37
Naja, ein i3-530 nimmt es mit einem X3 720 BE auf :ugly:
Undertaker
2010-04-12, 19:18:10
Klar, echte Kerne sind immer besser als SMT - aber Clarkdale hat ja auch noch hohe Taktraten und nen sehr IPC-starken Kern. ;) Ich bin dennoch immer wieder erstaunt, wieviel SMT trotzdem praktisch bringen kann:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i3-530_540_core_i5-661/29/#abschnitt_resident_evil_5
Fast 70% im Test 2 sind der absolute Wahnsinn. :eek: Zumindest 20-30% scheinen fast überall herauszuspringen.
Bringt Bulldozer eigentlich irgendeine Konkurrenz zu Intels AES-Beschleunigung mit?
Bulldozer unterstützt alle bisherigen Intel-Instuctions, inkl. AES.
Bulldozer unterstützt alle bisherigen Intel-Instuctions, inkl. AES.
Dazu kommt noch XOP und FMA4, das nur Bulldozer aber nicht Intel unterstützen wird. Überbleibsel von SSE5. In punkto Instructions macht Bulldozer keiner was vor.
y33H@
2010-04-12, 19:51:55
@ Undertaker
Die +70% sind nur wegen den Worker Jobs, das ist bei RE5 n bissl blöd gemacht.
Undertaker
2010-04-12, 19:54:13
Das bedeutet was? Mit mehr Threads wären auch andere CPUs deutlich schneller? Aber wäre zumindest einleuchtend, warum die Profite hier so abnormal hoch sind.
y33H@
2010-04-12, 20:27:43
Nein. Wenn du einem Triplecore 4 statt 3 Worker Jobs zuweist, wird er nicht schneller. Ein Clarkdale aber frisst 2+2 Worker Jobs und wird daher extrem viel schneller.
Undertaker
2010-04-12, 20:29:49
Dann ist es doch aber ein "legitimer" Performancegewinn. ;)
y33H@
2010-04-12, 20:33:40
Ist halt krank, wenn ein Clarkdale mit 3,33 GHz und 2 Kernen so schnell ist wie ein 965 BE mit vier Kernen :ugly: Gerade die Clarkdales zeigen, wie stark die Nehalem-Architektur ist - wenn ein Dualcore bei gleichem Takt selbst im Mittel kaum [5-15%] langsamer ist als ein Quadcore ...
Undertaker
2010-04-12, 20:36:23
Das scheint hier aber größtenteils an SMT zu liegen, denn der i5 750 ist jetzt nicht so extrem weit in Front, sofern das nicht schon übermäßig GPU-limitiert ist. Bleibt zumindest etwas ein Sonderfall das Spiel.
y33H@
2010-04-12, 20:41:25
Klar, RE5 ist ein heftiger Ausreißer.
Whatever, die reine Performance des Thuban ist für mich eher unspannend [Intel bleibt vorne bzw. ist zu stark und sparsamer], ich finde ihn viel mehr aus technischer Schritt spannend. Denn er ist mehr als "wir flatschen 50% mehr Core und Cache aufs Die und fertig".
aylano
2010-04-12, 21:18:35
Moment, moment. Erstmal, von welcher Effizienz ist die Rede? Energieeffizienz?
Also, im gegensatz zu dir hatte ich den Stromverbrauch mit berücksichtigt.
Denn ein Dual-Core X6800 hatte zwar auch 125Watt-TDP, aber real !!! deutlich weniger Stromverbrauch als der Pentium 965er
http://ht4u.net/reviews/2006/intel_conroe_leistungsaufnahme/index5.php
Der Penitum hatte keine Reserven.
Der Core 2 - Duo eben noch sehr viele, der im Dual-Core aufgrund der Konkurrenz nicht genutzt werden musste.
IPC-Vergleiche machen Sinn, wenn wir die Taktraten auf Grund gleicher Höhe weitgehend ausblenden können.
Das ist eben ein Falsches Denken.
In Zukunft hat die Core-Fläche (& Transistor-Mengen im Core) eben auch einen wichtigen Anteil
Siehe Bulldozer-Konzept.
Bei weniger Takt. ;) Ein X4 955 hat in C3 4 Kerne bei 125W TDP, der 1090T 6 Kerne.
Lies mal was du geschrieben hast?
Außerdem ist C3 auch ein neues Stepping, wo es davor C2 gab.
Warum? Die Grenze setzt das Silizium bei ~0,7V. ;)
Und?
Wird reden nicht über theoretische Grenzen, sondern über die Praxis.
Und da ist Takt, Yield uns somit passende Spannung gefragt!
Der erste 65nm Core 2 Duo X6800 kam mit 2,93GHz, der QX6800 konnte diesen Takt halten und die Kernzahl verdoppeln - auch wenn hier mehr TDP-Spielräume bestanden.
Der erste Quad war der Core2Duo QX6700 mit 2,66 Ghz in Nov 2006
http://www.zdnet.de/arbeitsplatzrechner_peripherie_in_unternehmen_cpu_mit_vier_recheneinheiten_core_ 2_extreme_quad_qx6700_im_test_story-20000002-39148250-1.htm
Kein Wunder dass du so denkst, wenn du von falschen Daten ausgehst.
Und genau diesen Sprung versuche ich dir die ganze Zeit zu erklären.
Übrigens, der QX6800 kam April 2007 (6 Monate später)
So wie der 6700 hatte der 6800er mit 1,225 Volt eben deutlich weniger als die damaligen Standard-Conroe-Massen-Dual-Modelle mit 1,35 Volt.
So wie ich es die ganze Zeit sagte. Massen-Modelle haben eine höhere Volt. Sondermodelle geringeren, und damals kostete der QX6700 & 6800 eben auch 1000 $.
Wo arbeitet Westmere schon so an der Grenze? Die erste 45nm CPU war ein 3GHz Core 2 Quad, der 3,33GHz i7 975 ist in Anwendungen gut 40% schneller.
a) Ich sprach schon mehrmals die Spannung an.
b) der i7 975 gibts !!! nur !!! als 1000$ Version.
Der Penyrn-Quad hatte damals noch kleinere Verisonen
c) Es gab mit Dunnigton schon eine 6-Core, also gibt es aus dieser Sichtweise mit 32nm bis jetzt noch keinen Core-Zuwachs, auch wenn Dunningten damals mit 2,6 Ghz taktete.
Nochmal, Sandy Bridge ist ein "Tock", eine neue Architektur. Auch im gleichen Prozess ist hier einiges an Steigerung zu erwarten.
Und was soll da großartiges Kommen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=459536
Wichtigste technische Neuerungen sind die Advanced Vector Extensions für SSE.
Wow, ich hoffe da kommt mehr.
Eigentlich bin ich verwundert. Ich dachte, da kommt was deutlich interessanters
Da ist der Sprung von Bulldozer viel viel größer, da sie nicht nur AVX sondern SSSE3 & SSE4.1 & SSE4.2 verpackt in XOP (oder AVX & XOP?) sowie noch FMA4 bringen, was AFAIK erst der Sandy-Bridge-Nachfolger kann.
Das sie mit AVX & SSE-Zeug erstmals auf Augenhöhe mit Intel sind, ist schon mal was besonderes.
Aber das ist bei Bulldozer nicht einmal das interessantere. Sondern das die 2-Integer-Core in einem Modul.
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/april/gulftown-nachfolger_kernen/
Der 8-Kerner wird definitiver Nachfolger des 6-Kern Westmere. Übernächster Dunnigton-Nachfolger ist ein 10-Kerner.
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/april/nativer_zehn-kern-prozessor_intel_32/
Schön, im Desktop-Markt völlig uninteressant, weil der 6-core-Westermere 1000$ kosten und Dunnington nicht im Desktop-Markt vorhanden war
Und gegen diese Spezial-Server-CPU hat AMD ja Many-Cours aufgebaut.
Ich rede von deinen Taktraten- und Spannungsspekulationen. Dazu ist bisher noch nichts bekannt oder veröffentlicht. Klar ist aber, das Deneb-Spannungen, die schon für 45nm mehr als hoch waren, in 32nm wohl nicht realistisch sind.
Dir mag es bzw. vieles nicht bekannt sein.
Es sagt für mich vieles aus, wenn Bulldozer nur in 2 oder 4-Modulform kommt. So wie 2-Kern-K10-5 und 4-Coren waren beide in Massen und das bedeutet hohe Spannung. Egal ob die Standard-Spannung bei 1,4 oder 1,35 oder 1,3 Volt liegen wird.
Hingegen ist Instanbul eine Sonder-CPU, die eben wenig Spannung hat und sogar zuerst nicht für den Desktop geplant war!!!!!!
Also, die Spannung bei BD-8-Core ist hoch, was auch hohe Takte ermöglicht.
Gut. Um doppelte Kerne auch mit selber Spannung und TDP zu betreiben, reicht eine normale kleinere Fertigung nicht aus.
Aber hier kommt eben 32nm & High-K was (AMD) offiziell mit 50%-Energie-Einsparung (siehe Homepage) beschreibt.
Okay, gehen wir davon aus, dass diese 50% nicht gleich am Anfang genutzt werden (können), was sicher realistischer wird.
Aber die neue Architektur hat zwar eine Core-Verdopplung (+100%) , aber eben nicht Core-Flächen-Verdopplung (+50%)
(PS: die beiden 50% nicht verwechseln. Das eine ist Reduktion, das andere Zuwaschs.)
Kurz gesagt, ein 8-Core K10.5 könnte höchstwahrscheinlich nicht mit dem Quad-45nm in Takt & TDP mit halten.
Aber der 8-Core-Bulldozer in Kombination mit 32nm & High-K schon, da der BD eine deutliche Core-Effizienz-Steigerung hat.
Das ist so eine Logik, wie ich sie bei Fermi-Tesla mit 448 Shader als worst Case betrachtet haben.
Wobei ich damals Fermi noch etwas überschätzte und an eine teure 512-SP-Ultra-Version dachte, die zum Start in paar Stücken lieferbar war. Immerhin hatte ich den Verbrauch unter games mit 240 Watt ziemlich gut erwischt.
Nö. Sie bedeuten nur, dass man mit niedrigeren Spannungen das Taktziel wohl nicht erreichen konnte, also eher genau das Gegenteil. AMD ist sicherlich nicht glücklich, Deneb und Propus mit bis zu über 1,4V befeuern zu müssen und so recht hohe TDPs in Kauf nehmen zu müssen. Natürlich ist es von Vorteil, gute Yields auch mit sehr viel niedrigeren Spannungen erreichen zu können, wie dies z.B. bei Intel oder den neuen Rev. E K10.5 möglich ist.
Wie gesagt, AMD kann mit ihren Spitzen-Modelle eben kaum/nicht selektieren, da sie in einem Preis-Level sind, wo niedrigen Preise hohe Stückzahlen haben, die sie liefern Müssen.
Der 965er wäre sicher nicht mit höhere Spannung (= +0,05 Volt) und 140 Watt erschienen, hätte dieser eine deutliche niedrigere Nachfrage, wenn er die schnellste CPU überhaupt wäre
Übrigens, die ersten Quad-Core kamen schon in 65nm raus.
Die hatten damals eben mit 1,225 Volt eine niedrige Spannung.
Aber der Preis war hoch.
Massentauglich und somit niedrige Preise gabs erst mit den Penryn-Quad in 45nm. Aber der hatte wieder eine hohe Spannung von 1,35 Volt.
Eines darfst du nicht vergessen.
Wenn Intel den 6-core mit 3,33 Ghz und 130 Watt-TDP in 1,2 Volt machen hätte können, dann hätten sie es gemacht.
Das ist üblich bei Intel.
Siehe auch mobile ULV-CPUs
U2200 ... 65nm-Core2-Solo ... 5,5 Watt ... 1,00 Volt
http://ark.intel.com/Product.aspx?id=31790
U3500 ... 45nm-Core2-Solo ... 5,5 Watt ... !!!! 1,15 Volt !!!!
http://ark.intel.com/Product.aspx?id=37133
ULV-Modelle sind Sondermodelle.
Aber das heißt nicht, dass sie versuchen, diese Modelle so wirtschaftlich wie möglich zu produzieren
Beim ATOM Z-serie vs. N-Serie ist der Unterschied AFAIK noch viel größer.
Westmere hat mehr Taktpotential als die meisten Denebs, dass sieht nicht danach aus, als ob hier am Limit gearbeitet wird, was die Taktraten angeht.
Ja und, Fermi kann man von 1,0 Volt auch noch schön hochtakten & volten.
Nur hat es eben seine Grenzen. In diesem Fall der Stromverbrauch
Du musst es mal als gesamtes sehen und nicht nur die guten seiten eines Sondermodells.
Das alles sind Eigenschaften der Fertigung. ;)
Die Aussage ist wohl ein Scherz?
Du musst beides als Einheit sehen. ;) Klar könnte Intel auch Gulftown in Masse produzieren, der Die ist kleiner als der eines 80€ Phenom II X2 - aber du hast völlig Recht, warum sollte man? Wenn eine 200€ CPU auch 6 Kerne in 32nm und nur etwas weniger Takt hätte, würde kaum noch einer die schnelleren Modelle kaufen.
Gut, die Die-Größe scheint auf den Ersten Blick nicht so das Problem.
Da kann ich dir mal nicht widersprechen.
Das Problem sehe ich dann aber aufgrund der niedrigen Spannung von 1,14 Volt bei dieser Die-Größe und auch Transistor-Core-Anzahl.
Bei Sandy Bridge sollen es wohl ~20% mehr Leistung pro Kern werden wobei unklar ist, ob dies auch schon evntl. Taktsteigerungen umfasst.
Ich frage mich nur woher??
Denn ich kann mich sehr gut an Penryn erinnern. Zwar nur ein Tock, aber da wurde auch von 40%-Plus gesprochen. Da dürfte man SSE4.1 gemeint haben.
Im Schnitt sind 7% übriggeblieben, wovon das höchstwahrscheinlich wegen dem größeren L2-Cache zustande kam.
Undertaker
2010-04-12, 22:11:25
Also, im gegensatz zu dir hatte ich den Stromverbrauch mit berücksichtigt.
Kannst du ja gerne, aber der Ausgangspunkt war doch, wie groß Leistungssprünge zwischen einzelnen Generationen gewöhnlich ausfallen und was man somit von Bulldozer erwarten könnte.
Das ist eben ein Falsches Denken.
In Zukunft hat die Core-Fläche (& Transistor-Mengen im Core) eben auch einen wichtigen Anteil
Siehe Bulldozer-Konzept.
Öhm, bestreitet doch auch keiner. Aber darum ging es nicht sondern darum, das Taktraten genau wie Kernzahlen isoliert betrachtet völlig egal sind, wenn das Ergebnis passt. Die Diefläche muss dabei natürlich auch noch möglichst klein sein, keine Frage.
Und?
Wird reden nicht über theoretische Grenzen, sondern über die Praxis.
Und da ist Takt, Yield uns somit passende Spannung gefragt!
Klar. Aber deine Aussage klang so, als ob eine hohe Spannung auf gute Yields deuten. Das ist Unfug. Falls du es anders gemeint hast, sry.
Der erste Quad war der Core2Duo QX6700 mit 2,66 Ghz in Nov 2006
Ja und? Du hast davon geredet, dass bereits Gulftown ausgereizt wäre (was nicht stimmt) und deswegen von Sandy Bridge nicht mehr viel zu erwarten sei. Ich wiederlegte das damit, dass der 65nm Prozess mit einem X6800 startete und bis zu einem QX6800 geführt wurde.
a) Ich sprach schon mehrmals die Spannung an.
b) der i7 975 gibts !!! nur !!! als 1000$ Version.
Der Penyrn-Quad hatte damals noch kleinere Verisonen
c) Es gab mit Dunnigton schon eine 6-Core, also gibt es aus dieser Sichtweise mit 32nm bis jetzt noch keinen Core-Zuwachs, auch wenn Dunningten damals mit 2,6 Ghz taktete.
a) Wenn bei gleicher Spannung deutlich mehr Takt möglich ist, ist dies falsch. Und genau das ist der Fall.
b) Und das hat wie erwähnt Marketinggründe und keine technischen. Es braucht nur Quadcores, um die Marktposition zu behalten. Warum mehr tun und damit Marge verschenken als man muss?
c) Wenn du Server zählen willst, gibt es auch den 45nm Beckton. Dreh es wie du willst, hier liegst du falsch.
Und was soll da großartiges Kommen?
~20% Mehrleistung pro Kern und 33% mehr Kerne. Ergibt schonmal 60% Mehrleistung. Das muss Bulldozer zu Thuban auch erstmal zulegen.
Da ist der Sprung von Bulldozer viel viel größer, da sie nicht nur AVX sondern SSSE3 & SSE4.1 & SSE4.2 verpackt in XOP (oder AVX & XOP?) sowie noch FMA4 bringen, was AFAIK erst der Sandy-Bridge-Nachfolger kann.
Das sie mit AVX & SSE-Zeug erstmals auf Augenhöhe mit Intel sind, ist schon mal was besonderes.
Denen SSE5 Überbleibseln blüht voraussichtlich das gleiche Schicksal wie 3DNow/SSE4a - wenn Intel nicht mitzieht, wird es am Markt untergehen.
Schön, im Desktop-Markt völlig uninteressant, weil der 6-core-Westermere 1000$ kosten
Nochmal: Wenn er 1000$ kostet und das schnellste Modell der Konkurrenz nicht, dann deshalb, weil er bzgl. Leistung konkurrenzlos ist. Hast du AMDs FX Modelle vergessen? ;)
Dir mag es bzw. vieles nicht bekannt sein.
Es sagt für mich vieles aus, wenn Bulldozer nur in 2 oder 4-Modulform kommt. So wie 2-Kern-K10-5 und 4-Coren waren beide in Massen und das bedeutet hohe Spannung. Egal ob die Standard-Spannung bei 1,4 oder 1,35 oder 1,3 Volt liegen wird.
Nein, das ist einfach nur Unfug. Schau mal an, was ein Brot und Butter 32nm Clarkdale für eine Spannung hat. Die hohen Spannungen scheinen vielmehr ein Problem der 45nm Fertigung bzw. der ersten Steppings bei AMD gewesen zu sein, was jetzt verbessert wurden konnte - und damit das Potential für die 6-Kerner schaffte.
Eines darfst du nicht vergessen.
Wenn Intel den 6-core mit 3,33 Ghz und 130 Watt-TDP in 1,2 Volt machen hätte können, dann hätten sie es gemacht.
Sry, aber jetzt wird es zu abstrus. Ich fasse es nochmal ganz einfach zusammen:
Hohe Spannung: Schlecht
Niedrige Spannung: Gut
Die Spannung wird genau so hoch gesetzt, dass die Yields für die gewünschte Taktrate annehmbar bleiben, aber keinen Deut mehr. Bei Gulftown reicht dafür etwas um ~1,15V bei 3,33GHz.
Und auf noch mehr Unfug in der Hinsicht werde ich nicht eingehen. Das Ziel ist doch nicht, die Spannung maximal anzuheben. Das geht mir nach jetzt 8 Semestern Mikroelektronik/Elektronische Bauelemente/Elektrotechnik doch etwas gegen den Strich. :freak:
sowie noch FMA4 bringen, was AFAIK erst der Sandy-Bridge-Nachfolger kann.
Ne, der kann dann nur FMA3, das wurde abgespeckt. AMD will das später dann auch unterstützen. Für Bulldozer kam die Änderung zu spät.
Aber das ist hier OT ... hier gehts nur um Thuban / Hexacore. Bulldozer & Sandy sollte man in nem andren Thread diskutieren.
ciao
Alex
aylano
2010-04-13, 03:23:44
Und auf noch mehr Unfug in der Hinsicht werde ich nicht eingehen. Das Ziel ist doch nicht, die Spannung maximal anzuheben.
Okay, ich versuchs nochmal für dich.
AMD muss die Spannung recht hoch haben um a) einen möglichst hohen Takt zu erziehlen zu können, weil sie Leistungsmäßig möglichst nahe Intel sein wollen, aber sie müssen gleichzeitig eine Verfügbarkeit sowie gewisse Stückzahlen-Menge garantieren können.
Dazu müssen/sollten sie auch die 125 Watt-TDP einhalten.
Und diese Stückzahlen-Menge wird von Intels P/L-Leveln angegeben und wo sich dann die AMD-CPU orientiert.
Und genau diese Yield für die benötigten prognostizierten Stückzählen hätte AMD mit einem 3,4 Ghz & 125 Watt und somit 1,35 Volt eben nicht erreichen können.
Deshalb hatte das 140 Watt-Modell eben so um +0,05 Volt mehr Spannung .
Kapiert?
Nur das du es weißt. Der 45nm-AMD-Prozess hat mit 1,35-1,40 Volt keine Probleme, sondern AMD ist schon seit den 90nm-Modelle beim Standard-Modelle in der 1,35-1,40 Volt-Gegegend.
Und wenn AMD einen Quad-Core mit 3,4 Ghz und 125 Watt und 1,40 Volt schafft, dann zeigt es nicht, dass der 40nm-Prozess soooo schlecht ist, sondern es zeigt, AMD versucht den Takt sowie mit angepasster höherer Spannung so hoch wie möglich den Takt zu drücken sowie dabei den zu jweiligen Preis benötigten Stückzahlen/Yield um eben näher an Intels Top-Modell zu kommen. (Nicht vergesssen, ein Liefereingpass schadet das Image, was sie somit immer verhindern wollen.)
Sowas ist typisch für 2.Platzierte!!!!!!!!!!!!
Intel machte es damals auch nicht anders (im Technischen Möglichen) und Fermi machte es ja auch so, wobei Fermi eben auf gewissen TDP-Werte geschissen hatte.
Und genau das so meinte ich das mit max Spannung, aber eben unter bestimmten Ramenbedingungen, was eben in so einem Forum klar sein soll.
Intel ist in einer anderen Situation als AMD, weil sie mit Fertigung & Architektur zusammen vor AMD sind.
Nur weil Intel geringere Spannungen hat, bedeutet das noch keine schlechtere Yield.
Grundsätzlich ist ihr höchstes ziel im Massen-Markt immer noch die Yield.
(Ein Grund, warum es z.B. 25Watt-Notebook-Plattform keine Pentium & Celeron gab. Die hatten alle 35Watt, obwohl die Takte viel niedriger waren
Nur zu Info. 50% des Marktes sind Pentium & Celeron)
Aber wenn Intel die Spannung von meinetwegen 1,25 auf 1,15 Volt senken kann und dabei die Yield kaum sinkt, wird Intel das natürlich tun.
Eben, weil dann die Intel-CPUs auch wieder dementsprechend wertvoller aussehen und dabei die Yield kaum sinkt.
Intels große Spannungssenkung kam dann mit High-K !!!!!!!!!!
http://ht4u.net/reviews/2007/intel_qx9650/index2.php
Schon beim frischen 45nm-High-K wurde beim Topmodell die Spannung von 1,30 auf 1,25 Volt gesenkt.
Bei den Notebook-Tests sah man mit Penryn auch einen riesen Sprung.
Hier wäre auch gleich eine 25Watt-Notebook-Plattform mit etwas gesenkter Spannung möglich, aber Intel wartete eben noch bis Montevina.
Spätestens mit Lynnfield sind Spannungen in hohen Takten mit nur 1,15 Volt möglich. Also, da dürfte High-K eben noch "ausgereifter" sein.
Der Springende Punkt ist.
Mit 32nm-wurde die Spannung nicht gesenkt !!! (siehe 45nm-Einführung)
Somit sehe ich auch keine zukünftigen (deutlichen) Spannungssenkungen, die eben einn 6-Core @ 3,3 Ghz auf 8-Core @ 3,4 Ghz in hoher Yield so locker ermöglichen. (=Also, nur extrem teure Modelle, wennn überhaupt)
High-K war ein riesen Sprung und wurde damals recht oft in der Öffentlichkeit erwähnt/präsentiert. Von 32nm ist da deutlich weniger zu hören;-) Und welche Technologie da zum Einsatz kommt, weiß ich nicht. High-K wusste man schon 1 Jahr vor der Einführung, wie gut es wird und dementsprechenden hoch waren die Erwartungen, die sie dann auch erfüllten.
Und das ist eben auch der Grund, warum ich High-K als Vorsprung von Intel so oft betone.
Das geht mir nach jetzt 8 Semestern Mikroelektronik/Elektronische Bauelemente/Elektrotechnik doch etwas gegen den Strich.
Ich hoffe du verstehst jetzt was ich meine. Das ich gerade dir das so genau erklären muss, verwundert mich.
Du hast davon geredet, dass bereits Gulftown ausgereizt wäre (was nicht stimmt) und deswegen von Sandy Bridge nicht mehr viel zu erwarten sei. Ich wiederlegte das damit, dass der 65nm Prozess mit einem X6800 startete und bis zu einem QX6800 geführt wurde.
Und das gerade du mit vielen Pauschalisierungen kommst wie z.B: "Nur weil damals aus X6800 nach einem Jahr ein QX6800 (beide 125Watt-TDP) möglich war, ist es jetzt mit 6-core --> 8-Core auch möglich.", und dabei nicht ins Detail wie Stromverbrauch & Spannungen gehst und sie genauer zu betrachten, verwundert mich noch mehr.
Wie Intel einen 8-Core sinnvoll (Takt & Yield) schaffen soll, ist mir halt immer noch ein Rätsel.
Ich wäre beindruckt, wenn sie es schaffen. Vorllem, weil man bzw. ich dazu keine Erklärungen finde.
Naja, ich warte ab und lasse mich überraschen.
Aber das ist hier OT ... hier gehts nur um Thuban / Hexacore. Bulldozer & Sandy sollte man in nem andren Thread diskutieren.
Das stimmt im Grunde.
Nur steht im Sandy-Brigde-Thread kaum was/fast nix drinnen.
Extrem ungewöhnlich, wenn man an den Sandy-Bridge-Start denkt, der AFAIK in 6 Monaten kommen soll.
GTX480@OC als neue Test-GPU? ;)
Wer soll das stundenlang während Benchensessions aushalten? Ausserdem, im Sommer fängt die das Throttlen oder Sterben an.
boxleitnerb
2010-04-13, 07:52:38
Der X6800 hatte (je nach Review) eine TDP von 75 oder 95W. Nix 125W.
Aber Undertakers Argument mit dem 65nm Prozess kann ich nicht nachvollziehen. Der reale Verbrauch des X6800 waren knapp 60W, da war noch viel Luft nach oben für mehr Kerne. Das wird bei dem Wechsel von 6 auf 8 Kerne nicht unbedingt so sein. Ein aktueller 6-Kerner braucht ja schon gut über 100W unter Last.
Undertaker
2010-04-13, 10:53:22
Das ist ja auch völlig korrekt und ich erwähnte es, die TDP-Spielräume sind sicherlich gesunken. Aber: Auch der QX9770 war TDP-mäßig weitestgehend ausgereizt, dennoch konnte ihn der i7 975 um ~30% schlagen - man sieht, verschiedene Architekturen sind da einfach nicht direkt vergleichbar. ;) Jetzt kommt bei Sandy Bridge noch der Punkt, dass eine Erhöhung der Kernzahl immer eine positive Auswirkung auf die Effizienz hat, da im Gegensatz zu einer Taktsteigerung zusätzliche Transistoren nur linear auf den Verbrauch aufschlagen.
@aylano: Sry, bei diesen Ansichten mache ich mir nicht die Mühe, dagegen anzureden. Belies dich selbst. Gehört hier letztlich eh nicht mehr rein.
Vertigo
2010-04-13, 11:54:25
[...] "Nur weil damals aus X6800 nach einem Jahr ein QX6800 (beide 125Watt-TDP)[...]
Ich weiß nicht, wie oft ich das von dir allein in diesem Thread gelesen habe, das ist einfach nicht wahr: 125W TDP hat weder ein X6800 noch ein QX6800 in irgendeinem Stepping je gehabt. Schon gar nicht waren beide gleich. Wenn Du's nicht glauben willst, schau selbst nach:
http://processorfinder.intel.com/
Zum Rest des Postings sag ich mal lieber nichts, ist ohnehin offtopic.
aylano
2010-04-13, 13:59:49
Wenn Du's nicht glauben willst, schau selbst nach:
Gegen Konkrete Informationen habe ich nichts, sondern ich befürworte sowas.
Ich dachte X stand immer schon für 125 Watt (na ja, bei Intel sind es ja 130 Watt-TDP)
Der QX6800 hat schon 130Watt-TPD
http://processorfinder.intel.com/details.aspx?sSpec=SLACP
Der X6800 "nur" 75Watt-TDP
http://processorfinder.intel.com/details.aspx?sSpec=SL9S5
Danke für diese Information & Ausbesserung
Denn es zeigt besser, dass das zufügen von Core eben seine Grenzen hat und z.b. der Stromverbrauch eben eine wichtige Rolle hat.
Und dabei kam QX6800 fast ein Jahr nach X6800 und fast ein halbes Jahr nach QX6700.
Das ist noch schlimmer als ich dachte, denn wenn ich es richtig im Internet fand, brauchte der QX6800 noch eine Spannungssenkung.
Edit: X6700 korrigiert.
Stechpalme
2010-04-13, 14:15:58
Und wo genau liegt da jetzt dein Problem. Doppelte Anzahl an Kerne erhöht in der Regel die TDP. Zumal der X6700 ja auch etwas weniger Takt hat.
Verstehe nicht so recht die Diskussion welche hier geführt wird, zumal ihr diese ja schon ad absurdum führt.
Hm, hat Intel sowas wie ULK? Man darf nicht vergessen, dass bei GF in 32nm ja nicht nur ULK zwichen den Leitern genutzt wird sondern auch High-K als Gate-Isolator neben SOI als "Bulk-Isolator". Hier am Gate-Isolator ist die grösste Schwachstelle der jetzigen 45nm-Fertigung von GF zu finden. Mit High-K wird GF die Spannung nochmals senken können, was dem BD/Llano einen gewaltigen Energieeffizienzschub ggü. den jetzigen 45nm-CPUs geben wird.
aylano
2010-04-13, 16:17:34
Zumal der X6700 ja auch etwas weniger Takt hat.
X6700 gabs nicht, das war jetzt ein Fehler von Mir. Das war dann schon ein E6700-Modell.
Und wo genau liegt da jetzt dein Problem. Doppelte Anzahl an Kerne erhöht in der Regel die TDP.
Die Frage ist, ob der 8-Core-Sandy-Bridge oder der 6-Core-Sandy-Bridge Intels Spitzen-Modell im Desktop wird, bzw wenn der 8-Core doch kommt, ob dieser dann die vollen Takte vom jetzigen 6-Core haben kann.
Wenn man sich diesen Test ansieht.
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/34/#abschnitt_leistungsaufnahme
sieht man, wie hoch jetzt schon der Verbrauch ist.
(Wobei so ein Test auch nie 100% die Wahrheit sagt, da andere Test auch zu etwas anderen Ergebnissen kommt.)
Grunsätzlich zeigt obige X6800 --> QX6800-Vergleich ja, dass es auch möglich war bei gleicher Fertigung einige Cores hinzuzufügen.
Aber da sah eben der Stromverbrauch deutlich besser aus, wie wir jetzt wissen.
Warum ist das interessant.
Ist nun der 6-core oder der 8-Core der Gegner von Bulldozer, der eben auch 8-Core haben wird.
Undertaker
2010-04-13, 16:34:04
Bitte vergiss und vermische nicht die Punkte Pro-Kern Leistung und neue Architektur. Ein Core 2 Duo verbrauchte in 65nm weniger als ein Pentium 4 Singlecore gleicher Strukturgröße, schlug aber selbst die Dualcoremodelle bzgl. ihrer Leistung. Du kannst nicht argumentieren, weil ein 6-Kern Westmere xxxW verbraucht, wird Sandy Bridge entsprechend soundsoviel ziehen. Das ist schlicht unsinnig. Der 8-Kerner ist im Übrigen als Gulftown-Nachfolger bereits definitiv angekündigt, darüber brauchst du nicht weiter spekulieren.
Zweitens kannst du ohne deren Leistungsfähigkeit zu kennen nicht sagen, welche CPU mit welcher konkurrieren wird. Ein 2-Kern Clarkdale ist momentan gegen 3-4 Kern Athlon II und Phenom II platziert, einen 8-Kern (4-Kern + CMT) Bulldozer könnte das gleiche erwarten. Wir wissen es momentan schlicht noch nicht.
Stechpalme
2010-04-13, 16:41:51
Ich würde gar nicht nach der TDP gehen. Gleich Kernzahl, gleicher Preis und dann kann man nach der TDP und der tatsächlichen Leistung gehen. Alles andere ist doch quatsch. Man kann keinen Quad mit einem 6 Kerner vergleichen, ebenso keinen 8 Kerner mit einem 6 Kerner. Auch kann man kaum einen 4 Kerner mit weiteren 4 virtuellen Kernen mit einem echten 6 oder 8 Kerner vergleichen.
Was kommt, das kommt, frei zu spekulieren nutzt gar nichts. Ich lese hier nur freie Vermutungen, die versucht werden mit Dingen aus der Vergangenheit zu belegen. Und das ist ebenso unsinnig. Das kann man einfach nicht.
Auch kennt hier niemand die tatsächliche Yeald Raten. Ich bezweifle das hier auch nur jemand mit seiner Vermutung nahe an der Realität liegt.
Es vergleicht ja auch niemand ernsthaft einen 2 mit einem 4 Kerner. Zumindest würde ich so jemanden milde belächeln.
Undertaker
2010-04-13, 16:44:47
Das solltest du dir nochmal überlegen. ;) Bestes Beispiel ist doch der eigentliche Inhalt dieses Themas, der Phenom II X6 aka Thuban. Der wird ein klarer Gegner der 4-Kern Core i7 Modelle werden, gleiche Preisklasse und Leistung wie die kleineren Modelle i7 860/870/930. Und genau gegen diese Modelle wird er in allen kommenden Reviews verglichen werden.
Stechpalme
2010-04-13, 16:54:59
Das wird er aber nur in Ermangelung eines 6 Kerners bei Intel. Für mich kein guter Vergleich, wie auch.
Hast du ein Programm das 6 Kerne fast vollständig aus reizt, kann der Intel nicht mit halten. SMT kann nur freie Ressourcen der Physikalischen Kerne nutzen. Wie soll man das realistisch vergleichen? Hier wird der AMD siegen, so oder so.
Hast du eine Anwendung die nur 4 Kerne nutzen sieht es aus wie derzeit gehabt. Bei 2 Kernen ist die Frage wie die Taktraten durch Turbo und Co. ausfallen. Die reine Pro-Mhz Leistung ist derzeit bei Intel eben ein bisschen besser. Nur wie sieht es aus bei der Belastung von 3 Kernen? Wie sieht es aus wenn 5 Kerne genutzt werden? Wie sieht es aus wenn ein Programm 6 Threads hat, hier aber SMT gut greifen kann weil eben nicht die selben Ressourcen benötigt werden und SMT so richtig greifen kann?
Wie will man das richtig vergleichen? Alles in allem werden wir in Zukunft, bei steigender Kernzahl und Arten von Turbo Moden immer größere Unterschiede sehen und kaum richtig vergleichen können.
Was mich auch ein bisschen wundert ist, das sich hier kaum jemand über die verwendete Plattform interessiert. Intel bietet bisher keine native SATA-3 Unterstützung. Was ich für mich als KO Kriterium sehe. Pseudo-Anbindungen über den PCIe Port, der dann auch nicht die volle und Maximale Bandbreite von SATA-3 bietet können ja wohl kaum das Richtige sein.
Undertaker
2010-04-13, 17:07:05
Das wird er aber nur in Ermangelung eines 6 Kerners bei Intel. Für mich kein guter Vergleich, wie auch.
Hast du ein Programm das 6 Kerne fast vollständig aus reizt, kann der Intel nicht mit halten. SMT kann nur freie Ressourcen der Physikalischen Kerne nutzen. Wie soll man das realistisch vergleichen? Hier wird der AMD siegen, so oder so.
Zum ersten hat Intel bereits einen 6-Kerner, der mangels Konkurrenz aber für 1000$ verkauft werden kann - den 980X. ;)
Beim zweiten liegst du schlicht daneben: Die schnellsten i7 4-Kerner werden auch weiterhin vor den 6-Kernern von AMD liegen - sind sind schlicht pro Takt schneller und haben SMT, was zusammen trotz niedrigerer Kernzahl dennoch eine höhere Leistung ergibt. Beispiel Cinebench R10: Nach geleakten 32Bit Werten dürfte der 3,2GHz Thuban 6-Kerner auf ~17.00-18.000 Punkte kommen, was etwa dem i7 860 mit 4-Kernern entspricht - obwohl das Programm den 6-Kerner vollständig auslastet. Das das Programm dabei keine Intel-Domäne ist zeigt ein anderes Beispiel, ein X4 965BE ist hier grob so schnell wie ein i5 750, was dem üblichen Leistungsbild entspricht.
Zum ersten hat Intel bereits einen 6-Kerner, der mangels Konkurrenz aber für 1000$ verkauft werden kann - den 980X. ;)
Beim zweiten liegst du schlicht daneben: Die schnellsten i7 4-Kerner werden auch weiterhin vor den 6-Kernern von AMD liegen - sind sind schlicht pro Takt schneller und haben SMT, was zusammen trotz niedrigerer Kernzahl dennoch eine höhere Leistung ergibt. Beispiel Cinebench R10: Nach geleakten 32Bit Werten dürfte der 3,2GHz Thuban 6-Kerner auf ~17.00-18.000 Punkte kommen, was etwa dem i7 860 mit 4-Kernern entspricht - obwohl das Programm den 6-Kerner vollständig auslastet. Das das Programm dabei keine Intel-Domäne ist zeigt ein anderes Beispiel, ein X4 965BE ist hier grob so schnell wie ein i5 750, was dem üblichen Leistungsbild entspricht.
Klar ist Cinebench eine Inteldomäne.
Außer in synthetischen Benchmarks hat man Nirgends so eine hohen Zuwachs durch HT und der Cinebench ist mit dem ICC compiliert.
Cinebench ist wie viele Benchmarks aussagekräftig für sich selbst und C4D.
Stechpalme
2010-04-13, 17:14:56
Stimmt, den 980X hatte ich schlichtweg vergessen.
Du hast mich in einem Punkt aber gar nicht verstanden. Cinebench ist nur ein Programm. Ein einziges das ansonsten keinerlei Aussage hat als eben bei diesem Renderprogramm. Es gibt sehr viele Programme und je nach dem kann SMT greifen oder eben auch nicht. Man kann kaum noch eine pauschale Aussage tätigen. Zumal auch Cinebench eines der wenigen Programme ist das mit SMT sehr gut skaliert. Wie sieht das aber bei Programmen aus die eben nicht so gut von SMT profitieren? Hier dürfte das Ergebnis klar für AMD ausgehen. Wie willst du hier eine pauschale Aussage treffen?
Und wer fährt den bitte noch solche CPUs unter 32bit? Das ist ja auch albern.
Undertaker
2010-04-13, 17:22:45
Ich habe das Ergebnis mit einem bekannten Speedup auf 64Bit bereits hochgerechnet, ich wollte nur ergänzen, woher der Wert stammt. ;) Und du vergisst hier auch etwas: Der 6-Kerner von AMD wird nur dort stark sein, wo auch wirklich klar mehr als 4 Kerne genutzt werden können. Ist dies der Fall, profitiert der i7 hingegen auch von SMT - im Regelfall nicht so stark wie von zwei zusätzlichen Kernen doch genug, um durch die höhere Leistung pro Kern auch weiterhin auf gleicher Höhe oder gar ganz vorne zu bleiben. Um dir das zu verdeutlichen, werfen wir einen Blick auf das Anwendungsrating von Computerbase:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/33/#abschnitt_performancerating
Hier gewinnt ein 980X auf einen taktgleichen i7 975 23% Leistung - so gut profitieren die Programme des Testparkours also von einem 6-Kerner. Jetzt rechnen wir 23% Leistung auf das Ergebnis des X4 965BE hinzu, ziehen den Taktnachteil des Phenom II X6 wieder ab und kommen auf ein Ergebnis, das irgendwo auf Höhe des i7 860 bis 870 liegt.
@Gast: Im Cinebench R10 bringt SMT dem 980X bei CB 16% Mehrleistung. Bei 3ds Max sind es z.B. 20%, in Paint.Net 18%. Und nocheinmal, das Performancebild des Cinebench entspricht dem Durchschnitt vieler Anwendungen - insofern muss der Cinebench nicht relevant für andere spezifische Fälle sein, gibt aber einen guten Ausblick auf die allgemeine Einordnung einer aktuellen CPU. Es gibt sowohl Fälle, wo AMD stärker ist (3ds Max), also auch welche, wo Intel besser dasteht (Paint.Net). Cinebench liegt da sehr mittig und eignet sich somit perfekt.
Stechpalme
2010-04-13, 17:29:26
mit solchen Rechnungen werde ich gar nicht erst mit argumentieren. Pauschal Werte von unterschiedlichen Architekturen zu nehmen und dann hoch zu rechnen ist wiederum reine Spekulation und freie Vermutung ohne wirklich zu wissen wie es aussehen wird.
Ich bin kein Spekulationsfreund und warte lieber auf tatsächliche Testergebnisse. MAg sein das du recht hast, kann aber auch sein das du daneben liegst und sich der X6 besser oder vielleicht auch schlechter als von dir hochgerechnet schlägt. Und 10% mehr oder weniger wären schon eine Menge wenn man daneben liegt.
Auch interessant das du die Preise nicht mit einrechnest. Oder willst du ernsthaft eine ca. 300€ CPU mit einer 1000€ CPU vergleichen? Und wer von beiden hat aktuell die bessere Plattform? Beides Pluspunkte für AMD. SATA 3 nativ unterstützt und nicht über den leicht langsameren PCIe Port, zumal alle SATA Anschlüsse SATA 3 bieten. Schade nur das AMD es nicht geschafft hat noch USB3 nativ zu unterstützen.
Undertaker
2010-04-13, 17:35:14
mit solchen Rechnungen werde ich gar nicht erst mit argumentieren. Pauschal Werte von unterschiedlichen Architekturen zu nehmen und dann hoch zu rechnen ist wiederum reine Spekulation und freie Vermutung ohne wirklich zu wissen wie es aussehen wird.
Es ist zu keinem Zeitpunkt Spekulation zu untersuchen, wie stark ein Programm von einer Kernzahlerhöhung profitiert, und dies dann entsprechend auf andere CPUs umzuleiten. Natürlich muss man Besonderheiten beachten (bei einem Core 2 Quad kann z.B. der FSB die Skalierung bremsen), in diesem Fall fällt die Rechnung hingegen sogar etwas optimistischer als real für den X6 aus: Im Gegensatz zum Gulftown ist hier der L3-Cache pro Kern geschrumpft, was die Skalierung in manchen Fällen verschlechtern könnte.
Auch interessant das du die Preise nicht mit einrechnest. Oder willst du ernsthaft eine ca. 300€ CPU mit einer 1000€ CPU vergleichen?
Genau das mach ich doch. Du warst doch derjenige der meinte, nur CPUs gleicher Kernzahl vergleichen zu wollen. Ich sage, der 980X ist konkurrenzlos und ein 250€ Phenom II X6 steht gegen einen 250€ Core i7. Also was nun?
Stechpalme
2010-04-13, 17:41:59
Was nun? Ganz einfach, man vergleicht die gleiche Kernzahl und den preis miteinander. Und da sieht der X980 denkbar schlecht aus. P/L Verhältnis, klarer Gewinner, der X6.
Beim Preis, tja, da steht noch kein Gewinner fest. Und wie gesagt, es kommst sehr stark auf die Anwendung drauf an. Viele profitieren von SMT so gut wie gar nicht, aber trotzdem von weiteren Kernen, andere, wie Cinebech, profitieren von mehr Kernen und auch stark von SMT.
Sich hier an 1-2 Ergebnissen zu orientieren ist falsch, man muss ein Gesamtbild haben und dann sehen was für einen selbst wichtig ist und nach diesen Ergebnissen gehen.
Du kannst dich doch nicht hier hin stellen und behaupten das die eine oder andere CPU besser ist wenn es derart stark darauf an kommt wie gut das Programm von SMT und mehr Kernen profitieren kann.
Vergleicht man eben mit dem X980 wird der X6 klar verlieren. Ist ja auch kein Wunder. Der Intel hat eine bessere Pro-Mhz Leistung. Kostet aber fast das 4 fache. für wie viel % an Mehrleistung? 10-20%, vielleicht 30%. Das muss man sich mal durch den Kopf gehen lassen und gut überlegen ob das bisschen an Mehrleistung auch derart viel Zeit einspart das es sich wiederum für einen selbst rechnet. Im Heimgebrauch wohl kaum.
Undertaker
2010-04-13, 17:50:48
OK, ich gebs auf. Den 980X mit dem X6 zu vergleichen und letzteren dann überraschend zu P/L Sieger zu erklären hat etwas. :freak: Ich mach mal mit einem schönen Autovergleich mit, ein 60PS Polo mit 4 Zylindern bietet ja auch viel mehr Leistung pro € als ein 272PS TTS mit 4 Zylindern. :freak: Und ich werde auch nicht weiter gegen Aussagen wie...
Und wie gesagt, es kommst sehr stark auf die Anwendung drauf an. Viele profitieren von SMT so gut wie gar nicht, aber trotzdem von weiteren Kernen
...anreden. Nenn mir auch nur 3 halbwegs bekannte Anwendungen, die auf4->6 Kerne, aber nicht auf die 4->8 Threads eines i7 mit SMT ansprechen, und ich schick dir einen Kasten Bier. Oder ich denk mir auch einfach mal ein paar "Argumente" aus. Viel Spaß noch...
Wenn man sich diesen Test ansieht.
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/34/#abschnitt_leistungsaufnahme
sieht man, wie hoch jetzt schon der Verbrauch ist.
(Wobei so ein Test auch nie 100% die Wahrheit sagt, da andere Test auch zu etwas anderen Ergebnissen kommt.)
SB bekommt wohl einige Energiesparfunktionen. Habs hier gepostet
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7968106#post7968106
Bitte auch da weiterdiskutieren :)
ciao
Alex
Undertaker
2010-04-13, 17:55:43
Neue Benches, X6 1055T:
http://www.xtremesystems.org/forums/showpost.php?p=4337773&postcount=96
Stechpalme
2010-04-13, 17:59:34
Ich weiß nicht was du hast.
X980 sau teuer. X6 Recht günstig. X980 flotter, klar, X6 langsamer. Der Preisunterschied beträgt hier nicht nur mal eben das Dopplete sondern gleich fas das vierfache. Wie willst du da für den X980 argumentieren? Im Serverbereich oder bei wirklich professionellen Anwendungen in einer Firma, ok, der Intel. Da kommt es auf Arbeitszeit an. Aber zu Hause, bitte, da lont der Aufpreis nun wirklich nicht. Außer man muss krampfhaft das schnellste haben und will die besten Bechmarkergebnisse. Wo muss ich mir da Argumente aus dem Finger saugen?
Zur Plattform äußerst du dich ja auch nicht. Was kann Intel "aktuell" wirklich relevantes mehr bieten?
Beim Vergleich i7 860 (oder Vergleichbar 930/940) siehts ein wenig anders aus. Und da du ja mit einem CB Bench gekommen bist, schau dir mal eben den x264 Test (http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/10/#abschnitt_x264_hd_benchmark) an. Mehr Kerne bringen mehr Leistung. SMT hingegen nicht wirklich. Auch gut zu sehen beim Vergleich 750 vs 860. Die Bessere Leistung des 860 resultiert fast ausschließlich durch den höheren Takt. Beim X960 kann man das direkt auch sehen. Allerdings ist der Sprung von 4 auf 6 Kernen deutlich zu sehen.
Man kann SMT nicht austomatisch als echte Kerne sehen. Bei weitem nicht.
Ach, ja, gleiches gilt bei Winrar (http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/12/#abschnitt_winrar), PaintNET und ein paar anderen. Allerdings stehen dem gegen+ber Programme die mit SMT gut skalieren. Streite ich ja gar nicht ab. Es kommt einfach darauf an was man macht und nutzt.
Stimmt, den 980X hatte ich schlichtweg vergessen.
Du hast mich in einem Punkt aber gar nicht verstanden. Cinebench ist nur ein Programm. Ein einziges das ansonsten keinerlei Aussage hat als eben bei diesem Renderprogramm. Es gibt sehr viele Programme und je nach dem kann SMT greifen oder eben auch nicht. Man kann kaum noch eine pauschale Aussage tätigen. Zumal auch Cinebench eines der wenigen Programme ist das mit SMT sehr gut skaliert. Wie sieht das aber bei Programmen aus die eben nicht so gut von SMT profitieren? Hier dürfte das Ergebnis klar für AMD ausgehen. Wie willst du hier eine pauschale Aussage treffen?
Und wer fährt den bitte noch solche CPUs unter 32bit? Das ist ja auch albern.
Wenn SMT nix bringen soll, und mehr physikalische Kerne besser sein soll, warum zum Geier verliert dann ein Phenom2 720 BE mit 3 Kernen gegen einen i5 mit 2 Kernen + HT, ja selbst die Athlon X4 haben keien Chance gegen einen i5 660 [2+2HT]. Warum sollte das anders sein, wenn auf beiden seiten verdoppelt wird?
Stechpalme
2010-04-13, 18:08:06
@Gast
Ich habe nie gesagt das SMT nix bringt. Es kann was bringen, es kann aber auch nicht. Und bei was genau bitte verliert ein X4 gegen einen i5 661? Cinebench? Ja, h264 Codierung? Da sieht der i5 661 kein Land gegen einen X4.
Es wird hier nicht mehr diferenziert sondern anhand von selbst aus gesuchten BEchmarks eine Aussage getroffen. Meist sogar anhand eines Testes. Betrachtet man sich aber mal eine ganze Bandbreite an Tests, sieht die Geschichte schon wieder ganz anderes aus.
Undertaker
2010-04-13, 18:09:09
Ich weiß nicht was du hast.
X980 sau teuer. X6 Recht günstig. X980 flotter, klar, X6 langsamer. Der Preisunterschied beträgt hier nicht nur mal eben das Dopplete sondern gleich fas das vierfache. Wie willst du da für den X980 argumentieren? Im Serverbereich oder bei wirklich professionellen Anwendungen in einer Firma, ok, der Intel. Da kommt es auf Arbeitszeit an. Aber zu Hause, bitte, da lont der Aufpreis nun wirklich nicht. Außer man muss krampfhaft das schnellste haben und will die besten Bechmarkergebnisse. Wo muss ich mir da Argumente aus dem Finger saugen?
Zur Plattform äußerst du dich ja auch nicht. Was kann Intel "aktuell" wirklich relevantes mehr bieten?
Beim Vergleich i7 860 (oder Vergleichbar 930/940) siehts ein wenig anders aus. Und da du ja mit einem CB Bench gekommen bist, schau dir mal eben den x264 Test (http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/10/#abschnitt_x264_hd_benchmark) an. Mehr Kerne bringen mehr Leistung. SMT hingegen nicht wirklich. Auch gut zu sehen beim Vergleich 750 vs 860. Die Bessere Leistung des 860 resultiert fast ausschließlich durch den höheren Takt. Beim X960 kann man das direkt auch sehen. Allerdings ist der Sprung von 4 auf 6 Kernen deutlich zu sehen.
Man kann SMT nicht austomatisch als echte Kerne sehen. Bei weitem nicht.
Ach, ja, gleiches gilt bei Winrar (http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/12/#abschnitt_winrar), PaintNET und ein paar anderen. Allerdings stehen dem gegen+ber Programme die mit SMT gut skalieren. Streite ich ja gar nicht ab. Es kommt einfach darauf an was man macht und nutzt.
Ich sehe da 21% SMT Profit im Test 2. Test 1 profitiert nur 10% von einem 6-Kerner, da werden also schlicht nicht genügend Threads genutzt. Zu deinem 980X vs. X6 Vergleich werde ich mich wie erwähnt nicht weiter äußern, lies bitte was ich bereits (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7968074&postcount=208)dazu geschrieben habe. Bei WinRAR sind SMT off und Turbo Ergebnisse vertauscht. Paint.Net erwähnte ich bereits, profitiert mit 18% exzellent von SMT.
Zum Thema Plattform: Hier sehe ich auf beiden Seiten Plus und Minuspunkte. Bei Intel hat man nach wie vor große Pluspunkte, was die Performance des SATA2 Controllers angeht (was ich für die nächsten Jahre bedeutsamer halte als SATA3), bessere Speicherkompatibilität und im Regelfall hochwertige Bauteile. Bei AMD sind dafür die Einstiegspreise billiger, wer SATA3 bereits benötigt kann den 890GX nehmen anstatt Boards mit Zusatzcontroller. USB3.0 bieten beide noch nicht out-of-the-box.
Bei Gesamtpaket der CPU rechne ich bei AMD in gleicher Preisklasse mit etwas höherer Leistung bei Nutzung aller 6 Kerne, ansonsten wird ein i7 wohl führen. OC und Stromverbrauch muss man abwarten, die Punkte gehen vermutlich aber wohl auch an den i7. Letztlich wird es bei P/L, und L ist bei mir nicht nur Performance, wie immer auf einen Gleichstand hinauslaufen.
Hm, hat Intel sowas wie ULK?
Na klar, erster Google Treffer:
Sinapi, F.; Heylen, N.; Travaly, Y.; Vereecke, G.; Baklanov, M.; Kesters, E.; Hoeymissen, J.; Hernandèz, J.L.; Beyer, G.; Fischer, P. Surface Properties Restoration and Passivation of High Porosity Ultra Low-k Dielectric (k 2.3) After Direct-CMP. Microelectronic Engineering, Volume 84, Issue 11, November 2007. Pages 2620-2623.
Fragt sich nur, wann es massentauglich ist.
Zum 32nm Prozess schreiben sie nur was von low-k:
http://download.intel.com/technology/architecture-silicon/32nm/iedm_2008_32nm_foils.pdf
Mit High-K wird GF die Spannung nochmals senken können, was dem BD/Llano einen gewaltigen Energieeffizienzschub ggü. den jetzigen 45nm-CPUs geben wird.Seh ich genauso, wäre optimal für ein Speed Demon Design ;-)
@Gast
Ich habe nie gesagt das SMT nix bringt. Es kann was bringen, es kann aber auch nicht. Und bei was genau bitte verliert ein X4 gegen einen i5 661? Cinebench? Ja, h264 Codierung? Da sieht der i5 661 kein Land gegen einen X4.
Es wird hier nicht mehr diferenziert sondern anhand von selbst aus gesuchten BEchmarks eine Aussage getroffen. Meist sogar anhand eines Testes. Betrachtet man sich aber mal eine ganze Bandbreite an Tests, sieht die Geschichte schon wieder ganz anderes aus.
mach die augen auf:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/33/#abschnitt_performancerating
puntarenas
2010-04-13, 18:24:43
Man kann SMT nicht austomatisch als echte Kerne sehen. Bei weitem nicht.
Niemand außer dir vergleicht CPUs indem er Kerne oder Threads zählt, das nimmt man als technische Eigenart zur Kenntnis, genauso wie die Taktrate oder das Featureset.
Verglichen wird die Leistungsfähigkeit (und/oder Energieeffizienz). Leistungsmäßig steht der Phenom II X6 1090T in etwa auf Stufe des Core i7 860/870 und es ist kein Zufall, dass sich auch die Preisvorstellungen sehr ähneln. Darüber hat AMD nichts im Angebot, Intel ist konkurrenzlos und kann einen beliebigen High-End-Zuschlag draufpacken.
Natürlich decken Benchmarkreviews niemals alle Anwendungen ab, eine gute Redaktion versucht eben durch Auswahl repräsentativer Benchmarks ein möglichst breit gefächertes Bild über verschiedene Anwendungsszenarien bis hin zu Spielen abzuliefern.
Wenn du jetzt geiferst, dass sich aber bestimmt die eine oder andere Anwendung finden lässt, wo der neue Sechskerner einen vergleichbaren Core i7 überflügelt, dann musst du auch anerkennen, dass man den umgekehrte Fall auch nicht lange suchen muss. Am Ende bleibt es beim Gesamtbild, der X6 1090T konkuriert mit dem i7 860/870 und das ist beachtlich, weil AMD damit eine Preisklasse höher als bisher vertreten ist, wenn auch mit teurem Silizium. Sogar bei der Energieeffizienz konnte man ebenfalls ein wenig aufschließen.
Zum Thema Plattform:
Idealerweise für unseren Vergleich agieren wir hier ebenfalls auf sehr ähnlichem Niveau, kann man natürlich für Zufall halten, ebenso wie die Preisvorstellungen AMDs für den X6 1090T. :smile:
bessere Speicherkompatibilität
Das sollte schon mit dem C3-Stepping Geschichte sein, hier hat AMD deutlich nachgebessert.
Bei Gesamtpaket der CPU rechne ich bei AMD in gleicher Preisklasse mit etwas höherer Leistung bei Nutzung aller 6 Kerne, ansonsten wird ein i7 wohl führen.
Ja und ich persönlich nehme mir die Freiheit heraus im 3DCenter Spiele nicht ganz unter den Tisch fallen zu lassen, dieses Feld geht insgesamt wohl relativ deutlich an Intel. Außerdem, wieder nur hier im 3DCenter nicht ganz unerheblich, finde ich auch Overclocking recht interessant, 3,6Ghz machen wohl die meisten Core i7 bei entspannten 1,2V und erträglicher Energiebillanz (http://www.xbitlabs.com/articles/cpu/display/power-consumption-overclocking.html).
Letztlich wird es bei P/L, und L ist bei mir nicht nur Performance, wie immer auf einen Gleichstand hinauslaufen.
Mit viel wohlwollen und weil wir Lischen Müller so lieben, Gleichstand. Viel mehr war nicht zu erwarten, AMD hat sein LineUp sinnvoll erweitern können, aber um mehr herbeizureden muss man IMHO schon abenteuerlich Stunts vollziehen.
Undertaker
2010-04-13, 18:28:18
Ja OK, als Dresdner sehe ich AMD nunmal vielleicht auch etwas wohlwollender. ;)
Am Ende bleibt es beim Gesamtbild, der X6 1090T konkuriert mit dem i7 860/870 und das ist beachtlich, weil AMD damit eine Preisklasse höher als bisher vertreten ist, wenn auch mit teurem Silizium.
Ein schönes Fazit, mit dem wohl jeder konform gehen sollte. :)
puntarenas
2010-04-13, 18:29:14
Ja OK, als Dresdner sehe ich AMD nunmal vielleicht auch etwas wohlwollender. ;)
Finde ich vollkommen in Ordnung. =)
Savay
2010-04-13, 22:15:56
Naja, ein i3-530 nimmt es mit einem X3 720 BE auf :ugly:
nen i3-540 ist aktueller °_° das AMD langsam ne neue architektur braucht ist ja nix neues. darum ging es auch garnicht
das mehr phyische kerne "zukunftssicherer" sind als SMT sollte aber auch einleuchten.
grade das haben z.B. beim X3 damals viele moniert...tatsache ist: früher war der 720BE immerhin um den betrag langsamer als nen E8400 den er auch billiger war. nach nur einem jahr hat sich das in aktuellen anwendungen und auch spielen halt mal vollkommen umgedreht und auch das ist eine tatsache.
nichts anderes wollte ich damit sagen.
Nein. Wenn du einem Triplecore 4 statt 3 Worker Jobs zuweist, wird er nicht schneller. Ein Clarkdale aber frisst 2+2 Worker Jobs und wird daher extrem viel schneller.
teste nen X3 mal z.B. mit dem 7zip benchmark...von 3 auf 4 threads wird es kaum schneller von 4 auf 6 schon bedeutend mehr...
scheint ein problem bei "asynchroner" belastung zu sein.
kann sich natürlich auch um ein 7zip spezifisches problem handeln, da möchte ich mich nicht festlegen.
Es gibt einige vor allem ältere Programme, die gerne eine grade Kern-Anzahl hätten. Hier sieht der X3 natürlich nicht so toll aus. Das liegt aber weniger an den 3 Kernen als vielmehr an der ungünstigen Programmierung. Aber ich halte die X3-Varianten für die perfekten Spiele-CPUs, da sie sehr günstig sind und auch bei Games mit sehr vielen Threads nicht allzustark einbrechen ggü. einem 2-Kerner.
SMT hat ein Problem: Es bringt Mehrleistung, es garantiert aber keine. Es gibt viele Apps, die können davon profitieren, es gibt auch ne Menge, die nicht profitieren. SMT ist eben eine Art Notlösung um mehr Auslastung hinzubekommen. Es kann echte Rechenleistung aber eben nicht ersetzen. Zudem gibts noch einige Probleme, die für Engpässe sorgen können. Win7 hat das ganz gut im Griff, aber SMT hat leider nicht nur Vorteile. 2 Kerne + 1 sind mMn ein sehr guter Kompromiss bei Spielen.
Undertaker
2010-04-13, 23:22:59
Ein Dualcore mit SMT scheint momentan aber die deutlich performantere und effizientere Konstruktion als ein auf 3 Kerne beschnittener Quadcore-Die zu sein. Leider lässt man sich das auch entsprechend bezahlen...
Ja OK, als Dresdner sehe ich AMD nunmal vielleicht auch etwas wohlwollender. ;)
Purer Zynismus!
Zum Topic:
ArmA II mag SMT ab Quad-Cores nicht: Armed Assault http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/22/#abschnitt_armed_assault_2_arma_ii
Undertaker
2010-04-13, 23:32:58
Purer Eigennutz, evntl. ja mittelfristig mein Arbeitgeber.
@AA2:
Doch, das Spiel mag SMT und profitiert davon sogar leicht:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i3-530_540_core_i5-661/25/#abschnitt_armed_assault_2_arma_ii
Probleme macht also vielmehr eine zu hohe Anzahl von Kernen bzw. bessergesagt ganz allgemein Threads.
Purer Eigennutz, evntl. ja mittelfristig mein Arbeitgeber.
Gott bewahre!
@AA2:
Doch, das Spiel mag SMT und profitiert davon sogar leicht:
http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i3-530_540_core_i5-661/25/#abschnitt_armed_assault_2_arma_ii
Probleme macht also vielmehr eine zu hohe Anzahl von Kernen bzw. bessergesagt ganz allgemein Threads.
Dann müsste der X6@3,2Gig gegenüber dem X4@3,2Gig einbrechen, da bin ich gespannt. Wenn der X6 nicht schlechter performt als der X4, mag ArmA II nur keine SMT-"Kerne".
Undertaker
2010-04-13, 23:42:28
Du solltest meinen Link schon anklicken. Clarkdale profitiert sogar leicht von SMT. Ergo ist die Lage klar, nur die absolute Threadzahl ist das Problem. Das hat auch CB erkannt:
"Dass man Hyper-Threading aber nicht komplett verteufeln sollte, zeigen die neuen Zweikerner. Dies laufen mit der Technologie durchweg schneller. Vielmehr zeigt der Benchmark deshalb eine Schwäche des Spiels auf, dass zwar für vier Kerne – egal welcher Art (real oder virtuell) – aber nicht darüber hinaus ausgelegt ist."
Für den X6 sagt das btw noch nichts, womöglich sind erst 8 Threads zuviel des Guten.
Air Force One
2010-04-13, 23:48:22
Kann mir das evtl. einer erklären?
Ein Mod sagte mir, das wenn meine CPU VOLL ausgelastet ist die SMTs nichts bringen, weil eben die CPU und deren Threads ausgelastet sind.
Warum aber bringen aber die SMT trotzdem dann mehr leistung, obwohl die Threads "angeblich" voll sind.
Wie/Wo bleibt dann da noch Luft für SMT?
Beim Rendern einer Animation werden bei mir alle Kerne voll genutzt (laut Task und renderer)
Wird z.B für ein Frame ohne SMT ca. 2 Minuten benötigt, so sind es mit SMT 1:38 Minuten.
Also Funktioniert es ja (so fern die anzeigen stimmen) trotzdem ganz gut.
Naja egal, hat ja relativ wennig mit dem Topic zutun, das Thema wurde ja eben angeschnitten x)
PS: Bei Winrar oder 7zip limitiert leider meine HDD denke ich, da ist die CPU sich am langweilen -.-"
Ich schrieb, SMT ab Quad-Cores, das schließt die Clarkdales nicht mit ein.
Aber könnte tatsächlich sein das 6 Kerne/Threads noch unproblematisch sind, sonst hätte der Gulftown sellbst ohne SMT einbrechen müssen. Der aber bringt die zu erwartende Leistung eines i5 750@3,33gig. 25% mehr Takt gegenüber Stock -> grob ~41Fps.
Dem Phenom II X6 werden seine 6 Kerne vermutlich keine Leistung kosten, dem i7 wird das SMT aber zum Verhängnis, weil somit mindestens 8 Threads verhanden sind.
@Air Force One:
Höh, welcher Mod war das ? Die kennen sich doch sonst ganz gut aus ...
Beim Rendern ist SMT immer gut, da die Gesamtzeit interessant ist, und die Latenz der Einzelthreads egal ist.
Wenn die CPU augenscheinlich "ausgelastet" ist, ist sie das in Wirklichkeit doch nicht, da immer Speicherzugriffszeiten anfallen. Selbst wenn es einen Treffer im L3 Cache gibt, dauert das schon 30-40 Takte, währendessen *nichts* passiert. In der Zeit kann ein zweiter Thread dann die Rechenpipelines übernehmen. Der Effekt verstärkt sich dann natürlich, da 2 Threads in einem L2 Cache mehr Platz benötigen und der Nehalem L2 nicht sonderlich groß ist, somit wird es mehr L2 misses geben, aber das ist beim Rendern auf alle Fälle schnurz ;-)
Bei Spielen bin ich mir da nicht so sicher. Kommt drauf an, ob er Vorteil den oben genannten Nachteil überwiegt. Bei den Dual Cores scheints noch gut zu klappen, aber bei dem oben verlinkten ArmaII Bench gehts gut in die Hose, obwohl der 980X 6 Kerner mit deaktiviertem SMT 7 fps gegenüber dem gleichgetakteten 975X dazugewinnt. Das Spiel würde also mehr als 4 Kerne schon sinnvoll auslasten.
Edit: Übersehen, dass der 975 *mit* SMT lief ... also ist die Argumentation Müll, danke an den obigen Gast ^^
Aaaber: Kann mich noch erinnern, dass y33@ mal irgendwo gepostet hatte, dass einige Spiele feste Threadzuordnungen hätten, somit der verbesserte Win7 Scheduler umgangen wird und deshalb wieder SMT schlecht unterstützt wird. Eventuell gehört das Spiel in die Kategorie. In dem Fall wärs nichts Besonderes.
In jedem Fall sollte der X6 in dem Bench aber (sehr) gut abschneiden, da eben 6 Threads zu tun bekommen.
Zum Thema:
1055T@3,9 GHz:
http://www.xtremesystems.org/forums/showthread.php?t=249434
1055@4,2 GHz:
http://forum.coolaler.com/showthread.php?t=236011&page=6
Sieht doch schon ganz gut aus. Mal schauen, ob die 1090Ts noch etwas mehr schaffen.
Bei Spielen bin ich mir da nicht so sicher. Kommt drauf an, ob er Vorteil den oben genannten Nachteil überwiegt. Bei den Dual Cores scheints noch gut zu klappen, aber bei dem oben verlinkten ArmaII Bench gehts gut in die Hose, obwohl der 980X 6 Kerner mit deaktiviertem SMT 7 fps gegenüber dem gleichgetakteten 975X dazugewinnt. Das Spiel würde also mehr als 4 Kerne schon sinnvoll auslasten.
Nein das Spiel nutzt warscheinlich nicht mehr als 4 Kerne. Der Zugewinn des Gulftown ist eigentlich keiner, der i7 975 bricht nur wegen SMT ein, ohne selbiges würde er ebenfalls auf ~40Fps kommen. Leider wurde das nicht getestet.
Tarkin
2010-04-14, 09:41:07
Clock-for-Clock ist der Thuban im Cinebench schon mal leicht schneller als Intel... wer hätte das gedacht :)
http://www.xtremesystems.org/forums/showpost.php?p=4338642&postcount=56
von 2.8 auf 4.2... :eek:
Endlich echte Konkurrenz für Intel auch oberhalb von 200 Euro!
AMD wird mit Thuban die i7 ziemlich aufmischen... vor allem auch bei Anwendungen.
puntarenas
2010-04-14, 09:41:08
1055T@3,9 GHz:
http://www.xtremesystems.org/forums/showthread.php?t=249434
1055@4,2 GHz:
http://forum.coolaler.com/showthread.php?t=236011&page=6
Sieht doch schon ganz gut aus. Mal schauen, ob die 1090Ts noch etwas mehr schaffen.
Beide mit mehr als 1,5V. Von der "explodierenden" Leistungsaufnahme im Grenzbereich abgesehen, etwas weniger Takt geht sicherlich mit deutlich weniger Spannung, würde mich mal interessieren, ob und wie das Low-K-Dielektrikum darauf reagiert.
Bei den bisherigen Phenoms bis hin zum C3-Stepping wurden 1,5V ja noch als relativ unbedenklich gehandelt. Was ist nun mit dem E0-Stepping mit Ultra-Low-K-Dielektrikum (http://ht4u.net/news/21950_einsatz_von_low-k-dielektrikum_ermoeglicht_hoehere_taktraten_beim_phenom_ii_x6/), kann man da einfach die Erfahrungen übertragen und weiterhin 1,5V bis 1,55V auf die CPU geben oder sind so hohe Spannungen nicht mehr ohne Weiteres "empfehlenswert"?
Clock-for-Clock ist der Thuban im Cinebench schon mal leicht schneller als Intel... wer hätte das gedacht :)
http://www.xtremesystems.org/forums/showpost.php?p=4338642&postcount=56
von 2.8 auf 4.2... :eek:
Endlich echte Konkurrenz für Intel auch oberhalb von 200 Euro!
AMD wird mit Thuban die i7 ziemlich aufmischen... vor allem auch bei Anwendungen.
toll, clock-for-clock bei 4 vs. 6 Kernen, heißt für mich das Intel clock-for-clock gute 50% besser ist.
Beide mit mehr als 1,5V. Von der "explodierenden" Leistungsaufnahme im Grenzbereich abgesehen, etwas weniger Takt geht sicherlich mit deutlich weniger Spannung, würde mich mal interessieren, ob und wie das Low-K-Dielektrikum darauf reagiert.
Bei den bisherigen Phenoms bis hin zum C3-Stepping wurden 1,5V ja noch als relativ unbedenklich gehandelt. Was ist nun mit dem E0-Stepping mit Ultra-Low-K-Dielektrikum (http://ht4u.net/news/21950_einsatz_von_low-k-dielektrikum_ermoeglicht_hoehere_taktraten_beim_phenom_ii_x6/), kann man da einfach die Erfahrungen übertragen und weiterhin 1,5V bis 1,55V auf die CPU geben oder sind so hohe Spannungen nicht mehr ohne Weiteres "empfehlenswert"?
Bin kein Experte, aber ich seh da keine Probleme.
Grund ist, dass das ULK die Isolatorschicht zw. den Metallschichten ist. Die haben mit dem ganzen Chip nur indirekt zu tun.
Der Transistor ist nachwievor genauso aufgebaut, sollte also die gleichen Charakteristika wie die alten C3 aufweisen.
Sprich: Wenn die 1,55V aushielten, dann gilt das auch für die aktuelle Generation.
Unterschied wird jetzt der sein, dass man das mit E0 viel häufiger ausreizen könnte, da die Verlustleistung später aus dem Ruder läuft. Soll heißen, dass 1,5V bei E0 noch gut mit Luft zu kühlen sein könnte, wohingegen bei den alten LowK CPUs schon eher eine WaKü empfehlenswert war, da sie heißer wurden.
In einem der obigen Tests stand was von 60W Gesamtsystemverbrauch im idle mit allen aktivierten Stromsparfeatures auf nem 890GX Brett ... hört sich auch sehr gut an.
Undertaker
2010-04-14, 10:19:03
Bitte tu das AMD nicht an. Du argumentierst in diesem Forum fast durchgehend Richtung Intel, solche Leute sind es die eine Firma zu grunde richten.
Von einer realistischen Beurteilung hat jeder mehr als von Luftschlössern, die gebaut werden aber der Realität nicht standhalten. Keiner spricht aktuellen AMD-Produkten ein gutes P/L oder Vorteile wie native SATA3-Verfügbarkeit ab, genauso müssen allerdings auch die Nachteile genannt werden. Wenn ich als Ingenieur eines Herstellers sage, wir haben doch eh den längsten, wird sich das nicht vorteilhaft auf die Produktentwicklung auswirken.
Unterschied wird jetzt der sein, dass man das mit E0 viel häufiger ausreizen könnte, da die Verlustleistung später aus dem Ruder läuft. Soll heißen, dass 1,5V bei E0 noch gut mit Luft zu kühlen sein könnte, wohingegen bei den alten LowK CPUs schon eher eine WaKü empfehlenswert war, da sie heißer wurden.
Nein. (u-)low-k sorgt für einen niedrigeren Spannungsbedarf, senkt bei gleicher Spannung aber nicht die Verlustleistung.
puntarenas
2010-04-14, 10:32:36
Nein. (u-)low-k sorgt für einen niedrigeren Spannungsbedarf, senkt bei gleicher Spannung aber nicht die Verlustleistung.
Und die Spannungs- respektive Temperaturtoleranz des neuen Isolators? Wird das neue Stepping durch das Ultra-Low-K-Dielektrikum limitiert oder kann man weiterhin bedenkenlos "C3-Spannungen draufknallen" und die Temperaturgrenzen wie gehabt ausreizen?
y33H@
2010-04-14, 10:34:57
@ Tarkin
Wovon redest du? Deneb ist deutlich langsamer als ein Nehalem bei gleicher Kern/MHz-Zahl (ja, auch ohne SMT). Thuban ist evtl. etwas flotter - aber Nehalem ist weiter klar schneller. Alles andere wäre eine extreme (positive) Überraschung.
@ Tarkin
Wovon redest du? Deneb ist deutlich langsamer als ein Nehalem bei gleicher Kern/MHz-Zahl (ja, auch ohne SMT). Thuban ist evtl. etwas flotter - aber Nehalem ist weiter klar schneller. Alles andere wäre eine extreme (positive) Überraschung.Ja, das ist halt kein Deneb mehr, sondern ein Thuban mit 6 Kernen, aufpassen ^^
Er redet von dem einen Cinebench Run, der oben verlinkt wurde, da besteht halt Gleichstand bei 4,2 GHz Takt bei 6 AMD Kernen gegen 4Kerne / 8 Threads bei Intel.
Noch zur Spannung:
Anscheinend braucht man bei den guten Exemplaren gar keine 1,5V++, hier taktet einer auf 4,3 mit 1,47V und Luftkühlung:
http://www.xtremesystems.org/forums/showthread.php?t=249530
Die NB taktete er auf 3,1 GHz bei 1,4V ... krank :freak:
Habe aber auch in Erinnerung, daß Cinebench ziemlich inteloptimiert war / ist?
Warum wird das jetzt überall verwendet, noch dazu die verschiedenen Versionen, gibts keine anderen, am besten quelloffenen Vergleichsmöglichkeiten?
Undertaker
2010-04-14, 10:49:37
Und die Spannungs- respektive Temperaturtoleranz des neuen Isolators? Wird das neue Stepping durch das Ultra-Low-K-Dielektrikum limitiert oder kann man weiterhin bedenkenlos "C3-Spannungen draufknallen" und die Temperaturgrenzen wie gehabt ausreizen?
Das getraue ich mich nicht einzuschätzen. Genausowenig, ob auch bei C2/C3 Spannungen deutlich über 1,5V völlig bedenkenlos sind... Sinn machen sie für den Normalnutzer vermutlich eh nicht.
Anscheinend braucht man bei den guten Exemplaren gar keine 1,5V++, hier taktet einer auf 4,3 mit 1,47V und Luftkühlung
Bei SuperPi 1M kann ich etwa 300MHz mehr als bei Prime draufknallen, das wird hier nicht anders sein.
Tarkin
2010-04-14, 10:50:57
Ich hab irgendwas von Cores geschrieben?
Bei Cinebench ist ein Thuban bei gleicher Taktfrequenz schneller als ein i7
was ist da jetzt wieder so schwer zu verstehen?
puntarenas
2010-04-14, 11:04:18
Das getraue ich mich nicht einzuschätzen.
Danke, ehrliche Antwort. Ich hoffe, dass sich eine der Redaktionen, die auch Übertaktung in ihre Reviews einbeziehen, näher damit auseinandersetzt.
Genausowenig, ob auch bei C2/C3 Spannungen deutlich über 1,5V völlig bedenkenlos sind... Sinn machen sie für den Normalnutzer vermutlich eh nicht.
Keine Frage, interessant finde ich das trotzdem. C2-Denebs sind ja immerhin mit "0.875 - 1.5 Volts" spezifiziert, bei C3 wurde das Maximum IIRC ein wenig reduziert. Mal sehen, welche Maximalspannung AMD für E0 vorsieht, vielleicht lässt sich ja daraus ein Rückschluß ziehen.
Undertaker
2010-04-14, 11:16:11
Mal sehen, welche Maximalspannung AMD für E0 vorsieht, vielleicht lässt sich ja daraus ein Rückschluß ziehen.
Afair hatten einige bisher geleakte Thubans im Turbomodus ebenfalls Spannungen knapp über 1,4V anliegen, also in einer ähnlichen Region wie aktuelle Denebs maximal liegen. Mal abwarten, ob das Auslesefehler oder fehlerhafte BIOSe waren, oder aber in der Tat reale Werte.
@Opte...Gast: Log dich ein, und wir klären das per PN.
Habe aber auch in Erinnerung, daß Cinebench ziemlich inteloptimiert war / ist?
Warum wird das jetzt überall verwendet, noch dazu die verschiedenen Versionen, gibts keine anderen, am besten quelloffenen Vergleichsmöglichkeiten?
Mittlerweile gibts (endlich) Cinebench R11.5, das hat jetzt auch nen K10 Codepfad.
Das sollte somit einigermaßen fair ablaufen. Restrisiko bleibt natürlich wg. Closed Source, aber das ist ja im 99% der Win Apps so ;-)
Undertaker
2010-04-14, 11:39:50
Der X6 profitiert im speziellen von der besseren Multicoreskalierung. Der Speedup in Version R10 nahm bei >4 Kernen doch spürbar stärker ab.
Vertigo
2010-04-14, 11:49:58
Ich hab irgendwas von Cores geschrieben?
Bei Cinebench ist ein Thuban bei gleicher Taktfrequenz schneller als ein i7
was ist da jetzt wieder so schwer zu verstehen?
Also du hast ausgehend von von den Cinebench-Ergebnissen, die nebenbei bemerkt mit nicht alltagstauglichen Settings entstanden sind, schon verallgemeinert, dass Thuban die i7 insgesamt "aufmischen" würde:
Clock-for-Clock ist der Thuban im Cinebench schon mal leicht schneller als Intel... wer hätte das gedacht :)
http://www.xtremesystems.org/forums/showpost.php?p=4338642&postcount=56
von 2.8 auf 4.2... :eek:
Endlich echte Konkurrenz für Intel auch oberhalb von 200 Euro!
AMD wird mit Thuban die i7 ziemlich aufmischen... vor allem auch bei Anwendungen.
Und das wird eben nicht passieren, da nur wenige Anwendungen sechs Kerne nutzen. Es werden sicher mehr werden, aber bis das Standard wird, gibt es auch 6-, 8-, oder noch mehr-Kerner im Mainstream von Intel und AMD. Thuban wird aktuell auf keinen Fall die i7 "aufmischen", da letzterer eben doch pro MHz und (genutzten) Kern erheblich mehr Leistung liefert.
Naja, ein i3-530 nimmt es mit einem X3 720 BE auf :ugly:
Naja, das ist aber eine ziemlich einfältige Ansicht, die unter dem Strich bei CB zwar stimmen mag, aber teilweise doch erhebliche Unterschiede zu Tage führt, speziell bei Spielen. Siehe Anno 1404, wo der i3 massiv hinter dem 720BE bleibt, trotz SMT.
Zudem dürfte kein Mensch ein 720BE kaufen und diesen mit Standardtakt betreiben. Einem Spieler und Normalanwender würde ich den 720BE empfehlen.
http://www.behardware.com/articles/778-13/giant-roundup-146-intel-and-amd-processors.html
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.