PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-Serie - Bulldozer - Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10

AnarchX
2011-10-27, 07:55:54
Verbrauchsvergleich mit unterschiedlicher Last in Cinebench R11.5:
http://pc.watch.impress.co.jp/img/pcw/docs/486/640/graph27.gif
die dazu erreichte Leistung:
http://pc.watch.impress.co.jp/img/pcw/docs/486/640/graph05.gif

http://pc.watch.impress.co.jp/docs/topic/feature/20111027_486640.html?ref=rss

Hübie
2011-10-27, 08:22:13
Öhm. Wieso postest du das? Die Werte kann man doch 1000 anderen Reviews schon entnehmen.

AnarchX
2011-10-27, 08:26:18
Wo gibt es denn noch eine Übersicht zum Teillast-Verbrauch von FX-4100/6100 und das noch im Vergleich zu Llano?

Hübie
2011-10-27, 08:32:13
Ach darum geht es dir. Dann haben die Bilder so eben eine Daseinsberechtigung erworben ;D

R.I.P.
2011-10-27, 10:18:04
Und wieder sieht man: ich will einen 6Kern LLano mit 3,8 Ghz :biggrin:

LovesuckZ
2011-10-27, 10:22:22
Also der FX-4100 ist so dermaßen nutzlos in seiner jetzigen Form, das ist kaum zu glauben.

VOODOO-KING
2011-10-27, 10:39:03
Also der FX-4100 ist so dermaßen nutzlos in seiner jetzigen Form, das ist kaum zu glauben.

deshalb ahne ich auch nix gutes für Trinity...

Blediator16
2011-10-27, 10:45:43
deshalb ahne ich auch nix gutes für Trinity...

Hoffen wir, dass die neuen in AMDs Chefetage bessere Entscheidungen treffen.

Schnitzl
2011-10-27, 10:51:58
Verbrauchsvergleich mit unterschiedlicher Last in Cinebench R11.5:
http://pc.watch.impress.co.jp/img/pcw/docs/486/640/graph27.gif
die dazu erreichte Leistung:
http://pc.watch.impress.co.jp/img/pcw/docs/486/640/graph05.gif

http://pc.watch.impress.co.jp/docs/topic/feature/20111027_486640.html?ref=rss
warum verbrauchen 4100 und 6100 quasi gleichviel und der 8100 deutlich mehr?
finde ich etwas unlogisch die werte...

LovesuckZ
2011-10-27, 10:52:51
Beide sind 95 Watt CPUs. Der 4100 hat höhrere Taktraten, der 6100 ein Modul mehr bei niedriger Taktung.

VOODOO-KING
2011-10-27, 10:56:35
Hoffen wir, dass die neuen in AMDs Chefetage bessere Entscheidungen treffen.


schaut man sich das interne Preis/Leistungsrating an, dann sind doch die 2 u. 3 Moduler Rückschritte gegenüber Daneb u. Thuban! Einzig u. allein die 4 Moduler können sich in Szene setzen...

Soul
2011-10-27, 11:10:21
Beide sind 95 Watt CPUs. Der 4100 hat höhrere Taktraten, der 6100 ein Modul mehr bei niedriger Taktung.

Sind nicht alle Bullis 8 Kerner und bei 4100 und 6100 werden einfach die entsprechenden Module deaktiviert?

AnarchX
2011-10-27, 11:28:26
Sind nicht alle Bullis 8 Kerner und bei 4100 und 6100 werden einfach die entsprechenden Module deaktiviert?
Natürlich, aber die deaktivierten Module sollten relativ gut von der Stromversorgung abgeschnitten sein.

Hübie
2011-10-27, 11:32:35
Das macht auch die Bezeichnung "Modul" irgendwie absurd.

Blediator16
2011-10-27, 12:15:32
schaut man sich das interne Preis/Leistungsrating an, dann sind doch die 2 u. 3 Moduler Rückschritte gegenüber Daneb u. Thuban! Einzig u. allein die 4 Moduler können sich in Szene setzen...

Daher auch die Hoffnung auf die neue Chefetage. Angeblich gabs Beschwerden von Ingenieuren, dass man speziell den BD nicht mehr von Hand entwickelt hat und man wieder es so machen will wie bei A64 Zeiten.

Knuddelbearli
2011-10-27, 12:19:39
na ne neue Chefetage bemerkt man in frühestens 2-3 Jahren

Blediator16
2011-10-27, 12:22:02
Höchstwahrscheinlich leider ja

Hübie
2011-10-27, 12:41:36
Besser spät als nie ;)

AnarchX
2011-10-27, 12:49:53
THG: AMD FX: Energy Efficiency Compared To Eight Other CPUs (http://www.tomshardware.com/reviews/fx-power-consumption-efficiency,3060.html)

http://media.bestofmicro.com/K/0/311760/original/efficiency_score.png

Hübie
2011-10-27, 13:00:30
:facepalm: Mal ehrlich: WAS HABEN DIE SICH DABEI GEDACHT?

Ich kann AMD da überhaupt nicht nachvollziehen. Haben die bei internen Tests nicht schon die Hosen voll gehabt?

L.ED
2011-10-27, 13:20:39
Und was man noch sieht, wie schön völlig unreflektiert Zahlen täuschen können! ^^

Das Ding da suggeriert doch tatsächlich das selbst der i7-980X gegen die anderen Beiden da nur noch ab stinkt, in der Praxis wischt er nach vor den Boden mit allen 4er (egal wer und was)! Und ist die einzige Konkurrenz die man seitens Intel auf dem Desi ab gewissen Bereich momentan da dann noch gelten machen könnte (so sieht es aus), gegenüber X6 und FX8. Ja wenn er nicht in einer völlig anderen Preislichen Liga angesiedelt! Was ihn im selben Zug faktisch gleich wieder nicht existent macht (im Relevanz sinne). Man könnte diese CPU von daher gleich gänzlich weg lassen (verzerrt nur das Bild).

S940
2011-10-27, 13:26:37
Daher auch die Hoffnung auf die neue Chefetage. Angeblich gabs Beschwerden von Ingenieuren, dass man speziell den BD nicht mehr von Hand entwickelt hat und man wieder es so machen will wie bei A64 Zeiten.Das ist ziemlich sicher Käse, die Kerne sind Handarbeit, wenn was automatisch ist, dann höchstens die NB. Abgesehen davon benützt Intel seit dem P4 auch schon sowas ;-)
Quelle: Irgendwo bei Anandtech, wo einer gepostet hat, der sich auskennt.

Mal ehrlich: WAS HABEN DIE SICH DABEI GEDACHT?

Ich kann AMD da überhaupt nicht nachvollziehen. Haben die bei internen Tests nicht schon die Hosen voll gehabt?

Die Frage muss anders lauten: Was lief schief? Geplant war sowas sicherlich nicht.

raffa
2011-10-27, 13:58:39
Die Tabelle bzw. den dazugehörigen Beitrag find ich ganz interessant, man sieht recht schön, wie die recht hohen Spannungen die Energieeffizienz drücken:

http://www.pimpyourbet.com/Planet3dnow/Bulldozer_Spannung.jpg

Ergänzung:
CPU ist ein FX-6100
Default 3300MHz bei 1,25v 169Watt -> 6C k.knots/watt ~ 45,9
Leistungsaufnahme Idle: 80Watt

Quelle:

http://www.planet3dnow.de/vbulletin/showthread.php?p=4514444#post4514444

robbitop
2011-10-27, 14:05:39
Ich vermute so langsam, dass AMD beim Bulldozer vor allem den Servermarkt im Auge hatte. Bei MT-Tasks scheint er den Thuban ja deutlich zu besiegen.
Ich persönlich erwarte zumindest innerhalb der Bulldozerarchitektur keinen drastischen Paradigmenwechsel zu einer überlegenen ST-IPC mehr. Stück für Stück wird Takt, Verbrauch und IPC ein wenig besser werden IMO.

ndrs
2011-10-27, 14:35:33
Die Tabelle bzw. den dazugehörigen Beitrag find ich ganz interessant, man sieht recht schön, wie die recht hohen Spannungen die Energieeffizienz drücken:
Zur genauen Beurteilung sei noch der idle-Verbrauch von 80W genannt. Damit sieht man, dass der 35W 8Kerner garnicht so besonders gut selektiert werden muss.

Undertaker
2011-10-27, 15:46:49
Ich vermute so langsam, dass AMD beim Bulldozer vor allem den Servermarkt im Auge hatte. Bei MT-Tasks scheint er den Thuban ja deutlich zu besiegen.

In welchen Fällen ganz konkret? Nimmt man einige der beliebten und sehr gut parallelisierten Benchmarks wie Cinebench, 3ds Max, x264 oder Paint.NET liegen wir irgendwo zwischen 10% langsamer bis 20% schneller als der X6 1100T, im Mittel sind es vielleicht 10%. Für einen Architekturwechsel + kleineren Fertigungsprozess ist das zu wenig, um von einer wahren Stärke in diesem Bereich zu reden. Wirklich absetzen kann man sich von Thuban nur, wenn entweder AVX/FMA genutzt wird oder der schnellere Speicher seine Wirkung entfaltet.

L.ED
2011-10-27, 15:58:40
Auch Anwendungen wie Encoding und Raytracing skalieren nicht beliebig, irgendwann frisst der Overhead alles auf. Ironischerweise war oder ist doch gerade das auch immer wieder Thema als gegen Argument für stur immer mehr Kerne! ^^

Lösung:
Man Splittet solche Geschichten dann in mehren separat Clienten, jeder davon hat dann max. Cores/Threads Anzahl X und verteilt das so über die Farm. Und für solche Zwecke und Herangehensweisen eigenen sich Raytracing Projekte nicht nur schon immer sehr gut sondern sind dann auch andere CPU Konzepte auf Länge Sinnvoller!

robbitop
2011-10-27, 16:09:03
In welchen Fällen ganz konkret? Nimmt man einige der beliebten und sehr gut parallelisierten Benchmarks wie Cinebench, 3ds Max, x264 oder Paint.NET liegen wir irgendwo zwischen 10% langsamer bis 20% schneller als der X6 1100T, im Mittel sind es vielleicht 10%. Für einen Architekturwechsel + kleineren Fertigungsprozess ist das zu wenig, um von einer wahren Stärke in diesem Bereich zu reden. Wirklich absetzen kann man sich von Thuban nur, wenn entweder AVX/FMA genutzt wird oder der schnellere Speicher seine Wirkung entfaltet.
Hm ... zumindest in Anwendungen ist Bulldozer oft schneller:
http://www.xbitlabs.com/articles/cpu/display/amd-fx-8150_11.html#sect0

Ich hätte gedacht, dass das für Serverworkloads auch so hinhaut (Datenbanken z.B).
Im Serverbereich wird ein hoher FP Durchsatz gefordert. Das sollte BD eigentlich gut können.

Ronny145
2011-10-27, 16:18:30
Hm ... zumindest in Anwendungen ist Bulldozer oft schneller:
http://www.xbitlabs.com/articles/cpu/display/amd-fx-8150_11.html#sect0

Ich hätte gedacht, dass das für Serverworkloads auch so hinhaut (Datenbanken z.B).
Im Serverbereich wird ein hoher FP Durchsatz gefordert. Das sollte BD eigentlich gut können.


In deinem Link sind 2 Packerbenchmarks und 1 AES Benchmark dabei. Das ist die größte Stärke von Bulldozer. Wenn in den Serveranwendungen viel Durchsatz gefragt ist, also ähnlich wie in den Packerbenchmarks, könnte es hier tatsächlich besser aussehen.

anddill
2011-10-27, 16:36:21
Gibt schon ein paar Dinge, die er gut kann. Die Jungs bei Cray werden ja auch nicht völlig bekifft gewesen sein, als sie sich für den Bulldozer entschieden haben.
Unser Problem ist halt, daß er von den Dingen, die Leute zu Hause auf ihrem PC so machen, kaum was besser kann als der Vorgänger oder Intel.

Undertaker
2011-10-27, 16:41:37
War Cray nicht wegen HyperTransport an AMD gebunden? Der Gemini-Chip für den Torus-Interconnect baut nunmal auf die HyperTransport-Anbindung an die CPU.

Skysnake
2011-10-27, 17:06:48
Ja das sind Sie. Intel meinte ja, Sie müssten ihr eigenes closed Süppchen kochen....

Ronny145
2011-10-27, 17:12:05
Gibt schon ein paar Dinge, die er gut kann. Die Jungs bei Cray werden ja auch nicht völlig bekifft gewesen sein, als sie sich für den Bulldozer entschieden haben.



Die waren doch auch bei Barcelona schnell dabei. War das ein Erfolg im Server?

ndrs
2011-10-27, 17:27:56
Im Serverbereich geht es doch hauptsächlich um Energieeffizienz. Ich würde zu gern mal einen Vergleich zu der geposteten Tabelle mit einem X6 sehen. Also auf ähnlich Leistung bzw Verbrauch runtertakten und -volten und kucken was bei rumkommt.

raffa
2011-10-27, 18:29:51
Das fänd ich auch interessant.

Zur genauen Beurteilung sei noch der idle-Verbrauch von 80W genannt. Damit sieht man, dass der 35W 8Kerner garnicht so besonders gut selektiert werden muss.

jo stimmt, habs mal eingepflegt

S940
2011-10-28, 01:46:34
Die waren doch auch bei Barcelona schnell dabei. War das ein Erfolg im Server?Die FPU Leistung war damals im Verbund mit dem IMC besser als die von nem C2Q, da konnte Intel erst mit Nehalem aufschließen.
Gab da einen Crashtest Simulationsbench, in dem Barcelona weit vorne lag, hatte Intel sogar im eigenen Marketingmaterial drin.
Die restlichen Sachen waren so Augenhöhe, auf alle Fälle nicht langsamer. Die K1ß FPU war/ist schon gut, nur an INT Leistung hats gehapert.

Interessiert Webserver natürlich nicht ergo -> fail, aber Cray war sicherlich zufrieden (wenn man mal vom TLB Bug absieht *g* )

chrisihamm
2011-10-28, 07:51:58
Moin,

dieser Test ist ein kleiner Lichtblick,was noch in der Architektur steckt.
Kann nur besser werden.

mfg

http://techreport.com/articles.x/21865

puntarenas
2011-10-28, 07:56:38
Ich dachte, das Module-Sharing soll der Turbo kompensieren und dessen Mehrverbrauch soll dann durch Abschaltung ungenutzter Module überkompensiert werden. So hatte ich das Konzept verstanden, schade dass Verbrauchsmessungen und Energieeffizienzangaben fehlen.

Hübie
2011-10-28, 09:08:35
Das Tool CPU-Z hängt langsam der Technik stark hinter her. Die sollten für jeden Kern mal eine Frequenzanzeige integrieren.
Wird immer werloser was da steht.
@chrisihamm: Auch das wird nix mehr retten. Ich kann gar nicht sagen wie Schade ich es finde. So schnell lande ich wohl doch nicht mehr auf dem grünen Planeten :(

LG Hübie

VOODOO-KING
2011-10-28, 09:53:33
zumindest soll/wird sich Bulldozer anscheinend unter Win8 zu Hause fühlen, glaubt man den planet3dnow Untersuchungen. Immerhin kleine Lichtblicke...

http://www.planet3dnow.de/vbulletin/showpost.php?p=4515288&postcount=335

http://www.planet3dnow.de/vbulletin/showpost.php?p=4515304&postcount=339

http://www.planet3dnow.de/vbulletin/showpost.php?p=4515316&postcount=343

mapel110
2011-10-28, 10:23:28
Sollte eine Anwendung mehr als 4 Threads intensiv nutzen, bringt der Win8-Scheduler doch auch nichts mehr?!

fdk
2011-10-28, 10:30:34
zumindest soll/wird sich Bulldozer anscheinend unter Win8 zu Hause fühlen, glaubt man den planet3dnow Untersuchungen. Immerhin kleine Lichtblicke...

http://www.planet3dnow.de/vbulletin/showpost.php?p=4515316&postcount=343

Wenn ich diese etwas wirre Tabelle richtig entziffere legt der Phenom x3 unter win8 deutlich mehr zu als der bd unter win8?

disap.ed
2011-10-28, 11:02:52
Vor allem ändert Win8 nichts daran dass der PhenomII deutlich schneller bei gleichem Takt ist als der Bulldozer, trotz Turbo beim Bulli, oder lese ich die Tabelle falsch?

LovesuckZ
2011-10-28, 13:50:31
SilentPCReview scheint eine der wenigen Seiten zu sein, die dem Stromverbrauch des System bei verschiedenen Anwendungen mitmisst: http://www.silentpcreview.com/article1222-page3.html

Das sind so heftig aus. Keine Ahnung, wie man mit solch einem Ergebnis eine vernünftige Trinity-Implementierung hinkriegen will.

Spasstiger
2011-10-28, 14:17:06
Das Bild im Test von SilentPCReview durch die Verwendung des sehr üppig ausgestatteten Enthusiast-Mainboard beim Bulldozer im Vergleich zu den Mainstream-Boards für Phenom II und den Sandy Bridge verzerrt.
SilentPCReview misst im idle 11 Watt Differenz zwischen dem Bulldozer-System und den Sandy-Bridge-Systemen, obwohl die CPUs an sich laut HT4u praktisch keine idle-Differenz aufweisen: http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index24.php.
Bulldozer beherrscht C6-State-Powergating, was den idle-Verbrauch auf so ein niedriges Niveau senkt.
Und zu den Phenom II sollte bei einem vergleichbar sparsamen Board ein idle-Verbrauch-Unterschied von rund 10 Watt sichtbar sein, was nicht der Fall ist.

Zieht man 10 Watt von den Bulldozer-Messwerten ab, um den sehr unterschiedlich ausgerichteten Boards Rechnung zu tragen, ergibt sich wohl ein fairer Vergleich der Energieeffizienz. Und dann schneidet der FX-8150 auch besser ab als der Phenom II X6 1100T.
Aus der Kombo des schnellsten AMD FX mit einem Enthusiast-Mainboard würde ich persönlich keine Rückschlüsse auf die Energieeffizienz von Trinity ziehen wollen. ;)
Wie weiter oben gezeigt, bekommt man 8 Bulldozer-Cores @ 2,2 GHz schon mit 35 Watt hin.

LovesuckZ
2011-10-28, 14:29:30
Im Handbrake legt der 8150 um 128 Watt zu, der i3-2100 nur um 36 Watt und benötigt nur doppelt solange.

Ein 2,2GHz Bulldozer läge damit bei gleichem Verbrauch gerademal auf dem selben Niveau mit seinen 8 Threads gegen die 4 vom i3-2100. Und verliere so dermaßen in alles, was weniger als 8 Threads verwendet.

Undertaker
2011-10-28, 14:34:07
Ein 2,2GHz 4M/8C bei 35W TDP (nicht ACP?)? Das wäre gar nicht mal so übel, welches Modell soll das sein? Mit einem guten Teillastturbo wäre das eine brauchbare Mobil-CPU.

AnarchX
2011-10-28, 14:35:23
Ein 2,2GHz 4M/8C bei 35W TDP? Das wäre gar nicht mal so übel, welches Modell soll das sein? Mit einem guten Teillastturbo wäre das eine brauchbare Mobil-CPU.
Opteron 4256 EE mit 8x 2,5GHz @ 35W: http://www.cpu-world.com/news_2011/2011100701_Pre-order_prices_of_AMD_Opteron_3200_4200_and_6200_processors.html

Undertaker
2011-10-28, 14:42:34
Sicher das das kein Druckfehler ist? Wo ist der Unterschied zum identisch teuren Opteron 4274 HE mit 65W TDP? Warum kommt selbst ein 3250 EE als 2M/4C mit 2,5GHz nur auf 45W? Und der 6262 HE mit 8M/16C braucht schon für 1,6GHz 85W?

Also das passt rein logisch für mich nicht wirklich zusammen. Und wäre dieses 35W Modell extrem selektiert, müsste der Preis höher sein. Sehr eigenartig. :confused:

Edit: Man beachte auch die letzte Zeile der Meldung, dass bereits bei drei anderen Modellen falsche Frequenzen korrigiert werden mussten. 35W bei 4M/8C könnten in Relation zum genannten 6262 HE bei 1,5GHz realistisch sein. Man darf nicht vergessen, dass der Leistungsbedarf der Northbridge, der Interconnects oder anderer Teile durch einen geringeren Kerntakt unangetastet bleibt.

AnarchX
2011-10-28, 14:45:38
Der Preis macht keinen rechten Sinn, aber Computerbase nennt auch dieses Modell: http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/4/#abschnitt_servervarianten
Stellt sich noch die Frage, ob der EE überhaupt Turbo-Core nutzt.
CB bezieht sich auch auf CPU-World.

Spasstiger
2011-10-28, 14:55:10
Ein 2,2GHz 4M/8C bei 35W TDP (nicht ACP?)? Das wäre gar nicht mal so übel, welches Modell soll das sein? Mit einem guten Teillastturbo wäre das eine brauchbare Mobil-CPU.
Das hab ich aus diesem Test mit verschiedenen Taktraten und Spannungen abgeleitet: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9005180&postcount=1023.
Der idle-Verbrauch eine FX-8150 liegt laut HT4u bei 4 Watt. Wenn nun die Differenz zwischen idle und Last bei 2,2 GHz und 0,85 Volt 32 Watt beträgt, entspräche das einem Gesamtverbrauch von 34-36 Watt, je nachdem, wo der idle-Verbrauch bei reduzierter Spannung liegt. Also rund 35 Watt.
Und nach dem Link von AnarchX gibts offenbar sogar eine offizielle Variante mit gleich 2,5 GHz bei 35 Watt TDP (32 Watt ACP).

Wenn die Tabelle so stimmt, liegt der Unterschied zwischen dem Opteron 4256 EE und dem AMD Opteron 4274 HE sicherlich beim Turbo. Eventuell auch beim Northbridge- und Speichertakt.

Schnitzl
2011-10-28, 15:01:46
Beide sind 95 Watt CPUs. Der 4100 hat höhrere Taktraten, der 6100 ein Modul mehr bei niedriger Taktung.
naja, der Taktratenunterschied ist nichtmal 10% (3,3Ghz zu 3,6Ghz...), dafür 50% mehr module...

Spasstiger
2011-10-28, 15:06:48
Weder die Opteron-4100- noch die Opteron-6100-Serie basieren auf der Bulldozer-Architektur. Bulldozer ist Opteron 4200 (Zambezi) bzw. Opteron 6200 (Interlagos).

Undertaker
2011-10-28, 15:08:03
Das die Tabelle so stimmt kann ich mir durchaus vorstellen, mit der daraus vorgenommenen Rechnung wäre ich in Bezug auf ein Serienmodell aber sehr vorsichtig:


Edit: Annahme des falschen Modelles

1. Auch im Serientrimm kommt der FX-8150 hier nur auf ein Verbrauchsdelta von 89W. Bei Volllast in Prime haben Reviews wie Computerbase aber Werte von ~140W ermittelt! Fritz ist somit sicher nicht für die Dimensionierung einer TDP geeignet.
2. Die notwendigen 0,85V sind handoptimiert und liegen laut dem Tester nur 0,05V über der Bluescreenspannung - das genügt sicherlich nicht den Anforderungen einer Serienfertigung.

Einberechnet, das ein Serienmodell sicherlich eher 0,95-1V besäße und die TDP auch für echte Volllast dimensioniert sein muss, würden in diesem Fall wohl eher ~60W* TDP angemessen sein.

Edit: Das würde auch gut zu den anderen Modellen bei CPU-World passen, z.B. dem 4274 HE oder entsprechend hochgerechnet dem 6282 SE.


*überschlägliche Rechnung:

Für Punkt 1: 35W * 125/89W = 49W
Für Punkt 2: (0,95/0,85)² = 1,25
49W * 1,25 = ~60W

aylano
2011-10-28, 15:13:22
Der idle-Verbrauch eine FX-8150 liegt laut HT4u bei 4 Watt. Wenn nun die Differenz zwischen idle und Last bei 2,2 GHz und 0,85 Volt 32 Watt beträgt, entspräche das einem Gesamtverbrauch von 34-36 Watt, ...
EE-Modelle (bzw. Neo) haben sogar eine Spannung mit 0,95 Volt.

Spasstiger
2011-10-28, 15:25:13
http://de.wikipedia.org/wiki/Metall-Oxid-Halbleiter-Feldeffekttransistor#Linearer_BereichDas die Tabelle so stimmt kann ich mir durchaus vorstellen, mit der daraus vorgenommenen Rechnung wäre ich in Bezug auf ein Serienmodell aber sehr vorsichtig:
1. Auch im Serientrimm kommt der FX-8150 hier nur auf ein Verbrauchsdelta von 89W. Bei Volllast in Prime haben Reviews wie Computerbase aber Werte von ~140W ermittelt! Fritz ist somit sicher nicht für die Dimensionierung einer TDP geeignet.
Es wurde ein FX-6100 getestet, der hat eine TDP von 95 Watt. Die Differenz zwischen 89 Watt gemessen und 95 Watt TDP finde ich nicht sonderlich groß.

2. Die notwendigen 0,85V sind handoptimiert und liegen laut dem Tester nur 0,05V über der Bluescreenspannung - das genügt sicherlich nicht den Anforderungen einer Serienfertigung.
Handoptimiert, aber nicht vorselektiert, was bei den EE-Versionen durchaus der Fall sein dürfte. Der FX-6100, mit dem der Test durchgeführt wurde, könnte auch ein qualitativ eher schlechtes Modell sein, das weiß man nicht.
Nach aylano kommen die EE wohl mit 0,95 Volt.


Für Punkt 2: (0,95/0,85)² = 1,25
Es besteht zwar ein quadratischer Zusammenhang zwischen Leistungsaufnahme und Spannung, aber so kannst du das nicht rechnen. Wenn x=Vcore,neu/Vcore,alt und y=Pload,neu/Pload,alt, dann ist y=a*x²+b*x+c. Die Parameter a,b und c sind nicht bekannt.
Aus der Tabelle kannst du auch leicht ablesen, dass die Leistungsaufnahme bei Erhöhung der Spannung von 0,85 auf 0,9 Volt und des Taktes von 2,2 auf 2,5 GHz nur um 2 Watt steigt. Nach deiner Rechnung müsste der Anstieg aber rund 10 Watt betragen.

/EDIT: Der Zusammenhang zwischen VCore und Lungsaufnahme ist im linearen, "normalen" Arbeitsbereich eines Transistors eigentlich sogar kubisch, denn der Strom durch den Transistor hängt quadratisch vom Spannungsabfall am Transistor ab: http://de.wikipedia.org/wiki/Metall-Oxid-Halbleiter-Feldeffekttransistor#Linearer_Bereich. Und die umgesetzte Wärmeleistung ist das Produkt aus diesem Strom (I_DS) und der abfallenden Spannung (U_DS).
Die Strom-Spannungs-Kennline verläuft im linearen Bereich eigentlich schwächer als linear (auch wenn der Zusammenhang durch eine quadratische Funktion beschrieben wird). Nur bei U_DS=0 ist der Verlauf exakt linear. Es ist also so, dass eine Spannungserhöhung im linearen Bereich um x% zu einer Stromerhöhung um weniger als x% führt. Somit steigt die Leistungsaufnahme effektiv schwächer als rein quadratisch (aber stärker als linear).

Undertaker
2011-10-28, 15:35:19
OK, das mit dem FX 6100 habe ich übersehen. Nehme alles zurück und behaupte das Gegenteil. ;) Die Rechnung war natürlich nur überschläglich und kommt der Realität idR nahe. Das auch die Messwerte Schwankungen unterliegen ist klar (10W Mehrverbrauch bei gleicher Spannung von 2,5GHz auf 2,8GHz sind beispielsweise eher ungewöhnlich, wo davor bei 2,2GHz zu 2,5GHz und 0,05V mehr Spannung nur 2W mehr gemessen wurden).

Darauf, dass der 35W 4256 EE bei CPU-World gegenüber allen anderen Modellen extrem heraussticht und damit irgendeine Angabe vmtl. fehlerhaft ist, verwette ich aber meinen Hut. Selbst wenn der von dir verlinkte FX-6100 bei 35W so serientauglich wäre, wären das immernoch nur 3M/6C und 2,2GHz.

AnarchX
2011-10-29, 17:56:23
Battlefield 3 - CPU-Benchmarks: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=516487

Ronny145
2011-10-30, 15:45:24
FX-4100 & FX-6100 Ht4u Test: http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/

In Szene können die sich nur in Packerbenchmarks und Truecrypt setzen. Bei allem anderen sind sie dem X4 bzw. X6 immer unterlegen. Überraschend ist das jetzt natürlich nicht mehr. Die 2 und 3 Moduler sind mit derzeitigen Preisen überteuert. AMDs Altgeneration bietet hier das bessere P/L Verhältnis.

DavChrFen
2011-10-30, 17:57:09
Gibts eigentlich OC-Tests mit einer vernünftigen WaKü?

mapel110
2011-10-30, 20:40:38
Die 2 und 3 Moduler sind mit derzeitigen Preisen überteuert. AMDs Altgeneration bietet hier das bessere P/L Verhältnis.
Auch der 8Kerner ist überteuert. Aber das wird AMD in den nächsten Wochen schon noch spüren.
Eigentlich sollte man davon ausgehen, dass AMD die 2 und 3 Moduler bald einstellt und die alten CPUs noch weiter fertigt.

WEGA
2011-10-30, 21:05:13
Eigentlich sollte man davon ausgehen, dass AMD die 2 und 3 Moduler bald einstellt und die alten CPUs noch weiter fertigt.
nö, irgendwo muss der ausschuss doch hin.

Skysnake
2011-10-30, 21:40:13
der preis muss aber runter. Der 8150 muss Minimum auf den preis des 2500k runter, damit das ding interessant wird.

Trap
2011-10-30, 23:03:36
der preis muss aber runter. Der 8150 muss Minimum auf den preis des 2500k runter, damit das ding interessant wird.
Hast du mal auf die Verfügbarkeit geguckt? Der Preis ist anscheinend niedrig genug um alle gelieferten CPUs loszuwerden.

Skysnake
2011-10-31, 00:22:29
Das ist dann aber auch nicht im Interesse von AMD, dass die eine so dermaßen niedrige Verfügbarkeit haben.

Für den vernünftigen Käufer sind alle FX im Moment einfach keine Option zu dem Preis. Wer sich den zu dem aktuellen Preis kauft, weiß ich nicht, und kanns auch nicht verstehen.

mapel110
2011-10-31, 00:46:19
Bis zur Verfügbarkeit des 8150 sollte es doch sowieso 2 Wochen dauern. Die sind gerade erst um. Es dauert sicher noch 2-3 Wochen, bis die Freaks zugeschlagen haben und sich die CPUs bei den Händlern stapeln.

(del676)
2011-10-31, 08:18:04
Also ich hab meinen 8150 seit einer Woche, und lagernd ist er immerhin fuer 249€.

Schlammsau
2011-10-31, 09:28:30
Noch ist er nicht in die offizielle Rangliste bei HWBOT aufgenommen worden, jedoch bestätigt die CPU-Z-Validierung den neuen Weltrekord: Der in der Szenen bekannte Übertakter Andre Yang erreichte mit einem AMD FX-8150 einen CPU-Takt von 8,46 GHz und schlägt somit das vorherige Rekordergebnis von 8,43 GHz.
8,46 GHz: Neuer Taktweltrekord mit AMDs „Bulldozer“ (http://www.computerbase.de/news/2011-10/8.46-ghz-neuer-taktweltrekord-mit-amds-bulldozer/)

Also Taktpotenzial hat BD durchaus. Evtl werden in absehbarer Zeit >4,5Ghz Modelle (neue Rev.?) mit einer TDP von 120W released.
Dann schaut dass alles wieder nicht mehr sooo schlecht für AMD aus.

Ronny145
2011-10-31, 09:30:05
Ich sehe einen einzigen Händler mit lagernden FX-8150 - katastrophale Verfügbarkeit. Das immerhin bei den 249€ ist unpassend. Das ist doch Wucher. i7-2600k ist nicht viel teurer. Preislich müsste FX-8150 in der Nähe des i5-2500k liegen. 1100T Thuban kostet 165€, dann sollte der FX-8150 nicht mehr als 20-30€ über dieser CPU liegen. ~180-200€ wäre ein vertretbarer Preis, mehr nicht.

8,46 GHz: Neuer Taktweltrekord mit AMDs „Bulldozer“ (http://www.computerbase.de/news/2011-10/8.46-ghz-neuer-taktweltrekord-mit-amds-bulldozer/)

Also Potenzial hat BD durchaus.

Ich sehe kein Potenzial mit normaler Kühlung.

Schlammsau
2011-10-31, 09:34:23
Ich sehe kein Potenzial mit normaler Kühlung.

Doch ich schon, wenn AMD den hohen Stromverbrauch in den Griff bekommt.

Ich meine gelesen zu haben, dass BD auf extrem hohe Taktraten hin entwickelt wurde....nur scheinbar haben sie den Prozess noch nicht wirklich im Griff.

Skysnake
2011-10-31, 10:21:51
Was halt auch wieder so ne Urbane-Legende ist....

BD ist auf Hohe, aber nicht auf "extrem" Hohe Taktraten hin entwickelt worden, und hohe Taktraten schafft er ja jetzt schon. Nämlich 4GHz im Turbo. Das ist absolut ok.

Der Stromverbrauch ist ja eigentlich auch nicht so schlecht, wenn man sich den Idle-Verbrauch anschaut, und bedenkt, wie groß der Orochni DIE ist. Das passt schon. Nur unterm Turbo schluckt er etwas viel, wobei das zu erwarten war. Da wird es sicherlich auch noch Verbesserungen geben, aber mehr als 10-20% werden das nicht mehr werden, womit er dann trotzdem noch WEIT! hintern SB liegt, was die Effizienz betrifft.

AMD quetscht aus BD einfach viel zu wenig Leistung raus. Single-Thread hätte er sich so ca auf dem 2500-2300er Niveau einpendeln sollen, und MT dann klar vor dem 2600k. Dann wäre der aktuelle Stromverbrauch auch absolut kein Thema. Für NIEMANDEN, da die CPU dann einfach bums hätte. So hat Sie aber keinen Bums und schluckt dennoch ordentlich.

Knuddelbearli
2011-10-31, 11:07:56
naja der I7 2600K schafft aber auch schon 4,5Ghz auf alle Kerne bei unter 140W

beim BD explodiert ab 4Ghz einfach die Verlustleistung

Skysnake
2011-10-31, 11:36:54
Und?

Hast du dir mal die Effizienz vom 2600k bei den Taktraten angeschaut? Die ist da auch schon fern ab von Gut und Böse, wenn man mit @stock vergleicht.

So hohe Taktraten machen einfach absolut keinen Sinn @stock.

Ronny145
2011-10-31, 16:45:49
Doch ich schon, wenn AMD den hohen Stromverbrauch in den Griff bekommt.

Ich meine gelesen zu haben, dass BD auf extrem hohe Taktraten hin entwickelt wurde....nur scheinbar haben sie den Prozess noch nicht wirklich im Griff.

Bulldozer schafft mit Luftkühlung stabil keine höhere Taktung als Sandy bridge, das wurde in den Tests bewiesen. Deswegen sehe ich hier kein Potenzial. AMD ist mit Standardtakt nahe am erträglichen.

Und?

Hast du dir mal die Effizienz vom 2600k bei den Taktraten angeschaut? Die ist da auch schon fern ab von Gut und Böse, wenn man mit @stock vergleicht.

So hohe Taktraten machen einfach absolut keinen Sinn @stock.

Er hat doch Recht. Übertaktet sieht der Stromverbrauch für Bulldozer noch viel viel schlimmer aus.

boxleitnerb
2011-10-31, 16:50:02
Zumal man beim Übertakten nicht bis zur Grenze gehen muss. Es gibt einen halbwegs linearen Zusammenhang mit Taktzuwachs und Verlustleistung bis zu einem gewissen Punkt. Bis da kann man gehen, danach explodiert es. Das ist bei BD halt deutlich früher als bei Intel und die Steigerung ist auch noch höher.

Ich mag gar nicht an das Duell Piledriver-Ivy Bridge denken...das wird bei der Effizienz ein Massaker werden.

S940
2011-10-31, 18:19:11
Ich mag gar nicht an das Duell Piledriver-Ivy Bridge denken...das wird bei der Effizienz ein Massaker werden.
Vermutlich, außer GFs 32nm Prozess ist im Moment wirklich soooo schlecht, dass sie noch großes Verbesserungspotential haben. Bei den ganzen Hiobsbotschaften muss man fast davon ausgehen. :freak:
Aber selbst wenn - gegen 20nm wird man ganz sicher keinen Stich landen können.

Wer hat eigentlich den ct Bericht gelesen? Da steht drin, dass Steamroller wohl wieder getrennte Decoder bekommen würde. Fände ich ja interessant. Quasi CMT++ noch mehr in Richtung volle Kerne. Dann bliebe nur noch die gemeinsame FPU übrig, und die läuft eigentlich im SMT Mode. Wie sähe das mit der Sprungvorhersage aus, könnte man die noch gemeinsam lassen?

G 80
2011-10-31, 19:39:34
Hast du dir mal die Effizienz vom 2600k bei den Taktraten angeschaut? Die ist da auch schon fern ab von Gut und Böse, wenn man mit @stock vergleicht.

.

Hast recht dann verbraucht das Ding doch tatsächlich so viel wie der BD 8150 @ Stock. :freak:


Wenn man BD so bringen konnte, wenn man die P4s so bringen konnte, wenn man 90 nm 6000+ 3Ghz AMDs DCs so birngen konnte ....... dann gehts auch mit den aktuellen Sandys. Nur warum sollte man?

Was die Taktbarkeit angeht: Da machen mit normaler Kühlung eher die BDs als die SBs mit ihrer Taktmauer dicht - kein Wunder wenn man dann sogar GTX 480 in der Leistungsaufnahme übertrifft.

Skysnake
2011-11-01, 02:51:33
Die Leistungsaufnahme ist aber halt ein Zusammenspiel zwischen Fertigungsqualität, Chipgröße, Anzahl Transistoren und Layout.

Bei allem ist SB deutlich überlegen, was sich positiv auf die Leistungsaufnahme auswirkt.

Hohe Fertigungsqualität, kleiner Chip, weniger Transistoren und daraus folgend auch ein besseres Layout, weil man dank kleinem Chip nicht so lange Leiterbahnen hat etc.

Das hat aber nichts damit zu tun, auf welche Taktraten die Architektur an sich ausgelegt ist/verträgt. Weil wenn man die Taktraten übersteigt funktioniert schlicht der Prozessor nicht mehr, weil die Pegel nicht mehr stimmen.

Daher muss man dann ja auch die Spannung hoch drehe, damit die Pegel schneller den Schwellwert erreichen.

Screemer
2011-11-01, 10:15:03
noch schlimmer wird das ganze ja, wenn man die bullies mit den 3er xeons vergleicht. ein beim E3-1270 mit 80W TDP bei 3,4GHz (wie der 2500er) mit 4 kernen und 8 threads (wie der 2600/700er) und einem preis um den 8150 ist doch wohl ne ansage. da hat man mal den vergleich ohne igpu die die anderen sandys mit sich rumschleppen.

Schnitzl
2011-11-01, 11:22:43
Mal zum Thema "Spiele skalieren nicht gut mit vielen Kernen":
Metro 2033 war bereits stark multithreaded, sodass alle Kerne zu 100 Prozent ausgelastet werden können, sofern keine GPU-Limitierung vorliegt [Anmerkung PCGH: Stimmt, aber ähnlich BF3 und Crysis ist das Spiel mit allen Details fast immer grafiklimitiert]. Wir lassen dabei keine verschiedenen Module (etwa für Sound und Physik) laufen, weil das nicht optimal skaliert. Stattdessen nutzen wir sowohl bei Metro 2033 als auch Last Light sogenannte Tasks/Jobs, die bis zu einer "wahnsinnigen" Kernzahl skalieren können - wir haben es bislang mit maximal 16 Kernen bzw. Threads getestet. So können wir im Ernstfall mehrere Tausend Tasks pro Bild ausführen, welche ohne Abhängigkeiten voneinander durchrauschen. Einen Scheduler gibt's nicht, die Worker Threads der CPU greifen sich einfach jeden Task, den sie kriegen.
PCGamesHW: Metro Last Light Entwickler-Interview (http://www.pcgameshardware.de/aid,852237/Metro-Last-Light-Exklusive-Entwickler-Informationen-zu-DirectX-11-Tessellation-GPU-Physx-und-Co/Action-Spiel/News/)

Der AMD-Modul-Ansatz mit Richtung mehr Kerne ist also doch nicht so falsch, selbst für Spiele.
Nun muss dieses Sandkasten-Schäufelchen bzw. Bulldozer nur noch so funktionieren wie es/er soll...
.

Knuddelbearli
2011-11-01, 12:04:20
klingt gut nur macht das sogut wie niemand selbst civ5 und anno nicht obwohl beide immer cpu limitiert sind ...

=Floi=
2011-11-01, 13:53:44
Nun muss dieses Sandkasten-Schäufelchen bzw. Bulldozer nur noch so funktionieren wie es/er soll...
.

tut es aber nicht! auf dem papier toll und in der praxis crap. da wäre SMT billiger und einfacher gewesen.
ich frage mich eh, wie das so schlecht skalieren kann, weil ja auch alles in hardware gegossen ist.

S940
2011-11-01, 14:35:00
tut es aber nicht! auf dem papier toll und in der praxis crap. da wäre SMT billiger und einfacher gewesen.
ich frage mich eh, wie das so schlecht skalieren kann, weil ja auch alles in hardware gegossen ist.

Hmm, also sooo schlimm ist es nicht, wenn wirklich alle 8 Threads benutzt werden. Kommt halt nur sehr selten vor.

Bei Anno steigen die Min FPS schön, das Mittel bleibt aber niedriger.
Folgerung: Die 8 Threads braucht man das Spiel nur in Streßsituationen, meistens sind weniger, dann schlägt die schlechte IPC zu.

Bei Metro und Civ schauts laut anandtech so aus:
http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/8
Immerhin schneller als der alten 1100er. Im Civ Rendermode sind alle AMD komischerweise wieder schneller als alle Intels, wohl wieder ne Grafik/IO Sache.

Im Teillastbereicht schlägt außerdem wieder der Win7 Scheduler zu, könnte dort mit Win8 besser ausschauen. Hat PCGH dazu im Heft jetzt eigentlich Tests gemacht?

Richtig ist, dass seeehr vieles nicht rund läuft, dewegen aber gleich nach SMT zu schreien ist verfrüht. Ähnlich verfrüht, wie AMD BD auf den Markt brachte ;-)
Mach nicht den gleichen Fehler ^^

Ronny145
2011-11-01, 15:28:01
Hmm, also sooo schlimm ist es nicht, wenn wirklich alle 8 Threads benutzt werden. Kommt halt nur sehr selten vor.


Nicht immer. Cinebench ist ein prominentes Beispiel und das skaliert wirklich exzellent über die Threads.

chrigeligigeli
2011-11-01, 15:42:41
ist ja fast so wie bei den ersten P4 mit HTT. mittlerweile sagt ja auch keiner mehr dass HTT es nicht bringt..

S940
2011-11-01, 16:06:35
Nicht immer. Cinebench ist ein prominentes Beispiel und das skaliert wirklich exzellent über die Threads.
Threads mit eigener FPU ja, Thread mit gemeinsam Benutzer FPU ... tja öhh :freak:

Edit:
ist ja fast so wie bei den ersten P4 mit HTT. mittlerweile sagt ja auch keiner mehr dass HTT es nicht bringt..
Jo, oder man erinnere sich nur an den Win7 Scheduler Patch für SMT ;-)

Immer das gleiche Lied ...

Knuddelbearli
2011-11-01, 16:42:23
Nicht immer. Cinebench ist ein prominentes Beispiel und das skaliert wirklich exzellent über die Threads.

bei cb muss man auch erstmal auf einen optimierten pfad warten für bulli oder?

Schlammsau
2011-11-02, 09:25:38
8,46 GHz: Neuer Taktweltrekord mit AMDs „Bulldozer“ (http://www.computerbase.de/news/2011-10/8.46-ghz-neuer-taktweltrekord-mit-amds-bulldozer/)

Also Taktpotenzial hat BD durchaus. Evtl werden in absehbarer Zeit >4,5Ghz Modelle (neue Rev.?) mit einer TDP von 120W released.
Dann schaut dass alles wieder nicht mehr sooo schlecht für AMD aus.
Update: (http://www.computerbase.de/news/2011-11/8.46-ghz-neuer-taktweltrekord-mit-amds-bulldozer/#update1)
Inzwischen hat Andre Yang seinen Rekord offenbar selbst geschlagen, denn im besagten Asus-ROG-Forum postete er ein noch höheres Resultat in Form von Screenshots. Laut CPU-Z lief ein Modul des FX-8150 mit 8,58 GHz womit er deutlich zulegen konnte. Sofern die Spannung korrekt ausgelesen wurde, wagte der Übertakter hierbei eine erneute Anhebung um den Takt weiter in die Höhe zu treiben, wofür demzufolge knapp 2,1 Volt nötig waren. Zum Vergleich: Die Standardspannung des FX-8150 liegt bei etwa 1,25 Volt bei 3,6 GHz (ohne Turbo).

AnarchX
2011-11-02, 09:29:51
Ein Netburst-Celeron hat unter 65nm auch >8GHz erreicht, mit 32nm wären vielleicht >10GHz möglich gewesen. Aber das brachte ihm in der Praxis nichts.

AMD hat mit ihrer Roadmap (http://www.computerbase.de/news/2011-10/amd-gibt-ausblick-auf-schnellere-bulldozer-nachfolger/)doch recht eindeutig dargestellt, welche Steigerungen man für die Zukunft erwarten kann. Alles darüber braucht einfach wohl Spannung mit denen man keine vernünftige Lebensdauer garantieren kann.

Raff
2011-11-02, 14:11:48
Das mit der Lebensdauer ist eine Sache, die im Consumer-Bereich stärker gewichtet wird als nötig. IMO. Wie vielen Leuten ist denn mal ein Prozessor abgefackelt, weil der 10 Prozent mehr Spannung bekam? Ich kenne niemanden. Welches Mainboard ist den paar Ampere nicht gewachsen oder ließe sich nicht locker um ein paar Phasen aufstocken, um es zu sein? Vernünftige Kühler lachen auch über 150 Watt. Und dann gibt es da noch die Wakü-Versionen. Da "normale" Nutzer den Rechner nicht 24/7 unter Volllast betreiben, wäre wohl selbst eine auf 5 Jahre verkürzte Lebenszeit, ermittelt bei Volllast, verschmerzbar.

MfG,
Raff

dildo4u
2011-11-02, 23:52:34
Bericht: GPU braucht CPU – Zweiter Teil „Bulldozer“ sucht Grafikkarte

Mit 6990 auf i3-2120 Level.

http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/4/#abschnitt_auf_radeon_hd_6990

Mit AA und AF.
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/6/#abschnitt_leistung_mit_aa_und_af

HOT
2011-11-03, 11:36:34
Nicht immer. Cinebench ist ein prominentes Beispiel und das skaliert wirklich exzellent über die Threads.
Zum 1000000000x, Cinebench ist das beschissenste Beispiel, was man sich heraussuchen kann. BD nutzt hier Optimierungen, die nicht für ihn gemacht sind...
Cinebench 10 nutzt offenbar garkeine Optimierung bei AMD-Prozessoren, sondern nur x87 und x64-standard
Cinebench 11.5 nutzt offenbar K10-Optimierungen, welche für 64kiB L1-Caches gemacht sind

Wenn er da schlecht skaliert heißt das für andere Anwendungen garnichts.

Matrix316
2011-11-03, 12:55:26
Bericht: GPU braucht CPU – Zweiter Teil „Bulldozer“ sucht Grafikkarte

Mit 6990 auf i3-2120 Level.

http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/4/#abschnitt_auf_radeon_hd_6990

Mit AA und AF.
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/6/#abschnitt_leistung_mit_aa_und_af
Ich hoffe die Seite merkt sich jeder der von wegen unrealistischen Benchmarks und so kommt. Mit 6970 gibts quasi keinen Unterschied aber mit 6990 sinds immerhin 17% zur schnellsten CPU.

Man darf im GPU Limit einfach keine CPUs testen - und umgekehrt.

Hübie
2011-11-03, 13:26:31
Offenbar checkt der ein oder andere nicht die Quintessenz des Artikels.
Es geht um die Kaufentscheidung bzw. Aufrüstung wenn Grafikkarte X/Y vorliegt bzw. geplant ist. Habe ich eine GTX 570 spiele ich auch immer in FullHD+4xAA/16xAF. Dieser Artikel beleuchtet eben in wie weit es sich lohnt in eine teure CPU zu investieren. Für reine CPU-Benchmarks ist der Artikel des Bulldozer und/oder der Core i-Serie zu lesen.

Ist doch nicht so schwer oder? ;)

LovesuckZ
2011-11-03, 13:31:16
Das Problem dieser Betrachtung ist, dass hier immer vegessen wird: Es wird auch Spiele geben, die massiv an der CPU-Leistung hängen. Vielleicht nicht der typische Konsolen-Schlau-Shooter, aber ein Strategiespiel, ein Manager oder sonst was.

Ich bin voll für realistische Einstellungen, aber man sollte auch die richtigen Spiele testen.

/edit: Bestes Beispiel ist Mafia 2 mit GPU-PhysX auf einer nVidia-Karte. Die Cloth-Simulation läuft komplett in einem Thread auf der CPU. Mit solchen Sachen sollte getestet werden, weil man da selbst mit allen IQ-Einstellungen deutliche Unterschiede sehen wird.

boxleitnerb
2011-11-03, 14:03:57
Ich wäre auch für Benchmarks abseits immer derselben Shooter. Vielleicht nicht über weite Strecken relevant, aber interessant allemal: Ladezeiten und Rundenzeiten (bei TBS). Ich weiß nicht, wie (un)optimiert manche Ladeprozesse sind, aber wenn ich mir Creative Assembly Spiele so ansehe, bringt eine schnellere CPU viel beim Laden. In Shogun 2 gibts die Rundenzeit, Ladezeit bei Kampf, Ladezeit nach Kampf...das läppert sich. Sowas testet irgendwie niemand.

Schnitzl
2011-11-03, 14:11:41
Ich hoffe die Seite merkt sich jeder der von wegen unrealistischen Benchmarks und so kommt. Mit 6970 gibts quasi keinen Unterschied aber mit 6990 sinds immerhin 17% zur schnellsten CPU.

Man darf im GPU Limit einfach keine CPUs testen - und umgekehrt.
natürlich darf man das, und zwar genau so wie es computerbase hier gemacht hat.
ist doch super so, man kann sehr schön sehen (durch die vielen Kombinationen), was es bringt, von einem bestimmten Punkt aus ne bessere CPU oder GPU zu kaufen.

Es bringt mir nichts, zu wissen, CPU X ist die allerschnellste, ich will wissen was bringt es meinem System, wenn ich diese einbaue.
Beispiel: mit einer HD6850 bringts recht wenig, wenn ich von einem X4 965 auf einen 2500K umsteige (http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/9/#abschnitt_starcraft_2).
Wenn allerdings gleichzeitig noch ne GTX570 reinkommt (und den 2500K noch übertakte...), DANN gehts ab.
da http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/14/#abschnitt_dragon_age_2 siehts dann schon wieder ganz anders aus...
usw.

solche Vergleiche kann ich nicht machen, wenn ich 100 Grafikkarten mit nur einer CPU teste, selbst wenn ich mit der CPU auf 8 Ghz voll im GPU-Limit bin.

Spasstiger
2011-11-03, 14:11:41
Bericht: GPU braucht CPU – Zweiter Teil „Bulldozer“ sucht Grafikkarte

Mit 6990 auf i3-2120 Level.

http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/4/#abschnitt_auf_radeon_hd_6990

Mit AA und AF.
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/6/#abschnitt_leistung_mit_aa_und_af
Interessant, dass der FX-8150 mit allen Radeon-Karten leicht vor dem Ph II X6 1100T landet, während mit allen GeForce-Karten der X6 leicht schneller ist. Im Vergleich mit den Phenom II sieht der FX also besser aus, wenn man Radeon-Karten statt GeForce-Karten verwendet.
Vergleicht man dagegen die Sandy-Bridge-CPUs mit dem FX, stehen die AMDs mit GeForce-Karten besser da als mit Radeon-Karten.
Allgemein sieht man auch, dass der FX mehr Potential freisetzt als der Phenom II, wenn man schnellere Grafikkarten verwendet.

boxleitnerb
2011-11-03, 14:23:24
Ach ja, noch was:
Das, was Computerbase gemacht hat, ist auch nur ein grober Anhaltspunkt. Es gibt so viele Spiele, und in den Jahren, die nach dem CPU-Kauf folgen, noch unzählige weitere. Man kann ja nicht mit Sicherheit wissen, was man morgen für Anforderungen an die CPU hat. Vielleicht erscheint morgen ein besonders tolles RTS oder eine Simulation, die zum neuen Lieblingsspiel wird. Oder man kauft sich spontan eben doch eine neue Grafikkarte und will gerne möglichst durchgehend 60fps haben.

Deshalb finde ich Tests im GPU-Limit eigentlich total bescheuert. Weiß echt jeder Leser, was er mit dieser CPU vorhat? Klar, es gibt Leute, die spielen fast ausschließlich gpu-limitierte Shooter. Ob das die Minderheit oder die Mehrheit ist - keine Ahnung. Aber mein Standpunkt ist: Ich habe ein gewisses Budget für CPU+Board und das reize ich auch aus. Ist doch blöd, jetzt aufgrund so eines Tests zu geizen und am Limit zu fahren, nur um sich nachher evtl. zu ärgern, weil ein Szenario von dem naturgemäß beschränkten Test nicht abgedeckt wurde. Ein bisschen Reserve ist nie verkehrt, solange man sein Budget nicht sprengt. Man darf halt der Versuchung nicht erliegen und dann gleich übertreiben. Aber jetzt einen i3 oder einen X3 aufgrund des Ratings zu kaufen, halte ich für definitiv keine gute Idee.

Yavion
2011-11-03, 15:10:15
Einige Onlinerollenspiele dürften stark CPU-abhängig sein. Evtl müsste man mal sowas wie AION, AoC oder Rift testen.

Ronny145
2011-11-03, 16:38:26
Zum 1000000000x, Cinebench ist das beschissenste Beispiel, was man sich heraussuchen kann. BD nutzt hier Optimierungen, die nicht für ihn gemacht sind...
Cinebench 10 nutzt offenbar garkeine Optimierung bei AMD-Prozessoren, sondern nur x87 und x64-standard
Cinebench 11.5 nutzt offenbar K10-Optimierungen, welche für 64kiB L1-Caches gemacht sind

Wenn er da schlecht skaliert heißt das für andere Anwendungen garnichts.


Erzähl das jemanden der mit Cinema arbeitet. Im Cinebench 11.5 sehe ich 14% Vorsprung für den 2600k. Eine Ausnahme ist das nicht. Es gibt andere Rendering Benchmarks die im ähnlichen Bereich von 10-15% liegen.

http://www.hardocp.com/article/2011/11/03/amd_fx8150_multigpu_gameplay_performance_review/2

GTX580 SLI Werte. Arma 2 ist heftig. Teilweise fällt 4,6 Ghz Bulldozer auf 20 fps ab wo der 4,8 Ghz 2500k seine 45-50 fps liefert.

boxleitnerb
2011-11-03, 16:53:01
Krasse Ergebnisse. Endlich mal ein schönes Review mit Multi-GPU. Man sieht schön das, was man mit nur einer Karte bei niedrigeren Auflösungen sieht, vielleicht sogar noch krasser. Vielleicht, weil der BD anscheinend nicht gut mit OC skaliert.

Ronny145
2011-11-03, 17:02:25
Vielleicht, weil der BD anscheinend nicht gut mit OC skaliert.


Mit Übertaktung ist die IPC Schwäche noch deutlich zu erkennen. Sandy Bridge legt mit +1000 Mhz viel mehr Leistung zu als wenn man Bulldozer ebenso 1000 Mhz übertaktet. Da braucht Bulldozer sagen wir +1500 Mhz um den Abstand gleich zu halten. Die Pro Takt Leistung ist einfach viel besser von Sandy Bridge.

LovesuckZ
2011-11-03, 17:03:51
Naja - 1000MHz bei einem 2600K sind auch prozentual mehr als bei einem 8150. Und der 2600K läuft bei Hardocp auch noch mit höhrerer Taktrate.

Ziemlich unsinnger Vergleich. Hier wäre ein Standardvergleich wesentlich angebrachter.

boxleitnerb
2011-11-03, 17:05:53
Stimmt. Bei der relativen Übertaktung in Prozent gibts aber schon klare Unterschiede. 45% beim i5 und nur 27% beim FX (auf 3,6 GHz bezogen). Aber gut, man muss realistisch sein. Viel höher als 4,6 wird man da nicht kommen. War ja auch der Tenor der Reviews, die das probiert haben. Ich will nicht wissen, wie das weitergeht, wenn Kepler und Ivy Bridge in die Testsysteme wandern. Dann werden wir diese krassen Differenzen so langsam auch in humanen Auflösungen sehen bei nur einer Karte.

Ronny145
2011-11-03, 17:13:34
Naja - 1000MHz bei einem 2600K sind auch prozentual mehr als bei einem 8150. Und der 2600K läuft bei Hardocp auch noch mit höhrerer Taktrate.


Es ist ein 2500k im Test. Dafür werden die Spiele mit Default Takt noch CPU limitierter.


Ziemlich unsinnger Vergleich. Hier wäre ein Standardvergleich wesentlich angebrachter.

So unsinnig finde ich den nicht. Die haben mit Luftkühlung beide CPUs mit maximal stabilen Takt betrieben und vermessen. Overclocking sollte doch die große Stärke sein und wurde in AMD Folien mit der Gaming Leistung angepriesen. Der Test will genau das beleuchten.

Spasstiger
2011-11-03, 17:23:11
4,8 GHz für einen i5-2500K sind aber auch schon optimistisch, der Großteil der übertaktenden Nutzer fährt ~4,4 GHz. Ob die 4,6 GHz beim FX-8150 alltagstauglich sind, müssen aber erst noch Usererfahrungen zeigen.

Mit Übertaktung ist die IPC Schwäche noch deutlich zu erkennen. Sandy Bridge legt mit +1000 Mhz viel mehr Leistung zu als wenn man Bulldozer ebenso 1000 Mhz übertaktet. Da braucht Bulldozer sagen wir +1500 Mhz um den Abstand gleich zu halten. Die Pro Takt Leistung ist einfach viel besser von Sandy Bridge.
Das ist quatsch. Wenn ein Core i5 mit 3 GHz um z.B. 50% schneller ist als ein AMD FX-8 mit 4 GHz 3 GHz, dann ist der Core i5 mit 4 GHz ebenfalls 50% schneller als ein AMD FX-8 mit 4 GHz. Dass der Core i5 2500K durch OC im Test von HardOCP mehr zulegt als der FX-8150, liegt daran, dass der Core i5 um 45% bzw. 1500 MHz und der FX-8 nur um 27% bzw. 1000 MHz übertaktet wurde.
Deine Argumentation würde ja im Umkehrschluss bedeuten, dass ein Core i5-2500K beim Untertakten um 1000 MHz soviel verliert wie ein um 1500 MHz untertakteter FX-8150. Und wenn man nochmal um das gleiche Maß übertaktet, hätte man einen Core i5-2500K @ 1300 MHz, der nur 40-50% schneller ist als ein FX-8150 @ 600 MHz. Dann hätte der FX-8150 plötzlich die bessere Performance pro Takt. :crazy:

Schnitzl
2011-11-03, 17:41:53
Erzähl das jemanden der mit Cinema arbeitet. Im Cinebench 11.5 sehe ich 14% Vorsprung für den 2600k. Eine Ausnahme ist das nicht. Es gibt andere Rendering Benchmarks die im ähnlichen Bereich von 10-15% liegen.

http://www.hardocp.com/article/2011/11/03/amd_fx8150_multigpu_gameplay_performance_review/2

GTX580 SLI Werte. Arma 2 ist heftig. Teilweise fällt 4,6 Ghz Bulldozer auf 20 fps ab wo der 4,8 Ghz 2500k seine 45-50 fps liefert.
hi, warum "zappelt" der Bulldozer da eigentlich so rum? Sieht ja aus wie CPU-Mikroruckler :freak:
Der i5 ist deutlich "ruhiger"

boxleitnerb
2011-11-03, 17:43:28
Das scheinen ja nicht die einzigen Bugs zu sein. Das Netz ist voll von Berichten, dass manche Spiele mit BD nichtmal starten wollen :freak:

Undertaker
2011-11-03, 17:49:25
Das ist quatsch. Wenn ein Core i5 mit 3 GHz um z.B. 50% schneller ist als ein AMD FX-8 mit 4 GHz, dann ist der Core i5 mit 4 GHz ebenfalls 50% schneller als ein AMD FX-8 mit 4 GHz. Dass der Core i5 2500K durch OC im Test von HardOCP mehr zulegt als der FX-8150, liegt daran, dass der Core i5 um 45% bzw. 1500 MHz und der FX-8 nur um 27% bzw. 1000 MHz übertaktet wurde.

So wie du argumentierst, hat Ronny seine Aussage ja nicht formuliert. Ich vermute das er auf den höheren Grundtakt von Bulldozer anspielte: Wenn ein FX 8150 in einer Anwendung genauso schnell wie der niedriger taktende 2500K ist, muss Bulldozer in absoluter Sicht natürlich stärker übertaktet werden, um genauso schnell zu sein.

boxleitnerb
2011-11-03, 17:52:47
Ne, der Grundtakt ist ja ähnlich. SB leistet pro MHz in Spielen sagen wir 50% mehr. D.h. für jede 100 MHz, die du den i5 übertaktest, müsstest du den BD um 150 MHz übertakten, damit der Abstand nicht größer wird. Wo der Grundtakt ähnlich ist (3,3 vs 3,6 GHz), ist der OC-Takt im Review auch ähnlich. Der BD müsste da viel höher getaktet sein, um die Performancedifferenz@stock wieder herzustellen bzw. gar aufzuschließen.

Ronny145
2011-11-03, 18:04:55
Das ist quatsch. Wenn ein Core i5 mit 3 GHz um z.B. 50% schneller ist als ein AMD FX-8 mit 4 GHz, dann ist der Core i5 mit 4 GHz ebenfalls 50% schneller als ein AMD FX-8 mit 4 GHz.

Also legt der i5 trotz +1 Ghz nichts zu? :freak: Warum sollte der Unterschied gleich bleiben wenn Du Sandy Bridge übertaktest und Bulldozer nicht?

Dass der Core i5 2500K durch OC im Test von HardOCP mehr zulegt als der FX-8150, liegt daran, dass der Core i5 um 45% bzw. 1500 MHz und der FX-8 nur um 27% bzw. 1000 MHz übertaktet wurde.


Ich glaube nicht, dass es nur daran liegt.

Ne, der Grundtakt ist ja ähnlich. SB leistet pro MHz in Spielen sagen wir 50% mehr. D.h. für jede 100 MHz, die du den i5 übertaktest, müsstest du den BD um 150 MHz übertakten, damit der Abstand nicht größer wird.

So dachte ich das. Da Sandy Bridge eine höhere pro Takt Leistung besitzt, bringen die zusätzlichen 100 Mhz mehr zusätzliche Leistung als bei Bulldozer.

Spasstiger
2011-11-03, 18:06:02
Wenn der Grundtakt gleich ist, muss man beide um den gleichen Takt übertakten, damit die prozentualen Abstände erhalten bleiben.

Also legt der i5 trotz +1 Ghz nichts zu? :freak: Warum sollte der Unterschied gleich bleiben wenn Du Sandy Bridge übertaktest und Bulldozer nicht?

Ich rede davon, dass beide übertaktet werden. Redest du von was anderem?

So dachte ich das. Da Sandy Bridge eine höhere pro Takt Leistung besitzt, bringen die zusätzlichen 100 Mhz mehr zusätzliche Leistung als bei Bulldozer.
Ihr habt da aber einen gewaltigen Denkfehler. Angenommen der Core i5-2500K liefert mit 3,3 GHz gerade 50 fps und mit 1 GHz mehr, also 4,3 GHz, 65 fps. Der FX-8150 kommt mit angenommenen 3,3 GHz auf 32 fps und mit 1 GHz mehr, also 4,3 GHz, auf 42 fps.
Der FX-8150 legt dann natürlich absolut gesehen nur um 10 fps zu, der i5-2500K dagegen um 15 fps. Aber relativ gesehen ist der Vorsprung des i5-2500K zum FX-8 mit je 4,3 GHz genauso groß wie mit je 3,3 GHz, nämlich rund 45%.
Und was fällt mehr auf, 10 fps Zuwachs ausgehend von 32 fps oder 15 fps Zuwachs ausgehend von 50 fps?

Der BD müsste da viel höher getaktet sein, um die Performancedifferenz@stock wieder herzustellen bzw. gar aufzuschließen.
Klar, aber das liegt einzig und allein daran, dass der BD im Test nur um 27%, der i5 dagegen um 45% übertaktet wurde. Es ist quatsch, dass man einen Bulldozer ausgehend von 3,6 GHz auf 5,1 GHz übertakten müsste, damit der relative Abstand zu einem i5-2500K @ 4,3 GHz genauso ausfällt wie mit jeweils Standardtakt.


Die Interpretation des IPC-Begriffs treibt seit dem Bulldozer-Release echt seltsame Blüten ...
Erst das total unsinnige durch 8 teilen bei AMD und durch 4 teilen bei Intel, um die IPC zu vergleichen, und jetzt scheinbar völlig neue Erkenntnisse in Bezug auf OC, die bisher nie zu Tage getreten sind trotz Architekturen mit unterschiedlicher IPC.

Ronny145
2011-11-03, 18:35:48
Ich rede davon, dass beide übertaktet werden. Redest du von was anderem?


In deinem Beispiel bekommt nur der i5 mehr Takt, Bulldozer bleibt beharrlich bei 4 Ghz stehen.

Das ist quatsch. Wenn ein Core i5 mit 3 GHz um z.B. 50% schneller ist als ein AMD FX-8 mit 4 GHz, dann ist der Core i5 mit 4 GHz ebenfalls 50% schneller als ein AMD FX-8 mit 4 GHz.

Spasstiger
2011-11-03, 18:40:23
In deinem Beispiel bekommt nur der i5 mehr Takt, Bulldozer bleibt beharrlich bei 4 Ghz stehen.
Das war natürlich ein Schreibfehler, sollte ja aus dem Kontext klar gewesen sein.

mapel110
2011-11-03, 18:53:24
http://www.hardocp.com/article/2011/11/03/amd_fx8150_multigpu_gameplay_performance_review/2

Boah, übel. Da spielt die "Zukunftssicherheit" durch viele Kerne auch keine Rolle mehr.

Hab gerade den Artikel in der CT zu Bulldozer überflogen. Die haben sich ja echt Mühe gegeben, die positiven Aspekte raus zu suchen. Und das Fazit haben sie auch sehr wohlwollend verfasst. Wohl gemäß dem Motto, einem am Boden liegenden Boxer tritt man nicht auch noch in die Eier.

Hübie
2011-11-03, 20:00:21
Wer Besitzer eine FX ist kann ja - abseits der mainstream shooter - z.B. hier (http://extreme.pcgameshardware.de/benchmarks/174656-hard-reset-demo-benchmark.html) mal Ergebnisse posten.

Mafia 2 ist eines von tausenden Spielen, welches cloth-simulation auf der CPU berechnet. Das spielt man einmal, vllt. zweimal durch und das wars. Also auch nicht sehr aussagekräftig für eine Kaufberatung/einen Kauf.
Am Beispiel von HardOCP zeigt sich auch das der FX in beinahe keiner (gaming-)Kategorie punkten kann. Eigentlich braucht man hier auch nicht weiter herumeiern. Das Thema ist "durch".


LG Hübie

dildo4u
2011-11-03, 20:07:15
Wer Besitzer eine FX ist kann ja - abseits der mainstream shooter - z.B. hier (http://extreme.pcgameshardware.de/benchmarks/174656-hard-reset-demo-benchmark.html) mal Ergebnisse posten.

Mafia 2 ist eines von tausenden Spielen, welches cloth-simulation auf der CPU berechnet. Das spielt man einmal, vllt. zweimal durch und das wars. Also auch nicht sehr aussagekräftig für eine Kaufberatung/einen Kauf.
Am Beispiel von HardOCP zeigt sich auch das der FX in beinahe keiner (gaming-)Kategorie punkten kann. Eigentlich braucht man hier auch nicht weiter herumeiern. Das Thema ist "durch".


LG HübieWird nix bringen nur bei Metro2033 wurde CPU Physx Multihreaded geproggt.Batman:AC kommt auch noch mit Physx 2.8 wo der Dev selber dafür sorgen muss,das Physx auf meheren Kernen laufen kann,erst das 3.0 SDK garantiert den MC Support.

Hübie
2011-11-03, 20:14:23
3.0 kam ja auch erst vor nicht allzu langer Zeit heraus. Da war Batman sicher schon zu weit vorran geschritten. Ich weiß auch nicht wie komplexe die Implementierung ist.
Eigentlich schade.
Hard Reset benutzt afaik kein PhysX sondern Havok (bin aber nicht sicher).

Edit: This video shows off some of the physics in hard Reset using the Hard Reset Demo. Hard Reset makes extensive use of the Havok Physics engine.

http://www.youtube.com/watch?gl=SG&hl=en-GB&v=L8844b1MsnM

Da kann man mal ein paar Physikeffekte sehen. Imo ein sehr gut programmiertes, non-casual game.

Lu
2011-11-03, 20:29:04
Ich versteh gewisse Menschen auch nicht. Gerade bei SLI oder Crossfire hab ich die Stärke des Bulldozers vermutet aber Pustekuchen! Jetzt ist es eindeutig! FAIL mindestens im Quadrat! Da kann kein Fanboy mehr dagegenhalten.
Persönlich finde ich es bedauerlich. Eine ordentliche Konkurrenz hätte Sandy Bridge und den Kunden in keinster Weise geschadet.

Hübie
2011-11-03, 21:09:05
So sehe ich das auch. Seit dem 386 DX-40 hatte ich immer AMD (K5-133, K6-200, K6-2 400, XP 2000+, XP 2600+, Athlon 64 3400+, Athlon 64 X2 3800+, Athlon 64 X2 5000+ und Phenom II X3 720 BE). :smile:
Nun musste ich im Februar zwangsläufig auf Intel umsteigen, da es einfach das beste fürs Geld ist/war. Schade, aber soviel Neutralität/Objektivität muss man sich bewahren.

LG Hübie

Schaffe89
2011-11-03, 22:28:45
Also dass der Bulldozer in diesem Crossfire/SLI Test weit zurück liegt, liegt schonmal daran, dass der i5 2500k prozentual viel stärker übertaktete wurde als der FX.
Wenn man sich die Prozentwerte ansieht und dann Spiele getestet werden die nur 2 bis 4 Threads auslasten, ist um eine 60 bis 70% höhere Gamingperformance auch nicht gerade unlogisch.
Zudem scheint es bei diesen Benchmarks einige Overheads zu geben mit den Intel deutlich besser zurechtkommt, das hat aber weniger mit CPU Rohleistung zu tun, sondern mit I/O.

Wenn man sich den aktuellen CB Test ansieht, kommen auch wieder viele Skalierungsunterschiede zum Tragen.
Interessant.

boxleitnerb
2011-11-03, 22:35:11
Naja man muss realistisch sein. Eine prozentual gleiche Übertaktung wäre "fair", aber das interessiert den Enthusiasten nicht. Der übertaktet, so weit er kommt ohne dass das Mainboard schmilzt. Im Schnitt aller Reviews, die ich gelesen habe, war bei 4,6-4,8 GHz Schluss.

Ronny145
2011-11-03, 22:40:04
Also dass der Bulldozer in diesem Crossfire/SLI Test weit zurück liegt, liegt schonmal daran, dass der i5 2500k prozentual viel stärker übertaktete wurde als der FX.

Bei den Min FPS sehe ich desöfteren die doppelten fps beim Sandy Bridge. Das hat sicherlich nicht nur mit der prozentual höheren Übertaktung zu tun.


Zudem scheint es bei diesen Benchmarks einige Overheads zu geben mit den Intel deutlich besser zurechtkommt, das hat aber weniger mit CPU Rohleistung zu tun, sondern mit I/O.


Ich dachte das wäre gerade die Stärke von AMD/Bulldozer. Zumindest wird das häufig als Argument benutzt um die angeblich bessere Leistung in höheren Auflösungen zu erklären.

Schaffe89
2011-11-03, 22:43:20
Ganz unabhängig davon ob es jemanden interessiert, ist meine Feststellung ja nur pragmatisch.
Ich bin mal gespannt wie sich der maximale Takt mit Verbesserung der Fertigung nach oben schraubt.
Ich prophezeie knackige 8x6,0 ghz für ende nächsten Jahres unter Luft. :D

Ich dachte das wäre gerade die Stärke von AMD/Bulldozer. Zumindest wird das häufig als Argument benutzt um die angeblich bessere Leistung in höheren Auflösungen zu erklären.

Ich habe nirgends gelesen, dass ein Overhead die ware Leistung des FX Hervorbringt. Und schon gar nicht der Prozessor alleine, sondern das System.
Vorteile gibt es nur im GPU Limit, das liegt aber dann am System und nicht an der CPU. Sieht man beim aktuellen CB Test sehr schön, dass es da teils erhebliche Differenzen >10% gibt.
Und zu den minimum FPS: Ich habe nirgends behauptet, dass die schlechteren minimum FPS nur mit der prozentual höheren Übertaktung zu tun haben.
Ich würde sagen, dass hat in dieser extremen (noch nicht gesehen Form) mit einem schlechten System oder mit einem Overhead zu tun.
Ich würde solch einen Test mit 3 oder 4 Karten gerne mal von PCGH oder dem 3D Center sehen.

Ronny145
2011-11-03, 22:47:24
Ich prophezeie knackige 8x6,0 ghz für ende nächsten Jahres unter Luft.

CPU-z stabil? 24/h Benchstable? Luftkühlung?


Mit reiferer 32nm Fertigung wird sicher noch etwas mehr gehen, aber so viel nicht. +500 Mhz wäre schon arg viel. Die Frage ist ja dann auch der Verbrauch. Ein übertakteter 4 Modul Bulldozer explodiert förmlich beim Verbrauch derzeit.

LovesuckZ
2011-11-03, 22:58:32
Wer Besitzer eine FX ist kann ja - abseits der mainstream shooter - z.B. hier (http://extreme.pcgameshardware.de/benchmarks/174656-hard-reset-demo-benchmark.html) mal Ergebnisse posten.

Mafia 2 ist eines von tausenden Spielen, welches cloth-simulation auf der CPU berechnet. Das spielt man einmal, vllt. zweimal durch und das wars. Also auch nicht sehr aussagekräftig für eine Kaufberatung/einen Kauf.
Am Beispiel von HardOCP zeigt sich auch das der FX in beinahe keiner (gaming-)Kategorie punkten kann. Eigentlich braucht man hier auch nicht weiter herumeiern. Das Thema ist "durch".


LG Hübie

Stimmt. Okay, dann nehmen wir eben Rise of the Flight (http://www.hardware.fr/articles/842-21/jeux-3d-rise-of-flight-f1-2011.html), aber das ist bestimmt nur ein Nischenspiel - also auch uninteressant. Oder wie wäre es mit Battlefield und einem GTX480-SLI System?
http://www.madshrimps.be/files/users/leeghoofd/FX8150_part_II/Daily_OC/BF3SLI.png
http://www.madshrimps.be/articles/article/1000226/AMD-FX-8150-Revisited/3#axzz1cgJNT0WJ

Ehrlich, es gibt keinen Grund sich Bulldozer zu kaufen, wenn man eine Vielzahl seiner Zeit mit Spielen verbringt.

S940
2011-11-03, 23:18:24
Erzähl das jemanden der mit Cinema arbeitet.
Die haben sicher schon Cinema 13.
Im Cinebench 11.5 sehe ich 14% Vorsprung für den 2600k. Eine Ausnahme ist das nicht. Es gibt andere Rendering Benchmarks die im ähnlichen Bereich von 10-15% liegen.

Abwarten und auf Cinema 14 oder 15 mit BD Anpassungen warten. Wenn das draußen ist, ist Cinebench 11.5 so wichtig wie Cinebench 10 jetzt. Bis dahin sollte jeder professionelle Cinema Kunde natürlich nen Intel nehmen.

http://www.hardocp.com/article/2011/11/03/amd_fx8150_multigpu_gameplay_performance_review/2

GTX580 SLI Werte. Arma 2 ist heftig. Teilweise fällt 4,6 Ghz Bulldozer auf 20 fps ab wo der 4,8 Ghz 2500k seine 45-50 fps liefert.
Nix Neues, da hat y33H@ doch schon immer drüber geflucht, Arma2 hat nen eigenen Scheduler, der sich nicht um SMT, und schon gar nicht um CMT schert, da hilft auch kein Win7 oder Win8 Scheduler update.
Möglicherweise gabs mittlerweile ein Update, 2009 ist lange her, aber da die [H]arten Typen weder Systeminfos noch Spielversionsnummern anbieten wärs eh, nicht nachprüfbar. :( Ich frag mich wirklich, welcher Geistesblitz sie getroffen hatte, als sie immerhin den Grafiktreiber unten auf Seite 1 angaben. Immerhin etwas :freak:

Falls es keinen Patch gab laufen (mal wieder) 4 Threads @2 CPUs, und auf ner CMT CPU entsprechend 4Threas@2Module. Mit nem 2500K ohne SMT umschifft man diese Klippe erfolgreich. Ansonsten ist Handarbeit mit Thread fixieren angesagt. Aber die Mühe macht sich natürlich keiner. Von jemanden, der sich nicht um Versionsnummer kümmert ist das aber wohl auch nicht zu erwarten.

Ich versteh gewisse Menschen auch nicht. Gerade bei SLI oder Crossfire hab ich die Stärke des Bulldozers vermutet aber Pustekuchen! Jetzt ist es eindeutig! FAIL mindestens im Quadrat! Da kann kein Fanboy mehr dagegenhalten.
OOoch normal, ich hätte mir BD auch schneller gewünscht, aber mit all den fehlenden Anpassungen mach ich mir erstmal keine Gedanken. Viele Spiele laufen oft nur mit ~4 Threads, die werden dann vom Win7 Scheduler umhergewürfelt, die laufen dann nur auf 2 Modulen. Mit dem Win8 Scheduler sind in best-case bis zu +20% drin, das warten wir mal ab, dann sehen wir weiter. SMT brauchte bei Intel auch den WIn7 Scheduler, also ruhig Blut.

Unabhängig davon sind die Ergebnisse des CB Tests bei modernen Spielen mit mehr als 4 Threads aber nichtmal schlecht, sowohl bei Metro, als auch bei BC2 und Dirt3 hat man selbst mit ner 6990 oder 590 keine Nachteile. Für SC2 und den andere alte Krams: siehe oben.

Wer nicht auf Win8 warten kann, und auch nicht selbst experimentieren und tunen will, bekommt im 2500K das Rundum-sorglos-paket.

Hübie
2011-11-03, 23:54:39
Oh man. Jetzt kommt ihr mit prozentualer Übertaktung :facepalm: Selbst mit Standardtakt ergibt sich ein kaum anderes Bild...
Was kommt als nächstes: unfair wegen der PCIe-Anbindung???

Pixelmonk
2011-11-04, 06:55:51
AMD is in process of firing from 10% to 15% of staff (up to 1500 people), primarily from marketing and public relations departments, said a person familiar with the ongoing situation, who declined to be identified as the proceedings are not made public at this time.

Quelle: xbitlabs.com (http://www.xbitlabs.com/news/other/display/20111103135021_Advanced_Micro_Devices_Set_to_Unveil_New_Strategy_Next_Week.html)

Schade, keine lächerlichen Benchmarks und PR-videos mehr.

Ectoplasma
2011-11-04, 08:01:15
Oh man. Jetzt kommt ihr mit prozentualer Übertaktung :facepalm: Selbst mit Standardtakt ergibt sich ein kaum anderes Bild...
Was kommt als nächstes: unfair wegen der PCIe-Anbindung???

Es ist überhaupt immer wieder erstaunlich, wie ein Thread über eine CPU, zu einem Übertaktungs-Nerd-Gequassel verkommen kann.

Habt ihr eigentlich nichts besseres zu tun? Habt ihr kein Auto an dem ihr basteln könnt? Und @Moderatorn, ist es möglich, diesen Thread zu spalten?

Undertaker
2011-11-04, 08:26:56
Mal wieder aufgeräumt. Ich warne vor, dass sich einige Kandidaten mal wieder am Rande einer Sperre bewegen.

@Ectoplasma:

Imho dreht sich die Diskussion noch in erster Linie um die allgemeine Performancefrage, als um die reine OC-Problematik. Sollte sich das ausweiten, spalte ich gerne ab.



Abwarten und auf Cinema 14 oder 15 mit BD Anpassungen warten. Wenn das draußen ist, ist Cinebench 11.5 so wichtig wie Cinebench 10 jetzt. Bis dahin sollte jeder professionelle Cinema Kunde natürlich nen Intel nehmen.

Sandy Bridge dürfte in den neuen Releases doch ebenso zulegen. Der Schritt von Cinebench R10 auf Cinebench R11.5 hat beispielsweise den Abstand zwischen Deneb und Lynnfield weiter vergrößert. Ich rechne nicht damit, dass Bulldozer in einem neueren Release auf einmal spürbar mehr zulegt als Sandy Bridge, da, wie Ronny schon sagte, andere Renderer eine ähnliche Performance zeigen.

Nix Neues, da hat y33H@ doch schon immer drüber geflucht, Arma2 hat nen eigenen Scheduler, der sich nicht um SMT, und schon gar nicht um CMT schert, da hilft auch kein Win7 oder Win8 Scheduler update.
Möglicherweise gabs mittlerweile ein Update, 2009 ist lange her, aber da die [H]arten Typen weder Systeminfos noch Spielversionsnummern anbieten wärs eh, nicht nachprüfbar. :( Ich frag mich wirklich, welcher Geistesblitz sie getroffen hatte, als sie immerhin den Grafiktreiber unten auf Seite 1 angaben. Immerhin etwas :freak:

Falls es keinen Patch gab laufen (mal wieder) 4 Threads @2 CPUs, und auf ner CMT CPU entsprechend 4Threas@2Module. Mit nem 2500K ohne SMT umschifft man diese Klippe erfolgreich. Ansonsten ist Handarbeit mit Thread fixieren angesagt. Aber die Mühe macht sich natürlich keiner. Von jemanden, der sich nicht um Versionsnummer kümmert ist das aber wohl auch nicht zu erwarten.

Hier wurde AA2 auch gebencht, da es mehr CPUs gibt kann man daraus einiges ziehen:

http://www.hardware.fr/articles/842-20/jeux-3d-crysis-2-arma-ii-oa.html

1. AA2 profitiert nicht gerade übermäßig von vielen Threads
2. SMT bringt Leistung
3. Bulldozer liegt auf dem Niveau des Phenom II X6, also ähnliche pro-Thread-Leistung, ein absolut normales Ergebnis

Dennoch der große Abstand zu den i5/i7. An der Thread-Verteilungs-Theorie scheint das also nicht zu liegen, Bulldozer ist in Spielen im Schnitt nuneinmal nicht schneller, aber auch nicht langsamer als der Phenom II zuvor.

Hübie
2011-11-04, 08:52:05
Es ist überhaupt immer wieder erstaunlich, wie ein Thread über eine CPU, zu einem Übertaktungs-Nerd-Gequassel verkommen kann.

Habt ihr eigentlich nichts besseres zu tun? Habt ihr kein Auto an dem ihr basteln könnt? Und @Moderatorn, ist es möglich, diesen Thread zu spalten?

Sollte ich mich angesprochen fühlen :confused: Ich hab ein Auto, aber an Elchen bastelt man nicht! =)

Es kann AMD sicher nicht schaden den Laden mal etwas zu "entrümpeln".
Wenn man eine CPU so mutig Bulldozer nennt muss man wenigstens damit die eigene, vorrangegangen Generation wegschieben können.
Woran es letzlich scheitert ist heute nicht mehr relevant. Ob der Decoder, dispatcher, branch prediction oder weiß der Geier mies arbeitet spielt nun keine Rolle, da das Teil auf dem Markt ist. Und wer jetzt noch das Ding verteidigt muss einfach Liebhaber aka Fanboy sein.
Ich möchte nicht flamen nur sollte man sich mal darüber im klaren sein was hier gerade abgeht. Intel zieht davon! Und das kann sicher nicht gut enden wenn dem kein Einhalt geboten wird. Damit meine ich nicht das Schönreden (aus Scheiße kann man kein Bonbon machen) sondern die Technik etablieren - was ja nun vorerst scheiterte.

LG Hübie

Soul
2011-11-04, 09:28:27
Meine Hoffnung für BD lag in Windows 8 aber bei diesem Preview mit der Developer Version siehts gegen Win 7 auch nicht gerade super aus.

http://www.pcstats.com/articleview.cfm?articleID=2622

Echo419
2011-11-04, 09:41:38
ja, der bulldozer hat ein schwächere vorstellung abgegeben als vermutet!
aber was viele hier (im balkenlängenvergleichswahn) vergessen zu erwähnen ist, dass der jetzige bulldozer bzw. seine jetzige architektur mehr auf das server-segment ausgelegt ist.amd wollte durch zambezi wieder mehr anteile im serverbereich holen und die "intel xeon-gefahr" zurückdrängen.

erst mit piledriver ( und später auch steamroller & excavator) hat amd vor eine cpu zu bringen, die mehr auf desktop ausgerichtet sein soll.
aber wie hoch die performance dann ist, muss man sehen.
amd sollte aber nicht wieder allzu optimistisch irgendwelche rosinenpicker-benchmarks bzw. zahlen rausbringen, um später evtl. nicht noch mehr gelächter auf sich zu ziehen.

mfg echo

Hübie
2011-11-04, 10:07:56
Beeeep. Genau in dem "Server-Segment" ist PpW wichtig! Und da leistet Bulldozer in wenigen expliziten Fällen gute Arbeit.

Twodee
2011-11-04, 10:39:18
Die haben sicher schon Cinema 13.

Abwarten und auf Cinema 14 oder 15 mit BD Anpassungen warten. Wenn das draußen ist, ist Cinebench 11.5 so wichtig wie Cinebench 10 jetzt. Bis dahin sollte jeder professionelle Cinema Kunde natürlich nen Intel nehmen.


Nix Neues, da hat y33H@ doch schon immer drüber geflucht, Arma2 hat nen eigenen Scheduler, der sich nicht um SMT, und schon gar nicht um CMT schert, da hilft auch kein Win7 oder Win8 Scheduler update.
Möglicherweise gabs mittlerweile ein Update, 2009 ist lange her, aber da die [H]arten Typen weder Systeminfos noch Spielversionsnummern anbieten wärs eh, nicht nachprüfbar. :( Ich frag mich wirklich, welcher Geistesblitz sie getroffen hatte, als sie immerhin den Grafiktreiber unten auf Seite 1 angaben. Immerhin etwas :freak:

Falls es keinen Patch gab laufen (mal wieder) 4 Threads @2 CPUs, und auf ner CMT CPU entsprechend 4Threas@2Module. Mit nem 2500K ohne SMT umschifft man diese Klippe erfolgreich. Ansonsten ist Handarbeit mit Thread fixieren angesagt. Aber die Mühe macht sich natürlich keiner. Von jemanden, der sich nicht um Versionsnummer kümmert ist das aber wohl auch nicht zu erwarten.


OOoch normal, ich hätte mir BD auch schneller gewünscht, aber mit all den fehlenden Anpassungen mach ich mir erstmal keine Gedanken. Viele Spiele laufen oft nur mit ~4 Threads, die werden dann vom Win7 Scheduler umhergewürfelt, die laufen dann nur auf 2 Modulen. Mit dem Win8 Scheduler sind in best-case bis zu +20% drin, das warten wir mal ab, dann sehen wir weiter. SMT brauchte bei Intel auch den WIn7 Scheduler, also ruhig Blut.

Ich dachte BD wird unter Win7 wie eine CPU mit HT gewertet?
Also pro Modul wird ein Thread ausgeführt. Erst wenn die Threadanzahl die Modulanzahl übersteigt, werden mehrere Threads auf einem Modul ausgeführt. Das gehopse der Threads von Modul zu Modul stört aber dennoch.

Oder bringe ich da etwas durcheinander?



Unabhängig davon sind die Ergebnisse des CB Tests bei modernen Spielen mit mehr als 4 Threads aber nichtmal schlecht, sowohl bei Metro, als auch bei BC2 und Dirt3 hat man selbst mit ner 6990 oder 590 keine Nachteile. Für SC2 und den andere alte Krams: siehe oben.

Wer nicht auf Win8 warten kann, und auch nicht selbst experimentieren und tunen will, bekommt im 2500K das Rundum-sorglos-paket.

Spasstiger
2011-11-04, 10:45:05
Imho dreht sich die Diskussion noch in erster Linie um die allgemeine Performancefrage, als um die reine OC-Problematik. Sollte sich das ausweiten, spalte ich gerne ab.
Mir ging es überhaupt nicht um Overclocking an sich, sondern um die Skalierung der Performance von Bulldozer und Sandy Bridge bei verschiedenen Taktraten. Schließlich sind auch Varianten mit verschiedenen Taktraten am Markt und es werden Varianten mit höheren Taktraten erscheinen.

Ich verteidige AMD auch nicht, nur weil ich die Beobachtung von Ronny145 mit dem höheren relativen Mehrtakt des Sandy Bridge erkläre. Wie soll ich denn bitte AMD verteidigen, wenn ich Intel im gleichen Satz eine 50% höhere Spieleperformance attestiere? Eigentlich sage ich durch die Blume: Kauft Sandy Bridge, verdammt nochmal, wenn ihr spielen wollt. ;)

S940
2011-11-04, 11:10:12
Ich dachte BD wird unter Win7 wie eine CPU mit HT gewertet?
Also pro Modul wird ein Thread ausgeführt. Erst wenn die Threadanzahl die Modulanzahl übersteigt, werden mehrere Threads auf einem Modul ausgeführt. Das gehopse der Threads von Modul zu Modul stört aber dennoch.

Oder bringe ich da etwas durcheinander?
Hast Du wirklich die ganzen CMT Tests mit 1 Thread pro Modul übersehen? Die wurden doch schon 100x verlinkt. Da gibts hübsche Gewinne, ergo ist das leider nicht SMT-like. Hatte mal vor dem Launch gehofft, dass das so käme, aber Pustekuchen.

Undertaker
2011-11-04, 11:17:03
Um das gleich mal konkret zu machen:

http://www.hardware.fr/articles/842-9/efficacite-cmt.html

In 6 Spielen bei Hardware.fr kostet CMT viermal zwischen 4-5% Leistung, in zwei Fällen ist es egal (übrigens auch in AA2). Also ja, hier liegt noch Potential, aber die Größenordnung ist doch eher minimal.

Edit: Wenn man die 2M/4C Ergebnisse sieht, muss man diese Aussage evntl. auch noch erweitern: Ähnlich wie teils bei SMT scheint eher generell die hohe Anzahl von 8 Threads Nachteile mit sich zu bringen (Verwaltungsaufwand?), nicht CMT selbst. Letzteres performt recht gut, 2M/4C sind im Spieleschnitt kaum 5% langsamer als 4M/8C.

L.ED
2011-11-04, 11:54:38
Da wir uns hier eh in einer dimensionalen Endlosschleife befinden, hier wieder dann mein Part. ^^

Wen interessieren Punktuell Benchmarks und in dem Zusammenhang einzelne Spiele auf Clean Systemen, der wirklichen potentiell Zielgruppe dieser Prozessoren nicht!

Davon mal ab, sieht man fast überall X6/FX8 Systeme die Zeitgemäße FPS liefern und nebenbei halt noch mehr vernünftig machen könnten, also worüber Reden eigentlich noch? Und angesichts der schlechten Lieferbarkeit des großen FX8, scheint es um dessen Nachfrage ja auch gar nicht mal so schlecht bestellt zu sein. :confused:

(del676)
2011-11-04, 12:13:07
Beeeep. Genau in dem "Server-Segment" ist PpW wichtig! Und da leistet Bulldozer in wenigen expliziten Fällen gute Arbeit.

So gut wie niemand betreibt Computeserver mit Windows.

Warum ich das sage? Weil ein 3,6GHz Bulldozer (ohne Turbo!) bei Singlethreaded gleich oder schneller als ein Phenom 2 Kern mit 3.0GHz ist, und er bei Multithreaded dies halten kann. Ergo doppelt so schnell wie ein 4 Kern Phenom 2 mit 3.0GHz ist. Und das komplett ohne Optimierungen.
Der Kernel ist fuer "Opterons" kompiliert und die Testprogramme mit gcc fuer generic x86_64. Mit anstaendigen Compiler + Optionen laesst sich da 10-50% Performance rausholen. Wer also eine Computecloud fuer ein paar spezielle Anwendungen nutzt, die allesamt von den Compilern/Optionen profitieren, wird zu den Bulldozern greifen, da sie mehr PpW als Xeons bieten!

z.b. Povray (singlethreaded!)
von 905 sekunden auf 681 sekunden runter
http://666kb.com/i/bydlh3cefw863uwr9.png

mein fx8150 braucht da uebrigens bei 3,6ghz 879 sekunden (stock)
mein phenom 2 x4 @ 3ghz 1152 sekunden (stock)

d.h. bei 20% mehr takt als der Phenom 2 Kern ist der BD ~23-24% schneller und das noch ohne Optimierungen - die nochmal ~30% rausholen wuerden

Twodee
2011-11-04, 12:18:17
Hast Du wirklich die ganzen CMT Tests mit 1 Thread pro Modul übersehen? Die wurden doch schon 100x verlinkt. Da gibts hübsche Gewinne, ergo ist das leider nicht SMT-like. Hatte mal vor dem Launch gehofft, dass das so käme, aber Pustekuchen.
Worauf willst du hinaus?

Wie läuft es denn jetzt ab?
-Pro Modul ein Thread, welcher von Modul zu Modul springt? (SMT like)
-Pro Modul ein 2 Threads, welche von Modul zu Modul springen?

die CMT Tests waren doch mit fest vorgegebenen Modul-Positionen, oder?
Unter Win8 solls dieses gehopse ja nicht mehr geben, aber werden da die Module nun aufgefüllt oder nicht?

(del676)
2011-11-04, 13:09:20
mal ne andere frage, hat jemand von euch einen Sandybridge mit HyperThreading und ein Linux drauf?
dann koennten wir mal einen anstaendigen test zu povray machen. die neue 3.7er version kann multithreading. da wuerd mich intressieren:

- single thread performance auf BD ohne turbo
- 8x multi thread performance auf BD ohne turbo
- dasselbe mit bdver1 compile option mit gcc 4.6
- dasselbe mit bdver1 compile option mit gcc 4.7
- single thread performance auf SB ohne turbo
- 8x multi thread performance auf SB ohne turbo

=Floi=
2011-11-05, 06:00:34
http://www.hardocp.com/article/2011/11/03/amd_fx8150_multigpu_gameplay_performance_review/2

waran liegen nun die fps-sprünge?

Matrix316
2011-11-05, 12:27:47
Ja den Test hab ich eben auch entdeckt. Eventuell ist das die Lastverteilung auf den einzelnen Sub-Cores. Dass versucht wird die Last gleichmäßig irgendwie zu verteilen und es dadurch zu den Sprüngen kommt. Kann ja net sein, dass das Microruckeln bei SLI abhängig von der CPU ist, oder? Sehr sehr merkwürdig. Aber selbst ohne die Sprünge, wäre die intel CPU immer noch weit weit vor dem Bulldozer.

BTW hat jemand den PCGH Test gelesen?


Heutige Prozessoren nutzen Chip Multiprocessing (CMP), jeder CPU kern beinhaltet alle Ressourcen.[...]

Der Bulldozer vertraut auf Core Multithreading (CMT) [...].

Im Vergleich zu einem fiktiven Bulldozer mit CMP Design sinkt die Leistung um nur 20%.


Und jetzt denkt euch das Geräusch einer Nadel eines Plattenspielers die abrupt von der Platte rutscht.

What? Sind nicht diese 20% die auf die aktuellen intel Prozessoren fehlen?

boxleitnerb
2011-11-05, 12:37:01
Doch, Mikroruckler können durch CPU-Speed beeinflusst werden. Aber das würde man in dem Diagramm nicht sehen, weil die zeitliche Auflösung zu grob ist. Das ist was anderes.

Matrix316
2011-11-05, 12:46:42
Hatte man nicht mit Hyperthreading das Problem, dass die FPS oft niedriger wurden? Vielleicht ist das ja eine ähnliche Sache.

Spasstiger
2011-11-05, 12:52:37
Im HardOCP-Forum hat ja schon einer darum gebeten, die Thread-Affinität bei Bulldozer entsprechend dieser Anleitung zu ändern: http://techreport.com/articles.x/21865.
Vielleicht sollten ein paar von uns sich dem Wunsch anschließen, dass man zumindest ArmA 2 mit 4M/4T statt 4M/8T laufen lässt.

Undertaker
2011-11-05, 12:55:16
Wie oben verlinkt, brachte das bei AA2 (im Gegensatz zu anderen Spielen mit Gewinnen von bis zu 5%) im hardware.fr Test keine zusätzliche Leistung. Die Spikes bei HardOCP sind allerdings dennoch komisch.

y33H@
2011-11-05, 13:38:28
BTW hat jemand den PCGH Test gelesen? [...] Sind nicht diese 20% die auf die aktuellen intel Prozessoren fehlen?Es sind 1) mehr als 20 Prozent und 2) würde ein doppeltes Frontend den Chip wieder vergrößern sowie mehr Transistoren (Stromverbrauch!) erfordern. Zudem wäre es dann kein Modul-Design ;-)

S940
2011-11-05, 14:32:27
Worauf willst du hinaus?

Wie läuft es denn jetzt ab?
-Pro Modul ein Thread, welcher von Modul zu Modul springt? (SMT like)
-Pro Modul ein 2 Threads, welche von Modul zu Modul springen?

Na gar kein Modul, das kennt W7 doch nicht. Schau Dir den Zickzackgraph bei Arma2 an. Ich vermute die Minima bei ner 4T@2M Konfiguration und die Maxima bei 4T@4M. Die Threads werden ja munter durchgewürfelt und herumgeschoben. Da wechseln sich alle möglichen Zustände munter ab, sicherlich gibts auch mal 2 Threads auf 2 Modulen, 2Threads auf einem Modul und ein Modul nichts.
Im HardOCP-Forum hat ja schon einer darum gebeten, die Thread-Affinität bei Bulldozer entsprechend dieser Anleitung zu ändern: http://techreport.com/articles.x/21865.
Vielleicht sollten ein paar von uns sich dem Wunsch anschließen, dass man zumindest ArmA 2 mit 4M/4T statt 4M/8T laufen lässt.Jo, das wäre die beste Lösung, mehr Threads kann Arma eh nicht nutzen. Freiwillige vor, die wollen meine GMX Adresse nicht. Mag ja sein, dass sie keine Mails freiwillig rausgeben, aber was wenn sie gehackt werden? Mir rechts schon, dass ich nach dem mindf. hack emails mit meinem Klarnamen an meine GMX Adresse bekomme.

Matrix316
2011-11-05, 16:11:40
Es sind 1) mehr als 20 Prozent und 2) würde ein doppeltes Frontend den Chip wieder vergrößern sowie mehr Transistoren (Stromverbrauch!) erfordern. Zudem wäre es dann kein Modul-Design ;-)
Man kann ja auch Module mit zwei Vollwertigen Kernen basteln. ;)

S940
2011-11-05, 16:38:19
Man kann ja auch Module mit zwei Vollwertigen Kernen basteln. ;)Jo, oder nur die FPU gemeinsam benutzen.
Laut ct soll das bei BDv3 / Steamroller der Fall sein, bin noch skeptisch, aber schauen wir mal. Gibt scheinbar doch ziemlich oft Decodierengpässe. Eventuell tricksen sie es noch so hin, dass sie immerhin die riesige Sprungvorhersage-einheit gemeinsam benutzen können, dann wärs eventuell wirklich optimal. Aber ob das so einfach ginge .... kA.

sklave_gottes
2011-11-07, 22:40:19
Jo, oder nur die FPU gemeinsam benutzen.
Laut ct soll das bei BDv3 / Steamroller der Fall sein, bin noch skeptisch, aber schauen wir mal. Gibt scheinbar doch ziemlich oft Decodierengpässe. Eventuell tricksen sie es noch so hin, dass sie immerhin die riesige Sprungvorhersage-einheit gemeinsam benutzen können, dann wärs eventuell wirklich optimal. Aber ob das so einfach ginge .... kA.

Das ganze modul design hört sich in der theorie zwar gut an, bringt aber in der Praxis irgendwie keinen erfolg.
Der größte vorteil dieser modul bauweise war doch, dass man dadurch viel platz und energie spart. Doch weder in der einen noch in der anderen sache macht sich BD gut.

Ein BD modul ist größer wie 2 Liano Kerne, bringt aber nichtmal dessen leistung in MT anwendungen.

mfg martin

disap.ed
2011-11-08, 08:26:44
Was aber vermutlich weniger an der Modulbauweise liegt, sondern an der Peripherie (langsame Caches etc.). Zumindest hatte ich bislang nicht den Eindruck dass die gemeinsame Nutzung der FPU der Flaschenhals wäre.

Wir werden ja sehen was die BDv2 und BDv3 bringen, aber an eine Brute Force - Lösung (wieder alles doppelt) und damit Abkehr von der Modulidee glaube ich nicht.

S940
2011-11-08, 09:26:00
Das ganze modul design hört sich in der theorie zwar gut an, bringt aber in der Praxis irgendwie keinen erfolg.
Schlag da in die gleiche Kerbe wie disap.ed.
BD ist sicher nicht das gelbe vom Ei, aber deswegen ist der ganze Ansatz ansich nicht komplett verkehrt. Um ehrlich zu sein erwarte ich von einer B2 Rev. einer komplett neuen Architektur nie Großartiges.
Intel tunt am PPro Kern nun seit 15 Jahren herum, das ist ausoptimiert an allen Ecken und Enden. Die BD-Arch ist dagegen gerade ein halbes Jahr auf dem Markt und GFs 32nm Prozess läuft immernoch schlecht.
Warten wie mal auf Rev.C. und Prozessverbesserungen. Dann kann man sich erdreisten ein erstes, vorsichtiges Urteil über die Arch. zu fällen. Im Moment kann man das nur für BD sagen - aber nicht für dessen Ansatz.

robbitop
2011-11-08, 09:38:17
Schlag da in die gleiche Kerbe wie disap.ed.
BD ist sicher nicht das gelbe vom Ei, aber deswegen ist der ganze Ansatz ansich nicht komplett verkehrt. Um ehrlich zu sein erwarte ich von einer B2 Rev. einer komplett neuen Architektur nie Großartiges.
Intel tunt am PPro Kern nun seit 15 Jahren herum, das ist ausoptimiert an allen Ecken und Enden. Die BD-Arch ist dagegen gerade ein halbes Jahr auf dem Markt und GFs 32nm Prozess läuft immernoch schlecht.
Warten wie mal auf Rev.C. und Prozessverbesserungen. Dann kann man sich erdreisten ein erstes, vorsichtiges Urteil über die Arch. zu fällen. Im Moment kann man das nur für BD sagen - aber nicht für dessen Ansatz.

1. Die Kerngröße ist aktuell sehr sehr groß.
2. Die Caches sind aktuell sehr sehr langsam
3. I/O (gehört nicht zur Arch) frisst zu viel Fläche
4. Es kommt nicht genug pro Watt und pro sqmm hinten raus

Über die Modulbauweise oder über CMT sagt es ersteinmal nichts aus. Denn wir wissen nicht, ob AMDs Angabe mit den IIRC 20 % mehr an Transistoren für den 2. Kern im Modul stimmen. Tun sie das, ist das absolut ok!

Wir wissen bisher nur, dass -unabhängig von CMT- Bulldozer keine IPC-Monsterarchitektur ist. Es wäre meiner Meinungn nach auch verblendet anzunehmen, dass sie aus der Architektur während des Lebenszyklusses die ca. 40-50 % mehr IPC ggü. Intel noch herausholen werden können. Zumal Intel nicht stehen bleibt.

Und jetzt kommt bitte keiner damit, dass man mangelnde IPC durch mehr Takt ausgleichen kann. Das haben verschiedenste ASICs probiert und immer an der TDP gescheitert: P4, NV30, R600 und nun auch BD. Selbst IBM Power 6 war nicht soo dolle.

Mein persönliches Fazit:
CMT = ok
Bulldozer = daneben

Jetzt muss AMD natürlich damit leben und Bulldozer Stück für Stück inkrementell verbessern. Ich finde es gut, dass sie das in kleinen aber häufigen Schritten machen wollen. Jährlich einen Refresh und die Einführung von Halfnodes. Vieleicht kommt so etwas Leben in die Sache.
Man wird mMn. auch aufholen und besser werden. Aber IMHO(!!) wird Bulldozer (und seine Nachkommen) nicht an Intels CPUs heranreichen. Möglicherweise bis zur Nachfolgearchitektur.

AnarchX
2011-11-08, 15:14:08
Split, da da die Diskussion doch schon sehr vom eigentlichen Thema abweicht:
Wird AMD Intel CPUs einholen? - spekulativer Vergleich kommender CPUs (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=517001)

FelixPaul
2011-11-09, 17:01:15
Hier noch einen extremes Review mit multi-GPUs inkl. 3x 580er was den Grafik-Flaschenhals lösen soll.

http://www.hardocp.com/article/2011/11/03/amd_fx8150_multigpu_gameplay_performance_review/2

http://www.hardocp.com/images/articles/13201474041PaaGdw9mZ_4_2_l.gif

Undertaker
2011-11-09, 19:00:45
Hmm, woher kommt eigentlich diese enorme CPU-Last? Durch den breiten Blickwinkel? Crysis habe ich damals afair noch mit einem Core 2 Duo gespielt, der weitaus höhere fps-Raten erreicht hat.

fdk
2011-11-09, 19:07:18
Keine Ahnung aber mein Bauchgefühl sagt das die Werte durchaus stimmen können. Im Mwll-multiplayer (crysis-warhead mod) habe ich mit einem 2500k auch noch ausrutscher deutlich unter die 20 fps. Erst das forcieren der physikberechnung auf einen enderen cpu kern schafft deutlich spürbare abhilfe (sys_physics_cpu x wenn ich mich recht erinnere).

Schaffe89
2011-11-09, 21:20:03
Man müsste mal beide Prozessoren auf ihren Standardtakt herunterrechnen.
Dann ergibt sich die normale Merhperformance eines 2500k in Spielen die nicht mulicoreunterstützt sind, also 30 bis 50%.
Hier sind es über 60% über die Spiele verteilt, also völlig im Verhältnis.
Man sieht aber trotzdem, dass ein FX zum Spielen mit viel CPU Last und mehreren Grafikkarten überhaupt nicht konkurrenzfähig ist.

Coda
2011-11-10, 00:43:41
Hmm, woher kommt eigentlich diese enorme CPU-Last? Durch den breiten Blickwinkel? Crysis habe ich damals afair noch mit einem Core 2 Duo gespielt, der weitaus höhere fps-Raten erreicht hat.
Wieso enorme CPU-Last? Wir reden hier von 5 MPixeln. Selbst 2560x1600 sind nur 4 MPixel.

Spasstiger
2011-11-10, 07:41:18
Jo, das ist keine CPU-Limitierung bei Crysis, sondern eine miese 3-way-SLI-Skalierung auf dem AMD FX.
2-way-SLI bringt auf dem FX-8150 24,8 fps, 3-way-SLI nur 26,6 fps.
Auf dem Core i5 dagegen steigt die Framerate von 38,6 fps auf 47,9 fps.
Ohne SLI wären die CPU wahrscheinlich noch weiter beieinander. Und in normalen Auflösungen haut der AMD FX sicherlich auch über 40 fps avg. raus.

boxleitnerb
2011-11-10, 07:44:48
Warum sollte SLI auf unterschiedlichen Plattformen so krass anders skalieren, vorausgesetzt die CPU-Power ist da?
Da ist auch kein AA aktiv.

ndrs
2011-11-10, 08:52:51
Vielleicht ist der NVidia-Treiber nicht multithreaded ^^

robbitop
2011-11-10, 09:22:41
Keine GPU Limitierung bzw erzwungene CPU-Limitierung: Auflösung runter.

Im CB Rating Spiele / Niedrige Auflösungliegt FX8150 bei gleichem Takt ca. 10 % hinter einem K10 und ca. 40-50 % hinter einem Sandy.

Undertaker
2011-11-10, 10:39:22
Wieso enorme CPU-Last? Wir reden hier von 5 MPixeln. Selbst 2560x1600 sind nur 4 MPixel.

Weil ich mich nicht entsinnen kann, dass eine CPU auf dem Leistungsniveau eines 4,6GHz Bulldozer in Crysis Warhead bisher nur ~25fps geliefert hat.

Jo, das ist keine CPU-Limitierung bei Crysis, sondern eine miese 3-way-SLI-Skalierung auf dem AMD FX.
2-way-SLI bringt auf dem FX-8150 24,8 fps, 3-way-SLI nur 26,6 fps.
Auf dem Core i5 dagegen steigt die Framerate von 38,6 fps auf 47,9 fps.
Ohne SLI wären die CPU wahrscheinlich noch weiter beieinander.

Ich sehe da eher ein klassisches CPU-Limit, das genau ein solches Verhalten zeigt.


Und in normalen Auflösungen haut der AMD FX sicherlich auch über 40 fps avg. raus.

Davon gehe ich auch aus. Die Frage ist jetzt eher, was hier eine so starke CPU-Last erzeugt. Das breite FoV?

AnarchX
2011-11-10, 12:52:18
Computerbase hat auch solch interessante Werte:
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/12/#abschnitt_crysis_2

Crysis 2 – 1680x1050 4xAA/16xAF

2500K @ GTX 590: 55,9
2500K @ HD 6990: 57,6
FX-8150 @ GTX 590: 47,8
FX-8150 @ HD 6990: 33,2

Undertaker
2011-11-10, 13:17:37
Der i3 2120 und die Phenom II scheinen davon genauso betroffen... :confused:

Spasstiger
2011-11-10, 13:19:34
2500K @ GTX 590: 55,9
2500K @ HD 6990: 57,6
FX-8150 @ GTX 590: 47,8
FX-8150 @ HD 6990: 33,2
Bei Bad Company 2 ist diese seltsame Verhalten auch in abgeschwächter Form sichtbar:
2500K @ GTX 590: 112,4
2500K @ HD 6990: 136,5
FX-8150 @ GTX 590: 114,1
FX-8150 @ HD 6990: 104,3

Schaffe89
2011-11-10, 16:35:57
Warum sollte SLI auf unterschiedlichen Plattformen so krass anders skalieren, vorausgesetzt die CPU-Power ist da?


Ganz einfach: I/O
Oder warum meinst du laufen Spiele mit AMD Karten wenn man einen 2 oder drei Kern Prozessor besitzt wesentlich flotter (bis 25%) als mit einer Nvidiakarte?
Sind alles so Sachen die man mal mit einem Test beleuchten könnte.
Der FX holt zudem auch mit einer GTX 590 oft mehr FPS heraus als ein I5/i7.

Ich vermute mal das liegt einerseits an I/O und andererseits an dem Sheduling Problem.
Man müsste mal CMT deaktivieren und die Theads zuweisen und dann mit einem Tripple SLI oder CFX benchmarken.

S940
2011-11-10, 16:44:01
Computerbase hat auch solch interessante Werte:
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu-zweiter-teil/12/#abschnitt_crysis_2

Crysis 2 – 1680x1050 4xAA/16xAF

2500K @ GTX 590: 55,9
2500K @ HD 6990: 57,6
FX-8150 @ GTX 590: 47,8
FX-8150 @ HD 6990: 33,2 49,0 .. laut Grafik, ohne AA/AF

Bevor man sich den Kopf zerbricht, sollte man erst nachfragen, ob der Wert nicht falsch ist, bzw. welcher denn der Richtige ist. Der aus der Balkengrafik (33,0), oder der aus dem Verlaufsdiagram (49,0). Bei CB muss man immer alles doppelt und dreifach checken, die arbeiten mMn eher schlampig.

Die Grafik ist leider nur für die Modi ohne AA/AF, aber wenn sie sich da schon um 16fps "verrechnen" liegts nahe, dass sie auch bei 4xAA/16xAF den falschen Wert angeben.

Edit: In Bildern:
http://www.abload.de/img/cbfxxvlu6u.png

y33H@
2011-11-10, 16:45:09
Das hat nichts mit I/O zu tun, sondern ist eine Treibersache .

Schaffe89
2011-11-11, 14:46:42
Ja die Werte sind bei Computerbase scheinbar falsch abgeschrieben.
Über 70 % Vorsprung der i5 und i7 wäre auch etwas abnormal.

Das hat nichts mit I/O zu tun, sondern ist eine Treibersache .

Treibersache?
Dann ist die obige Grafik, in der die HD 6990 trotz deutlich schnellerer CPu´s nicht skaliert auch am Treiber?
Zumal ein Treiber wohl unter Input/Output fällt, denn er regelt diesen.

y33H@
2011-11-11, 15:09:36
Du sagtest:
Oder warum meinst du laufen Spiele mit AMD Karten wenn man einen 2 oder drei Kern Prozessor besitzt wesentlich flotter (bis 25%) als mit einer Nvidiakarte?Das ist dem Treiber geschuldet, bei vier Kernen ist die Geforce nämlich idR mindestens gleichauf oder vorne (GTX 580 vs. HD 6970) statt hinter der Radeon. Siehe PCGH 12/2011, Seite 36 (http://www.pcgameshardware.de/heft/heft-archiv/?hid=12_11_DVD).

Pentium M
2011-11-12, 00:49:51
Danke für die Werbung bin kein Gamer ,Du sagst Seite 36 PCGH und ich kriege ein ABO angeboten super Ratschlag für nichts.

S940
2011-11-12, 00:54:27
Danke für die Werbung bin kein Gamer ,Du sagst Seite 36 PCGH und ich kriege ein ABO angeboten super Ratschlag für nichts.
Harmlos, der wirklich Witz dabei ist, dass der Ursprung des Artikels hier im Forum ist :biggrin:

Pentium M
2011-11-12, 01:09:43
Der Link führt mich zum ABO .Helf mir bitte S940.

S940
2011-11-12, 01:48:46
Such hier im Forum nach SLI/CF Tests, direkten Link hab ich auch nicht, bin nicht so der Grafikfetischist ;-)

Schlammsau
2011-11-12, 19:36:50
Bericht: AMDs „Bulldozer“ im Detail (http://www.computerbase.de/artikel/prozessoren/2011/bericht-amds-bulldozer-im-detail/)
Turbo, CMT und Windows 8
Deutlich besser gefallen hat uns der Ausblick auf Windows 8, das durch einen besseren Thread-Scheduler den Bulldozer ein wenig mehr beschleunigen soll. Wir können klar attestierten, dass die Turbo-Funktion des FX-8150 unter Windows 8 besser funktioniert als unter Windows 7. Er bringt im Durchschnitt fünf bis acht Prozent mehr Geschwindigkeit, während die Sandy-Bridge-Produkte nicht weiter zulegen können. Der FX-8150 rückt unter Windows 8 also näher an den Core i5-2500K heran, eine Niederlage bleibt schlussendlich aber weiterhin unvermeidbar.

Raff
2011-11-12, 20:01:33
Harmlos, der wirklich Witz dabei ist, dass der Ursprung des Artikels hier im Forum ist :biggrin:

Der Link führt mich zum ABO .Helf mir bitte S940.

Such hier im Forum nach SLI/CF Tests, direkten Link hab ich auch nicht, bin nicht so der Grafikfetischist ;-)

Tadaa: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213

Das Heft verweist auf die Quelle. (http://extreme.pcgameshardware.de/pcgh/172896-bonusmaterial-zur-pcgh-printausgabe.html#a15)

Bericht: AMDs „Bulldozer“ im Detail (http://www.computerbase.de/artikel/prozessoren/2011/bericht-amds-bulldozer-im-detail/)
Turbo, CMT und Windows 8

Zu dumm, dass Windows 8 sooo wayne (und außerdem sooo Beta) ist. AMD soll endlich einen Windows-7-Patch durchdrücken.

MfG,
Raff

Coda
2011-11-12, 21:45:56
Windows 7 bekommt frühstens mit einem Service-Pack einen "Patch" dafür.

S940
2011-11-13, 13:20:18
Das Heft verweist auf die Quelle. (http://extreme.pcgameshardware.de/pcgh/172896-bonusmaterial-zur-pcgh-printausgabe.html#a15)
Das ist kein "Heft", sondern ein Thread im PCGH Forum ;-)

Im Heft steht nur "..offenbarte sich im 3D-Center-Forum".
Aber Danke für den Link, der ist immerhin nun brauchbar :)

Zu dumm, dass Windows 8 sooo wayne (und außerdem sooo Beta) ist.Noch ist es wurst, aber in nem ~Jahr testest Du damit :D

Ronny145
2011-11-15, 12:47:27
FX-6100 $10 im Preis gesenkt. (immer noch viel zu teuer)

http://www.amd.com/us/products/pricing/Pages/desktop-amdfx.aspx

Undertaker
2011-11-15, 14:34:51
Immerhin damit laut Liste jetzt billiger als der X6 1055T, den er inkl. Turbomodus knapp schlagen sollte. Die Relation zu Intel passt mit einer Positionierung zwischen dem i3 2130 und dem i5 2320 auch fast.

Affinator
2011-11-17, 11:19:08
Transistorenzahl in (nahezu) allen Tests falsch angegeben:

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1321455683

Undertaker
2011-11-17, 11:28:12
Das ergibt aber trotz der riesigen Caches eine unterirdische Packdichte, auch im hausinternen Vergleich mit Llano. Sehr merkwürdig.

robbitop
2011-11-17, 11:37:07
Bei hohen Taktraten reduziert man gern die Packdichte, um die Wärme besser wegzubekommen.
Ich denke auch, dass der ganze I/O Kram, der ja bei BD dominiert!!, ist eh nicht sonderlich optimiert (angeblich automatisiert gelayoutet) und lässt sich auch nicht so gut shrinken.

Ronny145
2011-11-17, 12:03:06
Transistorenzahl in (nahezu) allen Tests falsch angegeben:

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1321455683


Hätte AMD gleich nach Launch richtig stellen sollen.

y33H@
2011-11-17, 12:04:15
Transistorenzahl in (nahezu) allen Tests falsch angegeben:Nahezu? Welcher Tester hat zum FX-Launch (nicht Opteron!) 1,2 Milliarden geschrieben, wenn AMD auf mehreren Slides und in Calls von 2,0 Milliarden spricht? DAS würde ich gerne wissen.

Ronny145
2011-11-17, 12:14:31
Nahezu? Welcher Tester hat zum FX-Launch (nicht Opteron!) 1,2 Milliarden geschrieben, wenn AMD auf mehreren Slides und in Calls von 2,0 Milliarden spricht? DAS würde ich gerne wissen.


Ach die Falschangabe ist hauptächlich von AMD Slides zurückzuführen? Manchmal frage mich welche Affen bei denen immer die Folien/Webpages erstellen. So oft wie dort Fehler vorkommen.

Affinator
2011-11-17, 12:24:38
@y33H@: Manche Seiten verzichten halt komplett auf solche Angaben *Chip* *hüstl* :wink:

LovesuckZ
2011-11-17, 12:49:28
Die hätten einfach die Klappe halten sollen. Bei 2 Mrd. Transistoren weiß man wenigsten, wieso der Chip soviel verbraucht und so groß ist. Bei 1,2 Mrd. stellt man sich dagegen die Frage, ob ein Affe der Projektleiter gewesen ist. Wo liegt SB? Bei ca. 950 Millionen Transistoren? Und das Ding hat PCIe und eine GPU, die deutlich schnelleren CPU-Kerne und verbraucht knapp nur die Hälfte...

Ronny145
2011-11-17, 12:53:45
Wo liegt SB? Bei ca. 950 Millionen Transistoren? Und das Ding hat PCIe und eine GPU, die deutlich schnelleren CPU-Kerne und verbraucht knapp nur die Hälfte...

Bei 1,16 Milliarden, allerdings wie erwähnt mit GPU.

LovesuckZ
2011-11-17, 12:55:22
Wow, dann ist das NOCH schlechter. Vielleicht sollte AMD die PR-Abteilung doch wieder einstellen. Immerhin wusste sie, wie man "Nachteile" noch positiv verkaufen könnte. :D

Ectoplasma
2011-11-17, 14:23:13
Nur mal ohne groß nachzudenken etwas in den Raum geworfen. Verbraucht dann ein BD in Relation zur Transistorzahl nicht viel weniger Strom, als eine SB-CPU?

ndrs
2011-11-17, 14:26:53
Nur mal ohne groß nachzudenken etwas in den Raum geworfen. Verbraucht dann ein BD in Relation zur Transistorzahl nicht viel weniger Strom, als eine SB-CPU?
Du meinst also, dass 1,2Mrd bei 125W besser sind als 1,16Mrd bei 95W?
Ich glaube nicht.

AnarchX
2011-11-17, 15:56:52
Wie viele Transistoren verwendet BD eigentlich für seine L2 und L3-Caches? 6T oder 8T?

Der_Korken
2011-11-17, 15:58:49
:eek:

Plötzlich hat BD 40% weniger Transistoren. Naja, eigentlich klingt das eher positiv als negativ: Verdammt schlechte Packdichte ist immer noch besser, als knapp doppelt so viel Transistoren wie die Konkurrenz zu haben und trotzdem langsamer zu sein. Insofern macht mir das mehr Hoffnung, dass BD schnell Fortschritte machen wird.

Edit:

Wie viele Transistoren verwendet BD eigentlich für seine L2 und L3-Caches? 6T oder 8T?

Können fast nur 6T sein. Bei 8T kommt man auf zu viele Transistoren für den Cache: 16MB=128MBit -> 8*128 Mio. = 1,024 Mrd.

S940
2011-11-17, 16:24:27
Sind auch 6T, stand in den ISSCC Papers zum L2. 8T gibts nur für die beiden L1. Zum L3 stand nichts drin, aber wird wohl kaum 8T sein, wenn der L3 schon in 6T ist.

Ectoplasma
2011-11-17, 17:34:59
Du meinst also, dass 1,2Mrd bei 125W besser sind als 1,16Mrd bei 95W?
Ich glaube nicht.

Achso, hatte ich dann falsch verstanden. Ich war immer noch bei 2Mrd Transistoren für den BD. Aber es sind ja jetzt "nur" noch 1,2Mrd.

Spasstiger
2011-11-17, 17:57:59
Die 1,2 Mrd. Transistoren für Zambezi kommen mir arg wenig vor, das sind 250 Mio. weniger als bei Llano.
Schauen wir mal auf die Unterschiede Zambezi vs. Llano:
- 8 Integer-Cores vs. 4 Integer-Cores
- 8 MiB L3-Cache vs. 0 MiB L3-Cache
- 8 MiB L2-Cache vs. 2 4 MiB L3-Cache
- kein IGP vs. Llano-IPG
- 4 Hypertransport-Interfaces vs. 1 Hypertransport-Interface
- 1,2 Mrd. Transistoren vs. 1,45 Mrd. Transistoren?

Alleine die 16 12 MiB Cache-Unterschied bringen im Fall von 6T-SRAM rund 800 600 Mio. Transistoren auf die Waage. Die Llano-IGP würde ich aufgrund der Ähnlichkeit zu Redwood (627 Mio. Transistoren inkl. PCIe-Interface und GDDR5-SI) mit rund 600 Mio. Transistoren veranschlagen.
Rechnet man Cache und IGP gegeneinander und blendet diese bei nachfolgender Betrachtung aus, hat Llano sogar 450 immer noch 250 Mrd. Transistoren mehr als Zambezi trotz 4 Integer-Cores und 3 HT-Interfaces weniger. Also rund 850 Mio. Transistoren für 4 Llano-Cores inkl. Dual-Channel-Speicherinterface und einem HT-Interface gegen rund 400 600 Mio. Transistoren für 4 Bulldozer-Module (mit 8 Integer-Cores) inkl. Dual-Channel-Speicherinterface und 4 HT-Interfaces.
Irgendwas stimmt doch hinten und vorne nicht an den 1,2 Mrd. Transistoren für Zambezi. Das sind mir mindestens 600 Mio. Transistoren zu wenig, weil ich denke, dass ein Bulldozer-Modul ein gutes Stück mehr Transistoren braucht als ein Llano-Core und nicht umgekehrt. Die 2 Mrd. Transistoren klangen realistisch.

Was die Packdichte angeht: Zambezi verwendet einen beträchtlichen Anteil seiner Fläche für Caches und Caches lassen sich mit am Dichtesten packen, da die quasi totoptimiert sind. Nicht umsonst bewerben Fertiger ihre Prozesse mit dem Flächenbedarf von SRAM-Zellen. Eigentlich erwarte ich für Zambezi eine tendentiell höhere Packdichte als für Llano.

/EDIT: Ich hab mich beim Cache-Unterschied ein bischen vertan, es sind natürlich 14 MiB L2- und L3-Cache-Unterschied zwischen Zambezi und Llano.
/EDIT2: Aufgrund des Hinweises, dass Llano 4 MiB L2-Cache hat, korrigiere ich die Zahlen nochmal. Ich

Undertaker
2011-11-17, 18:22:38
Llano hat 4MB L2 Cache, also nur 12MB Differenz. Trotzdem, die Zahl ist in der Tat sehr fragwürdig.

Spasstiger
2011-11-17, 18:29:09
Ah, ich dachte, die K10-Designs hätten alle 512 KiB L2-Cache pro Kern. Ich korrigiere die Zahlen oben nochmal.

Bei The Register steht übrigens, dass ein Bulldozer-Modul inklusive L1-/L2-Caches aus 213 Mio. Transistoren besteht: http://www.theregister.co.uk/2011/11/14/amd_opteron_4200_6200_launch/.
Macht bei 4 Modulen also 852 Mio. Transistoren. Hinzu kommen rund 400-450 Mio. Transistoren für die 8 MiB L3-Cache (6T-SRAM angenommen). Jetzt fehlen noch die Transistoren für die vier HT-Interfaces und das Dual-Channel Speicherinterface. Man landet auf jeden Fall über 1,3 Mrd. Transistoren, aber 2 Mrd. sind es vielleicht doch nicht. Oder besteht der L3-Cache möglicherweise sogar aus 4T-SRAM?
Was ich auch nicht verstehe, die Module belegen laut The Register bei 213 Mio. Transistoren nur 30,9 mm². Das entspricht einer Packdichte von 6,9 Mio. Transistoren/mm². Wenn der ganze Chip 1,2 Mio. Transistoren auf 315 mm² hat, läge die Packdichte des L3-Caches und der Interfaces bei gerade mal 1,8 Mio. Transistoren/mm². Macht doch überhaupt keinen Sinn, die Module so dicht zu packen, wenn das drumherum nur auf 1/4 der Packdichte kommt. Zumal ja die meisten Schaltvorgänge in den Modulen anfallen, was bedeutet, dass die Module extreme Hotspots im Vergleich zu den restlichen Chipteilen wären. Dann doch lieber den Modulteig breiter ausrollen, wenn es für die Diefläche eh nicht sonderlich stark ins Gewicht fällt.
Außerdem machen 1,8 Mio. Transistoren/mm² für Caches in 32 nm überhaupt keinen Sinn. Ok, 4T-SRAM lässt sich möglicherweise nicht ganz so dicht packen wie 6T-SRAM, aber auf ~5 Mio. Transistoren/mm² sollte man auch mit 4T-SRAM kommen. Sobald 4T-SRAM mehr Fläche braucht als 6T-SRAM, macht 4T-SRAM keinen Sinn mehr. Und die Gesamttransistorzahl von 1,2 Mrd. erlaubt nur 4T-SRAM für die L3-Caches.

http://www.abload.de/img/tumblr_ktuyglb7nd1qzm3h81g.jpg

S940
2011-11-17, 18:47:37
Llano hat kein HT mehr, dafür gibts PCIe, braucht angeblich (deutlich) mehr Fläche, demnach wohl auch mehr Transistoren. Dazu dann noch der Speicherkontroller. Das ganze Zwiebel und Knoblachgedöns gibts sicherlich auch nicht umsonst.

Schnitzl
2011-11-17, 18:48:35
Vielleicht sinds ja 1,2 Mio ohne HT- und Speicher-Interface(s)?
(beim Bulldozer)

Ravenhearth
2011-11-19, 14:14:38
http://www.planet3dnow.de/photoplog/file.php?n=16960&w=o

Sind "2M" nicht sowieso komplett falsch? Schließlich heißt "Milliarde" im Englischen "Billion" - da müsste doch "2B" stehen, oder?:freak:

Fabian_HT4U
2011-11-21, 07:01:16
Sind "2M" nicht sowieso komplett falsch? Schließlich heißt "Milliarde" im Englischen "Billion" - da müsste doch "2B" stehen, oder?:freak:
Oder es sind 2M Mio gemeint (also 2 Mille Millionen = 2 Mrd.) :biggrin:
Alles in allem etwas sehr seltsam. Die 2 Mrd. erscheinen zu viel, die 1,2 Mrd sind mir aber irgendwie zu wenig....

Grüße
Fabian

Ravenhearth
2011-11-21, 16:17:43
Oder es sind 2M Mio gemeint (also 2 Mille Millionen = 2 Mrd.) :biggrin:
Alles in allem etwas sehr seltsam. Die 2 Mrd. erscheinen zu viel, die 1,2 Mrd sind mir aber irgendwie zu wenig....

Grüße
Fabian
Kleiner Fehler: 2 Mille Millionen wären 2 Billionen (engl: Trillions):freak: - vorausgesetzt, du meinst mit "Mille" eine Million;D

Und die Zahl von 1,2 (Milliarden, wohlgemerkt):biggrin: kommt nicht nur dir komisch vor. Ich glaube eigentlich, dass es ganz grob 1,4-1,5 Milliarden sein müssten (4x213Mio für Module + L2, L3 - welcher afaik 6T ist - ganz grob irgendwas mit 400Mio, dazu der Rest).

Weselchak-U
2011-11-22, 04:06:16
Billion= Milliarde hat ja mit dem traditionellen Englisch nichts zu tun.
Billion= Milliarde ist ja nur Amerikanisch. Und da wir wissen, dass die ersten weissen Siedler in Amerika nicht besonders hell waren, konnten sie sich wohl eine echte Billion gar nicht vorstellen und so haben die Armleuchter das Wort Billion "downgraded". :D

Fabian_HT4U
2011-11-22, 07:09:26
Kleiner Fehler: 2 Mille Millionen wären 2 Billionen (engl: Trillions):freak: - vorausgesetzt, du meinst mit "Mille" eine Million;D
Mille ist Tausend ;) Aber seis drum, das ist alles merkwürdig...

Grüße
Fabian

Exxtreme
2011-11-22, 12:26:48
Tja, AMD hat euch mit der Folie getrollt und dafür gesorgt, dass sie Postings generiert. :freak:


Trolling is a art.



Das ~2M kann alles Mögliche sein.

SavageX
2011-11-22, 12:56:19
Die ganze Folie ist der Perfektion so gerade eben noch entkommen.

"2MB L3 Cache" für den gesamten Bereich, wo tatsächlich vier mal 2MB drinsteckt...

Ravenhearth
2011-11-22, 13:19:23
"2MB L3 Cache" für den gesamten Bereich, wo tatsächlich vier mal 2MB drinsteckt...
Jetzt wo dus sagst, fällt mir das auch erst auf...
Das ist die Lösung! Ein BD hat gar keine 8MB L3-Cache, sodern nur 2MB:
4x 213Mio für Module + ~100 Mio für L3 + ~250 Mio für den Rest = 1,2Mrd. Passt doch:freak:

MarcoB
2011-11-23, 01:16:58
Wenn ich AMD gewesen wäre, hätte ich den X6 genommen und den 32nm Shrink benutzt um einen nativen 8-Kerner (also nicht dieser Modul-Mist) auf der Phenom II-Architektur daraus zu machen. Nebenher hätte ich versucht, die IPC zu verbessern.

Warum ist man nicht diesen Weg gegangen?

Schnitzl
2011-11-23, 08:12:25
MarcoB, bitte nicht zum 100. Mal diese Diskussion...
irgendwann muss man eben vom Vergaser auf den Einspritzer wechseln, auch wenn die ersten scheisse waren.
Im Serverbereich scheint der BD ja einzuschlagen

Spasstiger
2011-11-23, 08:34:33
Ein Bulldozer-Modul braucht bei gleicher L2-Cache-Kapazität im Vergleich zu zwei K10-Cores deutlich weniger Transistoren. Außerdem hat die Bulldozer-Architektur hat das größere Taktpotential, bietet das umfangreichere Featureset (AES-NI, AVX, SSE 4.1, SSE 4.2), hat ein stark aufgebohrtes Energiemanagement und bietet Spielraum für künftige Verbesserungen. Beim K10 war man wohl am Ende der Fahnenstange angelangt, man hätte nur durch Aufblähen auf mehr Kerne und somit deutlich mehr Transistoren und durch den 32-nm-Prozess entscheidende Verbesserungen erreichen können. Die Vorteile der Bulldozer-Architektur wie das erweiterte Featureset und das verbesserte Energiemanagement lassen sich auch auf deutlich kompaktere Designs übertragen, ohne dass man einen Transistor-Mehraufwand gegenüber K10-basierenden Designs hätte.
Die AES-NI-Implementierung eines AMD FX-8 ist schneller als die eines Core i7 Sandy Bridge Quadcore mit HT. Der Phenom II X6 unterstützt überhaupt kein AES-NI und hinkt bei Anwendungen, in denen AES-Verschlüsselung performancekritisch ist, um eine Größenordnung hinterher. Niemand im professionellen Bereich wird also einen Phenom II X6 bzw. einen Opteron 4100/6100 für Anwendungen einsetzen, in denen AES-Verschlüsselung eine Rolle spielt (z.B. verschlüsselte Laufwerke). Dabei hat ein AMD FX-8 cachebereinigt sogar weniger Transistoren als ein Phenom II X6.
Und letztlich ist der schnellste AMD FX auch nicht langsamer als der schnellste Phenom II X6.

Mit Trinity werden wir sehen, wie flächen- und energieeffizient die Bulldozer-Architektur ist, wenn sie auf Consumer- und nicht auf HPC-Bedürfnisse ausgelegt wird. In den TOP500 der Supercomputer sind übrigens die Bulldozer-Systeme die energieeffizientesten AMD-Opteron-basierenden Systeme.

HOT
2011-11-27, 00:56:55
Es ging ja immer rum, dass das Asus Crosshair IV keinen FX-Support bekommt, ich hab selbst nicht mehr dran geglaubt - aber hier ist er in Form des 3027-BIOS inklusive Orochi-AGESA 1.1.0.1 vom 18.11.2011 :D.
http://rog.asus.com/products/Motherboards/Crosshair_IV_Formula.htm (in Downloads ;))

Da ist mir noch was interessantes in der CPU-Supportliste aufgefallen...

FX-4100(FD4100WMW4KGU),3.6GHz,4C,95W,rev.B2G,AM3+
FX-4170(FD4170FRW4KGU),4.2GHz,4C,125W,rev.B2G,AM3+
FX-6100(FD6100WMW6KGU),3.3GHz,6C,95W,rev.B2G,AM3+
FX-8100(FD8100WMW8KGU),2.8GHz,8C,95W,rev.B2G,AM3+
FX-8120(FD8120FRW8KGU),3.1GHz,8C,125W,rev.B2G,AM3+
FX-8120(FD8120WMW8KGU),3.1GHz,8C,95W,rev.B2G,AM3+
FX-8150(FD8150FRW8KGU),3.3GHz,8C,125W,rev.B2G,AM3+


3,3GHz Basistakt für den 8150? Hat AMD da uns etwa mal eben glatt beschissen? Es berichteten ja viele Forennutzer, dass die Prozessoren auf 3,3GHz heruntertakteten.

Duplex
2011-11-27, 17:34:25
Interessant ist auch das der FX4170 gleich mit 4,2Ghz Takt kommt, mit dem kommenden B3 Stepping könnten dann evtl. auch 4,5Ghz möglich werden, wenn dann noch die Preise korrigiert werden wird die Nachfrage etwas besser.

y33H@
2011-11-27, 17:43:52
Der hat ja auch 125W TDP bei nur zwei Modulen ... wann der tatsächlich kommt, ist ohnehin unklar.

=Floi=
2011-11-27, 17:55:14
wenn der wirklich kommen sollte, dann wird das ein richtiges PR desaster für AMD.
2 module + 125 watt vs intel <55watt + mehr leistung
dank smt dürfte hier ein kleiner i3 schneller sein.

Bösewicht
2011-11-27, 18:59:00
ich kann mir kaum vorstellen das ein dau sich Gedanken um Stromkosten macht oder weiß was tdp ist.
Für ein billig komplett System wo dau vom Herrn eh nur auf ghz und gb guckt reicht das locker.
Media Markt macht ja kaum Werbung mit der tdp da kommt es nur auf austattung und Eckdaten GHZ, xxGB Speicher, Festplatte mit xxx usw. an.

=Floi=
2011-11-27, 19:25:00
in jedem test wird dieser prozessor aber kläglich untergehen und vor allem beim fazit wegen der hohen TDP kritisiert werden.

Schaffe89
2011-11-27, 20:46:42
dank smt dürfte hier ein kleiner i3 schneller sein

Naja jetzt mal nicht übertreiben.
Ein i3 2100 wird wohl nur Singlethreaded etwas schneller sein.
Der FX-4170 dürfte sich, was die Performance betrifft ungefähr beim Phenom II 980BE ohne neue Befehlssätze einfinden.

Twodee
2011-11-27, 20:56:50
Naja jetzt mal nicht übertreiben.
Ein i3 2100 wird wohl nur Singlethreaded etwas schneller sein.
Der FX-4170 dürfte sich, was die Performance betrifft ungefähr beim Phenom II 980BE ohne neue Befehlssätze einfinden.
Warum?
Ein i3 hat 2 Kerne, bei Anwendungen, welche nur 2 Threads nutzen, hat der 2 Moduler keine Chance, bei 4 Threads hingegen ist gleichstand.
Geiches Bild wie i7 2600K vs 4 Moduler.

Shink
2011-11-28, 10:16:42
Geiches Bild wie i7 2600K vs 4 Moduler.
Hä? Der i7 2600K ist schneller getaktet als der i3 2100, hat etwas mehr Cache, Turbo Boost etc. Das ist natürlich nicht das gleiche Bild. :confused:

Schnitzl
2011-11-28, 11:46:21
Naja jetzt mal nicht übertreiben.
Ein i3 2100 wird wohl nur Singlethreaded etwas schneller sein.
Der FX-4170 dürfte sich, was die Performance betrifft ungefähr beim Phenom II 980BE ohne neue Befehlssätze einfinden.
Schau dir die Benches an, ein 980BE ist sogar manchmal schneller als ein FX-8150
Der FX-4170 wäre vielleicht interessant, wenn er auf Wasser bis 6Ghz geht, was aber wohl recht unwahrscheinlich ist...

Ich finds ja auch nicht gerade toll... mein 965BE (@4,2Ghz) sollte ersetzt werden aber ich mach doch kein Downgrade

Knuddelbearli
2011-11-28, 12:40:38
wobei einem auch bewusst sein sollte wieso er schlechter ist.

wenn es von Intel einen Sb-E mit 125W geben würde ( die er auch ausreizt ) gäbe es auch einige Bereiche wo der 6 Kerner schlechter wäre wegen geringeren Takt. Bei AMD ist es halt die geringere IPC

(del676)
2011-11-29, 10:57:40
Hier mal ne schoene Grafik, abseits des ganzen Rumtheoretisierens.
Das hier ist die Auslastung der USV vor meinem Linux Rechner. Ist eine 1200VA USV und da haengt nur der Server dran, kein Monitor.
Darauf laufen um die 380-400 Prozesse, 2 weitere virtuelle Linux Maschinen, 8 Crypto-threads, Software Raid6, sowie eine GUI mit Firefox/Thunderbird usw...

Jetzt duerft ihr alle raetseln wann die Stromsparcpu 910e (auf 4x 3.0GHz) gegen einen "Stromvernichter" FX-8150 (8x 4,2GHz) getauscht wurde. :rolleyes: (beide natuerlich mit allen Stromsparmechanismen)

http://666kb.com/i/bz2vmuznscetaml6e.png

Tja, ich kann nix dafuer wenn der 8150 fast die ganze Zeit mit 1,4GHz rennen kann, dank 8 Threads. ;)

Bösewicht
2011-11-29, 16:02:48
in jedem test wird dieser prozessor aber kläglich untergehen und vor allem beim fazit wegen der hohen TDP kritisiert werden.

Klar du und ich und die anderen hier aber Dau, Opa, Oma, Mama gehen ins Geschäft ihrer Wahl und werden beraten oder gucken nur nach Eckdaten die sie in der Werbung so mitbekommen.
AMD Wirbt mit 8 Kerne viel ghz und günstigen Preisen gegen ein Mega Konzern dessen Ruf in der Vergangenheit gut aber teuer gewesen ist.
AMD dagegen stellt sich gerne als kleiner undergrounder mit guter Leistung dar und versucht so an seine Kunden zu kommen.
Ist ja auch alles in Ordnung soweit.

Hat ein Test des 3Dcenter nicht gezeigt das ein Netzteil auch wirklich seine 450 Watt verbraucht oder sogar mehr?
Spielt es da noch groß eine Rolle ob eine CPU jetzt 95 oder 125 hat?
Ich hab ein 550wattt be quiet und wen das eh immer 550watt saugt ist es doch wumpe was die CPU verbraucht oder nicht?

Ectoplasma
2011-11-29, 17:12:13
Hat ein Test des 3Dcenter nicht gezeigt das ein Netzteil auch wirklich seine 450 Watt verbraucht oder sogar mehr?
Spielt es da noch groß eine Rolle ob eine CPU jetzt 95 oder 125 hat?
Ich hab ein 550wattt be quiet und wen das eh immer 550watt saugt ist es doch wumpe was die CPU verbraucht oder nicht?

Hä? Ein Netzteil verbraucht nur dass, was auch benötigt wird + etwas eigenem Energiebedarf. Wenn ein Netzteil immer am Anschlag wäre, hätte es einen echt beschissenen Wirkungsgrad. Das kann absolut nicht stimmen, was du erzählst.

Bösewicht
2011-11-29, 17:26:19
echt dan lese ich das nochmal nach hab das damals nur kurz überflogen und so ist das hängen geblieben.
edit:
denn meine ich
http://www.3dcenter.org/artikel/zieht-mein-600w-netzteil-immer-600w-aus-der-steckdose

fdk
2011-11-29, 17:36:55
Erst wollte ich ja sagen PISA/ fehlendes Textverständnis ... da die Seite die du verlinkst allerdings 3 riesige Grafiken enthält die verdeutlichen wann wieviel gezogen wird -> Troll/Optiker.

Ectoplasma
2011-11-29, 17:38:04
echt dan lese ich das nochmal nach hab das damals nur kurz überflogen und so ist das hängen geblieben.
edit:
denn meine ich
http://www.3dcenter.org/artikel/zieht-mein-600w-netzteil-immer-600w-aus-der-steckdose

Schon an den Grafiken sieht man doch, was da passiert. Das Netzteil hat natürlich einen Eigenverbrauch. Der ist doch aber nicht immer am Anschlag. Wäre auch höchst seltsam.

dildo4u
2011-11-29, 17:42:32
Hä? Der i7 2600K ist schneller getaktet als der i3 2100, hat etwas mehr Cache, Turbo Boost etc. Das ist natürlich nicht das gleiche Bild. :confused:
Es gibt z.b auch noch i3 2120/2130(3.4Ghz) mit mehr Takt,der 4170 ist auch nicht das kleinste Modell.Von den Preisen her dürfte sich der 4170 über dem i3 2120(3.3Ghz) einordnen,der zur Zeit das selbe wie der 4100 kostet.

Matrix316
2011-11-29, 23:24:59
Fragen an AMD und die Antworten lauten nach dem Motto: Eigentlich sollte er ganz schnell sein. Natürlich nicht jetzt und hier, sondern irgendwann mal. ;)

http://www.hardocp.com/article/2011/11/29/hardocp_readers_ask_amd_bulldozer_questions/1

dildo4u
2011-11-29, 23:33:46
We are also working with Microsoft on a scheduler update for Windows 7 that will be available soon.

Nicht nur schlechte Nachrichten.

boxleitnerb
2011-11-30, 00:36:39
Dieses Marketingblabla, da wird einem ganz schlecht von. High Resolution Gaming...wenn ich das schon lese.

=Floi=
2011-11-30, 01:14:30
Nicht nur schlechte Nachrichten.

nur müsste man so etwas VOR den release bringen. facepalm:

Commander Keen
2011-11-30, 09:02:13
Jetzt duerft ihr alle raetseln wann die Stromsparcpu 910e (auf 4x 3.0GHz) gegen einen "Stromvernichter" FX-8150 (8x 4,2GHz) getauscht wurde. :rolleyes: (beide natuerlich mit allen Stromsparmechanismen)

Am 25.10.2011. Krieg ich jetzt nen Keks?

SavageX
2011-11-30, 09:06:41
Dieses Marketingblabla, da wird einem ganz schlecht von. High Resolution Gaming...wenn ich das schon lese.

Wer was anderes als Marketingblabla zu solchen Gelegenheiten erwartet, ist wohl einer Selbsttäuschung aufgesessen.

Könnte übrigens schlimmer sein, sowas wie

Clearly, IPC is an important factor in processor performance, and IPC has decreased slightly in this first instantiation of "Bulldozer."

ist ja schon fast ein mutiges Eingeständnis.

LovesuckZ
2011-11-30, 10:17:36
Diese Aussage ist kein "mutiges Eingeständnis" sondern die Abschwächung einer negativen Tatsache -> PR-Schmarn.

Alleine das "decreased slightly" zeigt doch schon, wohin die Reise geht. Das entspricht ungefähr dem Unterschied einer komplett neuen Generation...

Schnitzl
2011-11-30, 10:24:45
Dieses Marketingblabla, da wird einem ganz schlecht von. High Resolution Gaming...wenn ich das schon lese.
jo, die 2. Seite hab ich gar nicht erst angefangen....

Frage:
"2. Why are the integer operation benchmarks so low compared to even previous AMD 4 cores?"
Antwort:
"Blablablablbla....
The two integer execution cores present in Bulldozer are designed to deliver area- and power-efficient multi-threaded throughput."
LOL!

und das halte ich mal für eine dreiste Lüge:
"The new CPU core delivers higher frequency while maintaining IPC"

Sorry, ich bin zwar AMD- Fan, aber ... :mad:

Bösewicht
2011-11-30, 11:23:55
Erst wollte ich ja sagen PISA/ fehlendes Textverständnis ... da die Seite die du verlinkst allerdings 3 riesige Grafiken enthält die verdeutlichen wann wieviel gezogen wird -> Troll/Optiker.
Schön wie du gleich beleidigend wirst...
Ich hab den Bericht erst nachdem ich ihn verlinkt hab gelesen...
Ich schrieb auch das ich ihn damals nur überflogen hab oder wie es scheint nur die Ersten paar Zeilen gelesen hab.
So nun weiss ich es auch und zum Abschluss noch ein **** dich von mir!:P

INDEX75
2011-11-30, 11:34:11
We are also working with Microsoft on a scheduler update for Windows 7 that will be available soon.
Nicht nur schlechte Nachrichten.
Na, da bin ich aber mal gespannt ob dieses Update wirklich noch kommt. Was wäre dann möglich. Ca. 5-8%? :uponder:

...
So nun weiss ich es auch und zum Abschluss noch ein **** dich von mir!:P
Sach ma, geht's noch?!

Schnitzl
2011-11-30, 11:41:53
Ich hab den Bericht erst nachdem ich ihn verlinkt hab gelesen...
und dann wunderst du dich???
:facepalm:

SavageX
2011-11-30, 13:39:39
Alleine das "decreased slightly" zeigt doch schon, wohin die Reise geht. Das entspricht ungefähr dem Unterschied einer komplett neuen Generation...

Gelegentlich schon, gelegentlich aber auch nicht. Gibt ja auch Sachen, die dem neuen Kern liegen. :rolleyes:



Und selbstverständlich ist das im Groben und Ganzen eine PR-Aktion.

Spasstiger
2011-11-30, 15:05:04
Fragen an AMD und die Antworten lauten nach dem Motto: Eigentlich sollte er ganz schnell sein. Natürlich nicht jetzt und hier, sondern irgendwann mal. ;)

http://www.hardocp.com/article/2011/11/29/hardocp_readers_ask_amd_bulldozer_questions/1
Bei den Fragestellungen kann man teilweise aber auch nur den Kopf schütteln.
Z.B. behauptet der Interviewer, in jedem einzelnen Benchmark, den er gesehen hat, wäre der Phenom II X6 1090T schneller als der FX-8150. Komisch, dass der FX-8150 in vielen Reviews bei vielen Benchmarks sogar schneller ist als ein Phenom II X6 1100T. Zeugt nicht gerade von Weitblick seitens des HardOCP-Interviewers.
Und dann die dämliche Frage nach den Anwendungsfeldern für Bulldozer, bei denen Solitär seitens des Interviewers als Beispiel genannt wird (nach dem Motto "Ist der Bulldozer vielleicht für Solitär gut?"). Was soll der Unfug? Wer ernst gemeinte Antworten will muss ernstgemeinte Fragen stellen.

Ein neutraler Interviewer, der mehr Technikverständnis zeigt, hätte vielleicht auch spannendere und spezifischere Antworten bekommen.