PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-Serie - Bulldozer - Review-Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10

kiss
2011-10-17, 09:10:29
So schlecht ist Bulldozer nicht, wenn der Preis deutlich gesenkt wird.

Das FX hätten AMD lieber weglassen sollen, da Nvidia mit dem Kürzel schon keine gute Erfahrung gesammelt hat.

AMD muss unbedingt aufholen ansonsten läuft Intel immer mehr weg.

Pixelmonk
2011-10-17, 09:17:37
Vielleicht haben sie den B2 deshald losgelassen, damit B3 in goldenem Lichte dasteht, auch wenn es bloß moderat ist.
;)


Die Hoffnung stirbt zuletzt. Wenn sich die Leistungsaufnahme von Ivy Bridge um die von Intel prognostizierten ~50% reduzieren sollte, dann ist AMD im High-power CPU bereich nicht mehr konkurrenzfähig, selbst wenn AMD durch neue Steppings / Revisionen die Leistungsaufnahme etwas würde.


Die AMD Marketingabteilung hat noch zwei Asse im Ärmel.

Bulldozer Colletors Edition.

AMD Memorial Edition.

Mancko
2011-10-17, 09:34:26
Die Hoffnung stirbt zuletzt. Wenn sich die Leistungsaufnahme von Ivy Bridge um die von Intel prognostizierten ~50% reduzieren sollte, dann ist AMD im High-power CPU bereich nicht mehr konkurrenzfähig, selbst wenn AMD durch neue Steppings / Revisionen die Leistungsaufnahme etwas würde.


Die AMD Marketingabteilung hat noch zwei Asse im Ärmel.

Bulldozer Colletors Edition.

AMD Memorial Edition.

Wenn es so weit geht tippe ich auf letztere. Allerdings wäre das nich unbedingt schlecht. Ich bin eh der Meinung, dass AMD sich mit wem anders zusammen tun sollte. Alleine ist das einfach ein hoffnungsloser Fall gegen Intel. Vom Kapital her fände ich Samsung oder Oracle interessant. Von der Innovationsseite eher Nvidia.

Skysnake
2011-10-17, 09:39:59
Ja, ein paar Bremsen hier und da gibts sicherlich, davon geh ich ja auch aus. Aber der Type lallt was von +40% durch nen Registery patch ... wie soll das dann bitte gehen?
Viel zu viel und der Vergleich mit ARM ist auch eher schräg.

Was schief gelaufen ist .. tja, sieht man dann wenns behoben ist. Mal schauen, was B3 bringt. Ich weiß, ich wiederhole mich, aber ich frag mich echt, wieso AMD B2 überhaupt auf den EndUser losgelassen hat. Im Server is da Teil sicherlich konkurrenzfähig, aber Client ... naja, irgendnen Grund wirds schon gegeben haben ... bzw. nichts ist unmööglich AAAAA Emmmmmm Deeeeee ^^
Du ich glaub eben nicht mehr dran, dass ein B3 Stepping uns noch erreichen wird. Das B2 gibt es schon SEHR lange. Ein B3 sollte schon locker fertig sein. Dafür spricht eben auch, dass das B3 Stepping an verschiedenen Stellen bereits aufgetaucht ist. Das Problem wird wohl gewesen sein, das Sie Fehler behoben haben, aber gleichzeitig andere rein gebaut haben, die schwerwiegender sind, mit der Performance Probleme bekommen haben, oder eben gemerkt haben, dass der Fix im B3 den gewünschten Bug eben NICHT beseitigt hat, und man sich daher die Validierung gleich gespart hat. Man muss ja trotzdem den ganzen Rest testen, um sicher zu gehen, dass da kein Fehler drin ist.

Mich würde es schon SEHR wundern, wenn wir noch ein B3 sehen würden, und wenn, ist es sicherlich ein anderes B3, als das, was wir eigentlich bekommen sollten.

naja es gibt scheinbar keine bugs die sie fixen wollen also gibts scheinbar keinen bug der die Performance massiv einbremst
Das ist halt die Frage. WOLLEN oder KÖNNEN.

Falls es dir auch nicht aufgefallen ist, es stehen ja nur Bugs drin, die nicht gefixed werden sollen, was impliziert, dass die Bugs noch vorhanden sind. Die ganzen Bugs, die "fixed" sind, stehen da nicht. Ob dieses "fixed" sich aber auf ein echtes Lösen bezieht, oder nur auf ein umgehen, was "drölfmillionen" Prozent Performance kostet, ist nicht ersichtlich.

Rein vom Gefühl her, gibt es da so manchen Bug, der Performance kostet, aber eben "fixed" ist.

Das glaube ich nicht. In der Errata stehen mit sicherheit nur die Bugs drin, die für Programmierer wichtig sind, also Fehler erzeugen können. Einen Bug der nur einbremst, aber keine Rechenfehler erzeugt müssen sie nicht veröffentlichen.
Siehe oben.

Stimm dir da zu. Es wird halt nur das angegeben, was nicht "fixed" ist.

EDIT:
@Mancko:
Blos NICHT mit Oracle....

Das hat Sun schon nicht gut getan...

Wenn dann Samsung. Die haben zwar mit X86 etc. 0 Erfahrung, aber Sie haben mit Speicher SEHR viel Erfahrung, und das könnte einige Vorteile bringen, wenn man da eine bessere Integration schaffen würde. Micron arbeitet ja mit Intel zusammen, und wenn ich mich nicht irre Samsung auch mit Micron an dem Memory-Cube. AMD muss sich da wohl eh was überlegen.

Ronny145
2011-10-17, 11:46:29
Für ein neueres Stepping bieten sich doch erst die Takt refresh Modelle an. Ich gehe davon aus, dass es B3 geben wird. Afaik ist das von AMD zum ersten mal in der Oktober techdoc erwähnt wurden. Welche verschiedenen Stellen meinst Du? Verwechsle das nicht mit den unsinnigen Spekulationen im Vorfeld.

Matrix316
2011-10-17, 12:47:55
Vielleicht sollte man ATI Outsourcen, damit sich beide Divisionen wieder auf das konzentrieren, was sie am besten können.

Exxtreme
2011-10-17, 13:06:37
Wenn es so weit geht tippe ich auf letztere. Allerdings wäre das nich unbedingt schlecht. Ich bin eh der Meinung, dass AMD sich mit wem anders zusammen tun sollte. Alleine ist das einfach ein hoffnungsloser Fall gegen Intel. Vom Kapital her fände ich Samsung oder Oracle interessant. Von der Innovationsseite eher Nvidia.
Oracle wäre eher Mist da diese kein Interesse an Privatkunden haben. Da hätte man nur noch irgendwelche 32-Kern-Server-CPUs. Und Samsung ... ich weiss nicht. Das würde die Qualität IMHO eher verschlechtern. Habe mit Samsung noch nie gute Erfahrungen gemacht.

Skysnake
2011-10-17, 13:18:26
Naja, für Oracle kannste aber nicht mal das sagen...

Wenn musste das auf Datenbanken einschränken, und so Zielgruppen wie Google und Gesichtsbuch. Datamining halt. Dafür wären die dann wohl ausgelegt. :ugly:

Seien wir uns einfach einig. Oracle ist einfach ne Schnapsidee :biggrin:

S940
2011-10-17, 13:49:15
Du ich glaub eben nicht mehr dran, dass ein B3 Stepping uns noch erreichen wird. Das B2 gibt es schon SEHR lange. Ein B3 sollte schon locker fertig sein.
Hmmm seh ich nicht so, B2 gibts seit Juli oder so. Vielleicht auch ein paar Wochen eher, aber was Du vielleicht vergißt ist, dass man erstmal etwas auf Lager produzieren muss, bevor man den Verkauf startet. Dauert meistens so ein Quartal, manchmal auch gleich 2. Der Zeitplan passt schon, B3 wird kommen, sonst wärs nicht im offiziellen Manual. Es wundert mich auch, dass das noch kommt, wo doch Vishera 2012 kommen soll, aber naja, kommt der halt dann eher im Q4 statt Q3, würde mich nicht wundern, ist ja AMD ;-)

Dafür spricht eben auch, dass das B3 Stepping an verschiedenen Stellen bereits aufgetaucht ist. Das Problem wird wohl gewesen sein, das Sie Fehler behoben haben, aber gleichzeitig andere rein gebaut haben, die schwerwiegender sind, mit der Performance Probleme bekommen haben, oder eben gemerkt haben, dass der Fix im B3 den gewünschten Bug eben NICHT beseitigt hat, und man sich daher die Validierung gleich gespart hat. Ne, das Problem ist, dass B3 einfach noch zu neu ist. Wenn es die Rev. schon ins offizielle PDF schafft, dann kommt das auch. Das dort eine ungenützt Rev. drinstünde gabs bisher noch nie.

Man muss ja trotzdem den ganzen Rest testen, um sicher zu gehen, dass da kein Fehler drin ist.Jo, aber B3 ist ja nur ein metal layer spin, wirkt sich dann eher auf Takt & Verbrauch aus, die Maske bleibt ansonsten gleich.

Mich würde es schon SEHR wundern, wenn wir noch ein B3 sehen würden, und wenn, ist es sicherlich ein anderes B3, als das, was wir eigentlich bekommen sollten.Hmm ... macht doch noch weniger Sinn. Wenn sie ein B3a gestrichen hätten, und jetzt B3b käme, dann würde es doch noch länger dauern. So einfach geht das nicht.


eine sache steht ja auf der 3dc news-page.

http://www.xbitlabs.com/news/cpu/display/20111013232215_Ex_AMD_Engineer_Explains_Bulldozer_Fiasco.html


"...zu sehr auf automatische Designtools vertraut..."
Hab schon gefühlte 100x in unterschiedlichen Foren geantwortet und auch schon vor nem Jahr, aber es hält sich hartnäckig:
Der Type verwechselt da mMn Ontario mit Bulldozer. Ontario ist ganz deutlich das Produkt von Automatisierungstools. So unregelmäßig - chaotisch wie da der Kernplan ausschaut, da kann nur ein Computer Programm den Überblick behalten.
BD dagegen ist wie üblich schön ordentlich aus Kästchen und klaren Abgrenzungen aufgebaut - mMn ein deutliches Zeichen für ein Handdesign. Menschen habens eben gerne aufgeräumt und ordentlich :)
Genau weiß ichs aber nicht, hoffe da auf Skysnake, dass er demnächst was dazu lernt ;-)

L.ED
2011-10-17, 14:09:06
und auch am Ende u.a. dieses Freds anbelangt und man ist noch immer so schlau wie bisher?

Für das Profil was im Auge ist es völlig surreal und Praxisfern das etwa ein 7zip für sich alleine läuft oder irgend eine Anwendung sonst. Eher ist es wahrscheinlicher das Ausgewachsene Spiele nebenher auch noch laufen!

Neben 1 bis 2 VM's oder das diese zusätzlich spontan gebraucht, während auch schon ein Encoder wie Handbrake läuft, oder es wird wieder was gerendert und und und. Dieses Profil sieht ein massiveres aufkommen von ausgewachsenen Anwendungen die nebenher gut laufen können müssen, dabei ist weniger wichtig das sie im einzelnen Rekorde brechen sondern das System als solches nicht ins Schleudern bringen.

Um es kurz zu machen, für diese Szenario gibt es bis heute @Home keine Konkurrenz für AMD (leider), die Intel 6er sind einfach viel zu teuer! Und um es extra noch unterstrichen zu haben, es gibt da auch nicht die Möglichkeit da mittels Taktschraube den Workflow zu retten (keine Mutmaßungen oder Ideen sondern erwiesen). Intel hat in dem relevanten Preissegment nur 4 Kerne. HT in solch Profilen schnell unbrauchbar bzw. praktisch nicht mehr vorhanden!

Das ganze Konzept von AMD verspricht da ja viel mehr Potenz? Leider wurde das nicht getestet und langsam nervt es wirklich das von der Schreibenden Zunft das geflissentlich ignoriert und geradezu ausgespart. :mad:

Für mich stellt sich die Frage ob das Ding in der Breite (anderen Praxis), nicht vielleicht doch eine Sinnvolle Aufrüstungsmöglichkeit und keine Abrüstung wie es die meisten Test bisher nun faktisch suggerieren?

Auch hinsichtlich Stromverbrauch bleibt offen wie es denn im Dreiviertel und nicht ganz max. Lastbereich ausschaut? Das wirklich alle Module auf Dauer max. Ausschlag (übers Jahr gesehen), ist ebenso an der Praxis vorbei. Vielleicht kommt man ja letztlich auf den selben Verbrauch wie die X6 oder gar darunter und hat dabei noch 2 Kerne mehr? :confused:

Gemeinten Punkt unterstreichendes Beispiel:
Wenn das Ding mit 5kernen in Handbrake schafft einen x6 der dafür nur noch 3 Kern über haben kann zu schlagen, dann wäre das schon ein Punkt! Denn dafür hat man so viele Kerne! Es geht doch nicht immer nur darum es in einer Anwendung alles aufs Feld bringen zu müssen oder kann es auch gar nicht, wie die Praxis zeigt. ^^

y33H@
2011-10-17, 14:12:23
Wenn ich auf allen Kernen rendere, dann ist's Essig mit zocken ...

(del676)
2011-10-17, 14:25:49
Nicht wirklich.
http://geizhals.at/deutschland/669685 SLI,Crossfire,PCI-E 3.0,USB 3.0,SB GPU kann genutzt werden etc.

Wenn man kein SLI,PCI-E 3.0 braucht.
http://geizhals.at/deutschland/638760

http://www.pcgameshardware.de/aid,847374/Asrock-Z68-Pro-3-im-Kurztest-Solides-Sockel-1155-Mainboard-fuer-den-kleinen-Geldbeutel/Mainboard/Test/

Haben nur 6 Sata Anschluesse und kosten schon 85+ Euro.
AM3+ Boards bekommst mit 8 Sata Anschluessen schon fuer 60+ Euro.

L.ED
2011-10-17, 14:33:06
Sollte das ein Troll sein?

Dafür hat man die Option Kerne zuzuweisen oder Anwendungen wie Renderer bringen das sogar selber mit und selbst wenn nicht gibt es dafür Software die das automatisch nach bedarf tätigen kann! In dem Bereich den angeschnitten ist es auch genauso gängige Praxis am Desktop, niemand überlässt dort dem Scheduler solche Aufgaben denn das führt zielgerichtet fix gegen den Baum! ^^

Ps:
Max. auslastungs- fähigen Anwendungen werden spätestens natürlich je nach übriger Lage drum herum zurechtgewiesen und müssen es auch (wie viele Kerne sie nur noch im Beschlag nehmen dürfen)!

Ronny145
2011-10-17, 14:39:26
Haben nur 6 Sata Anschluesse und kosten schon 85+ Euro.
AM3+ Boards bekommst mit 8 Sata Anschluessen schon fuer 60+ Euro.


Verlink mal ein Beispiel. Ein großer Vorteil wäre das ohnehin nicht. Der Prozentsatz an usern die 8 Anschlüsse brauchen dürfte im Promillebereich liegen. Nimmt sich wirklich kaum noch was.


Die Verfügbarkeit der 2/3 Modul Versionen nimmt allmählich zu. Von den 4 Modulern fehlt noch jede Spur.

SentinelBorg
2011-10-17, 15:31:40
3. win7/8 scheduler für multithread verbessern
Hier würde ich eher "anpassen" statt "verbessern" schreiben. Entwickler für Scheduler und im speziellen den Thread-Dispatcher möchte ich derzeit nicht sein. SMT, CMT, verschiedene Cache-Layouts, eventuell noch NUMA und als Sahnehäubchen jetzt auch noch C-States/Turbo-Modi, bei jeder zweiten Architektur mit teils gegensätzlichen Anforderungen, da wird man doch verrückt.

Vielleicht sollte sich Microsoft überlegen eine Art Treibermodell für den Teil des Schedulers anzubieten. Dann können sich die jeweiligen CPU-Hersteller entsprechend austoben und optimieren. Unter Linux läuft es ja letztendlich bereits quasi so.

Coda
2011-10-17, 17:15:30
Oracle wäre eher Mist da diese kein Interesse an Privatkunden haben. Da hätte man nur noch irgendwelche 32-Kern-Server-CPUs. Und Samsung ... ich weiss nicht. Das würde die Qualität IMHO eher verschlechtern. Habe mit Samsung noch nie gute Erfahrungen gemacht.
Wozu braucht Oracle dazu AMD? Sie haben bereits die Niagara-Prozessoren.

Lord Wotan
2011-10-17, 17:32:11
Ist es richtig das die Leistung einer 8Kern Bulldozer CPU weit hinter der einer 4Kern Intel Sandy Bridge INTEL Core i7 2600K liegt?
Wenn ja dann ist Intel, AMD um Lichtjahre voraus.

mironicus
2011-10-17, 17:38:12
Ist es richtig das die Leistung einer 8Kern Bulldozer CPU weit hinter der einer 4Kern Intel Sandy Bridge INTEL Core i7 2600K liegt?
Wenn ja dann ist Intel, AMD um Lichtjahre voraus.

Bei produktiven Anwendungen wie Videoenkodierung ist der FX-8150 genau so schnell wie ein i7-2600k. Wenn ich dabei aber den Stromverbrauch ansehe und die Taktreserven des i7 (Luftkühlung)... gibt es keinen Grund einen FX zu holen, die 40 Euro mehr für den i7 sollte da zu verschmerzen sein. Ansonsten ist der i7 in allen Belangen besser, zum Spielen, selbst bei 08-15 Anwendungen ist die höhere IPC vorteilhaft.

fondness
2011-10-17, 17:39:56
Oracle wäre eher Mist da diese kein Interesse an Privatkunden haben. Da hätte man nur noch irgendwelche 32-Kern-Server-CPUs. Und Samsung ... ich weiss nicht. Das würde die Qualität IMHO eher verschlechtern. Habe mit Samsung noch nie gute Erfahrungen gemacht.

Die einzige sinnvolle Option (für AMD) wäre IBM, aber die wollen nichts mehr mit x86 zu tun haben, oder eben ein reiner Finanzinvestor der an der Technologie interessiert ist wie eben AITC.

Käsetoast
2011-10-17, 17:45:54
@Lord Wotan:
Ja, lässt sich von der Leistung her durchaus so formulieren, wobei es schon einige wenige Fälle gibt in denen der Bulldozer glänzen kann. Ich würde dabei allerdings das mit den "8 Kernen" beim Bulldozer relativieren...

Einige mögen mich dafür vielleicht steinigen, aber ich halte die ganze 8 Kern-Geschichte für Marketinggeblubber. Für mich sind das nach wie vor nur 4 Kerne, die sich dann auch analog zu den 4 Kernen eines i7 vergleichen lassen. Der Grund: Intel benutzt ihre Hyperthreading-Technologie um jedem Kern einen zusätzlichen Thread zuzuweisen, womit die "Kernzahl" irgendwo auch auf 8 steigt. Bei Intel ist das aber mehr oder weniger ein virtueller zusätzlicher Kern, der dazu dient die Auslastung von einem der 4 tatsächlich vorliegenden Kerne zu verbessern. Der Bulldozer verfügt über eine damit entfernt verwandte Technologie. Hier liegen einige Aspekte die einen Kern der CPU ausmachen tatsächlich in doppelter Ausführung vor und somit hat Bulldozer tatsächlich so was wie zusätzlich Kerne. Da das allerdings keine vollwertigen Kerne sind (was das AMD Marketing mit ihrer 8 Kerne Aussage jedoch unterschwellig suggeriert) sehe ich das als eine erweiterte Version von Intels Hyperthreading an, bei der tatsächlich einige zusätzliche Hardwareeinheiten vorliegen anstatt nur einem virtuellem Kern. Von daher würde ich hier schon noch von 4 Bulldozer und 4 i7 Kernen sprechen, die gegeneinander antreten...

Derzeit wird dann noch viel spekuliert, ob Bulldozer teilweise deutlich an Leistung einbüßt, weil das Betriebssystem z.B. bei zwei Threads erst den ersten "echten" Kern mit Arbeit versorgt, den zweiten Thread dann aber gerne mal auf einen der "Zusatzkerne" verlegt, anstatt einen weiteren "echten" Kern zu wählen wodurch natürlich die mögliche Leistung nicht ausgeschöpft wird. Angeblich soll auch an Patches gearbeitet werden, die hier für Besserung sorgen sollen, aber noch sind da viele Gerüchte im Spiel...

Lord Wotan
2011-10-17, 18:32:14
Intel® Core™ i7-990X ist aber eine echte 6Kern CPU bzw eine virtuelle 12Kern CPU oder?

Also sind die Mehrkern CPU´s über 4 Kerne von AMD nur Fake?
Und die AMD 6 Kern CPU ist eigentlich eine 3Kern CPU und wie du sagst die 8 Kern CPU ist in Wahrheit eine 4 Kern CPU.
Somit hat nur Intel eine echte 6 Kern CPU?

Das Auge
2011-10-17, 18:35:41
Somit hat nur Intel eine echte 6 Kern CPU?

AMD hat schon lange einen "echten" 6-Kerner, die 10x5T-Serie. Hat aber nix mit dem Bulldozer zu tun.

@all

Nachdem nun etwas Zeit seit Release und Reviews vergangen ist, sehe ich die Dinge relativer. Ich erinnere mich an den Phenom-Release, auch ein Desaster allererster Güte. Dennoch wurde mit dem PhenomII noch ein brauchbarer Prozessor mit gutem P/L draus. Noch ist es zu früh den Bulldozer komplett abzuschreiben.

DeadMeat
2011-10-17, 18:39:08
Es ist kein Fake es sind Pro Modul nur eben keine 100% vollständigen alleinigen Kerne. Und mit dem Phenom2 hat auch AMD eine "echte" 6 Kern CPU. (welche uU. stärker ist als sein BD Nachfolger 6kern und teils 8kern)

Edit_ zulangsam

Ich finde einfach den Preis zu hoch für das gebotene, da geht der übliche AMD Vorteil einfach verloren zur Zeit.

Matrix316
2011-10-17, 19:06:54
Es ist kein Fake es sind Pro Modul nur eben keine 100% vollständigen alleinigen Kerne. Und mit dem Phenom2 hat auch AMD eine "echte" 6 Kern CPU. (welche uU. stärker ist als sein BD Nachfolger 6kern und teils 8kern)[...]
Und genau das ist eigentlich noch schlimmer als, dass man nicht an den 2600K rankommt. Wenn man nichtmal mit der NEUEN Architektur schneller ist als mit der ALTEN... und man kann ja nichtmal mit mehr MHz kommen wie damals Intel beim P4. Der Phenom II ist schon bei 3,7 GHz.

CosmiChaos
2011-10-17, 19:14:25
Also ich bin der Meinung das AMD weitaus besser gefahren wäre,wenn man die alte Architektur noch einmal weiter aufgebohrt hätte und die neue Architektur mit etwas weniger Druck erst dann etabliert hätte, wenn sie Konkurrenzfähig ist... aber mit so Dingen wie Qualitätsmanagment ist bei AMD nicht mehr viel man riskiert lieber den ganzen Umsatz und zieht sein Ding ohne Plan B durch.


Durch die Verkleinerung der Fertigungsgröße von 45nm auf 32nm hat man einen Leistungsgewinn von bis zu 30%. Einen Phenom II 6x 3.30GHz hätte man so auf eine TDP von max 95W drosseln können, was einem auch noch Luft nach oben gebracht hätte. Ich habe eigentlich nichts an K10.5 auszusetzen, außer, dass der MCU einfach zu lahmarschig ist und permanent den Flaschenhals spielt.

Dem ganzen hätte man auch immernoch die Turbo-Technologie und einen DDR3-1866 MCU verpassen können und mit einem Spitzenmodell aka Phenom III 8x 3.60GHz bei einer TDP von max. 145 Watt an den Start gehen können.

Die 6 Kerner hätte man so bestimmt locker auf 4GHz bringen und die 4 Kerner wahrscheinlich noch weitaus weiter.

Würde jedenfalls den Bulldozer entblößen können und sicherlich Intel auch gefährlich werden können.

Zugegeben ist das nur meine bescheidene Ansicht bzw mein feuchter Traum, und es mag sein dass es Dinge gibt von denen ich keine Ahnung habe die AMD zu dieser Selbstzerstörung bewegt haben.

Dennoch werden auch für mich trotz der Preissteigerungen die Intel CPUs deutlich attraktiver und immer mehr wird deutlich das ein AM3+ ein Fehlkauf wa zumal die AM3 Plattformen meisst eh über BIOS-Update befähigt werden können. Mein Phenom II 975BE wird wohl vorerst mein letzter AMD Prozessor sein, denn eine GPU kauf ich dem Laden auch eh schon lange nicht mehr ab.

Lord Wotan
2011-10-17, 19:30:20
Preislich müsste AMD ihre Bulldozer CPU gegen die Intel Sandy Bridge Celeron stellen damit die überhaupt was los werden.
Ich bin jedenfalls echt froh nicht auf den Bulldozer gewartet zu haben, sondern Intels Highend Core i7 2600K mir zugelegt zu haben. Der Bulldozer ist wohl echt ein griff ins Klo.

EvilTechno
2011-10-17, 19:37:29
Nachdem jeder neue Phenom II mit jeweils 100 MHz mehr als "billiges Auspressen einer alten abgewirtschafteten Technologie" beschimpft wurde, heißt es nun, man hätte lieber damit weitermachen sollen?

DB blind 1zu1 mit Sandy Bridge zu vergleichen macht nicht nur deutlich, dass AMD keine Leistungsexplosion zustande brachte, sondern ein neues Konzept (originellerweise ein auf Effizienz getrimmtes).

Das ist ähnlich clever wie die ersten HT-basher.

Matrix316
2011-10-17, 20:10:50
Nachdem jeder neue Phenom II mit jeweils 100 MHz mehr als "billiges Auspressen einer alten abgewirtschafteten Technologie" beschimpft wurde, heißt es nun, man hätte lieber damit weitermachen sollen?

DB blind 1zu1 mit Sandy Bridge zu vergleichen macht nicht nur deutlich, dass AMD keine Leistungsexplosion zustande brachte, sondern ein neues Konzept (originellerweise ein auf Effizienz getrimmtes).

Das ist ähnlich clever wie die ersten HT-basher.

Bulldozer soll effizient sein? :freak: Und ein Intel i7 990X ist ein Stromsparkönig...

Effizient heißt für mich aus möglichst wenig möglichst viel zu machen. Bulldozer macht aus möglichst viel (Cores, Strom) möglichst wenig (Leistung).

mrt
2011-10-17, 20:16:17
In Server- und HPC-Anwendungen ist er es auch. Viele Institute und Firmen haben Interlagos schon fix eingeplant und das sicher nicht weil die Mitleid haben...

CosmiChaos
2011-10-17, 20:21:51
Ich wüsste nicht das ich es als eine abgewirtschaftete Technologie beschimpft habe. Selbst wenn sie im Volksmund als abgewirtschaftet gilt, so hat sie sich wohl dem entgegen recht häufig gewinnbringend verkauft.

BD ist eben nicht auf Effizienz (Rechenleistung pro Takt pro Watt) getrimmt, sondern einfach nur auf höhere Taktraten. Das Konzept stinkt zum Himmel :)

LovesuckZ
2011-10-17, 20:30:19
In Server- und HPC-Anwendungen ist er es auch. Viele Institute und Firmen haben Interlagos schon fix eingeplant und das sicher nicht weil die Mitleid haben...

Ich kenne eine Firma - wieviele kennst du?

y33H@
2011-10-17, 20:43:26
Viele Institute und Firmen haben Interlagos schon fix eingeplant und das sicher nicht weil die Mitleid haben...Oder weil Intel zu teuer ist [für die Leistung] ;-)

Trap
2011-10-17, 20:45:13
BD ist eben nicht auf Effizienz (Rechenleistung pro Takt pro Watt) getrimmt, sondern einfach nur auf höhere Taktraten. Das Konzept stinkt zum Himmel :)
Bei 1.5 bis 2.5 Ghz und jeweils minimaler Spannung dafür ist der BD glaub ich deutlich besser als ein Ph2 bei gleichem Verbrauch (hab irgendwo einen Test mit so Einstellungen gesehen, aber nicht wieder gefunden). Im 16-Core Multichip-Opteron läuft er ja bei so Einstellungen...

Bei hohen Taktfrequenzen scheint 32nm GF schlecht zu sein. Beim Llano ja auch schon.

Kratak
2011-10-17, 20:58:25
Das Teil ist eine komplett neue Architektur... überlegt mal: seit dem K7(??) gab es keine neue Architektur mehr von AMD sondern nur Verbesserungen der bestehenden Architektur, insofern ist es kaum verwunderlich, dass AMD mit dieser neuen Strukturweise überfordert ist. Lasst AMD Zeit und sie werden's verbessern. Evolution statt Revolution. Ich denke, dass wir mit dem BD v2.0 schon spürbare Verbesserungen sehen werden! ;)

Vertraut AMD und kauft weiterhin AMD. Die Verräter die jetzt wegen ein paar Leistungspunkten jahrelange AMD-Treue den Gulli runterspülen, werden sich hoffentlich blau ärgern, wenn Intel demnächst wieder 500€ und mehr für Normalo-Prozzesoren verlangt! :P

mrt
2011-10-17, 20:59:22
Oder weil Intel zu teuer ist [für die Leistung] ;-)
Interlagos ist unter Einsatz von FMA wahrlich nicht langsam, aber auch nicht günstig. Für das ist das Ding auch gebaut, (leider) nicht für den Desktop ;)

0815
2011-10-17, 21:05:15
Vertraut AMD und kauft weiterhin AMD. Die Verräter die jetzt wegen ein paar Leistungspunkten jahrelange AMD-Treue den Gulli runterspülen, werden sich hoffentlich blau ärgern, wenn Intel demnächst wieder 500€ und mehr für Normalo-Prozzesoren verlangt! :P
geht ja schon los der 2500k und 2600k sind ja schon seit letzter woche teurer geworden :(

y33H@
2011-10-17, 21:10:43
Was aber am Euro-Dollar-Kurs liegt ...

Kratak
2011-10-17, 21:14:44
geht ja schon los der 2500k und 2600k sind ja schon seit letzter woche teurer geworden :(

Natürlich! Ist ja auch ein normaler marktwirtschaftlicher Prozess. Intel nutzt seine Stellung aus. Welche Firma würde das nicht tun.

Problem ist: Viele Leute, die jetzt von AMD auf Intel wegen ein paar Prozentpunkten wechseln, sehen das ganze viel zu kurzfristig. Klar ist Intel momentan "besser" und AMD angeschlagen, aber wir sollten alle beten, dass Intel NIE zu große Dominanz erlangt oder AMD gar pleite geht, sonst wird es uns Verbrauchern auf lange Sicht gesehen sehr dreckig gehen. Man erinnere sich an die vergangenheit: es gab schon mal solche Zeiten. Man muss in dieser schweren Zeit zu AMD halten; nicht aus altruistischen Gründen, sondern aus reinem langfristigen Egoismus ;)

Was aber am Euro-Dollar-Kurs liegt ...
wart's ab! ;)

N0Thing
2011-10-17, 21:22:50
Natürlich! Ist ja auch ein normaler marktwirtschaftlicher Prozess. Intel nutzt seine Stellung aus. Welche Firma würde das nicht tun.


Wohl eher die Händler, so schnell kann sich eine Preisänderung von Intel gar nicht auf die Endpreise auswirken.

y33H@
2011-10-17, 21:24:54
Klar ist Intel momentan "besser" und AMD angeschlagen [...]Momentan? :eek: Intel bietet seit 2006 schnellere und effizientere CPUs an, sieht man von Zacate/Ontario ab.

][immy
2011-10-17, 21:38:41
Das Teil ist eine komplett neue Architektur... überlegt mal: seit dem K7(??) gab es keine neue Architektur mehr von AMD sondern nur Verbesserungen der bestehenden Architektur, insofern ist es kaum verwunderlich, dass AMD mit dieser neuen Strukturweise überfordert ist. Lasst AMD Zeit und sie werden's verbessern. Evolution statt Revolution. Ich denke, dass wir mit dem BD v2.0 schon spürbare Verbesserungen sehen werden! ;)

Vertraut AMD und kauft weiterhin AMD. Die Verräter die jetzt wegen ein paar Leistungspunkten jahrelange AMD-Treue den Gulli runterspülen, werden sich hoffentlich blau ärgern, wenn Intel demnächst wieder 500€ und mehr für Normalo-Prozzesoren verlangt! :P
trotzdem kann man sich fragen, warum AMD dann eine CPU für Desktop-PCs launcht, die auch mit ihren top-modellen langsamer als ihr Vorgänger ist. Im Serverbereich mag der Bulli ja gut sein, aber im Desktop-Bereich hat man sich erst mal nur einen Imageschaden eingeheimst.
Hier hätte man den Launch zurückhalten sollen, bis zumindest der Verbrauch im Griff ist, oder die Pro/Mhz Leistung besser ist. Z.B. hätte man den Launch zumindest so lange verzögern sollen bis ein entsprechender "Perfromance-Patch" für Windows 7 (wenn dieser überhaupt exisiteren sollte) verfügbar ist.
klar, der start einer neuen architektur ist erst mal von Kinderkrankheiten geprägt, aber das es so extrem ist, hätte man aus marketing-sicht schon sagen müssen "wir verzögern erneut". Das wäre besser gewesen als die ziemlich vernichtenden Reviews.

Ich für meinen Teil hoffe auf eine neues Stepping, ein Treiber-update (der dem Win 7 scheduler auf die sprünge hilft) und ein Bios-Update. Wenn sie damit 10% im schnitt gut machen können wäre das ja schon mal ein anfang. sonst kann man nur auf Bulldozer V2 warten.

mapel110
2011-10-17, 21:43:01
Wenn sie kurzfristig etwas verbessern könnten, hätten sie den Launch sicher nach hinten verschoben. Also sollte man die Hoffnungen darauf begraben.

Exxtreme
2011-10-17, 21:52:17
[immy;8988939']trotzdem kann man sich fragen, warum AMD dann eine CPU für Desktop-PCs launcht, die auch mit ihren top-modellen langsamer als ihr Vorgänger ist.

Hat einen einfachen Grund: der BD hat sich verspätet also hat man den Phenom 2 weiter ausgequetscht. Zudem scheint es so zu sein, dass der 32nm-Prozess nicht so toll ist wie ursprünglich geplant. Ich denke mal, die wollten mit 4 GHz starten oder so, können aber nicht wegen Stromverbrauch.

Mancko
2011-10-17, 22:04:44
Haben nur 6 Sata Anschluesse und kosten schon 85+ Euro.
AM3+ Boards bekommst mit 8 Sata Anschluessen schon fuer 60+ Euro.

Lol 6 SATA Anschlüsse ist ja mehr als genug und wegen albernen 20 Euro pupst Du rum? Dafür kaufe ich in jedem Fall die Intel Platform. Performt halt deutlich besser. Ich würd ja nix sagen wenn es hunderte von Euro wären aber bei Boardpreisen <= 100 Euro brauch ma gar nicht mehr weiter diskutieren.

hesTeR-
2011-10-17, 22:05:33
mir jukt es total in den fingern mir einen fx zu kaufen alleine weil ihn keiner haben will :D

und der 4100 für 95 euro wäre irgendwie witzig weil man einer der ersten wäre die einen haben ;)

2500k einbauen kann doch jeder :P

Tomahawk
2011-10-17, 22:13:21
Na ja, die FX-41xx sind derart langsam, dass diese wirklich gar keinen Sinn machen. Der BD hat ja ca. die Singlethread-Leistung von Intels Pentiums/Celerons, da kannst du gleich einen Pentium-G kaufen, den hat auch kaum jemand (hier im Forum) ;)

INDEX75
2011-10-17, 22:15:55
2500k einbauen kann doch jeder :P
Einen FX einbauen kann auch jeder - nur macht das irgendwie keinen Sinn. Ein "Vernunftkauf" sieht eben leider anders aus.

Ich habe mich bereits selbst vor einiger Zeit, in der Hoffnung auf eine bessere CPU, auf den Bulldozer vorbereitet ... Aber was AMD da einem vor die Nase stetzt ist doch fast schon lächerlich. :mad:

Mancko
2011-10-17, 22:16:02
Problem ist: Viele Leute, die jetzt von AMD auf Intel wegen ein paar Prozentpunkten wechseln, sehen das ganze viel zu kurzfristig.


Es sind nicht nur ein paar Prozentpunkte. Der Unterschied ist für PC Enthusiasten und vor allem Gamer schon sehr deutlich. Dazu noch die geringere Leistungsaufnahme. Als Kunde kaufe ich mir keine CPU die erstens so abloost und zweitens bei der es offensichtlich Design basierte Fehlentscheidungen oder auch Bugs gibt. Wenn ich schon höre das mit Windows 8 einiges besser werden soll. Sorry aber ich spiele nicht BETA Kunde für die Firma AMD.


Klar ist Intel momentan "besser" und AMD angeschlagen, aber wir sollten alle beten, dass Intel NIE zu große Dominanz erlangt oder AMD gar pleite geht, sonst wird es uns Verbrauchern auf lange Sicht gesehen sehr dreckig gehen. Man erinnere sich an die vergangenheit: es gab schon mal solche Zeiten. Man muss in dieser schweren Zeit zu AMD halten; nicht aus altruistischen Gründen, sondern aus reinem langfristigen Egoismus ;)


Ich muss gar nichts als Kunde. Keine Firma verdient es zu ihr zu halten. Ich kaufe das für mich beste ohne wenn und aber. Dann verliert AMD halt weiter Marktanteile und Umsätze. Ich sehe darin kein Problem. Das erhöht den Druck auf die Verantwortlichen sich Gedanken zu machen. Entweder sie bekommen es hin oder aber AMD wird geschluckt und den Job macht ein anderer bzw. andere übernehmen das Ruder. Kann mir erstmal egal sein. Da bricht für mich keine Welt zusammen. Sowas kann durchaus auch sehr heilsam sein. Ich halte nichts von Mitleidstouren und ähnlichem. Die haben ihren Job nicht richtig gemacht und bekommen die Quittung. Das gab es sowohl bei ATI als auch Nvidia schon des öfteren und die haben doch bestens daraus gelernt und sich danach meisst anders präsentiert.

Tomahawk
2011-10-17, 22:24:50
AMD ist gewiss nicht Intels größtes Problem - der Markt ist gesättigt und Intel hat schon genug große Probleme, Kaufanreize zu schaffen. Hohe Preise und kleine Leistungsverbesserungen würden nur dazu führen, dass vorhandene Systeme noch länger verwendet würden.

Bis auf wenige Ausnahmen (ca. 3-4 Jahre innerhalb von 30 Jahren) konnte Intel mehr oder weniger nach belieben machen was sie wollten - die Dominanz war fast immer gegeben- ob da ein kleines, fast insolventes AMD existiert, hat kaum ein Einfluß.

AMD muss den Vorteil bei der GPU richtig vermarkten, insbesondere im Mobile-Sektor. Für alles andere sehe ich leider schwarz

hesTeR-
2011-10-17, 22:24:54
ihr habt ja recht :(

aber probieren und testen macht soviel spaß :D

Fisch
2011-10-17, 22:44:10
Ich habe ehrlich gesagt gar kein Problem mit der Leistung, die sollte ja trotzdem für die meisten völlig ausreichend sein.

Wirklich schlimm finde ich die im Vergleich zum i7 2600 ~30-35W höhere Verlustleistung.

Kleine Rechnung: kleiner Numbercruncher in einem Institut an der Uni, will sagen 24h 365 Tage im Jahr Betrieb. So wie ich die Benchmarks bisher sehen sind hier die beiden CPUs in hoch parallelisierten Anwendungen ~ gleich schnell.

Bei 30W Mehrverbrauch und 25 cent/kWh ergibt sich:

30*24*365 / 1000 * 0,25€ = 65,7€

Das könnte so ~ der Mehrpreis des i7 2600 sein.
So ein Rechner läuft aber mindestens 3-4 Jahre.

Exxtreme
2011-10-17, 22:47:03
Ich habe ehrlich gesagt gar kein Problem mit der Leistung, die sollte ja trotzdem für die meisten völlig ausreichend sein.

Wirklich schlimm finde ich die im Vergleich zum i7 2600 ~30-35W höhere Verlustleistung.


Das ist korrekt. Die Verlustleistung muss man zum Preis dazurechnen. Und dann ist der BD gar nicht mal mehr so billig.

mapel110
2011-10-17, 22:49:25
Das ist korrekt. Die Verlustleistung muss man zum Preis dazurechnen. Und dann ist der BD gar nicht mal mehr so billig.
Bei einem Normalnutzer sind das ein paar Euro im Jahr. Das ist kein Argument. Wichtiger ist eher die Kühllösung.

Matrix316
2011-10-17, 22:49:28
Wobei ich mich frage, was GELD mit der Geschwindigkeit der CPUs zu tun hat? Warum kann ein reiches Unternehmen schnellere Hardware herstellen als ein armes?

Ob eine CPU schnell oder langsam wird, hat doch eher was mit Designentscheidungen und reinem Grips der Entwickler zu tun, als wie viel Geld das Unternehmen hat, oder?

hesTeR-
2011-10-17, 22:56:42
ja und wer hat die besseren Entwickler mit mehr gripps ?

die reiche firma mit dem guten gehalt oder die arme mit dem schlechten ;)

S940
2011-10-17, 22:57:41
Ich habe ehrlich gesagt gar kein Problem mit der Leistung, die sollte ja trotzdem für die meisten völlig ausreichend sein.

Wirklich schlimm finde ich die im Vergleich zum i7 2600 ~30-35W höhere Verlustleistung.

Kleine Rechnung: kleiner Numbercruncher in einem Institut an der Uni, will sagen 24h 365 Tage im Jahr Betrieb. So wie ich die Benchmarks bisher sehen sind hier die beiden CPUs in hoch parallelisierten Anwendungen ~ gleich schnell.

Bei 30W Mehrverbrauch und 25 cent/kWh ergibt sich:

30*24*365 / 1000 * 0,25€ = 65,7€

Das könnte so ~ der Mehrpreis des i7 2600 sein.
So ein Rechner läuft aber mindestens 3-4 Jahre.

Korrekt.
Einziger Vorteil den man dagegen noch anbringen könnte ist FMA. An ner Uni läuft doch sicher Eigenbaubastelcode, den man selbst compiliert, oder?

Falls dann Matrizenmultiplikationen vorkommen kannst Du ein FMA+ fest einbuchen.

Aber ist dann halt auch wieder ein extra Aufwand ...
Falls man schon SSE2 Assembler oder so hat, wird sich da nur jemand mit Widerwillen ranwagen wollen ^^

Matrix316
2011-10-17, 23:04:45
ja und wer hat die besseren Entwickler mit mehr gripps ?

die reiche firma mit dem guten gehalt oder die arme mit dem schlechten ;)
Aber man sollte doch dann bitte so entwickeln, dass man nicht schlechter wird als man schon ist. ;)

Ich meine, auf der einen Seite ist Intel seit 2006 vorne, aber anders rum war AMD seit dem Athlon eigentlich intel immer überlegen, oder? Selbst mit dem Pentium 3 konnte sich Intel nicht absetzen und bei 1 GHz hat AMD erst so richtig losgelegt. Hatte damals AMD mehr Geld als heute im Vergleich zu Intel?

Skysnake
2011-10-17, 23:08:28
@Matrix316: Wenn man aber 10 mal so viele Leute mit Grips in der einen Firma hat, wie die andere, dann ist doch klar, dass dabei mehr rum kommt. Intel hat vor allem den Vorteil, das selbst wenn Sie mal failen, es halt noch immer ein zweit dritt oder viert Team gibt, das halt was brauchbares abliefert. Wenn bei AMD gefailed wird, dann wirds da wohl schon eher ziemlich schwer mit ausbügeln, einfach weil die Leute fehlen.

Hmmm seh ich nicht so, B2 gibts seit Juli oder so. Vielleicht auch ein paar Wochen eher, aber was Du vielleicht vergißt ist, dass man erstmal etwas auf Lager produzieren muss, bevor man den Verkauf startet. Dauert meistens so ein Quartal, manchmal auch gleich 2. Der Zeitplan passt schon, B3 wird kommen, sonst wärs nicht im offiziellen Manual. Es wundert mich auch, dass das noch kommt, wo doch Vishera 2012 kommen soll, aber naja, kommt der halt dann eher im Q4 statt Q3, würde mich nicht wundern, ist ja AMD ;-)

Ne, das Problem ist, dass B3 einfach noch zu neu ist. Wenn es die Rev. schon ins offizielle PDF schafft, dann kommt das auch. Das dort eine ungenützt Rev. drinstünde gabs bisher noch nie.
Jo, aber B3 ist ja nur ein metal layer spin, wirkt sich dann eher auf Takt & Verbrauch aus, die Maske bleibt ansonsten gleich.
Hmm ... macht doch noch weniger Sinn. Wenn sie ein B3a gestrichen hätten, und jetzt B3b käme, dann würde es doch noch länger dauern. So einfach geht das nicht.

Naja, ich beziehe mich dabei darauf, das eben schon seit längerem von B3/C0 die Rede ist. Man hat ja vermutet, das BD deswegen verschoben wurde, und nicht in Q2 gekommen ist. Jetzt ist aber B2 gekommen, das schon in Q2 kommen sollte. Also was hat man in der Zeit gemacht?

Für mich klingt das halt schon einleuchtend, das man eben B2 nicht bringen wollte in Q2, weil zu schlecht, an B3/C0 gearbeitet hat, aber das dann aus irgend einem Grund eben ganz in die Hose gegangen ist, und man dann doch B2 in die Fertigung gegeben hat, weil man einfach was bringen musste, und eben die ganze Sache eingestellt hat, oder eben seit dem an einem B3b/C0b arbeitet, was dann wohl in Q1 2012 kommt.

Ist doch verständlich wie ich zu der Annahme komme oder?



Hab schon gefühlte 100x in unterschiedlichen Foren geantwortet und auch schon vor nem Jahr, aber es hält sich hartnäckig:
Der Type verwechselt da mMn Ontario mit Bulldozer. Ontario ist ganz deutlich das Produkt von Automatisierungstools. So unregelmäßig - chaotisch wie da der Kernplan ausschaut, da kann nur ein Computer Programm den Überblick behalten.
BD dagegen ist wie üblich schön ordentlich aus Kästchen und klaren Abgrenzungen aufgebaut - mMn ein deutliches Zeichen für ein Handdesign. Menschen habens eben gerne aufgeräumt und ordentlich :)
Genau weiß ichs aber nicht, hoffe da auf Skysnake, dass er demnächst was dazu lernt ;-)
Kann gut sein. Ontario ist ja jetzt auch nicht die Granate was die Taktfreudigkeit etc. anbelangt und der CPU-Part ist auch nicht sonderlich effizient.

Orochni ist halt schwer ein zu schätzen. So einige Dinge wie RAM-Controller etc. etc sind ganz klar von Hand gemacht. Das sieht einfach sauber aus. Auch die Caches sehen halt gut aus, wobei das mit nem Tool wohl auch ähnlich aussehen wird. Der Bereich in der Mitte vom DIE mit der NB sieht allerdings schon eher nach Tool aus.

Unser Prof. der ja ASIC macht, hat mit uns vorletzes Semester einige DIEs angeschaut. Der meinte halt die grauen Bereiche ohne Struktur sind eigentlich immer von tools gemacht, und die mit Struktur halt von Hand. Daher denke ich, das die Cores an und für sich zum Großteil von Hand gemacht wurden, ein Großteil von On-Chip Interconnect aber mit Tools.

PS: Schaumer mal. Am Freitag ist die erste Vorlesung. Ist aber nur 6 Stündig. Soweit ich das verstanden habe, setzen wir aber die Tools aus der Industrie ein, die aktuell auch verwendet werden. :biggrin: Glaub bei TSMC.

Ich kann ja bei Interesse bischen erzählen, was wir so gemacht haben :wink:

LovesuckZ
2011-10-17, 23:16:15
ARM hat es geschafft Intel an den Karren zu fahren. Es ist nicht eine Frage des Geldes, sondern eines Konzeptes. Wenn man Intel nicht auf ihrem Schlachtfeld schlagen kann, muss man eben die Kampf verlagern. Das scheint AMD aber einfach nicht gelernt zu haben.

Fisch
2011-10-17, 23:17:00
Bei einem Normalnutzer sind das ein paar Euro im Jahr. Das ist kein Argument. Wichtiger ist eher die Kühllösung.

Natürlich ist das ein Extrembeispiel, andererseits:

- Der BD ist ja scheinbar genau auf solche Anwendungen getrimmt. Und in Serverfarmen, Rechenzentren etc. macht er genau dass, pausenlos rechnen, quasi immer unter Volllast.

So gesehen hat der BD dort Vorteile, wo er einerseits die meiste Zeit im idle rumhängt, und dann zwischendurch hohe parallele Rechenleistung erbringen muss.
Also dass was in den Tests heutzutage wohl unter content-creation läuft, und im Surf-Spiele-PC :D
Zumindest unter der Annahme dass die Leistung für Aktuelles ausreicht, und zukünftige Spiele besser mit so vielen Kernen zurecht kommen.

Wenn man dass so sieht dann ist BD eine Desktop, und keine Server CPU ;D

LovesuckZ
2011-10-17, 23:19:52
Der Gedanke mit dem Stromverbrauch ist schon richtig. Der 4 Moduler ist auch nur dort schneller, wo er voll ausgelastet wird. Und das sind Anwendungen, die sowieso eine relativ lange Zeit laufen. Da schlagen die 60-80 Watt mehr gegenüber Intel richtig rein.

fondness
2011-10-17, 23:26:26
ARM hat es geschafft Intel an den Karren zu fahren. Es ist nicht eine Frage des Geldes, sondern eines Konzeptes. Wenn man Intel nicht auf ihrem Schlachtfeld schlagen kann, muss man eben die Kampf verlagern. Das scheint AMD aber einfach nicht gelernt zu haben.

Auch AMD hat das nicht nur einmal geschafft. Doch wie bei AMD stellt sich auch bei ARM die Frage wie lange das anhält. Intel muss keine Trends setzen, es reicht auf einen Trend aufzuspringen und mit dem Fertigungsvorteil und den enormen Ressourcen über kurz oder lang jeden Konkurrenten auszustechen. ARM verdient im Endeffekt auch nicht viel und wird kaum langfristig mit Intel mit halten können.

LovesuckZ
2011-10-17, 23:28:36
Auch AMD hat das nicht nur einmal geschafft. Doch wie bei AMD stellt sich auch bei ARM die Frage wie lange das anhält. Intel muss keine Trends setzen, es reicht auf einen Trend aufzuspringen und mit dem Fertigungsvorteil und den enormen Ressourcen über kurz oder lang jeden Konkurrenten auszustechen.

Tja, doof nur, dass das Ecosystem sich mit ARM ändert. Keine Software, kein Erfolg.

fondness
2011-10-17, 23:31:59
Tja, doof nur, dass das Ecosystem sich mit ARM ändert. Keine Software, kein Erfolg.

Ach, wenn die Hardware und die Kohle stimmt kommt die Software von ganz alleine. Android für x86 ist längst Realität.

LovesuckZ
2011-10-17, 23:35:35
Ach, wenn die Hardware und die Kohle stimmt kommt die Software von ganz alleine. Android für x86 ist längst Realität.

Und wieviele Android@x86 Geräte gibt es so auf dem Markt? :rolleyes:
Es entsteht eine Welt außerhalb von x86. Android wird immer besser, wenn es darum geht, soviele Geräteklassen wie möglich abzudecken. Mein Asus Transformer ist wesentlich besser als viele dieser Netbooks mit x86 Hardware.

AMD hat es einfach verpennt mal etwas anderes zu probieren. Mal Risiko einzugehen.

fondness
2011-10-17, 23:37:40
Und wieviele Android@x86 Geräte gibt es so auf dem Markt? :rolleyes:


Weil die Hardware noch nicht stimmt und der Preis zu hoch ist.

AMD hat es einfach verpennt mal etwas anderes zu probieren. Mal Risiko einzugehen.

AMD steht wesentlich besser da als viele Jahre zuvor. Nur weil man Intel nicht in der Königsklasse schlagen kann ist das kein Beinbruch. Es wäre ohnehin unrealistisch das zu erwarten.

S940
2011-10-17, 23:41:32
Naja, ich beziehe mich dabei darauf, das eben schon seit längerem von B3/C0 die Rede ist. Man hat ja vermutet, das BD deswegen verschoben wurde, und nicht in Q2 gekommen ist. Jetzt ist aber B2 gekommen, das schon in Q2 kommen sollte. Also was hat man in der Zeit gemacht?

Für mich klingt das halt schon einleuchtend, das man eben B2 nicht bringen wollte in Q2, weil zu schlecht, an B3/C0 gearbeitet hat, aber das dann aus irgend einem Grund eben ganz in die Hose gegangen ist, und man dann doch B2 in die Fertigung gegeben hat, weil man einfach was bringen musste, und eben die ganze Sache eingestellt hat, oder eben seit dem an einem B3b/C0b arbeitet, was dann wohl in Q1 2012 kommt.

Ist doch verständlich wie ich zu der Annahme komme oder?
Wenn Du von B2@Q2 ausgehst, dann ja. Aber soviel ich mitbekommen habe stand im Q2 als Verkaufsversion die B0 im Plan. B2 kam erst später. Wenn sie B2 in Q2 gehabt hätten,dann hätten sies natürlich verkauft ;-)
Möglich, dass es schon B2 im Q2 gab, aber halt nicht genügend um in den Verkauf zu gehen. B1 gabs dann ja auch noch.


Orochni ist halt schwer ein zu schätzen. So einige Dinge wie RAM-Controller etc. etc sind ganz klar von Hand gemacht. Das sieht einfach sauber aus. Auch die Caches sehen halt gut aus, wobei das mit nem Tool wohl auch ähnlich aussehen wird. Der Bereich in der Mitte vom DIE mit der NB sieht allerdings schon eher nach Tool aus.
Jein, teilweise spielt da auch Photoshop rein, die NB wird da gerne verpixelt. Wobei die Kerne natürlich auch ^^

Unser Prof. der ja ASIC macht, hat mit uns vorletzes Semester einige DIEs angeschaut. Der meinte halt die grauen Bereiche ohne Struktur sind eigentlich immer von tools gemacht, und die mit Struktur halt von Hand. Daher denke ich, das die Cores an und für sich zum Großteil von Hand gemacht wurden, ein Großteil von On-Chip Interconnect aber mit Tools.
Danke, das klingt auch so, was ich mal vor Jahr und Tag gelesen habe.

PS: Schaumer mal. Am Freitag ist die erste Vorlesung. Ist aber nur 6 Stündig. Soweit ich das verstanden habe, setzen wir aber die Tools aus der Industrie ein, die aktuell auch verwendet werden. :biggrin: Glaub bei TSMC.

Ich kann ja bei Interesse bischen erzählen, was wir so gemacht haben :wink:

Wenns Dich nicht langweilt, gerne ;-)

ciao

Alex

LovesuckZ
2011-10-17, 23:43:58
Weil die Hardware noch nicht stimmt und der Preis zu hoch ist.

Ach und in Zukunft wird die Hardware stimmen? :rolleyes:


AMD steht wesentlich besser da als viele Jahre zuvor. Nur weil man Intel nicht in der Königsklasse schlagen kann ist das kein Beinbruch. Es wäre ohnehin unrealistisch das zu erwarten.

Klar, wenn man ignoriert, dass der Brazos-Markt von ARM angegriffen, die 32nm Fertigung massive Probleme macht, die für die nächsten Jahre geltende CPU-Architektur gefloppt ist und der GPU-Markt für sie schwächelt, dann stehen sie wirklich besser dar als vor Jahren...

Betrachtet man die Sache nüchtern, haben sie massive Probleme zu bewältigen. Und das in jedem Segment ihres Angebotes.

fondness
2011-10-17, 23:53:32
Ach und in Zukunft wird die Hardware stimmen? :rolleyes:

Intel bringt bis 2014 jedes Jahr einen full-node Shrink ihrer embedded Produkte und wird 2014 bei 14nm stehen. Dazu verspricht man eine 10x höhere GPU- und CPU-Leistung bei deutlich niedrigerem Stromverbrauch. Ich glaube nicht das ARM da langfristig mit kommt.


Klar, wenn man ignoriert, dass der Brazos-Markt von ARM angegriffen, die 32nm Fertigung massive Probleme macht, die für die nächsten Jahre geltende CPU-Architektur gefloppt ist und der GPU-Markt für sie schwächelt, dann stehen sie wirklich besser dar als vor Jahren...

Betrachtet man die Sache nüchtern, haben sie massive Probleme zu bewältigen. Und das in jedem Segment ihres Angebotes.

Brazos liegt deutlich über ARM, die 32nm Probleme werden zu bewältigen sein, die neue CPU-Architektur ist sicher keine Offenbarung, aber Wunder durfte man ohnehin nicht erwarten, im GPU-Markt ist man eine feste Größe.

Klar gibt es Probleme, aber solange man Gewinne schreibt steht man deutlich besser da als lange Zeiten in AMDs-Firmengeschichte.

aylano
2011-10-18, 01:28:49
Ach und in Zukunft wird die Hardware stimmen? :rolleyes:

Du kannst es unterlassen in allen möglichen Threads AMD-Bashing zu betreiben.
Wenn du den finanziellen Untergang von AMD siehst, dann kannst du das in den entsprechenden Geschäftsbericht-Foren machen.

Ich geh hier nur einmal auf dein Posting ein.


Klar, wenn man ignoriert, dass der Brazos-Markt von ARM angegriffen, ...

Wir ignorieren nicht, dass AMD mit Brozo mehr Umsatz macht als ARM mit seinen Architekturen.
ARMs-Umsatz ist auch schon für AMD Peanuts, für Intel erst recht.


... die 32nm Fertigung massive Probleme macht, ...

mal sehen, vielleicht kommt ULK in 32nm so wie in 45nm auf einmal fallend vom Himmel und bringt einen großen Sprung;)


die für die nächsten Jahre geltende CPU-Architektur gefloppt ist

wenn Bulldozer-32nm so zulegt wie K10 in der Post-Barcelona-Ära ...


... und der GPU-Markt für sie schwächelt, ...

Interessant ist sowieso nur die neue Architektur und nicht die momentan alte.


dann stehen sie wirklich besser dar als vor Jahren...

du das die Gewinne vergessen zu ignorieren, die AMD früher nicht machte. Vorallem in Wirtschaftskrisen-Zeiten;)


Betrachtet man die Sache nüchtern, haben sie massive Probleme zu bewältigen. Und das in jedem Segment ihres Angebotes.
Immerhin sind sie als einziger in jedem Segment vertreten.

Gut, nicht im Smartphone-Markt, aber Tegra ist für Nvidia immer noch ein ordentliches Verlustgeschäft und Intel noch gar nicht vertreten.

dildo4u
2011-10-18, 03:26:11
1090T vs 8150 mit OC

http://www.xtremesystems.org/forums/showthread.php?276002-Compare-1090T-and-FX-8150

Hugo78
2011-10-18, 06:15:28
1090T vs 8150 mit OC

http://www.xtremesystems.org/forums/showthread.php?276002-Compare-1090T-and-FX-8150

Stark, wie der neue 6core mit 500Mhz weniger, den alten 8core in Spielen abhängt.
AMD ist auf dem richtigen Weg!


... ja, ja ich weiß ich bin nicht witzig. :usad:

Botcruscher
2011-10-18, 08:54:01
Super Pi zeigt schön was aus der IPC wurde...

robbitop
2011-10-18, 09:43:58
Intel bringt bis 2014 jedes Jahr einen full-node Shrink
Bisher brachte Intel alle 24 Monate einen Fullnode Shrink. Alle anderen Hersteller übrigens aus. Nur, dass Intel 18-24 Monate konstant vor allen anderen Herstellern ist - also fast konstant 1x Fullnode Vorsprung hat.
Das war aber schon immer so. Ergo nichts neues.

MadManniMan
2011-10-18, 09:57:33
... scheint so, als würde Intel genau diesen zeitlichen Vorsprung dafür nutzen, Ivy Bridge auf ganz erstaunliche Effizienzwerte zu schaufeln, wenn ich mir so die Gerüchte um 77 Watt bei den Performancemodellen so anschaue.

AMD hat es da echt schwer, mich von ihrem Produkt zu überzeugen ;(

N0Thing
2011-10-18, 10:03:56
Aber man sollte doch dann bitte so entwickeln, dass man nicht schlechter wird als man schon ist. ;)

Ich meine, auf der einen Seite ist Intel seit 2006 vorne, aber anders rum war AMD seit dem Athlon eigentlich intel immer überlegen, oder? Selbst mit dem Pentium 3 konnte sich Intel nicht absetzen und bei 1 GHz hat AMD erst so richtig losgelegt. Hatte damals AMD mehr Geld als heute im Vergleich zu Intel?

Damals war der Fertigungsprozess, der von AMD eingesetzt wurde, einfach nicht so weit vom Stand Intels entfernt. Es liegt ja nicht nur am Design alleine, ob eine CPU eine gute Performance an den Tag legt, es müssen auch die geplanten Taktraten erreicht werden und der Verbrauch muß passen. Und die genau die letzten beiden Punkte passen beim aktuellen Bulldozer vorne und hinten nicht.

AMD hat sich aber auch selber in diese Situation gebracht, indem sie auf dein Design setzen, was massiv vom Fertigungsprozess abhängig ist.

Ronny145
2011-10-18, 10:27:51
Bisher brachte Intel alle 24 Monate einen Fullnode Shrink. Alle anderen Hersteller übrigens aus. Nur, dass Intel 18-24 Monate konstant vor allen anderen Herstellern ist - also fast konstant 1x Fullnode Vorsprung hat.
Das war aber schon immer so. Ergo nichts neues.


Doch das ist neu. Der zeitliche Abstand ist wieder größer geworden und wird vermute ich eher noch größer werden.

G 80
2011-10-18, 10:29:51
Dann muss ich die Frage stellen: Mit was für Taktraten hat AMD gerechnet (oder auch nur drauf gehofft)? 4,5 Ghz? 5 Ghz? 6 Ghz? :freak:

Und dabei immer dran denken, selbst wenn die Leistungsaufnahme mit den höheren Taktrate gleich bliebe!; der Intel erreicht bei 4,8 Ghz (4 Kerne + HT!) den Verbrauch vom AMD @ default. Das reicht dann wieder locker für AMD @ Helium (selbst wenns 4 nicht nur 1 Mudul wäre ;D )

Naja gibt ja noch Helium@Bose-Einstein-Kondensat .... jetzt muss man nur noch eine Möglichkeit finden das für die Kühlung zu nutzten und einen Prozzi der das mit 4 Modulen macht, dann gibts wieder ... vielleicht ....... ein Unentschieden.

Zusammenfassend: Wenn das wirklich so abgelaufen ist haben sie es verdient über die Klippe zu gehen, weil sie dem Führungs-P4-Lemming nach gelaufen sind.

mironicus
2011-10-18, 10:39:18
Jede Wette, solange AMD nicht in die Pötte kommt, wird Intel die eigenen CPUs nur "schleifen". Also die Architektur bei behalten, einfach nur verkleinern und die Kernzahl bei 4 belassen und riesige Gewinne einfahren, da der Die ja immer kleiner wird, aber die Preise sich nicht nicht verringern. Bis es dann eine maximale TDP von 25-35 Watt bei den Desktop-CPUs gibt. Und die jetzigen 6 Kerner bekommen eine maximale TDP von 45 Watt und für 65, 95 und 125 Watt CPUs mit 8-12 Kerne stößt Intel dann in unbegrenzte neue Preisbereiche hinein... so etwa stelle ich mir das in 3-5 Jahren vor. :D

Trap
2011-10-18, 10:44:53
Dann muss ich die Frage stellen: Mit was für Taktraten hat AMD gerechnet (oder auch nur drauf gehofft)? 4,5 Ghz? 5 Ghz? 6 Ghz? :freak:
30% mehr als als mit der alten Architektur. Ist auch ungefähr rausgekommen, nur dummerweise schafft Llano auch nur 2,9 Ghz -> *1,3=3,75

Die mögliche Taktfrequenz bestimmt sich ja aus der Schaltgeschwindigkeit der Transistoren und der nötigen Anzahl hintereinanderliegender Stufen pro Takt. Für BD hat AMD die Zahl der Stufen um 25% gesenkt, damit sollten 30% mehr Takt rauskommen, wenn man die Transistoren gleich lässt.

Mancko
2011-10-18, 10:47:25
Auch AMD hat das nicht nur einmal geschafft. Doch wie bei AMD stellt sich auch bei ARM die Frage wie lange das anhält. Intel muss keine Trends setzen, es reicht auf einen Trend aufzuspringen und mit dem Fertigungsvorteil und den enormen Ressourcen über kurz oder lang jeden Konkurrenten auszustechen. ARM verdient im Endeffekt auch nicht viel und wird kaum langfristig mit Intel mit halten können.

ARM muss nicht mit Intel mithalten. Die verkaufen nur IP Lizenzen. Somit konkurriert Intel dann nicht direkt gegen ARM sondern vielmehr gegen Samsung, Texas Instruments, Qualcomm & Co. Da sind einige dabei die durchaus viel Kapital und einen sehr langen Atem haben. So einfach wird das für Intel nicht zumal die ARM Bastion eine ganz andere Strategie fährt. Sie kommen von unten und haben gar nicht den Anspruch irgendwelche High End Desktop PCs zu bestücken. Es reicht wenn sie es in den Low-End Bereich schaffen. Das bringt ordentlich Druck auf den x86 Markt. Von den Kostenstrukturen ist da Intel irgendwann im Nachteil, zumal ihnen immer noch der Skill im Grafikumfeld fehlt. Richtig lustig wirds wenn Nvidia mit eigener ARM Architektur einsteigt. Das ist für Intel kaum berechenbar und deswegen um ein Vielfaches komplizierter als den kleinen berechenbaren Laden AMD unter Kontrolle zu halten.

Unlimited
2011-10-18, 11:14:30
Falls auch anderen zum Heulen ist -bitteschön:
Lasst die Tränen fließen!!

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=515842

Matrix316
2011-10-18, 12:15:14
Also was ich eigentlich von AMD erwartet hätte, wäre eine CPU um 2,6 GHz die einen 3,4 GHz Intel i7 schlagen kann. So wie Intel halt mit dem i7 2,x der einen Phenom 2 mit 3,x GHz schlagen kann.

Eigentlich war ich schon von Sandy Bridge enttäuscht, weil Intel dort auch massiv über den Takt gegangen ist. Wobei auch bei gleichem Takt SB etwas schneller als Lynnfield ist - aber nicht viel.

Aber das verstehe ich unter effizienz: Weniger MHz, mehr Geschwindigkeit.

BlackBirdSR
2011-10-18, 12:22:02
Also was ich eigentlich von AMD erwartet hätte, wäre eine CPU um 2,6 GHz die einen 3,4 GHz Intel i7 schlagen kann. So wie Intel halt mit dem i7 2,x der einen Phenom 2 mit 3,x GHz schlagen kann.

Eigentlich war ich schon von Sandy Bridge enttäuscht, weil Intel dort auch massiv über den Takt gegangen ist. Wobei auch bei gleichem Takt SB etwas schneller als Lynnfield ist - aber nicht viel.

Aber das verstehe ich unter effizienz: Weniger MHz, mehr Geschwindigkeit.

Und schon mal überlegt warum dann plötzlich die ARM so hoch takten?
An irgendeinen Punkt ist der Aufwand für zusätzliche Leistung so hoch, dass schneller günstiger ist als breiter. Man muss es ja nicht so treiben wie der P4, aber AMD hat sich dabei schon etwas gedacht.

Das ganze Bulldozer = P4 und Hochtakt-Design Gerede ist daher etwas nervig. Bulldozer ist kein P4 und AMD weiß sehr wohl, dass man ohne gravierende Änderungen nicht an die Takt normalisierte Leistung vom SB herankommt. Selbst wenn man das auf biegen und brechen schafft, zieht Intel einfach mit Takt davon, oder eben einer neuen Architektur.

AMD kann nicht alle 2 Jahre etwas neues auf die Beine stellen. Man muss daher für die Zukunft planen. Ich denke durchaus, dass im Bulldozer mehrere Jahre Aufwertung stecken, ohne dass man die grundlegende Architektur umstellen muss.
Ein 2.6Ghz Prozessor mit SB 3.4 GHz Leistung wäre in einem Jahr nutzlos und müsste aufwändig umgebaut werden.

Ob AMDs Kombination nun richtig oder zukünftig erfolgreich ist, das kann und will ich nicht beurteilen. Aber die Haltung, dass AMD vor lauter Blödheit aufs falsche Pferd gesetzt hat, ist IMO voll am Ziel vorbei. Ich kann den Grund warum Bulldozer so aussieht fast immer komplett nachvollziehen, muss ja nicht heißen, dass es reicht Intel damit zu schlagen.

boxleitnerb
2011-10-18, 12:24:42
15% ist Sandy flotter als Lynnfield - das ist doch genug. Und wie genau die Leistung erreicht wird, ist egal - solange der Verbrauch stimmt. Das ist bei Sandy ja der Fall.

Matrix316
2011-10-18, 12:43:40
Und schon mal überlegt warum dann plötzlich die ARM so hoch takten?
An irgendeinen Punkt ist der Aufwand für zusätzliche Leistung so hoch, dass schneller günstiger ist als breiter. Man muss es ja nicht so treiben wie der P4, aber AMD hat sich dabei schon etwas gedacht.

Das ganze Bulldozer = P4 und Hochtakt-Design Gerede ist daher etwas nervig. Bulldozer ist kein P4 und AMD weiß sehr wohl, dass man ohne gravierende Änderungen nicht an die Takt normalisierte Leistung vom SB herankommt. Selbst wenn man das auf biegen und brechen schafft, zieht Intel einfach mit Takt davon, oder eben einer neuen Architektur.

AMD kann nicht alle 2 Jahre etwas neues auf die Beine stellen. Man muss daher für die Zukunft planen. Ich denke durchaus, dass im Bulldozer mehrere Jahre Aufwertung stecken, ohne dass man die grundlegende Architektur umstellen muss.
Ein 2.6Ghz Prozessor mit SB 3.4 GHz Leistung wäre in einem Jahr nutzlos und müsste aufwändig umgebaut werden.

Ob AMDs Kombination nun richtig oder zukünftig erfolgreich ist, das kann und will ich nicht beurteilen. Aber die Haltung, dass AMD vor lauter Blödheit aufs falsche Pferd gesetzt hat, ist IMO voll am Ziel vorbei. Ich kann den Grund warum Bulldozer so aussieht fast immer komplett nachvollziehen, muss ja nicht heißen, dass es reicht Intel damit zu schlagen.

Ich net. Dieses zwei halbe Kerne in einem Hardware Hyperthreading... wo macht denn das Sinn? Ist genauso dämlich wie eine durchschnitts CPU mit einer mittelmaß Graka als ein Package zu verkaufen. Ok, für 1-2 Notebooks machts vielleicht doch Sinn, aber am Desktop ist Llano IMO Quatsch.

Wenn man heute eine 2,6 GHz CPU auf 3,4 SB Niveau hätte, könnte man die so optimieren, dass man in einem jahr auf 3,4 GHz ist und damit wieder vor Intel. ;)

Wir sind doch schon seit wie lange? Ende 2002 war Intel doch schon bei 3 GHz. Und heute ist SB bei 3,5 oder so. Ich weiß net ob es sinnvoll ist auf 4,5 oder 6 GHz zu gehen, selbst wenn beim Übertakten 8 möglich wären.

boxleitnerb
2011-10-18, 12:51:37
Energie"effizienz":

http://www.abload.de/thumb/efficiency_single_why71s.png (http://www.abload.de/image.php?img=efficiency_single_why71s.png) http://www.abload.de/thumb/efficiency_multi_whf74b.png (http://www.abload.de/image.php?img=efficiency_multi_whf74b.png) http://www.abload.de/thumb/efficiency_total_whp7rz.png (http://www.abload.de/image.php?img=efficiency_total_whp7rz.png)

Single, Multi, gemischt

BlackBirdSR
2011-10-18, 13:02:36
Ich net. Dieses zwei halbe Kerne in einem Hardware Hyperthreading... wo macht denn das Sinn? Ist genauso dämlich wie eine durchschnitts CPU mit einer mittelmaß Graka als ein Package zu verkaufen. Ok, für 1-2 Notebooks machts vielleicht doch Sinn, aber am Desktop ist Llano IMO Quatsch.

Wenn man heute eine 2,6 GHz CPU auf 3,4 SB Niveau hätte, könnte man die so optimieren, dass man in einem jahr auf 3,4 GHz ist und damit wieder vor Intel. ;)

Wir sind doch schon seit wie lange? Ende 2002 war Intel doch schon bei 3 GHz. Und heute ist SB bei 3,5 oder so. Ich weiß net ob es sinnvoll ist auf 4,5 oder 6 GHz zu gehen, selbst wenn beim Übertakten 8 möglich wären.

Und wo bitte soll die Leistung aus 2.6Ghz herkommen? Was will man denn noch besser machen als die fortschrittlichsten Caches, Sprungvorhersagen und Ausführungseinheiten zu verwenden?
Intel hat sich über Jahre am Design totoptimiert... es ist ein Wunder, dass sie immer wieder noch mehr rausquetschen. Wie soll AMD hier knapp 1 GHz Taktvorteil erkämpfen? Wer sich in der Materie auskennt, wird den Kopf schütteln.

Ob AMDs Ansatz Sinn macht muss sich nach Fehlerbehebung und Prozessoptimierung zeigen. SUN ist mit seinen CPUs mit einem ähnlichen Ansatz nicht schlecht gefahren. Das Ganze jetzt schon abzuschreiben ist kurzsichtig.

IBM hat es als sinnvoll erachtet über 4GHz zu gehen und die ARM Partner offensichtlich auch in Richtung 2GHz. Bei Intel hat man eben immer genug günstigere Möglichkeiten gefunden die Leistung auch ohne Takt zu erhöhen und wird das so beibehalten, so lange es möglich ist. Je weniger Druck von AMD und ARM kommt, desto geringer muss Intel an die Grenzen gehen. Man sieht ja, wieviel Potential Intel noch nach oben hat.

AMD wird froh sein, dass man überhaupt endlich ein neues Design auf den Markt bringen konnte und damit nicht so weit von Intel weg liegt, immerhin hat man intern bestimmt das ein oder andere Projekt sterben lassen müssen.

Kurzum: Was ich über Intel glaube zu wissen und über die Art und weise wie Prozessoren und deren Fertigung funktionieren, glaube ich nicht, dass das vielfach geforderte breitere Intel Killer Design machbar oder rentabel gewesen wäre. Dass Bulldozer weit weg von Perfekt ist, sieht man am Verbrauch und der Die-Size.

Man muss auch an die Projektteams denken, die einem unweigerlich davonlaufen, wenn man ihre Produkte schon wieder einstampft und nicht zu Ende bringt. Das sind alles Punkte die einfließen und den geforderten K10.5+ schon wieder problematisch machen.

Wer hinterherläuft, der kann nicht ewig warten auch wenn er noch nicht ganz ran gekommen ist, sonst ist man weg ohne überhaupt etwas getan zu haben. Ich denke da an Kyro3 oder Bitboys...

Unlimited
2011-10-18, 13:04:17
Energie"effizienz":

Verheerend.
Würde mich wundern, wenn die auch nur einen dieser Prozessoren verkaufen würden... WER sollte sich dafür interessieren?

LovesuckZ
2011-10-18, 13:15:02
AMD wird froh sein, dass man überhaupt endlich ein neues Design auf den Markt bringen konnte und damit nicht so weit von Intel weg liegt, immerhin hat man intern bestimmt das ein oder andere Projekt sterben lassen müssen.


:confused:

Man hat mit Bulldozer an Boden verloren, weil man die Pro-Takt-Leistung für MT geopfert hat. Aber auch diese MT-Leistung hat man sich mit einem ineffizienteren Design gegenüber echten Kernen erkauft. Die 2 und 3 Moduler werden einen so schweren Stand gegenüber Intel's i3 und kleinen i5 Prozessoren haben, dass sie fast unverkäuflich sind. Und der 4 Moduler muss so hoch geprügelt werden, dass man Green-IT gleich komplett vergessen kann.

Trap
2011-10-18, 13:50:09
Man hat mit Bulldozer an Boden verloren, weil man die Pro-Takt-Leistung für MT geopfert hat.
Es sieht nicht danach aus, als hätte AMD irgendwas für MT geopfert, dafür ist auch MT viel zu schlecht.

LovesuckZ
2011-10-18, 13:56:10
Es sieht nicht danach aus, als hätte AMD irgendwas für MT geopfert, dafür ist auch MT viel zu schlecht.

Laut den Marketingfolien war das Ziel die MT-Leistung durch mehr "Kerne" zu steigern. Dafür hat man auch die Pro-Takt-Leistung nicht berücksichtig, weil diese nicht als Designziel vorgesehen waren.

Bis jetzt ist AMD aber vieles aus den Marketingfolien schuldig geblieben. Z.B., dass es wesentlich billiger wäre diese Module statt echte Kerne zu bauen oder dass diese sich besser nach oben skalieren lassen würden.

HOT
2011-10-18, 14:36:44
Bisher brachte Intel alle 24 Monate einen Fullnode Shrink. Alle anderen Hersteller übrigens aus. Nur, dass Intel 18-24 Monate konstant vor allen anderen Herstellern ist - also fast konstant 1x Fullnode Vorsprung hat.
Das war aber schon immer so. Ergo nichts neues.
Stimmt so nicht. Bei 180nm waren AMD und Intel gleichauf, danach und davor waren es ein knappes halbes Jahr. Erst später, als AMD des Geld ausging, zog Intel davon - die Abspaltung von GF katapultierte dann AMD zurück auf das Niveau der großen Auftragsfertiger. AMD selbst sogar dahinter, da man ja SOI benötigt, was offenbar nochmal 1/2 Jahre Entwicklungsverzögerung mit sich bringt. Will heißen, GF bringt 20nm ungefähr dann, wenn TSMC 20nm bringt, AMD kann aber erst in 2014 davon profitieren, weil man SOI braucht. Intel hat allerdings Anfang 2013 16nm bereits fertig entwickelt und kann in aller Ruhe mit den Arbeiten an einem 16nm-Mainstream-Prozessor beginnen, während AMD erst Anfang 2013 mit den Arbeiten an Excavator auf einem unfertigen 20nm-SOI-Prozess beginnen kann. Intel bringt aber dann wieder einen ziemlich einfachen Schrink des Haswell, der leicht zu produzieren ist (siehe Clarkdale oder Ivy) während AMD in 20nm dann wieder voll zuschlagen muss und gleichzeitig den Grafikbonus verliert.
Auf absehbare Zeit wird das nicht gutgehen. Ehrlichgesagt glaube ich nicht, dass der Markt so bleibt wie er z.Z. ist. Spätestens wenn Haswell nochmal um 30% davon ziehen sollte, wird der Ruf nach Wettbewerbsregulierung unüberhörbar werden, denn das ist der Zeitpunkt, bei dem es bei AMD einen heftigen Strategiewechsel hin zu mehr Bobcat+Grafik geben wird, während man den dann vollkommen unlukrativen PC-Markt einfach ausfallen lassen wird.
Was dann passiert ist kaum absehbar. Am wahrscheinlichsten wäre aber mMn eine Zerschlagung Intels in Designer und Fertiger und/oder eine komplette Offenlegung von x86 und etlichen Patenten. Wie dem auch sei, Intel wird glaube ich letztendlich so oder so Opfer seines eigenen (auch teils definitiv unrechtmäßigen) Erfolges.
Es wird sich sowieso in der Wirtschaft eher ein "too big to live" als ein "too big to fail" durchsetzen, dank der Finanzindustrie.

Ronny145
2011-10-18, 14:49:42
Intel hat allerdings Anfang 2013 16nm bereits fertig entwickelt und kann in aller Ruhe mit den Arbeiten an einem 16nm-Mainstream-Prozessor beginnen


Intels nächster Schritt nach 22nm ist der 14nm Prozess. In 2014 werden erste CPUs erwartet. (Massenfertigung ab Ende 2013 laut aktueller Intel Vorhersage)

HOT
2011-10-18, 14:53:47
Intels nächster Schritt nach 22nm ist der 14nm Prozess. In 2014 werden erste CPUs erwartet. (Massenfertigung ab Ende 2013 laut aktueller Intel Vorhersage)
Das ändert ja nichts an meiner Aussage, außer das es schlimmer ist als befürchtet, weil dann auchnoch der Halfnode-Vorteil wegfallen würde...

So oder so, mMn wird es ab 2014 einige Jahre der absoluten Stagnation geben, was PC-Prozessoren angeht.

LovesuckZ
2011-10-18, 14:55:32
2014 soll Project Denver von nVidia kommen. :)

HOT
2011-10-18, 14:56:52
2014 soll Project Denver von nVidia kommen. :)
Das ist gegen den Haswell-Shrink oder auch Excavator ein kleines Würstchen ;). Ist nicht zu vergleichen und peilt mit an Sicherheit grenzender Wahrscheinlichkeit nicht diesen Markt an. NVidia ist solange es kein x86 gibt kein Gegner im PC-Markt.

LovesuckZ
2011-10-18, 14:57:49
Das ist gegen den Haswell-Shrink oder auch Excavator ein kleines Würstchen ;). Ist nicht zu vergleichen und peilt mit an Sicherheit grenzender Wahrscheinlichkeit nicht diesen Markt an.

Laut nVidia peilt man mit Project Denver HPC, Server, Workstation, Desktop und Notebooks an.

Wer sagt, dass man x86 im PC-Markt unbedingt benötigt? Win8@ARM macht den ersten Schritt zu einer Öffnung.

HOT
2011-10-18, 14:58:45
Laut nVidia peilt man mit Project Denver HPC, Server, Workstation, Desktop und Notebooks an.
Schon klar, dass man diese Ziele hat, aber das wird vllt. was wenn Intel zerschlagen würde, vorher ist das zum Scheitern verurteilt - ist kein x86, Punkt - ganz zu schweigen von den Performancezuwächsen.

LovesuckZ
2011-10-18, 15:20:28
Schon klar, dass man diese Ziele hat, aber das wird vllt. was wenn Intel zerschlagen würde, vorher ist das zum Scheitern verurteilt - ist kein x86, Punkt - ganz zu schweigen von den Performancezuwächsen.

PD ist eine High Performance CPU. Wo man am endet landet, wird sich zeigen. Aber man hat sich auf jedenfalls Marktbereiche als Ziele gesetzt, die man mit dem Standard-ARM-Design nicht erreichen kann.

Und das man x86 braucht, hört sich ein bisschen danach an, dass iOS das einzige wahre Tablet-OS wäre. Man sollte einfach abwarten und sehen, wie sich Win8@ARM entwickelt.

HOT
2011-10-18, 15:59:45
PD ist eine High Performance CPU. Wo man am endet landet, wird sich zeigen. Aber man hat sich auf jedenfalls Marktbereiche als Ziele gesetzt, die man mit dem Standard-ARM-Design nicht erreichen kann.

Das sicherlich, aber trotzdem bleibt es ein ARM und ARM ist nicht kompatibel zu x86.

Und das man x86 braucht, hört sich ein bisschen danach an, dass iOS das einzige wahre Tablet-OS wäre. Man sollte einfach abwarten und sehen, wie sich Win8@ARM entwickelt.
Win8 ARM ist Win Phone 2.0. Man versucht nur die Oberfläche zu vereinheitlichen (und tut sich nebenbei gesagt verdammt schwer dabei), sonst nix. Win8 x86 und Win8 ARM heißen nur gleich, trotzdem sind es wie bisher 2 verschiedene OS. Du kannst nicht erwarten, dass in 2014 plötzliche alle Hurra schreien und einen ARM im Desktop einsetzen, dazu ist M$ zu sicher im x86-Markt und Intel hat da auch extremes Gewicht. Von der Abwärtskompatibilität, die den x86 weiter treibt und von der Performance- und Fertigungsvorteilen mal ganz abgesehen, die sich Intel bis dahin mit 14nm CPU erarbeitet haben wird. ARM im x86er-Bereich ist ein feuchter Wunschtraum von NV und von dir offensichtlich, hat aber rein garnichts mit der Realität zu tun.

fondness
2011-10-18, 16:22:52
Bisher brachte Intel alle 24 Monate einen Fullnode Shrink. Alle anderen Hersteller übrigens aus. Nur, dass Intel 18-24 Monate konstant vor allen anderen Herstellern ist - also fast konstant 1x Fullnode Vorsprung hat.
Das war aber schon immer so. Ergo nichts neues.

Es geht um den embedded markt. Da hat Intel bis jetzt eher veraltete Prozesse für Atom genommen, damit ist es aber vorbei, es gibt jedes Jahr einen full-node Shrink, sodass man ab 2014 gleichauf mit dem Desktop-Chips ist was neue Herstellunsgprozesse betrifft.

robbitop
2011-10-18, 17:55:26
Was nur 1x Fullnode vor der Konkurrenz bedeutet. ;)

fondness
2011-10-18, 18:04:11
Was nur 1x Fullnode vor der Konkurrenz bedeutet. ;)

Nur ist gut, zumal der Abstand auch eher größer als kleiner zu werden scheint.

robbitop
2011-10-18, 18:08:08
Nur ist gut, zumal der Abstand auch eher größer als kleiner zu werden scheint.
Ggü AMD/GF vieleicht. Ggü. dem Rest der Welt waren es schon immer rund 2 Jahre und damit 1x Fullnode. Das holt ein effizientes Design locker wieder raus.
Die Frage ist, wie gut der nächste Atom OoO Kern wird.

HOT
2011-10-18, 18:20:46
Für Intel gibts aber von 22 auf 14nm sowohl Fullnode als auch Halfnode-Shrink (16nm wäre AFAIK Fullnode) das nächste Mal, deshalb dauerts wahrscheinlich auch bis 2014 (oder Ende 2013) mit den nächsten CPUs nach Haswell.

Ronny145
2011-10-18, 18:28:29
Für Intel gibts aber von 22 auf 14nm sowohl Fullnode als auch Halfnode-Shrink (16nm wäre AFAIK Fullnode) das nächste Mal, deshalb dauerts wahrscheinlich auch bis 2014 (oder Ende 2013) mit den nächsten CPUs nach Haswell.


Ähm ist doch normal. Oder hattest Du im gleichen Jahr den refresh erwartet?

2012 - Ivy 22nm
2013 - Haswell 22nm
2014 - Broadwell 14nm

Lord Wotan
2011-10-18, 19:02:44
Falls auch anderen zum Heulen ist -bitteschön:
Lasst die Tränen fließen!!

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=515842
Ich denke das wird nicht passieren. Ist die gleiche Geschichte wie Microsoft mit Appel. Als Appel pleite war, kann Bill mit seiner Geld Börse und rettete Appel vor der Pleite, weil man eben einen Konkurrenten wegen der Wettbewerbsbehörden braucht. Ich denke bevor AMD Pleite geht, kauft Intel den Grafikkarten Sektor um ATI bei AMD auf, um AMD vor der Pleite zu retten.

Schaffe89
2011-10-18, 19:20:52
Man hat mit Bulldozer an Boden verloren, weil man die Pro-Takt-Leistung für MT geopfert hat. Aber auch diese MT-Leistung hat man sich mit einem ineffizienteren Design gegenüber echten Kernen erkauft. Die 2 und 3 Moduler werden einen so schweren Stand gegenüber Intel's i3 und kleinen i5 Prozessoren haben, dass sie fast unverkäuflich sind. Und der 4 Moduler muss so hoch geprügelt werden, dass man Green-IT gleich komplett vergessen kann.

Naja, du beginnst schon wieder alles erheblich schlechter darzustellen, als es ist.
Man hat nicht an Boden verloren, sondern durch das neue Modell die neuen Instruktionen etc.. an Boden im Vergleich zum 1100T gewonnen.
Man ist in Games auf dem selben Level geblieben und hat in Anwendungen bei gleichem Strombedarf ca 15 bis 20% zugelegt.
dass es wesentlich billiger wäre diese Module statt echte Kerne zu bauen oder dass diese sich besser nach oben skalieren lassen würden.

Nur, dass Zambezi ein Server Design und kein Desktop Design ist, denn da hängt noch ein Rattenschwanz hinterher.
Um die Architektur wirklich beurteilen zu können, reicht eine solch oberflächliche Betrachtung von dir nicht aus. Nein, sie führt eher in die Irre.

Zudem ist Intel, was IPC betrifft auch langsam am Ende angelangt.
Es wird auf mehr Parallelisierung und auch auf den Fokus "mehr Takt" hinauslaufen, eben was je nach Workload gebraucht wird.

HOT
2011-10-18, 19:26:18
Ähm ist doch normal. Oder hattest Du im gleichen Jahr den refresh erwartet?

2012 - Ivy 22nm
2013 - Haswell 22nm
2014 - Broadwell 14nm

Hmpf, falsch verstanden ;). Es gibt keinen reinen Fullnode-Shrink. Der wär nämlich bei 16nm gelandet, nicht bei 14. Jetzt verstanden? Intel macht nicht nur einen Fullnodeshrink, sondern geht gleich auf Halfnode. Der Shrink Haswell -> Broadwell ist also einiges größer als von Sandy -> Ivy.

Ronny145
2011-10-18, 19:28:55
Zudem ist Intel, was IPC betrifft auch langsam am Ende angelangt.


Das sieht mir bislang nicht danach aus. Ivy Bridge bekommt wieder ein paar IPC Optimierungen spendiert obwohl es nur ein Tick Update ist. Über Haswells IPC lässt sich noch rein gar nichts sagen.

Hmpf, falsch verstanden ;). Es gibt keinen reinen Fullnode-Shrink. Der wär nämlich bei 16nm gelandet, nicht bei 14. Jetzt verstanden? Intel macht nicht nur einen Fullnodeshrink, sondern geht gleich auf Halfnode. Der Shrink Haswell -> Broadwell ist also einiges größer als von Sandy -> Ivy.

Es ging um deinen zeitlichen Einwand. Der stimmte nicht. Ob 14 oder 16nm ist nebensächlich. Ein Tick launch ist nicht im Tock Jahr zu erwarten.

HOT
2011-10-18, 19:30:12
Das sieht mir bislang nicht danach aus. Ivy Bridge bekommt wieder ein paar IPC Optimierungen spendiert obwohl es nur ein Tick Update ist. Über Haswells IPC lässt sich noch rein gar nichts sagen.
Jo, da Intel ja mit allen bisherigen Entwicklungen zu brechen scheint ist von -10% bis +40% alles drin.

Neon3D
2011-10-18, 19:30:18
Das sicherlich, aber trotzdem bleibt es ein ARM und ARM ist nicht kompatibel zu x86.

Win8 ARM ist Win Phone 2.0. Man versucht nur die Oberfläche zu vereinheitlichen (und tut sich nebenbei gesagt verdammt schwer dabei), sonst nix. Win8 x86 und Win8 ARM heißen nur gleich, trotzdem sind es wie bisher 2 verschiedene OS. Du kannst nicht erwarten, dass in 2014 plötzliche alle Hurra schreien und einen ARM im Desktop einsetzen, dazu ist M$ zu sicher im x86-Markt und Intel hat da auch extremes Gewicht. Von der Abwärtskompatibilität, die den x86 weiter treibt und von der Performance- und Fertigungsvorteilen mal ganz abgesehen, die sich Intel bis dahin mit 14nm CPU erarbeitet haben wird. ARM im x86er-Bereich ist ein feuchter Wunschtraum von NV und von dir offensichtlich, hat aber rein garnichts mit der Realität zu tun.

auf alle fälle versucht nvidia mit project denver eine neue alternative für den desktopbereich darzustellen. zum einen wird es neue dektop-arm-cpu`s geben UND es soll möglichkeiten für alternative betriebssysteme geben. das hat nvidia schon ein paar mal angedeutet. von daher wird 2014 wirklich interessant werden.

HOT
2011-10-18, 19:31:14
auf alle fälle versucht nvidia mit project denver eine neue alternative für den desktopbereich darzustellen. zum einen wird es neue dektop-arm-cpu`s geben UND es soll möglichkeiten für alternative betriebssysteme geben. das hat nvidia schon ein paar mal angedeutet. von daher wird 2014 wirklich interessant werden.
Interessant wirds sicher ;). Aber ein Erfolg wirds nicht. Das kann höchstens über Jahre mit einem verdammt großen finanziellen Aufwand gelingen, aber auch nur dann, wenn es gelingt, Intel kartellrechtlich zu binden. MMn kann es so oder so nicht gelingen, solange NV keinen x86er anbietet. Aber was nicht ist kann noch werden.
Ihr NV-Leute setzt einfach zuviel Hoffnung in ein Projekt, dass einfach ne Nummer zu groß ist für NV. Sowas braucht viel Zeit und noch mehr Geld und obendrauf noch einen verdammt guten Fertiger. Zudem wird man auch bis 2014 nicht soviel CPU-Knowhow aufgebaut haben, um mit den beiden Großen (+IBM eingeschränkt) mitzuhalten.

Undertaker
2011-10-18, 19:54:39
Das Budget würde ich nicht unbedingt als Problem ansehen wann man sieht, mit welchem Bruchteil an Entwicklungskosten AMD mit Intel bis zur ~200€ Klasse konkurrieren kann. Mehr als das Einstiegssegment dürfte eine ARM-CPU von Nvidia mittelfristig nicht anpeilen.
Ob man auch ohne x86 erfolgreich sein kann steht auf einem anderen Blatt, mit Windows 8 steigen die Chancen dazu aber erheblich.

ndrs
2011-10-19, 09:03:14
AMDs hausinterner Bulldozerkiller für 70€ :D

http://translate.google.com/translate?sl=auto&tl=en&js=n&prev=_t&hl=de&ie=UTF-8&layout=2&eotf=1&u=http%3A%2F%2Fcpu.it168.com%2Fa2011%2F0927%2F1252%2F000001252333_all.shtml

Ich kann auf die Schnelle nix zur Leistungsaufnahme finden, aber da Standard-VCore anliegt, sollte sie erträglich sein.

G 80
2011-10-19, 10:40:35
Wow 4,4 Ghz für den Athlon - damit zahlen sich die 4,6 Ghz als Schallmauer vom Hochtaktdesign voll aus. :freak:

Mir sagen diese CB und FC Werte nicht viel, aber schnelles suchen ergibt (alles ~) 4 für den 3 Moduler. ;D! und 6 für den 4 Moduler mit Turbo. Dieser simulierte 8120 @ 3,3 ist bei 5,4 dh ein 8120 mit 3,1 wäre in Schlagreichweite.

Da man eher 4 als 8 Thread Software hat sage ich mal Unentschieden. :freak: ;D

Ich hoffe das Teil ist mindestens 250 mm² groß; die Leistung mit OC rechtfertig das auf jeden Fall. ;D

Aber alles in allem unfaire Vergleiche weil ja AMD zu AMD einen Fertigungsvorteil hat und der Athlon mit Cache nur so um sich schmeißt und sicher eine Mörder IPC hat die man einfach nicht verbessern konnte. :freak:
Den Abschluß des Massakers bildet noch ein hypothetisches HT nach Intelvorbild für weitere ~15-20%.

Der Gipfel wäre jetzt noch wenn die Leistungsaufnahme TATSÄCHLICH mit OC unter dem 4 Moduler bleibt.

Screemer
2011-10-19, 11:34:11
ein umfassendes review dieses teils würde mich mal interessieren.

AnarchX
2011-10-19, 11:55:05
Bei Expreview hat man nur 3,5GHz bei 1,5V erreicht: http://en.expreview.com/2011/08/26/athlon-ii-x4-631-worth-for-choice-or-not/18910.html

Da sollte man wohl noch mehr OC-Ergebnisse abwarten, bevor man hier zu hypen anfängt. ;)

mironicus
2011-10-19, 12:17:07
Hä? In dem Expreview-Link lies sich der Athlon X4-640 zu einem 6 Kerner freischalten...? Wo gibt es denn so was zu kaufen...?

R.I.P.
2011-10-19, 12:26:29
Bei Expreview hat man nur 3,5GHz bei 1,5V erreicht: http://en.expreview.com/2011/08/26/athlon-ii-x4-631-worth-for-choice-or-not/18910.html

Da sollte man wohl noch mehr OC-Ergebnisse abwarten, bevor man hier zu hypen anfängt. ;)
Stimme, aber immerhin 900 Mhz mehr als Standardtakt, obwohl ich mir 1,5V nicht antun würde :biggrin:

Sir Integral Wingate Hellsing
2011-10-19, 12:29:18
Hä? In dem Expreview-Link lies sich der Athlon X4-640 zu einem 6 Kerner freischalten...? Wo gibt es denn so was zu kaufen...?

Siehe auch: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8974717#post8974717 (und die folgenden Postings)

Der Zosma ist ein Thuban mit 2 kaputten/deaktivierten Kernen.
http://geizhals.at/deutschland/519248

Dies scheint ein weiteres "Downgrade" zu sein, also 2 Kerne + L3-Cache "weg"... Vllt will AMD so schneller (weil wahrscheinlich billiger) K10-CPUs loswerden?

Aus dem Expreview-Link:
http://en.expreview.com/img/2011/08/26/C_03.png

Oder Fake?

G 80
2011-10-19, 12:30:13
Was ist den das?

>>>>>>>>>As the Athlon II X4 640 processor we got was an core unlocker available edition(640T,6 cores unlocked,6MB L3),its idle power consumption could reach 90W in spite of the unlocked condition.

Sollte der 640 nicht ein Propus sein? :freak:

€: Schon aufgeklärt ....

Sir Integral Wingate Hellsing
2011-10-19, 12:34:11
Da sollte sich gut was freischalten lassen :freak:

EDIT:

http://www.pcgameshardware.de/aid,824563/Athlon-II-X4-640-auf-Thuban-Basis-gesichtet-und-freigeschaltet/CPU/News/ (13.05.2011)

Der Athlon II X4 640 des Users "landyzhu" ließ sich aufgrund seiner Herkunft komplett freischalten und bietet ergo nach der Prozedur sechs Kerne Kerne und die vollen 6 MiByte L3-Cache.

Der_Korken
2011-10-19, 12:51:19
Hm, vielleicht hätte AMD doch lieber einen 6-Core-Llano mit L3-Cache bringen sollen. Der wäre zwar vielleicht nicht schneller als BD geworden, aber dafür 40% kleiner und wahrscheinlich auch deutlich sparsamer.

Ja, ich weiß, das wurde hier schon 1000x mal gesagt, aber wo ich die Benches und Übertaktungsergebnisse so sehe, kommt man doch nochmal ins Nachdenken. Llano hat laut den Benches sogar ~10% an IPC zugelegt, das darf man nicht vergessen.

Screemer
2011-10-19, 14:49:30
sind die gleichen kerne wie beim p2 960t. zosma eben. das zeuch muss wohl weg. :) passt aber besser in den "wann kommen neue phenom-cpus"-thread.

L.ED
2011-10-19, 16:48:22
In der 2th Betrachtung sehe es weiterhin nüchterner, AMD hat die Leistung von 6 Kernen auf 8 Umverteilt und es gib durchaus Einsatzgebiete wo sich das schon heute besser auf die Straße bringen lässt als bei einem X6.

Fast allen Testern und Reviewseiten fehlt es aber offenbar an der Kompetenz (alternativ grober gedanklicher Unwillen, Telerand ahoi), sich solchen CPUs auch mal anders zu nähern. Das betrifft schon den X6 und ganz Akut wurde es nun mit dem neuen Ablegern.

Solche Architekturen können einfach zur selben Zeit mehr bewegen (DAS ist auch einer ihrer Stärken!), vielleicht punktuell langsamer aber nicht soviel langsamer das voraus genannte Tatsache völlig egalisiert werden würde! Und damit war der 2the große Bereich angesprochen der bei solchen Prozessoren relevant, massiveres Multitasking!

Der eigentlich aufgekommene wirklich relevante Punkt ist der Stromverbrauch aber eben das Thema müsste man auch mit anderer Kompetenz und Willen angehen um die praxisnahen Zahlen zu bekommen. Ansonsten sehe da bis auf weiteres eine weiter spezialisierte CPU für ein Bereich und Preis in dem Intel auf dem Desktop einfach nicht Präsent ist und dafür wäre AMD sogar dankbar.

Wer so was nicht Nutzen kann für denen gibt es weiterhin die Intel Quads als max. und gut, es gibt auch Leute @Home mit anderen Ansprüchen an einem System *Danke!*:mad:

Ectoplasma
2011-10-19, 17:24:49
In der 2th Betrachtung sehe es weiterhin nüchterner, AMD hat die Leistung von 6 Kernen auf 8 Umverteilt und es gib durchaus Einsatzgebiete wo sich das schon heute besser auf die Straße bringen lässt als bei einem X6.
...
Fast allen Testern und Reviewseiten fehlt es aber offenbar an der Kompetenz (alternativ grober gedanklicher Unwillen, Telerand ahoi), sich solchen CPUs auch mal anders zu nähern.


Na klar ist das so ... :freak:
Nenn mal ein Einsatzgebiet, wo dass der Fall sein könnte. Bin jetzt echt neugierig.

L.ED
2011-10-19, 18:17:53
Bei den meisten MMORPG ist es üblich das mindestens 2 eher in Tendenz 3 bis 4 clienten offen und teil aktiv gespielt werden (per Makros gestützt). Auch ist bei dieser Klientel zu beobachten das bei Wartezeiten nicht etwa die clienten geschlossen sondern nebenher andere Spiele gestartet werden, oder Sachen wie mal eben nen Film encodieren, Packer Nutzung usw. usw. kommen dann noch oben drauf, neben Dauernutzung von anderen Zeug was schon gar nicht mehr erwähnt wird .. Teamspeak etc.

Die MMORPG Test der diversen Seiten (wenn sie den welche haben), sind im dem Sinne schon praxisfern, für ein nicht minderen teil der Zielgruppe (die so was Spielen).

Und das war jetzt nur mal ein noch auch eher @Home Desktop für manche Alltags belange bezogenes Beispiel. Und oh ja und da hat man auch schon stark übertaktete Intel Potenz Quads ins Schleudern kommen sehen. Manchmal ist es eben nicht so einfach und die Welt besteht auch noch aus anderen Farben, als Tests gemeinhin nur noch suggeriert haben wollen (man fragt sich da schon mit welcher Intention, Zufall oder Vorsatz?)!

Lu
2011-10-19, 19:32:58
Ja nee ist klar :freak: Man kann sich auch Szenarien zusammen fabulieren! Da steigen ganz andere Komponenten aus bevor das ein hochgetakteter Potenz Quad von Intel tut.

merfu
2011-10-19, 19:42:41
Naja das Beispiel ist schon übertrieben. Sicherlich gibt es solche aber die meisten haben nur das MMO, nen Browser und vielleicht Teamspeak offen.

Mehrere Clients oder Spiele und dazu noch packer und encoding dürften die meisten sich nicht zusammen vorstellen können. Mal abgesehen das für die meisten der normalos ihn der Arbeitsspeicher sehr früh verlassen wird bevor er auch nur daran denkt 2 Spiele oder Clients laufen zu haben. (2Gb oder 4Gb sind heute so im durschnitt drin, mehr nicht).

Ich habe mir ein 8150 bestellt. Mal sehen wann der kommt.

MfG

L.ED
2011-10-19, 20:24:54
Ja was nicht sein darf, kann halt nicht sein schon klar.

Also ob bei Leuten die ihre Systeme so Nutzen es nicht bereits so wäre das auch der Rest dem entsprechend Ausgebaut, man lebt doch nicht im Wald (informiert sich untereinander). Und hier ist eher fraglich wer sich da dann die abwegigere Annahme diesbezüglich Konstruiert!

y33H@
2011-10-19, 20:33:36
Auf einem FX kannst du genauso viel oder wenig laufen, bevor er wegbricht ...

L.ED
2011-10-19, 20:47:07
Was heißt den in diesem Zusammenhang Wegbrechen, doch nicht etwa nur das ein Handbrake ggf. entsprechend langsamer läuft? Aber dafür läuft es halt trotzdem nebenher und stört das andere nicht, wie schon dargelegt bei solch Betrachtungen muss man dann auch anders rann gehen, denn es zählen andere bewertungs Prämissen!

y33H@
2011-10-19, 20:55:39
Auf einem FX kannst du genauso viel oder wenig nebenher laufen lassen, bevor er wegbricht ...

AnarchX
2011-10-19, 21:05:50
Mit 16MiB On-Die-Cache sollte man doch etwas mehr Reserven haben, als bei einem 8MiB SNB.

Anstatt GPU-limitierten Games hatte AMD ein solches Szenario entwerfen und testen sollen. ;)

L.ED
2011-10-19, 21:13:22
Gehen wir gerade von dem theoretischen Ideal aus das ja auch mehre ausgewachsene Prozesse auf ein Kern laufen könnten/können und um so besser dessen desto stärker diese dann sind Ja (ich glaube schon)?

In der Praxis ist es so das viele der angesprochenen Software total gegen den Baum und höchst egoistisch programmiert (vielleicht ist es aber auch eine x86er Architektur Einschränkung k.a.?), da wird sich nix geteilt sondern gegenseitig auf den Kernen blockiert und ins stolpern und holpern gebracht. Händischer Eingriff und das Binden an Kerne im einzelnen da dann angesagt (leider)!

Lu
2011-10-19, 21:23:03
Ja was nicht sein darf, kann halt nicht sein schon klar.

Also ob bei Leuten die ihre Systeme so Nutzen es nicht bereits so wäre das auch der Rest dem entsprechend Ausgebaut, man lebt doch nicht im Wald (informiert sich untereinander). Und hier ist eher fraglich wer sich da dann die abwegigere Annahme diesbezüglich Konstruiert!

Dein Beispiel ist an Lächerlichkeit nicht zu übertreffen! Das wollt ich mal festhalten! Selbst wenn irgendwer 2x WOW laufen hat, einen HD Pron entpackt, Skype benutzt und von mir aus nen anderen Pron für´s Iphone konvertiert wird er mit nem Bulldozer (genauer 8150) maximal noch zusätzlich eine (1) weitere Anwendung ala Entpacken oder sonstwas ausführen können als jemand mit nem moderat übertakteten SB! Der Anteil der User die das brauchen liegt wohl im Promillebereich. Ausserdem bin ich kein Fanboy wie du vermutest/unsterstellst.

AnarchX
2011-10-19, 21:33:47
Spracherkennung wie Nuance Dragon NaturallySpeaking soll wohl sehr gut auf Cache ansprechen und gleichzeitig auf mehreren Cores arbeiten können.

L.ED
2011-10-19, 21:50:08
Ach jetzt werden wir langsam Persönlich, was der Bauer nicht kennt das isst er nicht, btw. Es gibt noch sehr viel mehr abseits von WoW. Es wurde ein Beispiel gefordert und ich habe versucht eins zu geben was hier rein passt. Wo sich noch Leute vielleicht mit identifizieren (nachvollziehen können), offenbar es nicht gelungen und nein das ist betreffs der mmorpg Sache genau weit weniger fiktiv als der unbefangene sich ausmalt! Und nein das sind auch nicht nur alles dies arbeitslosen Kellernerds ohne Leben nebenher, Vorurteile ahoi ich höre sie schon die ganze Zeit tapsen (wenn mich da Irre Entschuldigung schon im Vorfeld). ^^

Lu
2011-10-19, 22:33:41
Ach jetzt werden wir langsam Persönlich, was der Bauer nicht kennt das isst er nicht, btw. Es gibt noch sehr viel mehr abseits von WoW. Es wurde ein Beispiel gefordert und ich habe versucht eins zu geben was hier rein passt. Wo sich noch Leute vielleicht mit identifizieren (nachvollziehen können), offenbar es nicht gelungen und nein das ist betreffs der mmorpg Sache genau weit weniger fiktiv als der unbefangene sich ausmalt! Und nein das sind auch nicht nur alles dies arbeitslosen Kellernerds ohne Leben nebenher, Vorurteile ahoi ich höre sie schon die ganze Zeit tapsen (wenn mich da Irre Entschuldigung schon im Vorfeld). ^^

Also halten wir fest. Du bist der Meinung das es weit mehr als der Promillebereich ist dem das von Nutzen ist. Ich bin eben anderer Meinung. Persönliche Anfeindungen kann ich in meinem Beitrag nicht finden. Vorurteile genausowenig. Ob ich jetzt 4 oder 5 Sachen gleichzeitig an einem PC machen kann interessiert 99% der User nicht, mMn.

Hayab
2011-10-19, 22:56:23
Hat jemand links zu linux Benchmarks zw. Bully und SB ?
Bei aktuellen Kernel sollte der Sheduler fuer den Bully durchaus schon optimiert sein, 3D Benchmarksoftware gibt es mitlererweile auch fuer den Tux.

Schaffe89
2011-10-20, 04:16:45
Auf einem FX kannst du genauso viel oder wenig nebenher laufen lassen, bevor er wegbricht ...

Da spricht wieder der Experte ohne eine Ahnung von dem zu haben, was er sagt, geschweige denn auf den Kommentar oben einzugehen.
Bravo.
Kann man dein unterschwelliges AMD Bashing auch in eine mehr gehaltvolle Aussage mitrein packen, oder reicht es dazu schlichtweg nicht?;D
Bestimmt hast du zu deiner sinnfreien Behauptung auch eine super Quelle parat.

Bestimmt kommt man deiner Meinung nach bei multitasking auf einem 1 Kern Prozessor mit 3x Mal so hoher IPC besser zurecht wie auf einem 6 Kern Prozessor mit eben lediglich 1/3 so hoher IPC pro Kern.:confused:

Das sieht mir bislang nicht danach aus. Ivy Bridge bekommt wieder ein paar IPC Optimierungen spendiert obwohl es nur ein Tick Update ist. Über Haswells IPC lässt sich noch rein gar nichts sagen.

Welche tiefgreifenden IPC Verbesserungen sollen das sein? Designtechnisch legt man alles auf eine höhere Effizienz aus.
Soviel ich schätze man max. 5% mehr IPC pro Takt durch den verbesserten L3, das wars dann aber auch schon bald.

AnarchX
2011-10-20, 09:10:22
Persönliche Angriffe und Spam sind zu unterlassen.

puntarenas
2011-10-20, 09:24:30
Bestimmt kommt man deiner Meinung nach bei multitasking auf einem 1 Kern Prozessor mit 3x Mal so hoher IPC besser zurecht wie auf einem 6 Kern Prozessor mit eben lediglich 1/3 so hoher IPC pro Kern.:confused:

Bevor wir uns wieder in unterschiedlichen IPC-Definitionen verlieren, du redest von der Single-Thread-Leistung (meinetwegen gemittelt über verschiedene Benchmarkszenarien)?

Interessant. Ich würde schwer davon ausgehen, dass der skizzierte 1-Kern-Prozessor deinem 6-Kern-Prozessor tatsächlich in allen Belangen überlegen wäre. Ich würde aber natürlich auch gern hören und lernen, in welchen Fällen das anders sein sollte und warum.

Nimmt man noch dazu, dass dieser 1-Kern-Prozessor wesentlich flexibler ist und seine Leistung immer aufs Parkett bringen kann, während dein 6-Kerner auf gut parallelisierte Aufgabenstellungen angewiesen ist, dann hat man herausgefunden, warum die FX-Reihe für Desktopuser einen Performance-Fail darstellt und dabei haben wir das Energiekostenmessgerät oder den Kühlungsaufwand noch überhaupt nicht in Betracht gezogen.

Ronny145
2011-10-20, 09:55:26
Welche tiefgreifenden IPC Verbesserungen sollen das sein? Designtechnisch legt man alles auf eine höhere Effizienz aus.
Soviel ich schätze man max. 5% mehr IPC pro Takt durch den verbesserten L3, das wars dann aber auch schon bald.

Von tiefgreifend ist nicht die Rede, deine Schätzung liegt denke ich im grünen Bereich. Zwischen 3-6% wäre mein Tipp. Hier kannst du mehr darüber erfahren:

http://www.bit-tech.net/hardware/cpus/2011/10/10/all-about-ivy-bridge/3
http://ht4u.net/reviews/2011/intel_ivy_bridge_architektur/index4.php
http://www.anandtech.com/show/4830/intels-ivy-bridge-architecture-exposed/2

robbitop
2011-10-20, 09:55:58
Wenn es dauernd Taskswitches gibt, weil mehr Threads gefordert werden als Kerne vorhanden sind, legst du diesen Singlecore ziemlich trocken. Ständig werden die Caches und Ausführungseinheiten geleert und gefüllt. Das kostet massiv. Übrigens ein Grund, warum in "neuen Spielen" Multicore Prozessoren "so gut skalieren". In Wahrheit werden die CPUs mit weniger Kernen von der hohen Threadanzahl einfach nur wie oben beschrieben total sabotiert.
Wenn ein solches Spiel die Anzahl der verfügbaren Threads auf der CPU erkennen würde und nur dem entsprechend viele Threads erstellen würde und das auch so vom Entwickler vorgesehen wäre, würden heute 6 oder 4 Kerner den 2 Kernen kaum so weglaufen, wie sie es in den Benchmarks tun. So gut und so einfach ist nämlich doch nicht alles zu parallelisieren.

puntarenas
2011-10-20, 10:05:35
Wenn es dauernd Taskswitches gibt, weil mehr Threads gefordert werden als Kerne vorhanden sind, legst du diesen Singlecore ziemlich trocken.
Bliebe halt die Frage nach dem Ausmaß. In unserem Beispiel haben wir einen Performanceindex mt der Einheit "Schaffe". Der skizzierte Singlecore bringt es auf "3 Schaffe" und der 6-Kerner nur auf "2 Schaffe". Reichlich Reserven für Taskswitches?


Ständig werden die Caches und Ausführungseinheiten geleert und gefüllt. Das kostet massiv. Übrigens ein Grund, warum in "neuen Spielen" Multicore Prozessoren "so gut skalieren". In Wahrheit werden die CPUs mit weniger Kernen von der hohen Threadanzahl einfach nur wie oben beschrieben total sabotiert.
Vielen Dank, wobei wir zurückkehrend zur FX-Serie eben sagen müssen, dass sie mit ihrer Möglichkeit 8 Threads parallel abzuarbeiten nicht gegen einen Singlecore konkurriert, sondern eben gegen einen flotten Quadcore, eventuell sogar mit Hyperthreading. Mir erscheinen die Szenarien mit unzähligen, rechenintensiven Anwendungen in denen sich plötzlich ein Vorsprung für den dicken FX ergibt als ziemlich konstruiert, zumal ich nicht einmal einschätzen kann, ob und ab welchem Punkt der 2500k tatsächlich beträchtlich unter den Taskswitches zu leiden anfängt.

Ectoplasma
2011-10-20, 10:09:12
In der Praxis ist es so das viele der angesprochenen Software total gegen den Baum und höchst egoistisch programmiert (vielleicht ist es aber auch eine x86er Architektur Einschränkung k.a.?), da wird sich nix geteilt sondern gegenseitig auf den Kernen blockiert und ins stolpern und holpern gebracht. Händischer Eingriff und das Binden an Kerne im einzelnen da dann angesagt (leider)!

Jetzt fängst du aber etwas an rumzufantasieren. Was soll z.B. die x86er Architektur Einschränkung, die erstmal reine Spekulation von dir ist, denn genau bewirken?

Davon mal ab bezweifel ich, dass das von dir vorhin genannte Scenario auf anderen CPUs weniger flüssig läuft, wenn sie die gleiche Leistung haben. Letztendlich hängt das aber auch ein wenig vom Scheduler ab.

EDIT:

Wieviel Performance beim Task-Switching tatsächlich verloren geht, kann man bei deinem Scenario nicht wirklich ermitteln. Die Frage ist auch noch, selbst wenn alle Anwendungen gleichzeitig laufen, wieviel davon doch noch Idle Time ist.

L.ED
2011-10-20, 10:17:03
Ganz einfach weil das nur ein Theorie (ideal) Konstrukt was in der Praxis so nicht mehr beobachtbar. Es gab Zeiten und Prozessoren und offenbar auch Betriebssystem Umgebungen @home da ging das tatsächlich. Dort war es dann möglich das auch mehre ausgewachsene Anwendungen sich den einen nur vorhandenen Kern super teilten .. etwa 30% Prozessorzeit für den Raytracer 40% den Audioencoder .. Rest ggf. offen (nach weiteren bedarf).

Das kann ich aber heute so in der Form nicht mehr nachstellen, man kann natürlich darüber spekulieren das in einer Welt wo es die Mehrkerner nicht gäbe Software allgemein heute anders sich verhalten täte. Auch gerade dann die welche sehr Ressourcen hungrig und oft genau die Probleme verursachen wo wir heute faktisch Mehrkerntechnik brauchen um dem wirksam auf Endanwenderbasis zu begegnen (wenn wir es den wollen, möchten oder gar erst mal drum Wissen).

Bestes Beispiel sind doch schon die Spiele probiert es doch mal auf einem Kern zu binden und auf dem selben Handbrake ab besten noch mit gleicher Priorität,! Das führt schon bei Mehrkernumgebung sehr oft und schnell zielsicher gegen den obligatorischen ohne händisches zutun!

Nein und da reicht dann schon so alter Hugo wie Dune 2000 (was schon ab um 200Mhz lief), das ein Handbrake dann im Hintergrund auf nem Kern ohne HT so gut wie nichts mehr schafft. Da wären dann beim Punkt “Ideal Programmierte Software“, gerade Spiele sind da oftmals unter aller Kanone, die blockieren einfach mal ganze Kerne ganz gleich ob das wirklich nötig! Oder hier will doch keiner ernsthaft unterstellen das ein Dune 2000 einen ganzen kompletten Kern von modernen Prozessoren bräuchte um flüssig zu laufen!? ^^

Wenn das nicht die Praxisrealität wäre, hätte hier auch gar nix zu angemerkt dann gäbe es auch gar keine Griffpunkte, man hätte vermutlich kein X6 und so was wie der aktuelle FX wäre tatsächlich Epic Fail. Aber da dem nicht so haben Designs wie dieses durchaus ihre Berechtigung! Ich sehe dort sogar eher die Zukunft als beim anderen auch oder gerade im Bereich Desktops! Singlethread Leistung wird stagnieren oder gar wieder rückläufig sein, es wird immer mehr in die Breite und auch hin zu viel spezialisierteren Einheiten in den Chips gehen als wir es heute schon haben. Das die Softwarelandschaft sich mal wieder ändert daran glaube ich nicht!

anddill
2011-10-20, 10:25:22
Nennt es Wunschdenken, aber ich denke auch, der FX wird in bester ATI-Tradition erst mit der Software der Zukunft seine derzeitigen Konkurrenten und Vorgänger überholen.
Zu langsam ist er nirgendwo, und technisch interessant ist er auch. Ok, Geld verdienen wird damit hier und heute etwas ... kompliziert.

Übrigens ist der FX-8150 (http://geizhals.at/deutschland/689396?t=alle&plz=&va=b&vl=de&v=l#filterform) jetzt auch verfügbar. Nur der Preis ist noch indiskutabel.

Ectoplasma
2011-10-20, 11:08:23
@L.ED, erfindest du da gerade was, oder habe ich etwas nicht mitbekommen? Es ist richtig, dass es alte Software gibt, die einen Kern zu 100% auslastet, auch wenn es gar nicht nötig wäre. Ich erwarte zumindest von heutiger Software, dass diese sich schlafen legt, wenn es nichts zu tun gibt. Faktisch machen das ja auch 99,9% der Windows Anwendungen. Bei Spielen kann das von mir aus teilweise noch anders sein.

Zumindest ist es aus Entwicklersicht nicht sinnvoll, bei einem gerade laufenden Algorithmus Rechenzeit abzugeben (bei Windows damals über Yield() oder SwitchToThread()). Es ist aus zweierlei Gründen nicht sinnvoll. Zum einen "verseuchst" du den Algorithmus mit System-Calls und zum anderen beschwert sich der Nächste, warum der Code nicht mit voller Performance läuft.

Lustig finde ich auch worüber hier diskutiert wird. Es gibt natürlich Scenarien, bei denen viele Kerne wichtig sind. Aber während in anderen Threads noch darüber spekuliert wird, ob ein Quad-Core sinnvoll ist, geht es hier um die Differenz von 6 zu 8 Kernen oder meinetwegen auch 4 zu 8 Kernen. Und nun werden sehr bemüht irgendwelche Scenarien konstruiert, damit der BD doch noch ein Kaufargument erhält. Ich finde die Diskussion darum doch etwas abwägig, zumal der BD ja auch noch ziemlich energiehungrig ist, möchte ich als Desktop-User mir solche Scenarien mit einem BD lieber nicht vorstellen.

L.ED
2011-10-20, 11:36:40
Aber gut gehen wir doch mal konform das es Momentan dann nur eine Nische u.a. auch meine offenbar anderen Ansprüche an ein System @Home!?

AMD ist ein Nischenhersteller immer gewesen (gemessen am Marktanteil gegenüber Intel), warum soll der dann nicht mal Nägel mit köpfen machen und sich zu bekennen und auch nur mal Prozessoren für eine momentane Nische in den Markt entlassen oder vielleicht gar nur noch für diese dann produzieren @Desktop. Was geht denn der Restwelt dabei ab sie hat doch ihre CPUs (oder nicht)? Dürfen andere darüberhinaus keine mehr ihren Ansprüchen entsprechende Hardware schon heute haben! Oder darf man es nur nicht laut äußern das es eben so ist, der Nimbus brutalster Überlegenheit an allen Fronten unschön angekratzt?

Und wenn dem so ist was juckt es(?), Intel steht es frei gleiches zu tun, die Welt will das doch offenbar nicht sonst wäre der Pressewind auch schon längst mal von anderen (objektiveren, sachlichen) Tenören durchtränkt!

Undertaker
2011-10-20, 11:49:09
Übrigens ein Grund, warum in "neuen Spielen" Multicore Prozessoren "so gut skalieren". In Wahrheit werden die CPUs mit weniger Kernen von der hohen Threadanzahl einfach nur wie oben beschrieben total sabotiert.

Verschätz dich da mal nicht, zum Großteil ist das der Grundlastproblematik geschuldet. ;) IdR hast du mit einem Dualcore der doppelten Taktrate auch etwa die gleichen fps wie auf einem Quadcore (meist mehr), selbst wenn der Dualcore auf gleicher Taktrate nicht einmal die Hälfte der fps schafft - das ist grundlastbedingt.

http://s1.directupload.net/images/110411/2lwrkju7.png
Thx @ Dargo für die Messungen

Es gibt Ausnahmen wie BC2, wo das Switchen der Threads tatsächlich den Nachteil der zumeist nicht perfekten Quadcore-Skalierung überwiegt, aber das ist momentan beim Thema Dualcore vs. Quadcore noch die absolute Ausnahme. Bis wir die Problematik im breitem Ausmaß bei Quadcores vs. Oktacores sehen werden, tippe ich auf mindestens 3-5 Jahre in die Zukunft.

Ectoplasma
2011-10-20, 12:02:33
Was geht denn der Restwelt dabei ab sie hat doch ihre CPUs (oder nicht)? Dürfen andere darüberhinaus keine mehr ihren Ansprüchen entsprechende Hardware schon heute haben!

Jetzt drück mal nicht so auf die Tränendrüse.

Oder darf man es nur nicht laut äußern das es eben so ist, der Nimbus brutalster Überlegenheit an allen Fronten unschön angekratzt?

Darum geht es doch nicht. Du hast ein Scenario kunstruiert, bei dem du nur vermutest, dass der BD Vorteile gegenüber anderen CPUs mit gleicher Leistung hat. Würde mich sogar freuen, wenn es so wäre. Aber im Moment kannst weder du, noch irgendein anderer zeigen/beweisen, dass es so ist. Aber vielleicht werden wir ja noch alle überrascht, wer weiss.

L.ED
2011-10-20, 12:21:39
Das ist in der Tat richtig und war aber ja auch die Frage und eingangs Schelte Richtung Presse gerichtet. Ich erwarte ganz einfach das dergleichen auch mal ganz normal unter die Lupe genommen, wegen meine in einem dezidierten extra Artikel.

Denn potentiell wäre Interessiert wenn das Ding im breiten Spektrum einen X6 das Wasser abgraben kann (punktuell sieht es da ja nicht so gut aus, das wissen wir ja nun schon).

Aber glaube fast das es wieder selber herausfinden muss (ins kalte Wasser), wie schon seinerzeit mit dem X6. Wobei Persönlich ganz ehrlich dann eher Kunde der Version 2 davon im nächsten Jahr.

Schaffe89
2011-10-20, 13:25:19
Bliebe halt die Frage nach dem Ausmaß. In unserem Beispiel haben wir einen Performanceindex mt der Einheit "Schaffe". Der skizzierte Singlecore bringt es auf "3 Schaffe" und der 6-Kerner nur auf "2 Schaffe". Reichlich Reserven für Taskswitches?

Guck dir doch die ursprüngliche Aussage an.
So pauschal ist das doch einfach nur eine unsinnige Behauptung, man könne nicht mehr ausführen als beispislweise mit einem Intel 4 Kerner ohne HT.
Siehe dazu die Beiträge von User L.ED oder robbitop.

Der HeinZ
2011-10-20, 14:38:38
Hmm toll find ich die Leistung von Bulldozer jetzt au nicht... aber da ich nicht viel spiele und halt viel encode / transcodiere bzw. viel Imagebearbeitung mache ist die Leistung okay.
Und zumindest was den Fertigungsprozess und die Leitungsaufnahme angeht spreche ich dem Bulldozer noch viel potenzial zu, AMD hat ja in der Vergangenheit schon öfter bewiesen das Sie die Leistungaufnahme in einer Prozessorgeneration bei gleichem Fertigungsprozess sehr gut in den Griff bekommen können. Hoffen wir das es diesmal auch was wird und mit ein paar zusätzlichen Optmierungen schnell vonstatten geht.
Gruss Matthias

dildo4u
2011-10-20, 19:59:06
Linux Benches AMD FX-4100 vs A8-3850 vs SB i3 2120


http://www.phoronix.com/scan.php?page=article&item=amd_fx4100_bulldozer&num=1

C.D.B.
2011-10-20, 22:33:26
Linux Benches AMD FX-4100 vs A8-3850 vs SB i3 2120


http://www.phoronix.com/scan.php?page=article&item=amd_fx4100_bulldozer&num=1

Wow! In Multithreaded Anwendungen schlägt sich ein FX4100 doch tatsächlich ... mit dem putzigen i3-2120, und mit zweifelhaftem Ergebnis. ;D Peinlich wäre wohl noch untertrieben aus AMD-Sicht ... :rolleyes:

Hayab
2011-10-20, 22:49:56
Also egal wie von welchen Seite man diese CPU sehen will ist es ein Fail.
Selbst wenn der Bully als Vorstufe fuer neue Server CPUs gedacht war ist das wirklich schwach.
Von besseren multitthreading Latenz und besseren SMP Performance ist AMD weit entfernt.

Diese Hardwareversion von Bully ist fuer den Gully.

Schaffe89
2011-10-20, 23:12:24
The i3-2120 operates at just 3.3GHz and is a dual-core part with Hyper Threading while the FX-4100 operates at 3.6/3.8GHz and is a true quad-core.

Overall liegt der FX-4100 grade mal geschätzt 10% hinter dem i3-2120 in diesen Tests, wobei letzterer aktuell fast 20 Euro mehr kostet.
Wenn man schon "true quadcore" in des Fazit mit reinwurstelt, dann bezweifel ich mal die Kompetenz des Testers.
Da hilft AMD nur mehr Takt aus der Patsche, aber man launcht ja eh bald womöglich den 4,2 ghz FX-4170, dann gibts zumindest was die Performance angeht, wieder einen interessanten Gegner für die i3.

L.ED
2011-10-21, 06:27:02
Für mich existiert eigentlich auch nur der Bulldozer in min. 8 Kern (aka 4 Modul) Bauweise! Und gesehen hätte gerne das AMD ihn gleich mit 6 Modulen raus bringt (fertigungstechnisch, aka Stromverbrauch war und ist es aber erstmal wohl keine Option für den Desktop).

Das andere sind die üblichen Verwertungsableger die es zu jeder Serie bei allen Herstellern einfach gibt. Und auch bei diesen Varianten ist aus anderer Perspektive (AMDs Zukunft), dann zu sagen das sie besser! Die Zielgruppe von so was braucht eh nicht mehr und teils ist sogar das noch deutlich zu viel und irgendwann wird fertigungstechnisch das auch einfach im gesamten gesehen viel weniger kosten, zudem flexibler mit anderen Sachen die da noch in CPUs wandern könnten zu verpaaren sein!

Wir sehen hier eine neue Architektur von der vermutlich mindestens die nächsten 5 Jahre wenn nicht gar 10 und länger gezerrt und aufbaut werden soll. Man stelle sich diese mal schon alleine heute nur mit dem fertigungs- Knoff Hoff von Intel vor!

Und zu den Test an sich sei noch gesagt, viele davon kann ich nicht zuordnen (was kein Maßstab), darüber hinaus waren es aber auch alles wieder nur auf Punktuell angelegt. Wirklich interessieren täte mich aber das Abschneiden wenn eben diese alle auf einmal gelaufen währen!

Ganz einfach, möchte ich nun einer neue Architektur wirklich auf Herz und Nieren gehen oder nur möglichst Gründe finden um bereits bekannten Haare in der Suppe immer wieder zu finden?

Weiß auch gar nicht was da mit der Presse und den Leuten los auf der einen Seite jammern sie was den so alles ist wegen der (angeblichen) nicht Konkurrenzfähigkeit seitens AMD an allen Fronten. Und auf der anderen tun sie gleichsam alles um auch in den letzten Köpfen der unbedarften dergleichen Stahl zu betonieren (auf das es noch Jahre hinaus wieder weiter reichen wird). Obgleich es für viele eh oftmals gar keine Rolle spielt oder manchmal gar sowieso AMD schon jetzt die besseren Lösungen hätte. Da sie auf Grund von Architekturmerkmalen ggf. dann doch besser zum Profil passen. (etwa 2 vs. 4 Kerne etc.)

Dunkeltier
2011-10-21, 08:56:37
Was hätten 99% der "Normalo-User" mit 6 Modulen anfangen sollen? Die meisten "Normalo-User" nutzen Software, die höchstens aus 2 Kernen (1 Modul) und noch seltener 4 Kernen (2 Module) Nutzen zieht. Packprogramme und Spiele seien hier mal als die meistgenutzten genannt. Beim Rest drehen die nicht genutzten Kerne bzw. Module Däumchen.

Und mal ehrlich, irgendwann lässt sich Software auch nicht mehr sinnvoll weiter parallelisieren. Bei Spielen hat man dann einen komplett eigenen Thread für die Grafikberechnung, einen zusammen für die Physik und KI, einen meinetwegen für den Sound und einen weiteren für den Windows I/O-Scheiß. Was soll der Standard-Anwender da mit Modulen bis zum abwinken, wenn er sie nicht sinnvoll nutzen kann aber doch bezahlen muss? Und diese von der Leistung her nicht mal mit der Vorgänger-Generation mithalten kann, die schon keine Rakete mehr war?

Die Leute und die Presse sind am jammern, weil AMD den Bulldozer vollkommen an den Bedürfnissen des Marktes vorbei entwickelt hat. Viel hilft halt nicht immer viel - beim Bulldozer dürfte der Spruch Bestand haben.

R.I.P.
2011-10-21, 09:02:36
Die Leute und die Presse sind am jammern, weil AMD den Bulldozer vollkommen an den Bedürfnissen des Marktes vorbei entwickelt hat. Viel hilft halt nicht immer viel - beim Bulldozer dürfte der Spruch Bestand haben.

Hmmm, Bedürfnisse des Markts = bei BDs Architektur = für Serverbereich entwickelt und dort scheint er ziemlich gut zu sein. Bei BD2 wird man sich laut AMD besser auf den Desktop konzentrieren und soooo schlimm ist der BD nun auch wieder nicht. Ein paar Fehler ausmerzen (laaaangsamer L2 Cache bei sehr kleinem L1 Cache, Scheduler Probleme, threads durch die gegend hüpfen = auch höherer Verbrauch?) und es wird was. Bei semiaccurate gibt es einen schönen Artikel über was beim BD schief gegangen ist und iwe man es ausbessern könnte.

Shink
2011-10-21, 09:05:49
Wow! In Multithreaded Anwendungen schlägt sich ein FX4100 doch tatsächlich ... mit dem putzigen i3-2120, und mit zweifelhaftem Ergebnis. ;D Peinlich wäre wohl noch untertrieben aus AMD-Sicht ... :rolleyes:
Das hier finde ich ja spannender:
http://www.phoronix.com/scan.php?page=article&item=amd_fx4100_gcc&num=1

Je nach Anwendung gewinnt der Bulldozer bis zu 33% Performance beim Einsatz eines aktuelleren Compilers. Das könnte natürlich noch mehr werden bei Compiler die nach dem Bulldozer geschrieben wurden.

Trotzdem: Linux ist ja in erster Linie ein Serverbetriebssystem. Und für einen Application Server würde ich den 8-Kern-Bulldozer einem ungefähr gleich teuren 4-Kern-i7 natürlich vorziehen denn das Zeug skaliert quasi unbeschränkt.

Dunkeltier
2011-10-21, 09:11:12
Hmmm, Bedürfnisse des Markts = bei BDs Architektur = für Serverbereich entwickelt und dort scheint er ziemlich gut zu sein. Bei BD2 wird man sich laut AMD besser auf den Desktop konzentrieren und soooo schlimm ist der BD nun auch wieder nicht. Ein paar Fehler ausmerzen (laaaangsamer L2 Cache bei sehr kleinem L1 Cache, Scheduler Probleme, threads durch die gegend hüpfen = auch höherer Verbrauch?) und es wird was. Bei semiaccurate gibt es einen schönen Artikel über was beim BD schief gegangen ist und iwe man es ausbessern könnte.


Und wie will man dort Geld scheffeln ohne nennenswerten Marktanteil? Ich zitiere mal eine ältere News von Computerbase: "Lediglich bei Server-Produkten fiel AMD weiter zurück, mit einem Minus von weiteren 0,9 Prozent steht der Konzern nur noch bei 5,9 Prozent Marktanteil." (Original: http://www.statesman.com/blogs/content/shared-gen/blogs/austin/theticker/entries/2011/07/27/amd_shows_market_gains.html)

Shink
2011-10-21, 09:13:01
Für mich existiert eigentlich auch nur der Bulldozer in min. 8 Kern (aka 4 Modul) Bauweise!
So sehe ich das eigentlich auch. Ein sparsames Billigmodell mit nur einem Modul finde ich durchaus sinnvoll aber den 2-Modul Bulldozer gleich mit rauszubringen und noch dazu als FX finde ich irgendwie seltsam: War ja klar dass sich alle Tests auf den stürzen.

Shink
2011-10-21, 09:14:12
Und wie will man dort Geld scheffeln ohne nennenswerten Marktanteil?
Durch ein passenderes Produkt mit passenderer Architektur?

AnarchX
2011-10-21, 09:20:50
So sehe ich das eigentlich auch. Ein sparsames Billigmodell mit nur einem Modul finde ich durchaus sinnvoll aber den 2-Modul Bulldozer gleich mit rauszubringen und noch dazu als FX finde ich irgendwie seltsam: War ja klar dass sich alle Tests auf den stürzen.
Für OEMs soll noch eine FX 3000 Serie mit 3 Kernen und 0MiB L3 kommen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8862967#post8862967 ;D

Fragt sich wie sich das rechnet, wenn alle Versionen vom gleichen 320mm² Die abgeleitet werden. So hoch dürfte der Ausschuss auch nicht wieder sein, wenn man den Anteil der Kerne am Gesamt-Die betrachtet.

Vielleicht gibt es im Frühjahr auf B3-Basis einen optimierten 2 Modul-Die mit nur 4MiB L3, der nicht so viele Flächenverschwendung mit sich bringt und sich noch ordentlich takten lässt...

ndrs
2011-10-21, 09:23:50
Bei Spielen hat man dann einen komplett eigenen Thread für die Grafikberechnung, einen zusammen für die Physik und KI, einen meinetwegen für den Sound und einen weiteren für den Windows I/O-Scheiß.
Das halte ich mal für sehr kurz gedacht. Wie wäre es zB. bei der KI mit einem Thread pro NPC. Oder bei der Grafik erst. Wenn es nach deiner Theorie geht, müsste bei zB. BF3, was angeblich mit 8 Kernen skaliert, die KI genausoviel last erzeugen, wie der Sound und die Grafik. Ansonsten wäre eine nahezu 100%ige Skalierung nicht drin. Glaubst du, dass das so ist? Ich nicht. Ich sehe da jedenfalls noch erhebliches Optimierungspotential in Richtung Multicore.

(Wenn das Bsp. mit BF3 nicht passt, setze eines der anderen gut mehrkernoptimierten Spiele ein. Hab da nicht so den Überblick)

Shink
2011-10-21, 09:30:30
Für OEMs soll noch eine FX 3000 Serie mit 3 Kernen und 0MiB L3 kommen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8862967#post8862967 ;D

Fragt sich wie sich das rechnet, wenn alle Versionen vom gleichen 320mm² Die abgeleitet werden. So hoch dürfte der Ausschuss auch nicht wieder sein, wenn man den Anteil der Kerne am Gesamt-Die betrachtet.
Wusste ich gar nicht, danke.
So ein Schmarrn. Irgendwie wundert mich ja dass ungerade Kernzahlen überhaupt funktionieren so eng wie die beiden Kerne pro Modul gekoppelt sind. Wird dadurch der einsame Kern dann schneller als die 2 anderen auf der CPU? Er hat ja dann diverse Einheiten für sich alleine die er sich eigentlich teilen müsste.:freak:

robbitop
2011-10-21, 10:08:10
Verschätz dich da mal nicht, zum Großteil ist das der Grundlastproblematik geschuldet. ;) IdR hast du mit einem Dualcore der doppelten Taktrate auch etwa die gleichen fps wie auf einem Quadcore (meist mehr), selbst wenn der Dualcore auf gleicher Taktrate nicht einmal die Hälfte der fps schafft - das ist grundlastbedingt.

Nur dass ein SC mit doppeltem Takt eines DC -wenn er nicht auf diese Weise "sabotiert" würde- mehr als gleich schnell wäre. Wesentlich.

Odal
2011-10-21, 10:17:27
Was hätten 99% der "Normalo-User" mit 6 Modulen anfangen sollen? Die meisten "Normalo-User" nutzen Software, die höchstens aus 2 Kernen (1 Modul) und noch seltener 4 Kernen (2 Module) Nutzen zieht. Packprogramme und Spiele seien hier mal als die meistgenutzten genannt. Beim Rest drehen die nicht genutzten Kerne bzw. Module Däumchen.

Und mal ehrlich, irgendwann lässt sich Software auch nicht mehr sinnvoll weiter parallelisieren. Bei Spielen hat man dann einen komplett eigenen Thread für die Grafikberechnung, einen zusammen für die Physik und KI, einen meinetwegen für den Sound und einen weiteren für den Windows I/O-Scheiß. Was soll der Standard-Anwender da mit Modulen bis zum abwinken, wenn er sie nicht sinnvoll nutzen kann aber doch bezahlen muss? Und diese von der Leistung her nicht mal mit der Vorgänger-Generation mithalten kann, die schon keine Rakete mehr war?

Die Leute und die Presse sind am jammern, weil AMD den Bulldozer vollkommen an den Bedürfnissen des Marktes vorbei entwickelt hat. Viel hilft halt nicht immer viel - beim Bulldozer dürfte der Spruch Bestand haben.

ganz genau

aber da werden ganz sicher wieder einige daher kommen und sagen sie können jetzt mit dem Bulldozer auf ihrem privat rechner endlich eine "serverfarm" in VMs nebenbei laufen lassen ;D
oder 8 clients für ein MMORPG zum Goldfarmen ;D

Aber es ist traurig wie viele unwissende Menschen es doch gibt. Erst gestern wurde in einem anderen (nicht Hardware bezogenem) Forum jemanden ein Bulldozer für sein System empfohlen weil der ja 8 cores hat und der 2500k nur 4 und Intel sowieso nur unnötig teurer wird durch die IGP im i5 die nicht genutzt wird ;D
Also AMD wird definitiv massig Bulldozer absetzen, da bin ich mir ganz sicher!
Auch das vermarkten als 8Kern war das beste was sie machen konnten.
Auch so ein 6 o. 8 Modul (12 o. 16 kerner) wäre perfekt für die ganzen DAUs ;D

Das hier finde ich ja spannender:
http://www.phoronix.com/scan.php?page=article&item=amd_fx4100_gcc&num=1

Je nach Anwendung gewinnt der Bulldozer bis zu 33% Performance beim Einsatz eines aktuelleren Compilers.

das hat nur wenig mit dem Bulldozer zutun :rolleyes:

http://openbenchmarking.org/result/1102067-IV-SANDYBRID67

Ronny145
2011-10-21, 10:43:24
http://www.kitguru.net/components/cpu/zardon/power-consumption-fx-8150-v-i5-2500k-v-i7-2600k/

Verbrauchsmessung mit Gigabyte Board in Cinebench 11.5.

LovesuckZ
2011-10-21, 10:50:31
Wow. Auf dieses Stromniveau konnte ich nichtmal meine GTX480 bringen...

anddill
2011-10-21, 10:54:55
Nur dass ein SC mit doppeltem Takt eines DC -wenn er nicht auf diese Weise "sabotiert" würde- mehr als gleich schnell wäre. Wesentlich.


Die Softwareentwickler wissen aber, daß der Singlecore mit 10GHz nicht kommen wird. Mehr Leistung gibts nur noch mit mehr Cores, und 4x2,5GHz sind heute schon Low-End. Und darauf müssen sie sich nun mal einrichten.
Das hat nichts mit sabotieren zu tun, sondern mit Physik.

robbitop
2011-10-21, 11:01:13
Die Softwareentwickler wissen aber, daß der Singlecore mit 10GHz nicht kommen wird. Mehr Leistung gibts nur noch mit mehr Cores, und 4x2,5GHz sind heute schon Low-End. Und darauf müssen sie sich nun mal einrichten.
Das hat nichts mit sabotieren zu tun, sondern mit Physik.
Das war ja auch nur ein Beispiel zur Verdeutlichung. Betreffen tut es IMO die DC, die unsinnigerweise eingebremst werden. Hätte man die Threadvergabe z.B. bei GTA4 ein wenig umsichtiger gemacht, würde das Spiel auf einem Core2Duo noch sehr gut laufen. Es gäbe nicht annähernd so gewichtige Gründe auf Quadcores oder 6-Cores umzusteigen.
Und das ist IMO Sabotage. Sicher nicht mit böser Intension aber dennoch unnötig. Und das führt auch dazu, dass Leute glauben, dass ja mittlerweile alles so toll parallelisierbar und skalierbar sei. Ist es in Wahrheit eben gar nicht in dem Ausmaß. Es erscheint nur so.

G 80
2011-10-21, 11:15:13
Und wieder der Intel übertaktet verbraucht (zt 20%!) weniger als FX standard. ;D

Zum 4,6 Ghz AMD Stromverbrauch gibts nur zu sagen: Intel und AMD kühlen beide Hauptsächlich mit Stickstoff. Nur bei Intel darfs Gasförmig sein und bei AMD gehts bei flüssig erstmal los. ;D :freak:


Und wie steht das eigentlich das Board durch? :freak:

Odal
2011-10-21, 11:28:47
Die Softwareentwickler wissen aber, daß der Singlecore mit 10GHz nicht kommen wird. Mehr Leistung gibts nur noch mit mehr Cores, und 4x2,5GHz sind heute schon Low-End. Und darauf müssen sie sich nun mal einrichten.
Das hat nichts mit sabotieren zu tun, sondern mit Physik.

Die Sofware- sowie Hardware- Entwickler wissen aber auch, dass man aus einem Performance kritischen Thread nicht einfach beliebig viele machen kann (nur die Kunden wissens nicht, denen kann man dann 32core CPUs andrehn ;D).
Leider hat es sich scheinbar teils eingebürgert absolut unsinnig Sachen in extra "mini" Threads zu packen (mit entsprechendem Overhead natürlich), ohne am eigentlich performance kritischen Thread was verändern zu können.

Dunkeltier
2011-10-21, 11:38:17
Das halte ich mal für sehr kurz gedacht. Wie wäre es zB. bei der KI mit einem Thread pro NPC. Oder bei der Grafik erst. Wenn es nach deiner Theorie geht, müsste bei zB. BF3, was angeblich mit 8 Kernen skaliert, die KI genausoviel last erzeugen, wie der Sound und die Grafik. Ansonsten wäre eine nahezu 100%ige Skalierung nicht drin. Glaubst du, dass das so ist? Ich nicht. Ich sehe da jedenfalls noch erhebliches Optimierungspotential in Richtung Multicore.

(Wenn das Bsp. mit BF3 nicht passt, setze eines der anderen gut mehrkernoptimierten Spiele ein. Hab da nicht so den Überblick)


Bei der KI fällt niemals soviel Rechenlast an, als das diese ein Thread pro NPC bräuchte. Und andere Sachen wie der Grafikthread in einem Spiel ist nur schlecht bis mäßig parallelisierbar, hier zieht man auch eher Vorteile aus leistungsstärkeren statt übermäßig vielen aber nur rechenschwachen Kernen.

Mitunter hat man hier einfach mit dem Problem des abnehmenden Ertrags zu kämpfen. Weil eine Verdopplung der Cores nicht gleichzeitig in eine Verdopplung der Leistung resultiert, weil sich vieles nun mal einfach nicht unbegrenzt paralleliseren lässt.

LovesuckZ
2011-10-21, 11:42:22
Und wenn man sowieso hunderte Threads für KI benötigt, kann man diese auf einen Extra-Prozessor auslagern. Immerhin hat nVidia über CUDA schon KI-Berechnung demonstriert. Das selbe gilt auch für Effektphysik. Es macht im grunde kein Sinn für Desktop und u.a. Spiele auf mehr Cores zu gehen.

robbitop
2011-10-21, 11:49:46
Soetwas auf die GPU auszulagern ergibt nur Sinn, wenn die Dauer der Berechnung + Hin- und Rückversand schneller sind, als es auf der CPU zu einer akzeptablen Framerate zu schaffen.
Und allein die Übertragungslatenzen hin und zurück durch PCI-E machen da schon einen dicken Strich durch die Rechnung.
Das ist ja auch der Grund, warum auf Erweiterungskarten nur Effektphysik durchgeführt wird. Die muss nämlich nicht mehr zurück zur CPU, weil sie das Spiel nicht beeinträchtigt.
Das würde für echte spielrelevante KI auch gelten.
Das spricht allerdings alles sehr für heterogene Prozessoren. Wenn die Anbindung passt, würde das auf einer Fusion CPU mit NGP oder auf einer Intel CPU eher besser gehen. ;)

LovesuckZ
2011-10-21, 12:05:33
Spielerelevante KI muss überall laufen. Also bringt es nichts CPUs mit immer mehr Kernen bzw. den Möglichkeiten der gleichzeitigen Arbeitungen von mehr Threads zu bringen, wenn die Limitierung in den Verkaufszahlen liegt. Das ist das selbe Problem wie mit Physikberechnungen.

HOT
2011-10-21, 12:17:00
Das war ja auch nur ein Beispiel zur Verdeutlichung. Betreffen tut es IMO die DC, die unsinnigerweise eingebremst werden. Hätte man die Threadvergabe z.B. bei GTA4 ein wenig umsichtiger gemacht, würde das Spiel auf einem Core2Duo noch sehr gut laufen. Es gäbe nicht annähernd so gewichtige Gründe auf Quadcores oder 6-Cores umzusteigen.
Und das ist IMO Sabotage. Sicher nicht mit böser Intension aber dennoch unnötig. Und das führt auch dazu, dass Leute glauben, dass ja mittlerweile alles so toll parallelisierbar und skalierbar sei. Ist es in Wahrheit eben gar nicht in dem Ausmaß. Es erscheint nur so.
Das ist doch Quatsch. Bei GTA4 merkt man nur überdeutlich die 6 Threads der XBox. Man hat sich nur auf dem PC nicht die Mühe gemacht das neu zu optimieren. Das dürfte für so ziemlich jedes portierte Spiel gelten.

Hugo78
2011-10-21, 12:50:51
http://www.kitguru.net/components/cpu/zardon/power-consumption-fx-8150-v-i5-2500k-v-i7-2600k/

Verbrauchsmessung mit Gigabyte Board in Cinebench 11.5.

Sportlich, ein 406W Bulli @4,6GHz und erreicht dabei warscheinlich nicht mal den Speed eines 146W 2600k @Stock.
Da will ich garnicht wissen, was bei den OC Versuchen auf 8GHz über die CPU verbraten wurde. :freak:

Ronny145
2011-10-21, 13:00:18
Sportlich, ein 406W Bulli @4,6GHz und erreicht dabei warscheinlich nicht mal den Speed eines 146W 2600k @Stock.
Da will ich garnicht wissen, was bei den OC Versuchen auf 8GHz über die CPU verbraten wurde. :freak:

406W das System. 200W dürfte die CPU alleine übertreffen.

Hugo78
2011-10-21, 13:21:52
Schon klar das das Gesamtsystem gemeint ist, nur ist die Graka überall die selbe im Test.
Und Bulli @ Stock zieht schon über 100W mehr als ein 2500k und kommt dabei nur knapp über den Score des selben.

Und beim Vergleich zum 2600k muss man zwangläufig beim Bulli auf OC gehen.
Auch wenn ich wie gesagt bezweifle, dass es reicht.
Und neben der Graka, ist der Rest halt das Ökosystem des jeweiligen Herstellers, ohne das man nicht auskommt, um die jeweilige CPU zunutzen.

Bulli @OC lässt natürlich auch das Mobo mehr verbrauchen, aber ergibt es keinen Sinn hier in der Gesamtbilanz zu differenzieren.

Ronny145
2011-10-21, 13:25:06
Ein übertakteter Bulldozer lässt den Verbrauch stark in die Höhe steigen, das hat sich in mehreren Tests gezeigt. Ich bin aber auch negativ überrascht, dass sich Bulldozer in den vielen Tests nur um die 4,5-4,7 Ghz takten lässt. Mit Luft oder Wasserkühlung ist das Übertaktungspotenzial nicht größer als mit Sandy Bridge, obwohl es im Vorfeld stark angepriesen wurde.

M4xw0lf
2011-10-21, 13:37:32
Was wurde im Vorfeld denn nicht angepriesen... :freak:

L.ED
2011-10-21, 13:38:41
Jetzt geht auch noch diese Diskussion wieder los (hatten wir die nicht schon ein paar mal?), wer was braucht und überhaupt, auf die hat man ja schon gewartet. Ich möchte niemanden zu nahe treten aber da ist die Tür! Dort steht Intel drauf, da sind dann die Prozessoren die der allgemeine Mainstream (laut Aussagen), dann nur so braucht und gut.

Fertig, hätten wir es dann, könnten wir das dann mal unterlassen und ist es mal möglich auf breite ausgelegten Architekturen als solche in einem ihrer zuträglichen Umfeld nur zu betrachten? Als ob das nun so Hexenwerk wäre etwa Anno 1404 zu zoggen und nebenher ein Video Encoden lassen zu wollen, oder wegen meine neben nem BF3!? ^^ (echt mal manchmal, Tellerrand ahoi)

Ich für mein Teil möchte möglichst zeitnahe sogar allgemein bezahlbare 12kerner für den Desktop haben und sehen (am besten schon heute)! Und AMD ist da auf dem besten weg und allen anderen die damit nix anzufangen wissen, bitte da drüben ist der Stand mit Intel, die bauen Eure CPUs, lasst den anderen ihre. *Danke* :smile:

Ronny145
2011-10-21, 13:42:59
Ich für mein Teil möchte möglichst zeitnahe sogar allgemein bezahlbare 12kerner für den Desktop haben und sehen (am besten schon heute)! Und AMD ist da auf dem besten weg und allen anderen die damit nix anzufangen wissen, bitte da drüben ist der Stand mit Intel, die bauen Eure CPUs, lasst den anderen ihre. *Danke* :smile:

Auf dem besten Weg ist gut. Wenn das so weitergeht sehen wir bald AMDs Topmodelle mit Kernleistung einer Intel Atom CPU.


http://scalibq.wordpress.com/2011/10/19/amd-bulldozer-can-it-get-even-worse/

Der Bug müsste im Auge behalten werden.

L.ED
2011-10-21, 13:55:03
Man kann auch bewusst und gezielt Leuten Wörter im Munde umdrehen!?

Denn besonders im Hinblick auf die uns nun vorliegende Architektur als solche weiß man schon das es soweit ganz sicher nicht kommen wird! Es ist sehr wahrscheinlich das sie bei der pro Kernleistung die Intels nicht mehr einholen wird (dabei schon die kommenden im Auge), aber das muss sie auch nicht.

Ich sehe mich als Zielgruppe dieser CPUs von daher Maße ich mir an das beurteilen zu können, mehr Kernleistung ist immer gern gesehen und mitgenommen keine Frage aber die Prioritäten liegen anders.

robbitop
2011-10-21, 14:10:18
Das ist doch Quatsch. Bei GTA4 merkt man nur überdeutlich die 6 Threads der XBox. Man hat sich nur auf dem PC nicht die Mühe gemacht das neu zu optimieren. Das dürfte für so ziemlich jedes portierte Spiel gelten.
Das ist kein Quatsch. Das ist Amdahls law. Es sind einfach nur mehr Threads da als Kerne und schon gehen CPUs mit zu wenig Kernen in den Reibungsverlusten der Taskswitches unter. Frag mal Spieleentwickler wie Demirug. Denkst du wirklich, dass man Spiele auf einmal so toll parallelisieren kann? Man versucht krankhaft viele Kleinigkeiten so weit wie möglich zu verteilen. Achtet dabei aber nicht auf Modularität für CPUs mit weniger Kernen.

Spielerelevante KI muss überall laufen. Also bringt es nichts CPUs mit immer mehr Kernen bzw. den Möglichkeiten der gleichzeitigen Arbeitungen von mehr Threads zu bringen, wenn die Limitierung in den Verkaufszahlen liegt. Das ist das selbe Problem wie mit Physikberechnungen.
Es muss sich dafür natürlich eine gemeinsame Schnittstelle finden lassen, wie man die Ausführungseinheiten der GPUs in den CPU-DIEs einheitlich ansteuert. Unabhängig vom Hersteller.

Auf dem besten Weg ist gut. Wenn das so weitergeht sehen wir bald AMDs Topmodelle mit Kernleistung einer Intel Atom CPU.


Das ist, was die Single-Thread-IPC angeht, gar nicht so weit hergeholt. Der nächste Atom Kern wird ein OoO-Kern sein. Und mich würde es nicht überraschen, wenn der Bobcat überflügelt. Vieleicht kommt er auf K8 IPC Regionen oder sogar Core 2. Dann ist es soweit...
Man kann für AMD nur hoffen, dass durch entfernbare Flaschenhälse die µ-Arch in den nächsten Iterationen (Piledriver, Steamroller und Excavator) sich hinsichtlich der IPC noch massiv verbessert. Und zwar auf >> K10 IPC. Eher SB.

foenfrisur
2011-10-21, 15:07:45
wir sollten zumindest wirklich optimistischer ggü. einem windoof-scheduler-patch sein.
denn dafür bringt es einfach zu viel, wenn man threads pro modul verteilt, statt willkür.

http://www.overclock.net/amd-general/1142836-amd-fx-4100-benchmarking-stock-speed.html

mfg

MRM
2011-10-21, 15:13:12
Bei CB ist jemand auf einen interessanten Beitrag gestoßen

http://www.xtremesystems.org/forums/showthread.php?275891-Bulldozer-Overclocking-Guide-(Performance-Scaling-Charts-max-OCs)LN2-Results-coming

http://img840.imageshack.us/img840/7694/multihttscale.jpg

Offenbar wird der Bulli vom HT - Takt ausgebremst, jedenfalls ist er in einigen Fällen mit einem höheren HT Takt, bei gleichzeitig niedrigerem Multiplikator deutlich schneller. :freak:

Wirft bei mir irgendwie die Frage auf

- Hat AMD diese Möglichkeit übersehen, dem BD eine bessere Performance zu verpassen?

- Oder hat man sie bewußt ausgelassen um den Stromverbrauch nicht weiter in die Höhe zu treiben ( immerhin mußte hierfür der VCore erhöht werden )

- oder gibts noch andere Gründe ( Mainboards müssen mitspielen )

foenfrisur
2011-10-21, 15:22:50
die zahlen sehen aber sehr komisch aus.
mal schneller, mal langsamer.

je nachdem, welcher bench vom schnelleren speicher, cpu-takt oder ht-takt profitiert.

denn die besten werte sind nicht beim höchsten ht-takt.

mfg

MRM
2011-10-21, 15:26:35
Bei Cinebench und 3d CPU aber schon, oder ?

Super PI scheint hingegen gar nicht auf den HT Takt anzuspringen, das stimmt schon,

w Prime scheint nur bis zu einem bestimmten Punkt zu profitieren.

Aber immerhin wird keines deutlich langsamer, wenn man HT Takt steigert, und den Multi entsprechend senkt. Daher denke ich könnte das eine relativ einfache Möglichkeit für AMD sein, den Bulli zu optimieren. ( Will ja nicht jeder selbst bei diesen Einstellungen rumfummeln ), damit er wenigstens deutlich besser dasteht als die Vorgänger aus dem eigenen Hause.

Müßte mal jemand mit einer größeren Anzahl von Programmen austesten.

Ectoplasma
2011-10-21, 15:28:47
wir sollten zumindest wirklich optimistischer ggü. einem windoof-scheduler-patch sein.
denn dafür bringt es einfach zu viel, wenn man threads pro modul verteilt, statt willkür.

http://www.overclock.net/amd-general/1142836-amd-fx-4100-benchmarking-stock-speed.html

mfg

Als Scheduler Entwickler bei Microsaft würde ich AMD dafür hassen. Naja, Intel vielleicht auch, wegen anderer Dinge, die mir grad nicht einfallen :freak:

Undertaker
2011-10-21, 15:34:49
die zahlen sehen aber sehr komisch aus.
mal schneller, mal langsamer.

je nachdem, welcher bench vom schnelleren speicher, cpu-takt oder ht-takt profitiert.

denn die besten werte sind nicht beim höchsten ht-takt.

mfg

Die Benchmarks dort kommen mir generell sehr unausgegoren vor. Beispielsweise hier, wo die Skalierung mit dem Referenztakt untersucht wurde:

http://img840.imageshack.us/i/multihttscale.jpg/

Bei 200MHz und insgesamt 4,5GHz sollen nur 5,46 Punktem im CB erreicht worden sein. Ein FX 8150 erreicht aber bereits ohne OC und mit den standardmäßigen 200MHz Referenztakt Werte von über 6.

robbitop
2011-10-21, 15:37:55
Da kostet die lahme L3 Anbindung bestimmt schon wieder Performance. Ich hoffe, AMD macht es Intel nach und nimmt den L3 aus dem Uncorebereich und betreibt ihn mit vollem Takt.

foenfrisur
2011-10-21, 15:47:35
der hat irgendwie bei den benches was durcheinander gebracht.

die überschriften der tabellen passen ja schon teilweise nicht zu den werten in der tabelle.
bsp. "higher memory +nb+ht"

aber der speicher ist immer bei 2183.

mir das ganze ding zu wirr.

mfg

S940
2011-10-21, 15:50:11
Hatten wir doch schon vor ein paar Tagen besprochen, man muss mit den Mutlis aufpassen, die sollten eher schön gerade sein. War beim K10 auch schon so (wie mir damals jemand beibrachte ^^).
War glaube im alten Thread bei den ersten AIDA benches, da brach bei ein paar Screens der L2 Cache ein von 30GB/s auf 15GB/s, kanpp die Hälfte. das wirkt sich dann natürlich aus.

Deshalb rentiert es sich auch mit HTr Takt zu übertakten. NB & HTr Multi sollten gleich sein und der RAM Teiler scheint für DDR3-800 und DDR3-1600 am besten zu sein. Am besten immer schön gerade und ganzzahlig.
Je nach Reftakt kommt man da auf DDR3-1200 (mit 800er Teiler und 300 Reftakt), oder halt 2000 (1600er Teiler und 250Reftakt). Nicht ganz optimal, aber da man die CL Werte bei DDR3-1200 enstprechend tunen kann nicht so problematisch - von Packern und Photoshop abgesehen.

@robbitop:
16MB Cache mit vollem Takt kannst Du vergessen, kostet viel zuviel Strom, Intel rückt bei SandyE doch auch schon wieder davon ab.
Für den kleinen Quad und das bisschen 8MB Cache machbar, Sandy ist halt schon ein kraftpacket. aber darüber dann nicht mehr. Vor allem gleicht bei Serverapps eh SMT die Latenz wieder aus. AMD hat quasi beides, schnellen, fullspeed L2 und lahmen L3.

sklave_gottes
2011-10-21, 15:56:29
wir sollten zumindest wirklich optimistischer ggü. einem windoof-scheduler-patch sein.
denn dafür bringt es einfach zu viel, wenn man threads pro modul verteilt, statt willkür.

http://www.overclock.net/amd-general/1142836-amd-fx-4100-benchmarking-stock-speed.html

mfg

Du weist aber schon das der windows8 scheduler so sein wird, dass er erst immer ein Modul auslastet ?
Das heist bei einer anwedung die nur einen Dualcore auslastet arbeiten beide threads auf einem Modul, die anderen 3 Module werden in den spar modus gesteckt. ---> ipc noch weiter runter
Das habe ich schonmal angemerkt. Meiner meinung nach wird der speed eher noch schlechter ingesamt. Ich sehe keine hoffnung mehr.

mfg martin

boxleitnerb
2011-10-21, 16:00:07
Ist das hier schon bekannt? Ein clock interrupt BSOD in Shogun 2 und soweit ich das richtig verstehe auch anderen Steam Spielen:

http://scalibq.wordpress.com/2011/10/19/amd-bulldozer-can-it-get-even-worse/

Hat mehrere Tester und angeblich auch schon User betroffen und ist reproduzierbar. AMD arbeitet an einem Fix. Andere CPUs können diesen BSOD auch haben, allerdings scheint das eher zufällig und vor allem viel seltener zu sein.

S940
2011-10-21, 16:15:02
Ist das hier schon bekannt?

Ja, 13 Posts über Dir, auf dieser Seite. Bitte lest doch wenigstens die aktuelle Seite, bevor Ihr postet ...

#942 (im Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8995191#post8995191) / einzeln)

Odal
2011-10-21, 16:19:37
Auf dem besten Weg ist gut. Wenn das so weitergeht sehen wir bald AMDs Topmodelle mit Kernleistung einer Intel Atom CPU.


http://scalibq.wordpress.com/2011/10/19/amd-bulldozer-can-it-get-even-worse/

Der Bug müsste im Auge behalten werden.

Haha ja das ist gar nicht so abwegig wenn AMD die IPC weiter sinken lässt und die Atoms schneller werden.
Dann gibt es demnächst voll fett 12 oder 24 cores von AMD die im normalen Desktopberieb vom neuen Atom geownt werden :D

Ich sehe mich als Zielgruppe dieser CPUs von daher Maße ich mir an das beurteilen zu können, mehr Kernleistung ist immer gern gesehen und mitgenommen keine Frage aber die Prioritäten liegen anders.

Das würde so einiges am Zambezi als Bulldozer Desktop Variante erklären. Die haben den also für Sonderlinge konstruiert!!! Daher kommt er uns und den reviewern so "spanisch" vor ;D

boxleitnerb
2011-10-21, 16:20:06
Sorry.

L.ED
2011-10-21, 16:36:18
Aber gut gehen wir doch mal konform das es Momentan dann nur eine Nische u.a. auch meine offenbar anderen Ansprüche an ein System @Home!?

AMD ist ein Nischenhersteller immer gewesen (gemessen am Marktanteil gegenüber Intel), warum soll der dann nicht mal Nägel mit köpfen machen und sich zu bekennen und auch nur mal Prozessoren für eine momentane Nische in den Markt entlassen oder vielleicht gar nur noch für diese dann produzieren @Desktop. Was geht denn der Restwelt dabei ab sie hat doch ihre CPUs (oder nicht)? Dürfen andere darüberhinaus keine mehr ihren Ansprüchen entsprechende Hardware schon heute haben! Oder darf man es nur nicht laut äußern das es eben so ist, der Nimbus brutalster Überlegenheit an allen Fronten unschön angekratzt?

Und wenn dem so ist was juckt es(?), Intel steht es frei gleiches zu tun, die Welt will das doch offenbar nicht sonst wäre der Pressewind auch schon längst mal von anderen (objektiveren, sachlichen) Tenören durchtränkt!

Noch weitere Fragen (gewürzt mit Beleidigungen)? Danke fürs aufmerksame Fred verfolgen! ^^

AnarchX
2011-10-21, 16:39:38
Haha ja das ist gar nicht so abwegig wenn AMD die IPC weiter sinken lässt und die Atoms schneller werden.
Dann gibt es demnächst voll fett 12 oder 24 cores von AMD die im normalen Desktopberieb vom neuen Atom geownt werden :D

http://www.anandtech.com/bench/Product/434?vs=79

AMD 2014 ~150% FX-8150 (http://www.computerbase.de/news/2011-10/amd-gibt-ausblick-auf-schnellere-bulldozer-nachfolger/)
Intel 2015 ~1000% Atom 2011 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8738130#post8738130)

Da wird es wohl in manchem Benchmark schon gefährlich... ;D

Aber im Server-CPU-Markt werden für Cloud-Computing wohl durchaus Many-Core-CPUs mit relativ einfachen CPUs immer interessanter. Siehe Tilera. Langfristig gibt es da vielleicht auch ein >16-Core auf Bobcat-Basis.

MRM
2011-10-21, 16:49:59
Bei 200MHz und insgesamt 4,5GHz sollen nur 5,46 Punktem im CB erreicht worden sein. Ein FX 8150 erreicht aber bereits ohne OC und mit den standardmäßigen 200MHz Referenztakt Werte von über 6.

Hm - nun hab ich zwar leider nie selbst gebencht, aber muß man bei solchen vergleichen nicht immer vorsichtig sein. Bei einem anderen Reviewer zB waren sicher auch andere Hardwarekomponenten anders -

Und wie sieht es generell mit Cinebench aus - könnte der Wert nicht auch von den zu bearbeitenden Daten abhängen, oder gibts da so eine Standardbench die immer gleich ist?

Generell wäre es mir aber schon lieber, es gäbe noch einige weitere Quellen.

der hat irgendwie bei den benches was durcheinander gebracht.

die überschriften der tabellen passen ja schon teilweise nicht zu den werten in der tabelle.
bsp. "higher memory +nb+ht"

aber der speicher ist immer bei 2183.



Also den speziellen Test hab ich nicht so verstanden, als ob er dort eigentlich mit verschiedenen Speichergeschwindigkeiten testen wollte

anddill
2011-10-21, 16:56:18
Du weist aber schon das der windows8 scheduler so sein wird, dass er erst immer ein Modul auslastet ?
Das heist bei einer anwedung die nur einen Dualcore auslastet arbeiten beide threads auf einem Modul, die anderen 3 Module werden in den spar modus gesteckt. ---> ipc noch weiter runter
Das habe ich schonmal angemerkt. Meiner meinung nach wird der speed eher noch schlechter ingesamt. Ich sehe keine hoffnung mehr.

mfg martin

Man kann 2 Strategien fahren:
1. Alles was läuft auf so wenig Module wie möglich packen -> voller Turbo greift, der Rest geht in C6
2. Erst 0,2,4,6 auslasten, um nur einen Thread auf jedem Modul zu haben -> IPC steigt

Beides bringt Vorteile gegenüber dem derzeitigen strategielosen Threadgehopse.

mironicus
2011-10-21, 17:34:35
Erste Benchmarks von Retail FX-4100 und FX-6100.
http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/20279-erste-benchmarks-des-fx-6100-und-fx-4100.html

Oha! Das tut weh! Mein Phenom X2-555 @ 4 Kerne kommt ohne Übertaktung schon auf 3,76 Punkte im Cinebench. Wenn ich jetzt noch bedenke, dass die normalen Phenom II-Prozessoren auch noch die ausgewogenere Leistung besitzen (Spieleleistung, Anwendungsleistung, Multi-Threading), wird erst einem klar was für ein großer Fail diese neuen Prozessoren sind. Selbst bei einer Neuanschaffung würde ich mir jetzt keinen FX-Prozessor holen und lieber zu einem Phenom X4 oder X6 greifen da sie das bessere Preis-/Leistungsverhältnis bieten.

LovesuckZ
2011-10-21, 17:39:15
Jetzt erst? :D

Man sah doch schon am 4 Moduler, dass es Probleme mit den kleineren CPUs geben wird. Ausprägungen mit weniger als 4 Module sind völlig deplaziert am Desktop.

AnarchX
2011-10-21, 17:49:35
Verbrauchsvergleich mit unterschiedlicher Last in Cinebench R11.5:
http://pc.watch.impress.co.jp/img/pcw/docs/483/000/graph26.gif

Die erreichte Leistung dazu:
http://pc.watch.impress.co.jp/img/pcw/docs/483/000/graph05.gif

http://pc.watch.impress.co.jp/docs/topic/feature/20111012_483000.html

Odal
2011-10-21, 17:53:41
Jetzt erst? :D

Man sah doch schon am 4 Moduler, dass es Probleme mit den kleineren CPUs geben wird. Ausprägungen mit weniger als 4 Module sind völlig deplaziert am Desktop.


Das würde ich so nicht sagen. Die zimmern da noch einen FX4 Turbo das wird dann ein 4 moduler mit jeweils einem deaktivertem int kern pro modul
Das Ding kommt dann auf Leistungs- und Verbrauchswerte von einem PhenomII X4 985

Das das gehen muss sieht man ja am geplanten FX3

Vielleicht gibts das ganze dann auch ohne L3 Cache als Athlon Variante


Verbrauchsvergleich mit unterschiedlicher Last in Cinebench R11.5:
http://pc.watch.impress.co.jp/img/pcw/docs/483/000/graph26.gif

Die erreicht Leistung dazu:
http://pc.watch.impress.co.jp/img/pcw/docs/483/000/graph05.gif

http://pc.watch.impress.co.jp/docs/topic/feature/20111012_483000.html

wtf das ist ja wirklich so das man es schafft mit dem BD mehr zu verbrauchen bei weniger Leistung als der Vorgänger in "multithreaded anwendungen"

HOT
2011-10-21, 17:56:20
Ein FX3 hätte 3 aktive Module aber nur 1 Thread pro Modul. Anders macht ein FX3 keinen Sinn. Und die Propus-Variante dürfte anders als der Athlon2 keine Leistungseinbussen haben durch das Fehlen der L3 dank des großen L2 und könnte der sogenannte "Viperfish" sein.

Ronny145
2011-10-21, 17:57:51
Erste Benchmarks von Retail FX-4100 und FX-6100.
http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/20279-erste-benchmarks-des-fx-6100-und-fx-4100.html

Oha! Das tut weh! Mein Phenom X2-555 @ 4 Kerne kommt ohne Übertaktung schon auf 3,76 Punkte im Cinebench. Wenn ich jetzt noch bedenke, dass die normalen Phenom II-Prozessoren auch noch die ausgewogenere Leistung besitzen (Spieleleistung, Anwendungsleistung, Multi-Threading), wird erst einem klar was für ein großer Fail diese neuen Prozessoren sind. Selbst bei einer Neuanschaffung würde ich mir jetzt keinen FX-Prozessor holen und lieber zu einem Phenom X4 oder X6 greifen da sie das bessere Preis-/Leistungsverhältnis bieten.


In Anbetracht der Preise vom 2 und 3 Moduler ist das eine Katastrophe. X4 oder X6 Phenom ist hier die schnellere Alternative wenn es AMD sein muss.

LovesuckZ
2011-10-21, 18:08:31
Das würde ich so nicht sagen. Die zimmern da noch einen FX4 Turbo das wird dann ein 4 moduler mit jeweils einem deaktivertem int kern pro modul
Das Ding kommt dann auf Leistungs- und Verbrauchswerte von einem PhenomII X4 985

Das das gehen muss sieht man ja am geplanten FX3

Vielleicht gibts das ganze dann auch ohne L3 Cache als Athlon Variante



Das wäre auch wesentlich sinnvoller. Aber vollständige Modulausprägungen sind nur mit 4 Modulen interessant.

Twodee
2011-10-21, 19:10:02
Verbrauchsvergleich mit unterschiedlicher Last in Cinebench R11.5:
http://pc.watch.impress.co.jp/img/pcw/docs/483/000/graph26.gif

Die erreichte Leistung dazu:
http://pc.watch.impress.co.jp/img/pcw/docs/483/000/graph05.gif

http://pc.watch.impress.co.jp/docs/topic/feature/20111012_483000.html
Meine Güte, das Ding zieht mit einem P4 in allen Punkten gleich. Hätte ich nicht gedacht.....

merfu
2011-10-21, 19:23:53
So mein 8150 kommt morgen. Amazon liefert die vorbestellung nun aus.

Nächste woche kommen ein paar benches( anwendungen€.


Mfg

Spasstiger
2011-10-21, 19:43:11
Warum warten eigentlich die Leute auf den FX-8150, wenn sie letztlich doch übertakten wollen? Der FX-8120 hat auch einen offenen Multi, ist für Übertakter also P/L-technisch deutlich sinnvoller.

Meine Güte, das Ding zieht mit einem P4 in allen Punkten gleich. Hätte ich nicht gedacht.....
Mit Singlethreading in Cinebench ist der FX-8150 immerhin energieeffizienter als ein Phenom II X6 1100T. Das neue C6-Powergating bringt also was.

merfu
2011-10-21, 19:46:41
Gute frage. Vielleicht kann man den 8150 etwas besser übertakten.

Ist der 8120 den schon lieferbar? Außerdem was solls, zahl sowieso zuviel dann will ich auch den größten

foenfrisur
2011-10-21, 20:07:07
Du weist aber schon das der windows8 scheduler so sein wird, dass er erst immer ein Modul auslastet ?
Das heist bei einer anwedung die nur einen Dualcore auslastet arbeiten beide threads auf einem Modul, die anderen 3 Module werden in den spar modus gesteckt. ---> ipc noch weiter runter
Das habe ich schonmal angemerkt. Meiner meinung nach wird der speed eher noch schlechter ingesamt. Ich sehe keine hoffnung mehr.

mfg martin

ja, ich weiß, das windows 8 das schon so macht, win 7 noch nicht ;)

d.h. bei 2 parallelen anwendungen nimmt er 2 module oder..

egal, anddill hat ja schon alles geschrieben.

du kannst eben entweder auf den turbo bauen oder eben die caches etc. komplett für einen kern nutzen.

mfg

S940
2011-10-21, 22:47:02
Meine Güte, das Ding zieht mit einem P4 in allen Punkten gleich. Hätte ich nicht gedacht.....
Quatsch, BD ist viel besser :biggrin:
(hat mehr Verbrauch^^)

Wuge
2011-10-21, 23:28:11
Immer dieses Rumgehacke auf dem P4... Northwood mit DDR2 war lange Zeit die schnellste CPU und sehr gut übertaktbar. Schlimm waren nur die Prescotts. Obwohl ich meinen mit Wakü dann auch mochte *ggg*

Odal
2011-10-22, 00:31:15
So mein 8150 kommt morgen. Amazon liefert die vorbestellung nun aus.

Nächste woche kommen ein paar benches( anwendungen€.


Mfg

herzliches Beileid ;)

falls du Ideen für Benchmarks brauchst ich hätte da schon ein paar.

foenfrisur
2011-10-22, 00:57:26
ein neues overdrive ist raus...kann man ja gleich mal mittesten^^

http://www.computerbase.de/downloads/system/amd-overdrive/

http://sites.amd.com/us/Documents/AMD_OverDrive™_Utility_AMD.COM_Release_Notes.pdf

mfg

merfu
2011-10-22, 01:25:29
Immer her mit den Ideen.
Erstmal meine.
Erst @Stock die Anwendungsbensches durch.

Danach werde ich versuchen mal zu untersuchen was der HT OC ausmacht und das mit und ohne OC des Bulli. Danach noch separat Northbridge und dann schaun wir mal.

Witzig dabei denke wird sein wie das ganze aufm AM3 Crossair IV läuft.

Für Anwendungsbenches (muss kostenlos runterladbar sein) kann man sich anmelden. Benches kommen dann Sonntag abend.

Overdrive werd ich gleich runterladen.

SamLombardo
2011-10-22, 08:49:17
Immer her mit den Ideen.
.
Sehr interessant wäre Outcast. Siehe dieser Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514281)
Müsstest alt 2,99 Dollar bei gog investieren. (was nebenbei für dieses klasse Spiel einfach nur geschenkt ist:wink:)) ein Bulldozer Bench ist ja im verlinkten Thread schon dabei und sah gar nicht mal so schlecht aus. (war halt nur ein 6100, wäre schon interessant, wie sich der 8150 schlägt.)

merfu
2011-10-22, 09:27:17
Da denk ich drüber nach.

MfG

Skysnake
2011-10-22, 09:44:25
Immer her mit den Ideen.
Erstmal meine.
Erst @Stock die Anwendungsbensches durch.

Danach werde ich versuchen mal zu untersuchen was der HT OC ausmacht und das mit und ohne OC des Bulli. Danach noch separat Northbridge und dann schaun wir mal.

Witzig dabei denke wird sein wie das ganze aufm AM3 Crossair IV läuft.

Für Anwendungsbenches (muss kostenlos runterladbar sein) kann man sich anmelden. Benches kommen dann Sonntag abend.

Overdrive werd ich gleich runterladen.

genau mal mit der PARSEC benchsuite. Läuft halt unter linux, wäre aber interessant wegen selber compilieren. Eventuell schlägt sich bd dann wesentlich besser.

merfu
2011-10-22, 10:03:29
Erstmal wird unter win7 64 Bit getestet. Linux kann ich dann bei bedarf nochmal machen, aber dat dauert ein paar tage.

mfg

(del676)
2011-10-22, 10:25:19
Erstmal wird unter win7 64 Bit getestet. Linux kann ich dann bei bedarf nochmal machen, aber dat dauert ein paar tage.

mfg

Linux werde ich kommende Woche abdecken. Brauchst also nicht unbedingt Zeit verschwenden. ;)

Werde folgende Tests aus der PTS, gegen einen P2 X4@3Ghz, benchen. (FX-8150)
synthetic:
pts/cachebench - Processor

real world usage:
pts/build-apache - Processor -> compilation of apache
pts/build-mplayer - Processor -> compilation of mplayer
pts/povray - Processor -> ray-tracer
pts/c-ray - Processor -> volume raycasting software
pts/compress-7zip - Processor -> compression benchmark
pts/compress-gzip - Processor -> compression benchmark
pts/compress-lzma - Processor -> compression benchmark
pts/compress-pbzip2 - Processor -> compression benchmark
pts/ffmpeg - Processor -> audio/video encoding
pts/x264 - Processor -> x264 encoding
pts/apache - System -> apache benchmark
pts/pgbench - System -> datenbank benchmark
pts/john-the-ripper - Processor -> brute force password cracker
pts/openssl - Processor -> cryptography
pts/gnupg - Processor -> cryptography
pts/mrbayes - Processor -> e.g. used in antispam servers -> spamassassin

Skysnake
2011-10-22, 10:35:01
mach aber auch PARSEC. Die Benchmarksuite ist wirklich gut. Da hast du alles dabei von CPU-lastig, über I/O-lastig bis hin zu jedweder Mischform.

Die Benchmarks sind auch relativ schnell durch. Nimm simlarge oder native, wobei letzteres dann schon relativ lange braucht.

cool wäre halt mit den Compilerflags für BD einen Vergleich zu erstellen zur Laufzeit ohne die speziellen BD Flags.

Da könnte man dann nämlich wirklich mal raus finden, was noch in BD schlummert, aber eben von "alter" Software nicht genutzt werden kann, da Sie einen entsprechenden Codepfad nicht bereit hält.

merfu
2011-10-22, 10:48:57
find die idee gut. Aber in wie fern gibts den schon BD Flags? Meinst du AVX?

Skysnake
2011-10-22, 11:23:58
z.B.

Es sollte aber auch andere Anpassungen geben, um eben den sehr großen L2 effizient zu nutzen, oder eben auch XOP/FMA4.

Gerade FMA4 sollte je nach Anwendung doch deutliche Vorteile bringen.

merfu
2011-10-22, 11:31:14
Aber gerade bei FMA dachte ich das der Code angepasst werden muss. Ich glaub ich hab da ein Denkfehler drin.

mfg

merfu
2011-10-22, 13:50:36
So der 8150 ist da. Ach bin ich aufgeregt. Und die dose sieht wirklich gut aus.

mfg

Skysnake
2011-10-22, 14:08:32
Super :D

Dann bin ich mal gespannt.

Bzgl. FMA. Kommt halt auf den Compiler drauf an, wie "intelligent" er ist. Ich denke das sollte aber schnell integriert werden. Kann einfach verdammt oft für numerische Operationen verwendet werden. Da gibt es also ein wirklich großes Feld an Usern, die da gebrauchen können.

AnarchX
2011-10-22, 16:40:11
Cosshair IV Probleme: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8996967#post8996967

nefu
2011-10-22, 20:08:50
Hallo merfu,

es wäre nett, wenn Du einen Fritz Schachbenchmark mit dem 8150 durchführen könntest.
Dazu gibts auch schon einen Thread im Benchmarking Forum:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=370675

Gruß!

nefu

merfu
2011-10-24, 10:40:13
Hallo merfu,

es wäre nett, wenn Du einen Fritz Schachbenchmark mit dem 8150 durchführen könntest.
Dazu gibts auch schon einen Thread im Benchmarking Forum:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=370675

Gruß!

nefu

Jo ist notiert.

LovesuckZ
2011-10-24, 15:26:53
Nach Bulldozer kommt Trinity (mit Piledriver), oder?

AnarchX
2011-10-24, 15:31:39
Es wird auch ein Piledriver-Update für AM3+ geben:
http://www.computerbase.de/news/2011-10/amd-gibt-ausblick-auf-schnellere-bulldozer-nachfolger/
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8979436#post8979436

LovesuckZ
2011-10-24, 15:35:21
Mit oder ohne Grafikeinheit?

AnarchX
2011-10-24, 15:37:18
Sehr wahrscheinlich ohne, der Sockel sieht ja keine Bildausgabe vor.
Ist wahrscheinlich von AMD: http://www.donanimhaber.com/islemci/haberleri/Dunyada-ilk-defa-AMDnin-ikinci-nesil-Bulldozer-mimarisi-icin-ilk-detaylar.htm

Ronny145
2011-10-24, 15:49:28
Mit oder ohne Grafikeinheit?


Trinity mit Piledriver Kernen und Grafikeinheit, Vishera mit Piledriver Kernen und keiner Grafikeinheit.

(del676)
2011-10-24, 21:52:02
Falls es jemanden intressiert, hier meine Linux Benches vom FX-8150.

http://openbenchmarking.org/result/1110202-LI-PHENOM2X408,1110240-LI-FX8150ATS54

einige Anmerkungen dazu:
1. Cool and Quiet sowie TurboCore funktionieren noch nicht. Sprich es laufen alle Kerne immer auf 3.6GHz.
2. nur die wenigsten Tests sind auch wirklich multithreaded.
- 7zip
- bzip2
- ffmpeg
- c-ray
- x264
- mplayer compilation

den Rest kann man also als guten IPC-Vergleich sehen.

edit: CnQ habe ich nun zum laufen gebracht, TurboCore noch nicht!

Soul
2011-10-26, 14:25:53
Im heutigen AMD FX-8150 Bulldozer On Ubuntu Linux Review unter
http://www.phoronix.com/scan.php?page=article&item=amd_fx8150_bulldozer&num=1 sieht der Bulli bei Multi-Threading nicht einmal so schlecht aus.