Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-Serie - Bulldozer - Review-Thread
Seiten :
1
2
[
3]
4
5
6
7
8
9
10
dllfreak2001
2011-10-14, 10:12:55
Anscheinend nicht wenn man sich den ersten Benchmarks mit Win8 traut.
Allerdings hält sich da der Vorteil auch in Grenzen.
Das ganze Design sieht aber sowieso nach Sparmaßnahme aus... komisch, war mir vor dem Release nicht so bewusst.
boxleitnerb
2011-10-14, 10:27:20
Wenn der BD im Serverbereich fast auf 980x Niveau liegen würde, wäre er doch bei Perf/W gar nicht so schlecht dabei, sondern fast gleichauf? Naja ok, vielleicht 10% schlechter.
Birdman
2011-10-14, 10:42:28
Ist das nicht eigentlich totaler Kappes, ok vielleicht nicht bzgl. Leistungsaufnahme aber bzgl. Performance.
2 "cores" eines Modules müssen sich so die shared parts teilen, wo sie doch auch exklusiven Zugriff bekommen könnten wenn nur immer ein Thread pro Modul zugeteilt wird und alle Module laufen statt nur der Hälfte bei 2 Threads pro Modul.
Ich vermute dass BD im Endeffekt eben per Performance bringt, wenn er zwar etwas konkurrierende Threads auf einem Modul hat, dieses dafür aber mit 4.2Ghz im Turbo betreiben kann, als wenn die Threads auf verschiedenen Modulen mit 3.4Ghz laufen.
Interessant würde dann aber die Situation, wo halt 3-4 relativ intensive Threads laufen. Wenn damit 2 Module gefüttern werden geht der Turbo auch nicht mehr so weit hoch und ist dann womöglich wieder langsamer als wenn 4 Threads schön auf die 4 Module aufgeteilt würden
Das ist dann aber wieder sehr Softwareabhängig, wenn tüchtig FPU Last gefordert wird GG trotz "besserem" Turbo
soviel zum einfachen autonomen intelligenten turbo beim bulldozer :frown:
Wenn der BD im Serverbereich fast auf 980x Niveau liegen würde, wäre er doch bei Perf/W gar nicht so schlecht dabei, sondern fast gleichauf? Naja ok, vielleicht 10% schlechter.
Naja (JF)AMDs Einschätzung dazu war ja (Server!): http://forums.anandtech.com/showpost.php?p=30370913&postcount=323
Da wäre das mit dem Stromverbrauch nicht soooooo schlimm gewesen. Halt wie GF 100 und nicht zu vergl. R600 oder BD jetzt.;D
Stattdessen halt http://scalibq.wordpress.com/2011/10/12/amd-bulldozer-nothing-to-see-here-moving-on/
Es bleibt dabei, es hängt entweder am Takt oder an der IPC. Wenn man jetzt grob sagen kann "jeder" SB schafft 4+ Ghz und liegt noch dazu bei 4,8 Ghzauf dem Stromverbrauchsniveau vom 8150 ( :freak: ) dann kann AMD wohl kaum mit einer 5-6 Ghz CPU gerechnet haben (jetzt auch in nächster Zeit betrachtet denn 32 nm muss eine Weile halten). (Soviel auch dazu was Intel könnte und nicht könnte ..... )
Bleibt einfach die grausame IPC und deren "Zuwachs".
http://images.memegenerator.net/instances/400x/10611892.jpg
LovesuckZ
2011-10-14, 11:01:33
Ich vermute dass BD im Endeffekt eben per Performance bringt, wenn er zwar etwas konkurrierende Threads auf einem Modul hat, dieses dafür aber mit 4.2Ghz im Turbo betreiben kann, als wenn die Threads auf verschiedenen Modulen mit 3.4Ghz laufen.
Interessant würde dann aber die Situation, wo halt 3-4 relativ intensive Threads laufen. Wenn damit 2 Module gefüttern werden geht der Turbo auch nicht mehr so weit hoch und ist dann womöglich wieder langsamer als wenn 4 Threads schön auf die 4 Module aufgeteilt würden
Ich bin anderer Meinung. Der Gewinn durch CMT liegt zZ nur bei 55%. Wenn man also statt 2 nun 4 Module mit 4 Threads füttert, sollte selbst ein im Bestfall 17% höhrerer Turbo keinen Ausgleich für den geringeren Leistungszuwachs von CMT erreichen.
Deswegen ist auch nur der 4 Moduler wirklich konkurrenzfähig, da er mit seinen 4 Modulen genau den heutigen, notwendigen "Kern"-Bereich abdeckt.
Hübie
2011-10-14, 11:05:50
Ich habs damals schon gesagt und sage es gern wieder:
Es gibt keinen Grund für den Kauf eines Bulldozer. Vllt. ist er seiner Zeit (zumindest performancetechnisch) vorraus, aber das bringt im Hier und Jetzt nichts. Auch in absehbarer Zeit kommt nicht viel bei rum. Klar is er schneller als ein i5 2500k aber hat auch 300 bzw 500 MHz mehr. Kostet mehr, verbraucht mehr und jeder i5 2500k geht mindestens bis 4,5 GHz. Mit einem Wort: fail! Wenn ich Zeit habe schau ich mir mal die Architektur an. Nach dem was ich weiß steckt Potenzial drin, aber nicht genügend um Intel die Krone zu entreißen.
Auch lustig wie alle bei CB, PCGH usw fleißig den armen Usern/Spielern empfohlen haben seit März auf BD zu warten. Die werden sich jetzt schön bedanken ;D
Edit: Vllt kommt ja noch ein Wunder-Kernelpatch und Wunder-BIOS-update! =)
Captain Future
2011-10-14, 11:09:21
Ich vermute dass BD im Endeffekt eben per Performance bringt, wenn er zwar etwas konkurrierende Threads auf einem Modul hat, dieses dafür aber mit 4.2Ghz im Turbo betreiben kann, als wenn die Threads auf verschiedenen Modulen mit 3.4Ghz laufen.
Interessant würde dann aber die Situation, wo halt 3-4 relativ intensive Threads laufen. Wenn damit 2 Module gefüttern werden geht der Turbo auch nicht mehr so weit hoch und ist dann womöglich wieder langsamer als wenn 4 Threads schön auf die 4 Module aufgeteilt würden
Ich glaube, genau da liegt das große, große und IMHO unlösbare Problem: Die Workloads sind einfach zu verschieden. Was beim einen was bringt, kostet beim anderen wieder.
Der_Korken
2011-10-14, 11:12:06
Wäre es eigentlich machbar, einen Scheduler zu implementieren, der automatisch lokal erkennt, welche Strategie gerade besser wäre? Man kann ja offensichtlich gar nicht sagen, welche Verteilung auf die Integer-Kerne jetzt im Allgemeinen besser ist. Der Scheduler könnte dann z.B. auch abhängig, was man gerade will, zwischen maximaler Leistung oder maximaler Effizienz umschalten. Ich hoffe ihr versteht, wie ich mir das vorstelle.
dllfreak2001
2011-10-14, 11:14:51
Es war ja auch nicht direkt so abzusehen, dass der BD ein solcher Griff ins Klo wird. Wer erwartet auch, dass eine Prozessor-Firma ernsthaft ein Nachfolgeprodukt mit geringerer Leistung als die des Vorgängers auf den Markt wirft. Der Endkunde wird bei der Werbung die AMD hier gemacht hat und macht regelrecht verarscht.
Captain Future
2011-10-14, 11:19:53
Wäre es eigentlich machbar, einen Scheduler zu implementieren, der automatisch lokal erkennt, welche Strategie gerade besser wäre? Man kann ja offensichtlich gar nicht sagen, welche Verteilung auf die Integer-Kerne jetzt im Allgemeinen besser ist. Der Scheduler könnte dann z.B. auch abhängig, was man gerade will, zwischen maximaler Leistung oder maximaler Effizienz umschalten. Ich hoffe ihr versteht, wie ich mir das vorstelle.
Nein, denn gerade das ist ja das Problem: Du kannst vorher nicht erkennen, welche Strategie gerade besser ist, ohne den Code zur Laufzeit quasi zu simulieren, nicht nur zu analysieren. Und dann bräuchte der Scheduler natürlich Informationen über sämtliche Konfigurationen pro Hersteller. Das ist nicht machbar. Gerade das ist ja AMDs Problem mit Enduser-Anwendungen.
Für ihre HPC-Geschichten, wo der performancekritische Code eh auf die Architektur abgestimmt wird, dürfte das ein VIEL geringeres Problem sein.
(del676)
2011-10-14, 11:21:27
Was nutzt einem ein 500PS Motor, wenn durch durchdrehende Räder eh nicht mehr als 200 davon auf die Straße kommen?
Weils in ein paar Monaten Reifen gibt, die die Kraft auf die Strasse bringen. Und in einem oder zwei Jahren jedes Auto zwingen solche Reifen brauchen wird.
Cyphermaster
2011-10-14, 11:26:32
Dann fahr ich mein bisheriges 200PS-Auto weiter, und kauf mir eines mit 500PS, wenn es wirklich nutzbar ist... Nix gegen die BD-Architektur, aber im aktuellen Zustand sind die Dinger nicht grade eine Offenbarung. /Nachtrag: Diese Zukunftsprognosen sind nun mal auch keine Garantie.
Exxtreme
2011-10-14, 11:28:28
Nein, denn gerade das ist ja das Problem: Du kannst vorher nicht erkennen, welche Strategie gerade besser ist, ohne den Code zur Laufzeit quasi zu simulieren, nicht nur zu analysieren. Und dann bräuchte der Scheduler natürlich Informationen über sämtliche Konfigurationen pro Hersteller. Das ist nicht machbar. Gerade das ist ja AMDs Problem mit Enduser-Anwendungen.
Für ihre HPC-Geschichten, wo der performancekritische Code eh auf die Architektur abgestimmt wird, dürfte das ein VIEL geringeres Problem sein.
Naja, der AMD-Fuzzi spricht was von neuen Compilern. Vielleicht sind diese neuen Compiler in der Lage dem Scheduler mitzuteilen welche Strategie die bessere ist und er ist dann in der Lage dynamisch umzuschalten.
Das wäre durchaus im Bereich des Möglichen. Für alte Anwendungen hilft das zwar nix. Aber alte Anwendungen laufen auch auf dem BD IMHO schnell genug.
(del676)
2011-10-14, 11:29:04
Dann fahr ich mein bisheriges 200PS-Auto weiter, und kauf mir in 2 Jahren eines mit 500PS, wenn es wirklich nutzbar ist... Nix gegen die BD-Architektur, aber im aktuellen Zustand sind die Dinger nicht grade eine Offenbarung.
Jaeh. Als Gamer oder normaler Nutzer gibts so gut wie gar keinen Grund sich jetzt einen BD zu kaufen.
Matrix316
2011-10-14, 11:30:42
Wäre es nicht besser gewesen den BD für den Server zu belassen und für den Desktop was anderes zu machen?
(del676)
2011-10-14, 11:33:10
Wäre es nicht besser gewesen den BD für den Server zu belassen und für den Desktop was anderes zu machen?
Ne. Ich warte schon ungeduldig auf so Features wie HW-AES fuer meinen Linux Server. (AM3+ Board)
LovesuckZ
2011-10-14, 11:35:15
Wäre es nicht besser gewesen den BD für den Server zu belassen und für den Desktop was anderes zu machen?
Die Entwicklung kostet Geld, sehr viel Geld. Man versucht daher das maximalmögliche aus der Investition herauszuholen -> Verwendung in mehreren Gebieten. Außerdem hat AMD doch schon an einem weiteren 32nm Chips für Desktop gearbeitet -> Llano.
Was willst du denn mit den Chips machen, die nicht dem Standard für Server entsprechen? Wegwerfen? Wäre eine pure Verschwendung von Ressourcen.
Das Problem an Bulldozer ist die Architektur, die einfach darauf ausgelegt ist, erstmal eine entsprechende Anzahl an Modulen liefern zu müssen. Aber was bringt diese Auslegung, wenn die einzige konkurrenzfähige gleichzeitig auch die maximale Konfiguration wäre? Würden wir bei einem FX4 von einem 4 Moduler und beim FX8 von einem 8 Moduler reden, sähe das ganze komplett anders aus.
Cyphermaster
2011-10-14, 11:35:49
@Matrix:
Die Idee hinter BD ist ja auch für den Desktop nicht schlecht. Nur die Umsetzung ist bisher nur so beschissen gelungen, daß sich netto kein Vorteil ergibt. Mag sein, daß sich das noch stark verbessern läßt, und sich die BD-Module als stark vorteilhaft rausstellen - mag aber auch sein, daß nicht, so wie der Ansatz hinter Netburst.
Matrix316
2011-10-14, 11:38:01
Ne. Ich warte schon ungeduldig auf so Features wie HW-AES fuer meinen Linux Server. (AM3+ Board)
Wie wäre es mit einem Sandy Bridge? Die können das glaube ich. ;)
Ronny145
2011-10-14, 11:38:46
Naja, das zweite ist doch ein gewöhnlicher Werbetext, wie man ihn auch bei Intel finden würde. Aber noch geiler sind die Comments aus dem Blog.
Das mit der Energieeffizienz klingt aber lustig. Effizienz sieht für mich anders aus. Das ist ja auch das Schlimme. Wenn die Leistung nicht passt ok, zusammen mit der schlechten Effizienz, die teils unterhalb der eigenen 45nm CPUs liegt, ist das ganze umso schlimmer. Liegt sicher auch an den hohen Taktraten im mäßigen 32nm Prozess von Globalfoundries, die mussten einfach bis ans Limit gehen. Sonst wäre Bulldozer gar nicht verkaufsfähig. Das ist der Nachteil einer auf Takt ausgelegten Architektur.
Wäre es nicht besser gewesen den BD für den Server zu belassen und für den Desktop was anderes zu machen?
und was bitte?
die PhenomII hat man doch schon bis zum letzten ausgequetscht und guckt man sich Llano an bringen die nun auch nicht gerade ein super Performance/Watt Verhältnis
Einen X6 auf 32nm zu schrinken oder gar noch 2 Kerne dranzupappen wäre totaler Kappes.
AMD konnte nur bringen was sie hatten und das ist nunmal BD
vielleicht ist der 32nm Prozess wirklich so miserabel derzeit das die BD eigentlich mit deutlich weniger Spannung geplant waren
(del676)
2011-10-14, 11:40:25
Wie wäre es mit einem Sandy Bridge? Die können das glaube ich. ;)
Intel ist ein direkter Konkurrent meines Arbeitgebers. Da gebe ich lieber AMD die Kohle. ;)
Ausserdem passt ein SB so schwer auf das AM3+ Board.
Duplex
2011-10-14, 11:47:19
Selbst wenn der 32nm Prozess besser werden sollte, das BD Design hat immer noch zuwenig Leistung pro Takt, es ist vorbei! 500MHz mehr Takt wäre immer noch zuwenig, von der Leistungsaufnahme brauchen wir erst garnicht reden.
Im Desktop Markt ist AMD leider keine Alternative mehr. Nur Fanboys oder Übertakter die 5Ghz knacken wollen werden BD kaufen.
Die Leute die sich richtig informieret haben kaufen Sandy Bridge oder eine günstige CPU der älteren Generation.
@Odal
Ein Phenom3 mit 6 Kerne, 1MB L2, 8MB L3 & 3,8Ghz bei 220-250mm² DIE Space wäre immer noch sinnvoller & deutlich günstiger als Zambezi.
Ronny145
2011-10-14, 11:50:03
die PhenomII hat man doch schon bis zum letzten ausgequetscht und guckt man sich Llano an bringen die nun auch nicht gerade ein super Performance/Watt Verhältnis
Jetzt ist es eh zu spät. Das hätte vor ein paar Jahren entschieden werden müssen. Ein verbesserter K10.5 Kern mit mehr IPC (ähnlich den Stars Kernen) mit sixcores und einen höheren Takt/Turbo wäre sicherlich ausgewogener gewesen als das was Bulldozer bietet. Llano mit den schwachen Yields und der GPU ist kein Maßstab. Mit 'ner Vcore von rund 1,4V ist kein CPU Effizienswunder zu erwarten.
Matrix316
2011-10-14, 11:50:44
und was bitte?
die PhenomII hat man doch schon bis zum letzten ausgequetscht und guckt man sich Llano an bringen die nun auch nicht gerade ein super Performance/Watt Verhältnis
Einen X6 auf 32nm zu schrinken oder gar noch 2 Kerne dranzupappen wäre totaler Kappes.
Warum eigentlich net? Machts Intel nicht genau so? Sandy Bridge ist doch auch nur eine erweiterte Nehalem/Lynnfield Architektur, oder?
Was würde dagegen sprechen einen Phenom II auf 32nm zu schrinken und zwei Dies mit Hypertransport zu einem 8 Kerner zu verschmelzen?
Kane02
2011-10-14, 11:51:33
bin ich froh, dass ich schon ne Zeit lang nen 2500k i5 hab... sehr schade AMD
Cyphermaster
2011-10-14, 12:10:48
BD ist imho in einem Zustand, wie seiner Zeit die Phenom 1 - Basis. Taktlahm und spannungsgierig, gegenüber dem Vorgänger in der Leistung sicher kein Dimensionssprung (außer bei der Abwärme, da aber nach oben).
Ein Phenom3 mit 6 Kerne, 1MB L2, 8MB L3 & 3,8Ghz bei 220-250mm² DIE Space wäre immer noch sinnvoller & deutlich günstiger als Zambezi.
Und wann will man dann mal mit einer neuen Architektur anfangen?
Das es echte 6 Kerne im Desktop Segment nicht reissen hat man doch schon bei den Thubans gesehen. Hier nimmt man ja häufig Performance einbussen in Kauf da man Takt mäßig nicht so hoch kommt wie beim x4 980 z.b.
Irgendwo gehen die Anforderungen Desktop<->Server mit Virtualisierungen massiv auseinander
ersteres spricht halt Großteils nur auf Bumms auf wenigen Cores an
Warum eigentlich net? Machts Intel nicht genau so? Sandy Bridge ist doch auch nur eine erweiterte Nehalem/Lynnfield Architektur, oder?
Nehalem und jetzt auch Sandy bauen aber auf einer sehr gut funktionierenden Core2 Architektur auf
Phenom war am Ende
Was würde dagegen sprechen einen Phenom II auf 32nm zu schrinken und zwei Dies mit Hypertransport zu einem 8 Kerner zu verschmelzen?
Was willst du mit 8 Kernen auf einem Desktop Rechner? Eigentlich täte AMD gut daran wenn die FX4 schnell genug wären garkeine FX8 für AM3+ zu bringen (evtl. die FX6 für Enthusiasten)...skaliert einfach bei Desktop zeug zu schlecht über die Kernanzahl.
Leider ist der BD aber keine Rakete daher braucht man jedes %
Jetzt ist es eh zu spät. Das hätte vor ein paar Jahren entschieden werden müssen. Ein verbesserter K10.5 Kern mit mehr IPC (ähnlich den Stars Kernen) mit sixcores und einen höheren Takt/Turbo wäre sicherlich ausgewogener gewesen als das was Bulldozer bietet. Llano mit den schwachen Yields und der GPU ist kein Maßstab. Mit 'ner Vcore von rund 1,4V ist kein CPU Effizienswunder zu erwarten.
K10 ist eine Sackgasse und Effizienswunder schon gar nicht. Und natürlich ist LIano ein Maßstab. Der braucht nicht nur wegen der GPU seine 1.4+V :rolleyes:
LovesuckZ
2011-10-14, 12:17:29
Bulldozer ist doch auch nur ein 4 Kerner - genauso wie SB. Also hat AMD doch genau das gemacht: Weniger Kerne, dafür die Möglichkeit mehr Threads pro Kern abarbeiten zu können.
Ronny145
2011-10-14, 12:25:05
K10 ist eine Sackgasse und Effizienswunder schon gar nicht. Und natürlich ist LIano ein Maßstab. Der braucht nicht nur wegen der GPU seine 1.4+V :rolleyes:
Bulldozer ist noch viel weniger ein Effizienzwunder. Im kleineren node ist es teils ineffizienter als der Vogänger in 45nm. Wir reden hier außerdem von einer hypothetischen CPU ohne GPU Klotz. Und ja bei so schlechten Yields kann auch die CPU Spannung leiden. Oder glaubst Du, AMD kann bei der geringen Ausbeute noch großartig CPUs sondieren? Nein da wird eine hohe Spannung gewählt um möglichst alle Samples ohne großartige Selektierungen durchzubringen. Mit verbesserten 32nm K10.5 Modellen hätte AMD für den Desktop BDv1 überspringen können. Das sind natürlich alles rein theoretische Gedankenspiele. Solche Entscheidungen fallen lange Zeit vorher. Ob sich das Moduldesign insgesamt im Desktop Bereich durchsetzt, werden wir erst die nächsten 1-2 Jahre feststellen.
Spasstiger
2011-10-14, 12:31:23
Wie wäre es mit einem Sandy Bridge? Die können das glaube ich. ;)
Nur die teureren Modell (ab Core i5). Bei AMD können es auch die FX4 für unter 100€.
Und Support für ECC-Speicher ist bei AMDs Desktopprozessoren auch schon dabei, bei Intel müsste man dafür auf teure Xeons zurückgreifen.
Matrix316
2011-10-14, 12:32:12
[...]
Was willst du mit 8 Kernen auf einem Desktop Rechner? Eigentlich täte AMD gut daran wenn die FX4 schnell genug wären garkeine FX8 für AM3+ zu bringen (evtl. die FX6 für Enthusiasten)...skaliert einfach bei Desktop zeug zu schlecht über die Kernanzahl.
Leider ist der BD aber keine Rakete daher braucht man jedes %
[...]
Macht nicht AMD genau das mit mehr Kernen zu versuchen mehr Leistung zu generieren? Und wäre es nicht besser statt einem Core mit zwei pseudocores lieber gleich zwei richtige Cores in ein "Modul" zu packen?
Langenscheiss
2011-10-14, 12:32:43
Das mit der Energieeffizienz klingt aber lustig. Effizienz sieht für mich anders aus. Das ist ja auch das Schlimme. Wenn die Leistung nicht passt ok, zusammen mit der schlechten Effizienz, die teils unterhalb der eigenen 45nm CPUs liegt, ist das ganze umso schlimmer. Liegt sicher auch an den hohen Taktraten im mäßigen 32nm Prozess von Globalfoundries, die mussten einfach bis ans Limit gehen. Sonst wäre Bulldozer gar nicht verkaufsfähig. Das ist der Nachteil einer auf Takt ausgelegten Architektur.
Irgendwie komisch. Zu P4-Zeiten waren es AMD, die die höhere pro Takt-Leistung hatten. Intel hat gelernt, was ist mit AMD?
Bucklew
2011-10-14, 12:33:02
Nur die teureren Modell (ab Core i5). Bei AMD können es auch die FX4 für unter 100€.
Dafür kriegst du den i5 als 35W Version. Die passt sogar in mein ITX-Gehäuse mit 65W Pico-Netzteil (+ SSD + 2xHDD).
LovesuckZ
2011-10-14, 12:36:28
Irgendwie komisch. Zu P4-Zeiten waren es AMD, die die höhere pro Takt-Leistung hatten. Intel hat gelernt, was ist mit AMD?
ATi kam dazwischen. :freak:
Es scheint wohl, dass das Geld fehlt, um vernünftige F&E betreiben zu können. Was hat man bezahlt? $4,2 Mrd. in Cash bei damaligen $2,5 Mrd als Barreserven?
Bulldozer ist noch viel weniger ein Effizienzwunder. Im kleineren node ist es teils ineffizienter als der Vogänger in 45nm.
Das kannst du so garnicht behaupten dazu hätte AMD einen "echten" FX4 (also kein Teildeaktivierter FX8) auf 45nm rausbringen müssen.
Da würde man dann auch sehen ob die lieber wenigen module als "spar"dualcore verbund hier gut abgehen was performance/watt anbelangt.
Ich bleibe dabei das ich vermute das der 32nm prozess einfach unausgegoren und schlecht läuft
Macht nicht AMD genau das mit mehr Kernen zu versuchen mehr Leistung zu generieren? Und wäre es nicht besser statt einem Core mit zwei pseudocores lieber gleich zwei richtige Cores in ein "Modul" zu packen?
Nee es wäre besser mit einfach 2-3 "echten" pseudo Core Verbunden im Desktop Segment mithalten zu können
Der FX4 soll ja eigentlich Tripple-Quadcores ersetzen.
ATi kam dazwischen. :freak:
Es scheint wohl, dass das Geld fehlt, um vernünftige F&E betreiben zu können. Was hat man bezahlt? $4,2 Mrd. in Cash bei damaligen $2,5 Mrd als Barreserven?
Blödsinn ATI ist das einzige was seit Jahren wirklich kontinuierlich Gewinn abwirft. Und das wird das einzige sein wo sie jetzt erstmal (dank CPU+GPU low budget lösungen) im Desktop Segment wirklich Umsatz generieren können. Wer würde denn sonst die LIano Krüppel CPUs kaufen ohne integrierte GPU?
Matrix316
2011-10-14, 12:39:53
ATi kam dazwischen. :freak:
Es scheint wohl, dass das Geld fehlt, um vernünftige F&E betreiben zu können. Was hat man bezahlt? $4,2 Mrd. in Cash bei damaligen $2,5 Mrd als Barreserven?
Aber man wollte ja unbedingt den Fusion Quatsch mit integrierter GPU in der CPU...:rolleyes:
Mit MHz statt Effizienz Punkten ist aber jetzt auch nichts neues, sondern das war ja beim Phenom II auch schon so. Da braucht man auch über 3 GHz um mit einem 2,6 GHz i5 mitzuhalten...
Ronny145
2011-10-14, 12:40:42
Das kannst du so garnicht behaupten dazu hätte AMD einen "echten" FX4 (also kein Teildeaktivierter FX8) auf 45nm rausbringen müssen.
Ich habe bis jetzt nur die 4 Moduler verglichen mit den Sixcores in 45nm. Auf hardware.fr haben die eine schlechtere Effizienz im Test.
Cyphermaster
2011-10-14, 12:40:43
Es scheint wohl, dass das Geld fehlt, um vernünftige F&E betreiben zu können.Geld heißt noch lange nix. Für Netburst hat Intel auch nicht mit Ressourcen gegeizt. F&E ist nun mal nicht berechenbar.
Ich habe bis jetzt nur die 4 Moduler verglichen mit den Sixcores in 45nm. Auf hardware.fr haben die eine schlechtere Effizienz im Test.
Dann hat wohl hardware.fr 45nm BDs bekommen :rolleyes:
Ronny145
2011-10-14, 12:45:55
Dann hat wohl hardware.fr 45nm BDs bekommen :rolleyes:
Na sicher doch. :upicard:
Bucklew
2011-10-14, 12:46:17
Es scheint wohl, dass das Geld fehlt, um vernünftige F&E betreiben zu können. Was hat man bezahlt? $4,2 Mrd. in Cash bei damaligen $2,5 Mrd als Barreserven?
Waren doch 5,2 Mrd US-$, von denen dann in den Jahren danach über 2 Millarden, also gut die Hälfte, abgeschrieben werden musste. AMD hat also durch den viel zu hohen Kaufpreis von ATI seine Barreserven durch den Kamin gejagt.
Blödsinn ATI ist das einzige was seit Jahren wirklich kontinuierlich Gewinn abwirft. Und das wird das einzige sein wo sie jetzt erstmal (dank CPU+GPU low budget lösungen) im Desktop Segment wirklich Umsatz generieren können. Wer würde denn sonst die LIano Krüppel CPUs kaufen ohne integrierte GPU?
Bei den 10 oder 20 Millionen die mal rumkommen dauert das noch etwas, is sich das gelohnt hat...
LovesuckZ
2011-10-14, 12:47:49
Geld heißt noch lange nix. Für Netburst hat Intel auch nicht mit Ressourcen gegeizt. F&E ist nun mal nicht berechenbar.
Netburst hatte seine, zwar kurze, aber sehr starke Zeit mit Northwood, 400MHZ FSB und DDR2 Speicher. Aber Intel hat ja ein Problem gehabt, was nicht F&E bei der CPU zu tun hatte - man konnte durch Prozesslimitierungen den Takt nicht in die gewünschte Höhe bringen.
AMD's Problem ist doch problematischer: Es fehlt nicht nur an Takt, die Kernleistung entspricht annährend nur 50% von SB bei annährend doppeltem Stromverbrauch. Die Effizienz liegt im schlimmsten Fall nur bei 1/4 von der von Intel...
Und die Dinge wie schlechte IPC, niedrige CMT-Effizienz hätte man aus meiner Sicht per Simulation ermitteln müssen.
/edit: Und im übertragenden Sinne kannst du das fehlende Geld dann auch dem schlechteren Abschneiden von GF zuschieben.
Bei den 10 oder 20 Millionen die mal rumkommen dauert das noch etwas, is sich das gelohnt hat...
man darf doch nicht nur den Reingewinn (genaue Zahlen müsste ich erst nachgucken) an GPUs rechnen, sondern muss mal sehen das da die Plattform für die ganzen KomplettPCs und Notebooks zählt.
Die GPUs verkaufen da CPUs Chipsätze etc. welche sonst nur wie Blei im Regal liegen würden.
Spasstiger
2011-10-14, 13:04:27
Geld heißt noch lange nix. Für Netburst hat Intel auch nicht mit Ressourcen gegeizt. F&E ist nun mal nicht berechenbar.
Netburst war nach Intel-eigenen Angaben auch ein wirtschaftlicher Erfolg und von manchen bei Netburst eingeführten Features wie Hyperthreading profitiert man noch heute. Unzufrieden war Intel bei Netburst nur darüber, dass man die Erwartungen an den Maximaltakt nicht erfüllen konnte.
boxleitnerb
2011-10-14, 13:09:27
Im Desktop wird es wohl so bleiben im Großen und Ganzen, aber mit Detailverbesserungen hier und da, einem besser werdenden Prozess und entsprechenden Anwendungen könnte Interlagos eine ganz passable Perf/W erreichen. Gibts irgendwo schon Interlagos Tests oder dauert das noch?
LovesuckZ
2011-10-14, 13:11:35
Interlagos wurde bis jetzt wohl nur an Cray ausgeliefert. Kann also noch dauernd, bis man erste Messungen erhält.
YfOrU
2011-10-14, 13:15:24
@Matrix:
Die Idee hinter BD ist ja auch für den Desktop nicht schlecht. Nur die Umsetzung ist bisher nur so beschissen gelungen, daß sich netto kein Vorteil ergibt. Mag sein, daß sich das noch stark verbessern läßt, und sich die BD-Module als stark vorteilhaft rausstellen - mag aber auch sein, daß nicht, so wie der Ansatz hinter Netburst.
Das kann man auf jeden Fall so unterschreiben denn abseits der Fertigung gibt es mit Scheduling in Kombination mit Turbo eine recht große Baustelle.
Mir ist die Design Entscheidung die hier getroffen wurde unverständlich denn gerade bei Anwendungen und Spielen mit maximal vier Threads (was auf dem Desktop eher der Regelfall ist) wird Performance verschenkt.
Das Argument Energiebedarf/Effizienz zieht in der Praxis dabei nicht wirklich wie die Skalierung belegt:
http://www.hardware.fr/articles/842-10/cmt-turbo-core-2-0-windows-8.html
http://www.xtremesystems.org/forums/showthread.php?275873-AMD-FX-quot-Bulldozer-quot-Review-%284%29-!exclusive!-Excuse-for-1-Threaded-Perf
Schlussendlich müsste immer zuerst ein Kern pro Modul ausgelastet werden und der jeweils zweite Kern sollte erst bei einer Last größer vier Threads aus dem C6 geholt werden (4 Module). Der Haken daran ist das sich anscheinend nur komplette Module abschalten lassen und nicht einzelne Kerne und das lässt sich nicht von heute auf morgen ändern. Allerdings sind das teilweise um die 20% die hier verloren gehen und mit diesen würde es auf dem Desktop gegenüber den älteren K10(.5) CPUs ein ganzes Stück besser aussehen.
Matrix316
2011-10-14, 13:23:21
AMD weiß doch auch, dass die aktuellen Konsolen gerade mal drei Cores haben. Wozu baut man dann sowas wie mit Modulen und halben Kernen für den Desktop? Was auch noch in der kleinen Variante viel zu langsam ist?
Bucklew
2011-10-14, 13:30:02
Die GPUs verkaufen da CPUs Chipsätze etc. welche sonst nur wie Blei im Regal liegen würden.
Bei Bulldozer werden auch die GPUs nichts mehr retten können :freak:
dildo4u
2011-10-14, 13:32:31
AMD weiß doch auch, dass die aktuellen Konsolen gerade mal drei Cores haben. Wozu baut man dann sowas wie mit Modulen und halben Kernen für den Desktop? Was auch noch in der kleinen Variante viel zu langsam ist?
Die CPU in der 360 kann SMT ideale Auslastung wären 6 Threads.
Captain Future
2011-10-14, 13:35:33
Naja, der AMD-Fuzzi spricht was von neuen Compilern. Vielleicht sind diese neuen Compiler in der Lage dem Scheduler mitzuteilen welche Strategie die bessere ist und er ist dann in der Lage dynamisch umzuschalten.
Das wäre durchaus im Bereich des Möglichen.
Deswegen sag ich ja: Für HPC mag das funktionieren.
Für alte Anwendungen hilft das zwar nix. Aber alte Anwendungen laufen auch auf dem BD IMHO schnell genug.
IMHO nicht: http://www.hardware.fr/articles/842-21/jeux-3d-rise-of-flight-f1-2011.html
Ja genau und der GESAMTE restliche Win8 Code ist 1:1 identisch zu Win7, nur den Sheduler haben sie verändert ;D
Was wirkt sich außerdem dem Scheduler & Stromsparmechanismen noch auf die Leistung einer Client Applikation aus? Die Desktophintergrundfarbe oder das TouchScreen Interface sicherlich nicht ;D
Vielleicht die ARM Unterstützung .... ja vielleicht läuft dann x86 nur in ner Emulationsschicht ... könnte natürlich alles sein :freak:
Im Ernst: Du siehst Gespenster ;)
Solange es auf dem AMD schneller läuft, kanns auf alle Fälle nicht viel Bremsen geben.
Ist das nicht eigentlich totaler Kappes, ok vielleicht nicht bzgl. Leistungsaufnahme aber bzgl. Performance.
2 "cores" eines Modules müssen sich so die shared parts teilen, wo sie doch auch exklusiven Zugriff bekommen könnten wenn nur immer ein Thread pro Modul zugeteilt wird und alle Module laufen statt nur der Hälfte bei 2 Threads pro Modul.
Die Idee bei dem Patch schein auch zu sein, dass sich 2 gemeinsame Thraeds eines Prozesses ja auch den L2 teilen und dort gemeinsam benutzte Daten vorfinden. Das ist dann sicherlich ganz praktisch. Aber der Rest tja ... hatte ich ja auch am Ende meiner ursprünglichen Nachricht erwähnt, <4 unabhängige Thraeds laufen besser, wenn man sie auf die Module festpinnt.
Deswegen sag ich ja: Für HPC mag das funktionieren.Jo, siehe ht4u FMA Test, i7-990X Leistung bei c-ray:freak:
Mancko
2011-10-14, 14:37:44
man darf doch nicht nur den Reingewinn (genaue Zahlen müsste ich erst nachgucken) an GPUs rechnen, sondern muss mal sehen das da die Plattform für die ganzen KomplettPCs und Notebooks zählt.
Die GPUs verkaufen da CPUs Chipsätze etc. welche sonst nur wie Blei im Regal liegen würden.
Eine poplige inegrtierte GPU hätte man auch billiger und vor allem ohne ATI haben können. Schau Dir doch den Intel Kram an. Die Dinger sind nicht der Brüller aber das interessiert in dem Segment auch keinen. Verkauft werden die trotzdem super seit eh und je. Genau das gleiche hätte AMD auch machen können und lieber das Geld in gescheite CPUs gesteckt.
Bulldozer ist ein riesen Fiasko. Das übertrifft Phenom 1 nochmal um Längen in negativer Hinsicht. Daran wird AMD die nächsten Jahre zu knabbern haben. Ich sehe keine Chance das sich das mit der zweiten Version ändern wird. Dafür ist der Abstand viel zu groß.
Ronny145
2011-10-14, 14:45:01
FX-6100 ist bei einigen Händlern lagernd. Knapp 150€ bei mindfactory. Für den Preis gibt es den X6 1090T, ist dann wohl die schnellere Wahl.
LovesuckZ
2011-10-14, 14:48:28
Und wer auf dem Stromverbrauch achtet, holt den 1055T mit 95 Watt. Den gibt es zur zeit sogar für 134€ (http://www.mindfactory.de/product_info.php/info/p762231/pid/geizhals) bei Mindfactory. Das ist irgendwie sehr traurig, dass man mit der alten Generation nicht schlechter gestellt ist...
aylano
2011-10-14, 14:59:24
ATi kam dazwischen. :freak:
Es scheint wohl, dass das Geld fehlt, um vernünftige F&E betreiben zu können. Was hat man bezahlt? $4,2 Mrd. in Cash bei damaligen $2,5 Mrd als Barreserven?
Nein, es zeigt sich, dass die Träumerei von vielen geplatzt ist, wo AMD mit 1/10 der Forschungsgelder gleich viel erreichen kann wie Intel und deshalb oft AMD schlechtredete, wenn er nicht sofort alles das umsetzt, was Intel gerade umsetzt.
Früher konnte AMD besser mithalten, weil Intels R&D-Übermacht teils in Netburst & Itanium sowie jetzt Atom & Larrabee verpufften.
Früher entwickelte AMD nur eine Architektur.
Jetzt sind es 2-3 sowie eine GPU-Architektur.
Also, neben Bulldozer & Bobcat will AMD auch bald eine native Fusion-Architektur rausbringen.
Da hat sich bei AMD gewaltig viel getan. Hauptsächlich mit einem Architektur-Entwicklung-Zentrum in Indien, was so ab 2007 groß aufgebaut wurde.
Die Deneb-Optimierung soll die erste größere Desgin-Auftrag gewesen sein.
Seifert sagte letztens dazu, dass die erste Früchte in den nächsten 12 Monate "zu sehen sind".
Ob es sich um einen weiteren R&D-Ausbau in Indien oder China handelt (er erwähnte beide) kann ich nicht sagen.
Also, die hohe Zahl an Architekturen ist nicht selbstverständlich, vorallem dass dann AMD mit jeder Architektur besser ist als Intel trotz schwächeren Fertigung.
Jetzt wird es interessant, was die neuen Architektur-&-Design-Zentren für AMD erreichen.
Klar, AMD zahlte sehr viel für ATI. Aber wie man das beurteilen kann, ist sehr schwierig zu sagen, da z.B AMD seit 2 Jahren sehr stabile Umsatz & Verlust/Gewinn-Bilanzen hat sowie jetzt trotz Wirtschaftskrise noch immer Gewinn haben dürfte.
Diese Stabilität gabs früher nicht und das ist ein Resultat der ATI-Plattformen, sowie die Fremdfertigung in Dresden, die zu einer Hohen Fabriks-Auslastung in Dresden führt, wodurch höhere Entwicklungskosten für kleinere Strukturen.
Also, ich wüsste nicht, wie AMD heute ohne ATI leben könnte. Die Zeit nur eine CPU herzustellen ist vorbei und spätestens seit Intel-iGPUs wäre AMD in große Probleme gekommen.
Ronny145
2011-10-14, 15:01:30
Und wer auf dem Stromverbrauch achtet, holt den 1055T mit 95 Watt. Den gibt es zur zeit sogar für 134€ (http://www.mindfactory.de/product_info.php/info/p762231/pid/geizhals) bei Mindfactory. Das ist irgendwie sehr traurig, dass man mit der alten Generation nicht schlechter gestellt ist...
Eigentlich besser aufgestellt. Leichte Vorteile bei Singlethread und größere in Multithread. Vorteile hat der 3 Moduler mit Einsatz der neuen Befehlssätze und in Packerbenchmarks.
und er verbraucht hier 18-19 Watt weniger...
http://www.hardware.fr/articles/842-12/consommation-efficacite-energetique.html
Bucklew
2011-10-14, 15:32:28
Was wirkt sich außerdem dem Scheduler & Stromsparmechanismen noch auf die Leistung einer Client Applikation aus? Die Desktophintergrundfarbe oder das TouchScreen Interface sicherlich nicht ;D
Vielleicht die ARM Unterstützung .... ja vielleicht läuft dann x86 nur in ner Emulationsschicht ... könnte natürlich alles sein :freak:
Klar, solange es um x86-Code angeht ist Windows8 noch genauso schnell/langsam wie NT4.0 :rolleyes:
Mal drüber nachgedacht, dass man die ganzen Schnittstellen selbstverständlich verbessern kann? Das mit optimierten Schnittstellen dann das gleiche x86-Programm plötzlich schneller ist?
Mal drüber nachgedacht, dass man die ganzen Schnittstellen selbstverständlich verbessern kann? Das mit optimierten Schnittstellen dann das gleiche x86-Programm plötzlich schneller ist?
Was für Schnittstellen, wohin denn zu Dev>Null?
Wenns irgendwas anders gäbe, dann sollten die Programme bei THG auf Sandy auch schneller laufen, tuen sie aber nicht.
Wenn Du magst, dann kannst Du auf nen Sandy-Wunderpatch bis zum final Win8 hoffen *g*
Dunkeltier
2011-10-14, 17:24:27
Tolle Umfrage. Ich habe mir einige Reviews zum Bulldozer durchgelesen, und bin auch ziemlich enttäuscht. Lange Entwicklungszeit hin oder her, hätte ich mindestens mit einer AMD-CPU gleich oder annähernd gleich auf Augenhöhe zu Intel gerechnet. Aber hier hat AMD das Ding voll in den Sand gesetzt. Im Desktop-Bereich sind die meisten Anwendungen nun mal immer noch "nur" auf Dual- oder Quad-Core ausgerichtet, da bringt mir solch ein Möchtegern 8-Kern Design nicht wirklich mehr wie ein leistungsstarker 4-Kerner mit (oder ohne) HT.
Das wäre an für sich kein Beinbruch - aber AMD bricht sich selbst beide Beine damit das sie es geschafft haben:
a) den Stromverbrauch in die Höhe zu treiben (durch noch weniger Leistung pro Watt)
b) nicht mal annähernd von der Ø-Leistung mit der Konkurrenz mithalten können
c) dafür einen noch ziemlich viel Kohle abknöpfen wollen.
Empfehlenswert wäre die CPU nur für Aufrüster mit einer AM3-Platine, alle anderen greifen besser zu Intel. AMD könnte höchstens noch versuchen, die CPU's über den Preis zu verkaufen, sprich zu verscherbeln. Eine andere Möglichkeit wird ihnen auch nicht mehr bleiben. Angesichts dessen, das die Preise für einige Intel-CPU's aus dem 150-250 Euro Preis dank der Nachfrage schon so hochgeschossen sind wird man sich schon denken können, was mittlerweile vermehrt bei den Händlern auf Lager liegt.
Ich hätte AMD den Erfolg gegönnt und war auch immer gerne dabei (AMD K6-2, AMD Duron, AMD Athlon, AMD Athlon 64, AMD Athlon 64 X2...) - aber seitdem kommt irgendwie nichts wirklich Großes mehr. Mit ATi scheint sich AMD wohl ein wenig verhoben zu haben, das R&D läuft ja nicht wirklich mehr so rund.
mironicus
2011-10-14, 18:00:47
Gibt es eigentlich schon Daten über den Stromverbrauch des FX-8120?
y33H@
2011-10-14, 18:22:04
AMD hat keine Samples verteilt, also wenn nur über Umwege.
Exxtreme
2011-10-14, 19:31:17
BD wäre gar nicht mal so übel wenn der Stromverbrauch nicht so exorbitant krass wäre. Fast 70 W mehr als SB ist zuviel. Da nützt auch ein niedriger Preis nix. Denn wenn man die Stromkosten draufrechnet dann ist das nicht mehr ganz so billig. Zumal die Hitze auch abgeführt werden muss.
Dunkeltier
2011-10-14, 19:40:17
Wann läuft der Bulldozer denn wirklich mal unter Volllast? Außer beim coden oder compilen sicher kaum. Spiele lasten vielleicht 1-2 Module komplett aus.
/edit: Hier stand Mist, thx Capt. Future. X-D Ich hatte auf das falsche Diagramm geschaut, was den Idle-Verbrauch betraf.
Captain Future
2011-10-14, 19:54:37
Nee, Idle ist Ok, siehe HT4u.
y33H@
2011-10-14, 20:27:42
Spiele lasten vielleicht 1-2 Module komplett aus.Die meisten lasten 2 bis 3, einige gar 4 aus.
(del676)
2011-10-14, 21:01:50
Alter Schwede. Unter Linux siehts ein bisl anders aus fuern Bulldozer.
http://openbenchmarking.org/result/1110131-LI-BULLDOZER29
Ronny145
2011-10-14, 21:16:50
Alter Schwede. Unter Linux siehts ein bisl anders aus fuern Bulldozer.
http://openbenchmarking.org/result/1110131-LI-BULLDOZER29
Woran siehst Du das? Ohne Vergleichs CPU im Test sagt mir das nichts.
(del676)
2011-10-14, 21:18:09
Auf der Seite gibts massig andere CPUs zum vergleichen!
anddill
2011-10-14, 21:22:33
Das sind alles Sachen, die auch unter Windows ganz ordentlich performen. Dafür wurde der Bulldozer ja gebaut.
Ronny145
2011-10-14, 21:24:52
Auf der Seite gibts massig andere CPUs zum vergleichen!
Dann verlink es doch direkt!
Exxtreme
2011-10-14, 21:31:05
Alter Schwede. Unter Linux siehts ein bisl anders aus fuern Bulldozer.
http://openbenchmarking.org/result/1110131-LI-BULLDOZER29
Der pgbench geht ja richtig ab so wie ich das sehe. Selbst der i7 x 990 mit 12 Kernen hat nicht mal ansatzweise Chance. BD die Datenbank-CPU?
http://openbenchmarking.org/result/1110103-AR-UBUNTU11118
dildo4u
2011-10-14, 21:32:54
Der pgbench geht ja richtig ab so wie ich das sehe. Selbst der i7 x 990 mit 12 Kernen hat nicht mal ansatzweise Chance. BD die Datenbank-CPU?
http://openbenchmarking.org/result/1110103-AR-UBUNTU11118
Ein i7X990 hat 6 Cores mit HT und wird im November von einem SB Sixcore abgelöst.
(del676)
2011-10-14, 21:34:16
Der pgbench geht ja richtig ab so wie ich das sehe. Selbst der i7 x 990 mit 12 Kernen hat nicht mal ansatzweise Chance. BD die Datenbank-CPU?
http://openbenchmarking.org/result/1110103-AR-UBUNTU11118
86% schneller als ein i7 X990 :eek:
Exxtreme
2011-10-14, 21:36:47
Ein i7X990 hat 6 Cores mit HT und wird im November von einem SB Sixcore abgelöst.
Da sind wohl 2 i7 X990-CPUs drauf. Ja, mal sehen wie SB in diesem Benchmark so abgeht.
Prinzipiell überrascht mich nicht, *dass* BD in einem DB-Umfeld abgeht - aber das Ausmass O_O Na immerhin, jetzt gibt's doch 1, 2 Nischen, in denen die neue Architektur schon in ihrer jetztigen bescheidenen Form Überzeugen kann.
dildo4u
2011-10-14, 21:38:26
86% schneller als ein i7 X990 :eek:
Kann man das direkt vergleichen wenn's nicht die Selbe Distribution ist?
Da sind wohl 2 i7 X990-CPUs drauf. Ja, mal sehen wie SB in diesem Benchmark so abgeht.
Ich denke eher das er HT mitrechnet.SB wird dort auch mit 8 Cores gelistet.
merfu
2011-10-14, 21:40:21
86% schneller als ein i7 X990 :eek:
Was wird den da genau gemessen bei pgbench?
Sind das queries und wenn ja was für welche? Full table scans?
mfg
EDIT: Ich kann ja auch selbst mal suchen :freak:
pgbench is a simple program for running benchmark tests on PostgreSQL. It runs the same sequence of SQL commands over and over, possibly in multiple concurrent database sessions, and then calculates the average transaction rate (transactions per second). By default, pgbench tests a scenario that is loosely based on TPC-B, involving five SELECT, UPDATE, and INSERT commands per transaction. However, it is easy to test other cases by writing your own transaction script files.
F.26.5. What is the "Transaction" Actually Performed in pgbench?
The default transaction script issues seven commands per transaction:
BEGIN;
UPDATE pgbench_accounts SET abalance = abalance + :delta WHERE aid = :aid;
SELECT abalance FROM pgbench_accounts WHERE aid = :aid;
UPDATE pgbench_tellers SET tbalance = tbalance + :delta WHERE tid = :tid;
UPDATE pgbench_branches SET bbalance = bbalance + :delta WHERE bid = :bid;
INSERT INTO pgbench_history (tid, bid, aid, delta, mtime) VALUES (:tid, :bid, :aid, :delta, CURRENT_TIMESTAMP);
END;
Edit schon wieder: Ich denke das man das auch Distributions übergreifend vergleichen kann. Zumindest wenn es ungefähr die gleichen Kernel sind. Ich sehe da nichts was in welchen Distributionen sich unterscheiden sollte.
Was wird den da genau gemessen bei pgbench?
Sind das queries und wenn ja was für welche? Full table scans?
mfg... involving five SELECT, UPDATE, and INSERT commands per transaction. However, it is easy to test other cases by writing your own transaction script files.Falls sie das File also nicht modifiziert haben, ist es vergleichbar, und nicht nur "langweilige" aber aufwändige full table scans beinhaltend. Wäre auch weniger Rechen- als IO-abhängig.
[edit]
Inzwischen hast du's auch selbst gefunden ;) Ist natürlich Index-abhängig, wie die Suche in den UPDATE und SELECT-Statements vor sich geht
[edit2]nutzloses OT weggeschnippelt ;)
Exxtreme
2011-10-14, 21:54:21
Kann man das direkt vergleichen wenn's nicht die Selbe Distribution ist?
Der Unterschied zwischen den Distributionen ist idR. marginal.
Ich denke eher das er HT mitrechnet.SB wird dort auch mit 8 Cores gelistet.
Ja OK, kann schon sein, dass Linux das als eine 12-Kern-CPU ansieht. Trotzdem, 86% ist schon eine Hausnummer. Man müsste jetzt gucken ob das auf anderen Datenbank-Systemen ebenfalls so krass ausfällt. Wenn ja dann kann das kaum ein Server-Hersteller ignorieren.
dildo4u
2011-10-14, 22:07:32
Spielt da AVX mit rein?Ich hab kein Desktop Ergebnisse gefunden aber eine SB Notebook CPU hat da was mit 1900.
http://openbenchmarking.org/result/1102051-IV-SANDYBRID80
anddill
2011-10-14, 22:20:09
Wie überraschend! Eine Server-CPU bringt gute Leistung bei Server-Anwendungen ;)
Übrigens, habt Ihr mal die Preise beobachtet?
AnarchX
2011-10-14, 22:22:46
Ex-AMD Engineer Explains Bulldozer Fiasco: Lack of Fine Tuning.
Engineer: AMD Should Have Hand-Crafted Bulldozer to Ensure High Speed
[...]
Automated Design = 20% Bigger, 20% Slower
[...]
http://www.xbitlabs.com/news/cpu/display/20111013232215_Ex_AMD_Engineer_Explains_Bulldozer_Fiasco.html
btw.
HT4u misst 193W bei 4,4GHz OCing: http://ht4u.net/news/24472_uebertakteter_fx-8150_zeigt_sich_hungrig_-_193_watt_bei_44_ghz/
Ein undervolteter 2500K mit ähnlicher Endleistung liegt wohl bei 50-60W: http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index38.php
Hugo78
2011-10-14, 22:52:04
Der Artikel ist ja ganz nett, aber ich frag mich doch,
wie lange hätte man noch auf Bulli warten sollen ohne automatische Tools?
Nochmal 6 Monate dann machen die möglichen + 20% auch keinen Unterschied,
weil dann die schnelle Ivy kommt und mit TriGate ... na egal.
Zumal ja +20% in Spielen immernoch nicht reichen würde um die aktuellen Sandys zuvernaschen.
merfu
2011-10-14, 23:17:22
Ist AVX nur Compiler abhängig? Ich dachte immer das für AVX Code Anpassung notwendig ist (so wie für SSE auch). By the way ist AVX nicht FPU abhängig?
Gabs mal Benchs von AVX Bulli vs. i7 oder SB?
Hier gibts noch eine Übersicht von SB mit verschiedenen Compilern (inklusive GCC und i7-AVX option). Aber der SB profitiert da garnicht so sehr bei pgbench davon. Seltsam.
http://openbenchmarking.org/result/1102067-IV-SANDYBRID67
MfG
Kann man das direkt vergleichen wenn's nicht die Selbe Distribution ist?
Wichtiger ist eher der Compiler, und da ist Sandy im Vorteil, der 4.5er beim BD dürfte noch kein AVX/XOP für BD kennen.
Spielt da AVX mit rein?Ich hab kein Desktop Ergebnisse gefunden aber eine SB Notebook CPU hat da was mit 1900.
http://openbenchmarking.org/result/1102051-IV-SANDYBRID80
;D;D;D;D
Intel SSD SA2M080
Das ist dann wohl eher ein Plattenbench ... :freak:
Hier noch alles im Überblick - mehr oder weniger:
http://openbenchmarking.org/result/1110131-LI-BULLDOZER29,1110103-AR-UBUNTU11118,1102051-IV-SANDYBRID80
http://www.xbitlabs.com/news/cpu/display/20111013232215_Ex_AMD_Engineer_Explains_Bulldozer_Fiasco.html
Das geisterte doch schon vor ein paar Monaten durch die Foren.
Kenn mich nicht toll aus, aber ich geh mal davon aus, dass er was mit Zacate verwechselt hat. Das Teil ist wirklich mit Tools designt, sind man ja am komischen Floorplan. Aber wenn alles schön in Kästenchen und Boxen verlegt ist, geh ich von Handrouting aus.
Weiß es jemand besser?
Komsicherweise ist der Automaten - Bobcat aber besser als die ATOM Handarbeit :freak:
Edit:
Hier wars, mehr als 1 Jahr alt:
http://www.planet3dnow.de/vbulletin/showthread.php?p=4206817#post4206817
Und der CMaier hat seinen Beitrag dort heute editiert = gelöscht ^^
Yavion
2011-10-15, 00:53:57
http://www.xbitlabs.com/news/cpu/display/20111013232215_Ex_AMD_Engineer_Explains_Bulldozer_Fiasco.html
btw.
HT4u misst 193W bei 4,4GHz OCing: http://ht4u.net/news/24472_uebertakteter_fx-8150_zeigt_sich_hungrig_-_193_watt_bei_44_ghz/
Ein undervolteter 2500K mit ähnlicher Endleistung liegt wohl bei 50-60W: http://ht4u.net/reviews/2011/intel_sandy_bridge_sockel_1155_quadcore/index38.php
Der Artikel ist eine Null-Aussage. Was kommt als nächstes: Das die "Automated Tools" von Intel gesponsort wurden?
-Der Typ ist seit Jahren aus der Firma draussen und will auch mal das Maul aufmachen..
Blediator16
2011-10-15, 01:18:43
Der Artikel ist eine Null-Aussage. Was kommt als nächstes: Das die "Automated Tools" von Intel gesponsort wurden?
-Der Typ ist seit Jahren aus der Firma draussen und will auch mal das Maul aufmachen..
Naja, soetwas gab es bereits im Sommer. Da wurde auch von AMD Ingenieuren darüber geredet, dass der CEO Fehler bei Entscheidungen um den BD gemacht hat. Da dieser auch "gegangen wurde" passt das doch schon ins Gesamtbild.
Bucklew
2011-10-15, 02:02:12
Was für Schnittstellen, wohin denn zu Dev>Null?
Wenns irgendwas anders gäbe, dann sollten die Programme bei THG auf Sandy auch schneller laufen, tuen sie aber nicht.
Ach, Windows funktioniert ohne Schnittstellen? Das erklärt natürlich, warum normalerweise gar nichts funktioniert. Und das ein Sandy nicht schneller wird kann auch ganz andere Gründe haben.
Einfach nur einen Win7 neben einen Win8 Benchmark zu stellen und dann zu behaupten das wäre der Sheduler ist schon nichtmal mehr Glaskugel...
Wenn Du magst, dann kannst Du auf nen Sandy-Wunderpatch bis zum final Win8 hoffen *g*
Troll schön weiter....
Neon3D
2011-10-15, 02:11:19
Brauchbar weil? ... die CPUs zu 99% im GPU limit laufen? Und es dann natürlich nicht so katastrophal für BD aussieht?
Naja für jeden der "richtige" Test um sich zu bestätigen dann passt es ja ;D
ps: 1920x1080 high quality haben auch die franzacken hier getestet http://www.hardware.fr/articles/842-1/amd-fx-8150-fx-6100-bulldozer-debarque-am3.html
aber der ist sicher nicht richtig weil nicht das gewünschte ergebnis draus hervorgeht :rolleyes:
nein, das interpretierst du und ein paar andere user hier falsch;).
aber danke für den franzmannbericht, denn der ist gut um zu erkennen, welche cpu für die geforce 580 geeignet ist. und das ist auch der knackpunkt bei den benches!
ich interpretiere meinen text für dich und die anderen jetzt mal richtig:smile:
"sie nehmen eine aktuelle grafikkarte und zeigen wie sie mit aktuellen und älteren cpu`s im vergleich zum bulli laufen."
-> im schwedenbench wird (leider) nur 1 grafikkarte, die ati radeon 6970, zum benchen genommen. das liegt halt daran, das man sich die leistung der neuen fx-cpu`s von amd im vergleich zu den anderen amd & intel cpu`s ansehen wollte, dabei hätte man dem leser viel mehr informationen geben können.
"endlich sieht man, wie sinnvoll es ist seinen vorhandenen quad core/x4/x6 mit einer neuen mainstream-grafikkarte zu bestücken und ob man auch noch auf bulli oder sandy zusätzlich wechseln muß !"
-> der satz ist doch absolut neutral gehalten. es werden besitzer von amd & intel systemen ganz sachlich angesprochen, die
1. sich überlegen, evt. eine neue grafikkarte zu kaufen. in diesem bench explizit die radeon 6970, also gehobene preisklasse mit 280€ einstiegspreis.
und
2. ob es besser ist sich einen bulldozer oder sandy bridge prozessor zusätzlich zu zu kaufen.
"leider fehlt beim bench eine aktuelle mainstream & eine low-end grafikkarte, sowie bei der cpu-auswahl der dualcore, wodurch die leistungsmäßige entwicklung der cpu`s deutlicher geworden wäre und zusätzlich noch mehr leser angesprochen wären um ihnen bei ihrer kaufentscheidung zu helfen."
-> ich habe in diesem satz 3 kritikpunkte bezüglich des schwedentests geäußert. es wäre noch sehr interessant gewesen, wie eine radeon 6870 & gf560 mit einem dualcore/quadcore/x4/x6 skaliert.
Neon3D
2011-10-15, 02:16:01
Wenn in einem CPU Test ein Core 2 Quad genauso viel FPS wie ein i7 2600K liefert, dann ist das einfach ein schlechter Test.
das hast du leider völlig falsch verstanden !
denn sowohl die franzosen, als auch die schweden zeigen mit ihrem test (wie man es richtig macht!) dem leser mehr als die üblichen info-schwachen tests.
ich erwarte von tests das sie dem leser helfen, die richtige entscheidung für einen hardwarekauf zu treffen, aber das ist LEIDER ZU 95% NICHT DER FALL, denn wenn man nur eine EINZIGE top-cpu für einen grafikkartentest nimmt, kann man nicht erkennen bis zu welcher "alten" cpu die grafikkarte noch sehr gut läuft, also cpu-leistungsmäßig nach unten hin skaliert und das sieht man bei den franzosen & schweden nunmal sehr gut !
bei den üblichen tests siehst du nur die maximalen fps die die grafikkarte im stande ist zu bringen (mit einer high-end cpu), aber selbst ein quad core läuft mit einer radeon 6970 noch super schnell und ein teures cpu-upgrade ist somit unnötig !
Der pgbench geht ja richtig ab so wie ich das sehe. Selbst der i7 x 990 mit 12 Kernen hat nicht mal ansatzweise Chance. BD die Datenbank-CPU?
http://openbenchmarking.org/result/1110103-AR-UBUNTU11118
naja :rolleyes: kann man wohl eher weniger vergleichen
http://openbenchmarking.org/result/1102061-IV-1102051IV85
http://www.abload.de/img/2mduv.jpg
http://www.abload.de/img/18cb7.jpg
http://www.abload.de/img/35f79.jpg
http://www.abload.de/img/4beej.jpg
oder hier
http://openbenchmarking.org/result/1110137-AR-ZAREASONS79
konkuriert der Bulldozer dann gerade mal mit einem 2Ghz Sandy Bridge Notebook soviel zur Vergleichbarkeit
ach mist hier gabs ja schon noch ne seite...egal ;D
bei den apache und GraphicsMagick tests liegt er fast gleichauf mit einem 2.3Ghz sandy notebook lölz ;D epic fail
das hast du leider völlig falsch verstanden !
denn sowohl die franzosen, als auch die schweden zeigen mit ihrem test (wie man es richtig macht!) dem leser mehr als die üblichen info-schwachen tests.
ich erwarte von tests das sie dem leser helfen, die richtige entscheidung für einen hardwarekauf zu treffen, aber das ist LEIDER ZU 95% NICHT DER FALL, denn wenn man nur eine EINZIGE top-cpu für einen grafikkartentest nimmt, kann man nicht erkennen bis zu welcher "alten" cpu die grafikkarte noch sehr gut läuft, also cpu-leistungsmäßig nach unten hin skaliert und das sieht man bei den franzosen & schweden nunmal sehr gut !
bei den üblichen tests siehst du nur die maximalen fps die die grafikkarte im stande ist zu bringen (mit einer high-end cpu), aber selbst ein quad core läuft mit einer radeon 6970 noch super schnell und ein teures cpu-upgrade ist somit unnötig !
Natürlich helfen die, man kauft sich den 2500k statt dem BD und freut sich 2-3 GraKa Generationen Später noch über eine anständig performende CPU.
So einen Test muss man natürlich auch "lesen" und wenn da mit einer GTX580 getestet wird kann ich nicht mit meiner gammeligen GTX260 erwarten die gleichen Unterschiede zu sehen ich weiß aber wenn ich mir diese zulege das die Kiste besser performt.
boxleitnerb
2011-10-15, 08:14:13
Will man gut informiert sein, muss man CPU- UND GPU-Tests lesen und interpolieren. Alles in eine Zahl quetschen und an beiden Fronten informiert sein, ist nicht.
Fabian_HT4U
2011-10-15, 08:48:00
Ist AVX nur Compiler abhängig? Ich dachte immer das für AVX Code Anpassung notwendig ist (so wie für SSE auch). By the way ist AVX nicht FPU abhängig?
Gabs mal Benchs von AVX Bulli vs. i7 oder SB?
Hier gibts noch eine Übersicht von SB mit verschiedenen Compilern (inklusive GCC und i7-AVX option). Aber der SB profitiert da garnicht so sehr bei pgbench davon. Seltsam.
http://openbenchmarking.org/result/1102067-IV-SANDYBRID67
MfG
Wir haben einen kleinen Vergleich gemacht:
http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index17.php
Grüße
Fabian
merfu
2011-10-15, 10:09:53
86% schneller als ein i7 X990 :eek:
Danke Fabian.
Ich wollte nur kurz zum pgbench einwerfen:
http://www.fuzzy.cz/en/articles/benchmark-results-with-ssd-read-only-pgbench/
Core i5 + SSD (http://www.fuzzy.cz/bench/compare-pgbench.php?type[]=btrfs-datacow-barrier:3&type[]=btrfs-datacow-nobarrier:3&type[]=btrfs-nodatacow-barrier:3&type[]=btrfs-nodatacow-nobarrier:3&type[]=ext2:3&type[]=ext3-journal-barrier:3&type[]=ext3-journal-nobarrier:3&type[]=ext3-ordered-barrier:3&type[]=ext3-ordered-nobarrier:3&type[]=ext3-writeback-barrier:3&type[]=ext3-writeback-nobarrier:3&type[]=ext4-journal-barrier:3&type[]=ext4-journal-nobarrier:3&type[]=ext4-ordered-barrier:3&type[]=ext4-ordered-nobarrier:3&type[]=ext4-writeback-barrier:3&type[]=ext4-writeback-nobarrier:3&type[]=jfs:3&type[]=nilfs2-barrier:3&type[]=nilfs2-nobarrier:3&type[]=reiserfs-flush:3&type[]=reiserfs-none:3&type[]=xfs-barrier:3&type[]=xfs-nobarrier:3&key=tps-ro)
Core i5 + HDD (http://www.fuzzy.cz/bench/compare-pgbench.php?type[]=btrfs-datacow-barrier%3A1&type[]=btrfs-datacow-nobarrier%3A1&type[]=btrfs-nodatacow-barrier%3A1&type[]=btrfs-nodatacow-nobarrier%3A1&type[]=ext2%3A1&type[]=ext3-journal-barrier%3A1&type[]=ext3-journal-nobarrier%3A1&type[]=ext3-ordered-barrier%3A1&type[]=ext3-ordered-nobarrier%3A1&type[]=ext3-writeback-barrier%3A1&type[]=ext3-writeback-nobarrier%3A1&type[]=ext4-journal-barrier%3A1&type[]=ext4-journal-nobarrier%3A1&type[]=ext4-ordered-barrier%3A1&type[]=ext4-ordered-nobarrier%3A1&type[]=ext4-writeback-barrier%3A1&type[]=ext4-writeback-nobarrier%3A1&type[]=jfs%3A1&type[]=nilfs2-barrier%3A1&type[]=nilfs2-nobarrier%3A1&type[]=reiserfs-flush%3A1&type[]=reiserfs-none%3A1&type[]=xfs-barrier%3A1&type[]=xfs-nobarrier%3A1)
Edit: Mir geht es um den deutlichen Leistungsunterschied zwischen HDD und SSD.
Troll schön weiter....
Solange Du keine Informationen rausrückst, inwiefern die Schnittstellen die Leistung beeinträchtigen sollen, tust Du nichts anderes.
Einfach nur einen Win7 neben einen Win8 Benchmark zu stellen und dann zu behaupten das wäre der Sheduler ist schon nichtmal mehr Glaskugel...
Es ist ein Anhaltspunkt, weit mehr als Du hast. Du lieferst nur Verschwörungstheorien über die mysteriösen Schnittstellen. Ein seriöser Informationsgewinn sieht anders aus.
Ich wollte nur kurz zum pgbench einwerfen:
http://www.fuzzy.cz/en/articles/benchmark-results-with-ssd-read-only-pgbench/
core i5 + ssd (http://www.fuzzy.cz/bench/compare-pgbench.php?type[]=btrfs-datacow-barrier:3&type[]=btrfs-datacow-nobarrier:3&type[]=btrfs-nodatacow-barrier:3&type[]=btrfs-nodatacow-nobarrier:3&type[]=ext2:3&type[]=ext3-journal-barrier:3&type[]=ext3-journal-nobarrier:3&type[]=ext3-ordered-barrier:3&type[]=ext3-ordered-nobarrier:3&type[]=ext3-writeback-barrier:3&type[]=ext3-writeback-nobarrier:3&type[]=ext4-journal-barrier:3&type[]=ext4-journal-nobarrier:3&type[]=ext4-ordered-barrier:3&type[]=ext4-ordered-nobarrier:3&type[]=ext4-writeback-barrier:3&type[]=ext4-writeback-nobarrier:3&type[]=jfs:3&type[]=nilfs2-barrier:3&type[]=nilfs2-nobarrier:3&type[]=reiserfs-flush:3&type[]=reiserfs-none:3&type[]=xfs-barrier:3&type[]=xfs-nobarrier:3&key=tps-ro)
core i5 + hdd (http://www.fuzzy.cz/bench/compare-pgbench.php?type[]=btrfs-datacow-barrier%3A1&type[]=btrfs-datacow-nobarrier%3A1&type[]=btrfs-nodatacow-barrier%3A1&type[]=btrfs-nodatacow-nobarrier%3A1&type[]=ext2%3A1&type[]=ext3-journal-barrier%3A1&type[]=ext3-journal-nobarrier%3A1&type[]=ext3-ordered-barrier%3A1&type[]=ext3-ordered-nobarrier%3A1&type[]=ext3-writeback-barrier%3A1&type[]=ext3-writeback-nobarrier%3A1&type[]=ext4-journal-barrier%3A1&type[]=ext4-journal-nobarrier%3A1&type[]=ext4-ordered-barrier%3A1&type[]=ext4-ordered-nobarrier%3A1&type[]=ext4-writeback-barrier%3A1&type[]=ext4-writeback-nobarrier%3A1&type[]=jfs%3A1&type[]=nilfs2-barrier%3A1&type[]=nilfs2-nobarrier%3A1&type[]=reiserfs-flush%3A1&type[]=reiserfs-none%3A1&type[]=xfs-barrier%3A1&type[]=xfs-nobarrier%3A1)
Jo hatte ich oben schon erwähnt, dass da die Platten wohl einen "kleinen" Einfluß darauf haben und die Ergebnisse deshalb nicht verglichen werden können. Aber ging wohl unter. Danke für den neuen Link. Sollte jetzt jeder sehen, hoffe ich.
Neon3D
2011-10-15, 11:12:06
naja :rolleyes: kann man wohl eher weniger vergleichen
http://openbenchmarking.org/result/1102061-IV-1102051IV85
http://www.abload.de/img/2mduv.jpg
http://www.abload.de/img/18cb7.jpg
http://www.abload.de/img/35f79.jpg
http://www.abload.de/img/4beej.jpg
oder hier
http://openbenchmarking.org/result/1110137-AR-ZAREASONS79
konkuriert der Bulldozer dann gerade mal mit einem 2Ghz Sandy Bridge Notebook soviel zur Vergleichbarkeit
ach mist hier gabs ja schon noch ne seite...egal ;D
bei den apache und GraphicsMagick tests liegt er fast gleichauf mit einem 2.3Ghz sandy notebook lölz ;D epic fail
Natürlich helfen die, man kauft sich den 2500k statt dem BD und freut sich 2-3 GraKa Generationen Später noch über eine anständig performende CPU.
So einen Test muss man natürlich auch "lesen" und wenn da mit einer GTX580 getestet wird kann ich nicht mit meiner gammeligen GTX260 erwarten die gleichen Unterschiede zu sehen ich weiß aber wenn ich mir diese zulege das die Kiste besser performt.
lesen, odal, das wäre ein guter anfang.
du solltest mal meinen text lesen. ich schreibe nicht, das ich nen test haben will wo NUR MIT 1 (ALTEN) CPU getestet wird, sondern mit mehreren, damit man sieht wie gut die grafikkarte skaliert! ich wiederhole mich wieder ! also besser lesen !
auch erkennbar ist, das zumindest die gf580 noch nicht ihr gpu limit erreicht hat, aber bei den allermeisten karten sind sie am gpu limit, daher interessiert die skalierung nach unten hin besonders!
das ist doch aber kein Grafikkarten Test sondern ein CPU test und da werden doch auch mehrere alte CPUs mit getestet z.b. q6600, PhenomII 955 oder sind die dir nicht "alt" genug?
Dann musst du zu deiner Wunsch Vergleichs CPU approximieren, die werden wohl kaum bei einem schnellen review test bis zum 486iger zurücktesten
das man jetzt nicht jede CPU Generation mitmachen muss ist doch wohl klar.
Ich hab auch keinen 2500k drin aber wenn ich jetzt vor dem Neukauf stünde, brauch ich Ergebnisse ohne GPU Limit
sonst brauch ich man keinen Test lesen und kauf einfach was gerade aktuell ist da es ja "eh" schnell genug ist....das dicke Ende kommt dann 2 Jahre später
merfu
2011-10-15, 12:04:54
In einem Test zur Multimedia-Leistung kann der i7 3960X dank AVX 92 % mehr Leistung als der i7 990X für sich verbuchen.
http://hartware.net/news_53014.html
Jetzt würde ich gern mal ein Bench von pgbench zwischen dem i7 3960X und Bulli sehen.
Skysnake
2011-10-15, 12:15:05
Guckst du in die aktuelle PCGH. Da gibt es so einen Test endlich mal (wieder?).
Ist sehr schön zu sehen, das man mit ner 5870 und einem E8400 in vielen Fällen keinen Nachteil zu nem i7 hat :D
Was auch lustig ist, man steht mit der 5870 auch noch viel besser da als mit der GTX570. Die bricht nämlich total ein :rolleyes:
Matrix316
2011-10-15, 12:16:58
Hatten wir schon Hardocp?
http://www.hardocp.com/article/2011/10/11/amd_bulldozer_fx8150_desktop_performance_review/4
http://www.abload.de/img/1318034683vzqvqlivul_4eka9.png (http://www.abload.de/image.php?img=1318034683vzqvqlivul_4eka9.png)
In Battlefield 3 siehts wirklich besser aus: (mit 6970)
http://www.hardocp.com/article/2011/10/11/amd_bulldozer_fx8150_gameplay_performance_review/2
http://www.abload.de/img/13182343781d3jfr9lih_2n836.gif (http://www.abload.de/image.php?img=13182343781d3jfr9lih_2n836.gif)
aber dann gibts auch sowas:
http://www.abload.de/img/13182343781d3jfr9lih_4zk0s.gif (http://www.abload.de/image.php?img=13182343781d3jfr9lih_4zk0s.gif)
Skysnake
2011-10-15, 12:18:41
das ist doch aber kein Grafikkarten Test sondern ein CPU test und da werden doch auch mehrere alte CPUs mit getestet z.b. q6600, PhenomII 955 oder sind die dir nicht "alt" genug?
Dann musst du zu deiner Wunsch Vergleichs CPU approximieren, die werden wohl kaum bei einem schnellen review test bis zum 486iger zurücktesten
das man jetzt nicht jede CPU Generation mitmachen muss ist doch wohl klar.
Ich hab auch keinen 2500k drin aber wenn ich jetzt vor dem Neukauf stünde, brauch ich Ergebnisse ohne GPU Limit
sonst brauch ich man keinen Test lesen und kauf einfach was gerade aktuell ist da es ja "eh" schnell genug ist....das dicke Ende kommt dann 2 Jahre später
Und woher weißt du, dass du überhaupt eine neue CPU brauchst???
Es gibt doch eigentlich immer folgende Konstellation:
CPU-Test: Wir nehmen die mords fette GPU und benchen in Mini-Auflösungen, wir wollen ja sehen, wie stark die CPU ist.
GPU-Test: Wir nehmen die mords übertaktete Highend-CPU. Wir wollen ja unter keinen Umständen, dass die CPU limitiert, und benchen in Max-Einstellungen.
Sodele und jetzt sag mir mal bitte, wie DU jetzt wissen willst, ob deine CPU ausreicht, um die GPU voll aus zu reizen in deinen alltäglichen Einstellungen, oder nicht.
Ich bin echt auf ne Antwort gespannt :rolleyes:
Matrix316
2011-10-15, 12:28:26
In der PCGH hatten sie so eine Kreuztabelle wo einerseits die Grafikkarten und andererseits die CPUs aufgelistet waren. In der Mitte waren dann die jeweiligen Kombinationen bewertet und dann war die Kombi Geforce GTX 580 und Core i7 2600K optimal - genauso wie Core 2 Duo 4400 und Geforce 8800GT ;D. Das letztere heute alles andere als optimal ist, ist aber auch klar. Natürlich passt die Kombi besser als GTX580 und Core 2 Duo 4400, aber das kann man sich ja auch denken, oder?
Dass bei Tempo 30 ein Porsche 911 genauso schnell ist wie ein VW Käfer, ist doch klar. Ein Test soll ja auch nicht hauptsächlich sagen, was optimal für DICH ist, sondern welche Grafikkarte oder CPU schneller ist. Wobei natürlich auch Quervergleiche mit anderen CPUs/Grafikkarten praktisch sind. ABER: Was bringts dir, wenn klar ist, dass mit deiner Mittelmaß Graka die neue CPU nicht mehr FPS bringt als mit deiner alten? Doch nur, dass es besser wäre beides aufzurüsten...
na das ist doch simple
Ich nehm ein Spiel daher wo ich meine gewünschte Performance laut Fraps nicht mehr hinbekomme (einige wollen 30+ FPS einige 60+ einige 90+) bzw. welches sich ruckelig anfühlt...
-> Auflösung runter/hoch
Besserung ja: CPU ist noch ok Graka tuts nicht mehr (oder ich muss generell auf details verzichten) ich schau mich mal bei aktuellen GraKa tests um und hol was Neues
Besserung nein: CPU ist der Übeltäter, ich guck mal die aktuellen CPU Tests durch (die hoffentlich NICHT im GPU limit durchgeführt sind) und bestell mir was neues
Done.
Falls man eher der Typ ist der die ganze Möhre ab und an mal entsorgt bildet man einfach die Schnittmenge aus GraKa und CPU test
mironicus
2011-10-15, 12:39:59
Mal eine kurze theoretische Frage:
Wenn man eine 8-Kern CPU auf Basis eines Llanos bauen würde, ohne GPU, also nur die CPU-Kerne mit dem L2-Cache und dann mit einer Spannung von sagen wir 1.2 Volt und mit 3,6 GHz...
... wie groß wäre die CPU gegenüber dem Bulldozer?
... wie schnell?
Wenn ich mir die Bulldozer-Werte anschaue möchte ich gar keinen Llano-Nachfolger mit Bulldozer-Kernen haben... :D
M4xw0lf
2011-10-15, 12:59:18
Wenn ich mir die Bulldozer-Werte anschaue möchte ich gar keinen Llano-Nachfolger mit Bulldozer-Kernen haben... :D
Es werden ja auch ... *Trommelwirbel* ... Piledriver-Kerne! :biggrin:
Botcruscher
2011-10-15, 13:04:13
Die Eindruck wird mit zunehmender Zahl an Tests sogar noch schlechter. Die 2 und 3 Moduler haben einfach nicht die gierigste Berechtigung. Llano ist ja schon schneller. IPC dazu total im Arsch.
LovesuckZ
2011-10-15, 13:07:46
Mal eine kurze theoretische Frage:
Wenn man eine 8-Kern CPU auf Basis eines Llanos bauen würde, ohne GPU, also nur die CPU-Kerne mit dem L2-Cache und dann mit einer Spannung von sagen wir 1.2 Volt und mit 3,6 GHz...
... wie groß wäre die CPU gegenüber dem Bulldozer?
... wie schnell?
Wenn ich mir die Bulldozer-Werte anschaue möchte ich gar keinen Llano-Nachfolger mit Bulldozer-Kernen haben... :D
Trinity's größtes Problem wird, dass man nur ein 2 Moduler verwenden wird und man wohl ein paar Einsparungen vornehmen muss, weil man auch noch eine fette GPU ranpaschen will.
Mit Stand heute könnte die CPU-Leistung von Trinity sogar schlechter sein. Und das zu einem Zeitpunkt, wo Intel mit IB und 22nm kommt...
Sir Integral Wingate Hellsing
2011-10-15, 13:10:48
Die Eindruck wird mit zunehmender Zahl an Tests sogar noch schlechter. Die 2 und 3 Moduler haben einfach nicht die gierigste Berechtigung. Llano ist ja schon schneller. IPC dazu total im Arsch.
So ein Quark, langsam fangen hier einige an durchzudrehen.
Bulli ist etwas günstiger zu haben und kommt zumindest an i5 2500K/i7 2600k heran. Ja, er frisst mehr Strom und alle haben mehr erwartet: Aber er ist nicht SO schlecht wie es hier manche übertreiben. Und AMD wird davon auch nicht down gehen, zum x-ten mal!
LovesuckZ
2011-10-15, 13:14:57
Falsch, nicht Bulli. Sondern der 4+ Kerner mit dem doppelten Stromverbrauch kommt an 2500k/2600k heran. Alle anderen haben gegenüber Sandy Bridge überhaupt keine Chance. Und ein i3 gegen einen 2+ Kerner wird einfach nur ein Schlachtfest...
Schlammsau
2011-10-15, 13:20:44
Nein, je moderner (u.a. Multithreading, usw.) die Anwendung, desto besser wird bzw tut BD abschneiden!
Bei "alter" Software und Games aber stinkt BD schon gewaltig ab.....leider!
Ich hoffe inständig für AMD, dass in unmittelbarer Zukunft Software und Games kommen, die sein Potenzial nutzen, sonst wird der Abstand noch grösser zu Intel und AMD verkommt immer mehr zu einer Mittelklasse "Hinterhofirma".
y33H@
2011-10-15, 13:26:09
Im besten Fall (ohne FMA4 und XOP) ist er auf dem Level eines 2600K, schneller wird's wohl auch nicht.
Schlammsau
2011-10-15, 13:29:07
Das reicht doch mMn!
Und wenn BD2 nächstes Jahr kommt, werdens dann nochmal 10-20% mehr......
Das würde reichen um auf Intel aufzuschliessen.
Sir Integral Wingate Hellsing
2011-10-15, 13:29:24
Falsch, nicht Bulli. Sondern der 4+ Kerner mit dem doppelten Stromverbrauch kommt an 2500k/2600k heran. Alle anderen haben gegenüber Sandy Bridge überhaupt keine Chance. Und ein i3 gegen einen 2+ Kerner wird einfach nur ein Schlachtfest...
Blablabla....
Ich kann es weder noch sehen, noch hören.
Hier wird ein Scheiss verzapft (allgemein, nicht nur LZ), als wäre der Bulli ne CPU aus der K6-Zeit.
Ich wiederhole mich:
1. Ja, er hat eine höhere Leistungsaufnahme
2. Ja, er schlägt NICHT den i7 2600k (Intels Top-CPU für die Massen)
3. Ja, die Modulbauweise hat die großen Erwartungen nicht erfüllt
ABER:
1. Er stellt eine gute Aufrüst-Option für AM3/AM3+ Boards dar, von sowas träumt Intel (MoBo-Wechsel ist da praktisch immer erforderlich)
2. Er ist schlicht GÜNSTIGER im Einkauf + Multi frei
3. Es ist eine neue (Fertigungs-)Technologie, natürlich lahmt sie an Kinderkrankheiten - wer hat etwas anderes erwartet (bei AMD)?
4. Die 2-3 Moduler haben auch ihre Daseins-Berechtigung, auch wenn (noch) einige K10-Produkte eine interne Konkurrenz darstellen (+ Multi frei).
5. Offensichtlich ist der Win7-Scheduler nicht optimal für BD (siehe Win8/Linux-Tests)
6. AMD (ich erinnere an David vs Goliath) hat nun mal weniger Resscourcen und bringt mit Bulldozer eine Desktop-/Server-CPU.
Es ist nicht optimal gelaufen, aber dass hier 99% der Leute blind draufkloppen ist einfach unfair. Ja das ist es. Niemand zwingt Kritiker einen BD zu kaufen. Geht zu Intel und Ruhe ist!
Viel Spass beim Flamen... :rolleyes:
Botcruscher
2011-10-15, 13:30:57
So ein Quark, langsam fangen hier einige an durchzudrehen.
Bulli ist etwas günstiger zu haben und kommt zumindest an i5 2500K/i7 2600k heran.
Noch mal genau lesen. Ich sprach von 2/3 Modulen. Also die Dinger wo das Marketing 4 bzw. 6 "Kerne" draus macht. Die Dinger saugen einfach nur und dabei meine ich nicht nur Strom.
ABER:
Schnip*
Jeder der Punkte ist für sich schon irgendwie KO. Welcher Aufrüster soll denn profitieren? Wer schon AM3 hat ist als Spieler mit der "alten" CPU deutlich besser dran und der Rest kauft gleich Sandy. Wir reden hier nicht von ein paar kleine Nachteilen wie beim PII. BD ist einfach murks, die abgespeckten Versionen sogar ultrafail.
Das reicht doch mMn!
... und im schlechtesten Fall ist es noch 1/3 der Leistung eines 2500K. Da wird dann das Topmodel von einem 8400 C2D gepawnt[bei deutlich weniger Stromverbrauch].
Das reicht doch mMn!
Dabei zieht er mehr Strom, ergo reicht das nicht. Wo ist der Intel-Killer? Goliath legt in Kürze nach – natürlich so mächtig, dass die Dinger wie Gulftown superteuer werden. Hätte AMD etwas entgegenzusetzen, könnten wir uns zwischen zwei schnelleren Offerten entscheiden. Jetzt aber bleibt wieder das 200-Euro-Duell ...
Übrigens kommt bald auch noch der i7-2700K, welcher den FX-8150 in den meisten Tests abziehen wird. Argh.
MfG,
Raff
Das reicht doch mMn!
Und wenn BD2 nächstes Jahr kommt, werdens dann nochmal 10-20% mehr......
Das würde reichen um auf Intel aufzuschliessen.
Na wenn dir das reicht viel dann Spaß damit. Im Winter hat er ja sogar einen echten Mehrwert.
Und in der 35w Notebookklasse (von mir aus 55w als "apu") fehlen eher 140% als 10-20%.
Slipknot79
2011-10-15, 13:35:21
Wer soll überhaupt die Zielgruppe für diese CPU sein?
LovesuckZ
2011-10-15, 13:37:04
Blablabla....
Ich kann es weder noch sehen, noch hören.
Hier wird ein Scheiss verzapft (allgemein, nicht nur LZ), als wäre der Bulli ne CPU aus der K6-Zeit.
Ich wiederhole mich:
1. Ja, er hat eine höhere Leistungsaufnahme
2. Ja, er schlägt NICHT den i7 2600k (Intels Top-CPU für die Massen)
3. Ja, die Modulbauweise hat die großen Erwartungen nicht erfüllt
ABER:
1. Er stellt eine gute Aufrüst-Option für AM3/AM3+ Boards dar, von sowas träumt Intel (MoBo-Wechsel ist da praktisch immer erforderlich)
2. Er ist schlicht GÜNSTIGER im Einkauf + Multi frei
3. Es ist eine neue (Fertigungs-)Technologie, natürlich lahmt sie an Kinderkrankheiten - wer hat etwas anderes erwartet (bei AMD)?
4. Die 2-3 Moduler haben auch ihre Daseins-Berechtigung, auch wenn (noch) einige K10-Produkte eine interne Konkurrenz darstellen (+ Multi frei).
5. Offensichtlich ist der Win7-Scheduler nicht optimal für BD (siehe Win8/Linux-Tests)
6. AMD (ich erinnere an David vs Goliath) hat nun mal weniger Resscourcen und bringt mit Bulldozer eine Desktop-/Server-CPU.
Es ist nicht optimal gelaufen, aber dass hier 99% der Leute blind draufkloppen ist einfach unfair. Ja das ist es. Niemand zwingt Kritiker einen BD zu kaufen. Geht zu Intel und Ruhe ist!
Viel Spass beim Flamen... :rolleyes:
Ich habe doch schon geschrieben, dass einzig der 4 Moduler eine Konkurrenzfähigkeit aufweist. Die 2 und 3 Moduler sind selbst gegenüber dem hauseigenen, 45nm, Angebot von AMD schlechter. Ich wüsste nicht, wieso man einen 2 Moduler mit 125 Watt kaufen sollte, wenn ein 980BE ebenfalls frei ist und in vielen Fällen sogar schneller (Anwendungen mit 3-4 Threads).
y33H@
2011-10-15, 13:39:03
Das würde reichen um auf Intel aufzuschliessen.Du vergisst Ivy Bridge, du vergisst Gulftown, du vergisst SNB-E, du vergisst den Stromverbrauch.
Übrigens kommt bald auch noch der i7-2700K, welcher den FX-8150 in den meisten Tests abziehen wird. Argh.
Ach, nach dem kommt dann der 8170er ... immer schön hin und her.
Wg. B3 Stepping könnte der sogar etwas besseren Stromverbrauch haben.
Wenn die Mainboardhersteller bis dahin mal die BIOSe optimiert haben, schauts vielleicht nicht mal mehr sooo schlecht aus:
http://www.overclock.net/amd-cpus/1141188-asus-crosshair-v-formula-board-may.html
Da scheint noch einiges beim Crosshair im Argen zu liegen.
Neue Übertaktungskenntnisse gibts auch, anscheinend bringts bei den Spielen@HD "netter" Speicher; alle OC CPUs@4,5GHz, OC2 hat außerdem 2,6GHz NB Takt und DDR3-2000 statt DDR3-1333:
http://www.abload.de/img/bd_mem167i5.png
http://www.abload.de/img/bd_mem2j7mh.png
http://www.rage3d.com/reviews/cpu/amd_fx_8150/index.php?p=9
Sieht doch ganz nett aus ... :)
Endlich mal was, wo RAM was bringt. Frag mich nur, obs wirklich am RAM liegt, oder nicht nur am NB Takt.
Da wären jetzt Tests mit nem 4100er interessant, ob das reicht, um nen Ph2 955 zu schlagen *g*
y33H@
2011-10-15, 13:58:00
Wenn die Mainboardhersteller bis dahin mal die BIOSe optimiert haben, schauts vielleicht nicht mal mehr sooo schlecht aus:
http://www.overclock.net/amd-cpus/1141188-asus-crosshair-v-formula-board-may.htmlBitte den Quatsch nicht weiter verbreiten :freak:
Frag mich nur, obs wirklich am RAM liegt, oder nicht nur am NB TaktNB natürlich, RAM ist nahezu nutzlos.
Bitte den Quatsch nicht weiter verbreiten :freak:
NB natürlich, RAM ist nahezu nutzlos.
Lol, ok, was ist falsch? Bei ner B2 CPU geh ich auch von B2 BIOSen aus, d.h. Fehler sind eher die Regel als Ausnahme ^^
Deswegen hab ich das nicht weiter gecheckt. Woran liegts dann, nur wieder falsch getestet?
Exxtreme
2011-10-15, 14:07:39
Ach, nach dem kommt dann der 8170er ... immer schön hin und her.
Wg. B3 Stepping könnte der sogar etwas besseren Stromverbrauch haben.
Wenn die Mainboardhersteller bis dahin mal die BIOSe optimiert haben, schauts vielleicht nicht mal mehr sooo schlecht aus:
http://www.overclock.net/amd-cpus/1141188-asus-crosshair-v-formula-board-may.html
Da scheint noch einiges beim Crosshair im Argen zu liegen.
Neue Übertaktungskenntnisse gibts auch, anscheinend bringts bei den Spielen@HD "netter" Speicher; alle OC CPUs@4,5GHz, OC2 hat außerdem 2,6GHz NB Takt und DDR3-2000 statt DDR3-1333:
http://www.abload.de/img/bd_mem167i5.png
http://www.abload.de/img/bd_mem2j7mh.png
http://www.rage3d.com/reviews/cpu/amd_fx_8150/index.php?p=9
Sieht doch ganz nett aus ... :)
Endlich mal was, wo RAM was bringt. Frag mich nur, obs wirklich am RAM liegt, oder nicht nur am NB Takt.
Da wären jetzt Tests mit nem 4100er interessant, ob das reicht, um nen Ph2 955 zu schlagen *g*
LOL, also wenn das stimmt dann war die BD-Vorstellung marketingtechnisch ein Fail erster Güte.
y33H@
2011-10-15, 14:19:51
Lol, ok, was ist falsch?Wenn ich das richtig sehe, behauptet er, mit einem anderen Board als dem C5F liefe der FX klar schneller. No way. Und dieser Benchmark-Vergleich ist an Lächerlichkeit kaum zu überbieten [Link in deinem Link]: http://www.tomshardware.co.uk/forum/315775-10-asus-crosshair-giving-biased-results-bulldozer
Wie kann man nur auf die Idee kommen, das völlig Grafiklimitierte Extreme-Setting des 3DM11 für einen CPU-Test zu nehmen ... aber noch bekloppter ist es, diesen nichtssagenden Wert gegen das aussagekräftige Resultat des Physics-Tests zu stellen! Wer das macht, hat entweder null Plan wie man CPUs vermisst oder ist ein derber Fanboy solche Werte gegenüber zu stellen oder beides. Und dann noch der Seitenhieb, die böse Geforce könnte schuld sein. Sorry, aber bei solchen "Vergleichen" fühle ich mich geistig beleidigt.
][immy
2011-10-15, 14:21:19
gibt es eigentlich noch tests die den Core2Quad mittesten außer computerbase?
würde mich mal interessieren, wie sehr sich das aufrüsten dort lohnen würde.
zudem könnte man vielleicht mal besser sehen, wie sich inzwischen die performance der neueren chips inzwischen "verbessert" hat gegenüber den älteren. bei computerbase wurde hier nur der 2,83 C2Q mitgebencht, was ich jetzt nicht so aussagekräftig finde.
LovesuckZ
2011-10-15, 14:23:33
[immy;8984968']gibt es eigentlich noch tests die den Core2Quad mittesten außer computerbase?
würde mich mal interessieren, wie sehr sich das aufrüsten dort lohnen würde.
zudem könnte man vielleicht mal besser sehen, wie sich inzwischen die performance der neueren chips inzwischen "verbessert" hat gegenüber den älteren. bei computerbase wurde hier nur der 2,83 C2Q mitgebencht, was ich jetzt nicht so aussagekräftig finde.
http://www.hardware.fr/articles/842-1/amd-fx-8150-fx-6100-bulldozer-debarque-am3.html
AnarchX
2011-10-15, 14:23:48
[immy;8984968']gibt es eigentlich noch tests die den Core2Quad mittesten außer computerbase?
http://www.hardware.fr/articles/842-1/amd-fx-8150-fx-6100-bulldozer-debarque-am3.html
Sogar noch ein Kentsfield Q6600 dabei.
y33H@
2011-10-15, 14:25:27
[immy;8984968']gibt es eigentlich noch tests die den Core2Quad mittesten außer computerbase?Die PCGH in der Print 12/2011 *hust* :biggrin: U.a. Q6600, Q6600 @ 3,2 GHz und Q9550. Wobei ich sagen muss, die Test meines Namensvetters bei Hardware.fr sind klasse =)
dildo4u
2011-10-15, 14:42:34
http://www.hardware.fr/articles/842-1/amd-fx-8150-fx-6100-bulldozer-debarque-am3.html
Sogar noch ein Kentsfield Q6600 dabei.
Einfach nur geil wie der i3 21X0(65Watt) den Q6600(95Watt) abzieht,so ne geile Steigerung der Effizienz selbst vom C2Q.
http://www.hardware.fr/articles/842-20/jeux-3d-crysis-2-arma-ii-oa.html
y33H@
2011-10-15, 14:47:37
Crysis und ArmA2 sind eher auf Dualcores ausgerichtet, da ist der i3 samt SMT mit 3,4 GHz dem Kentsfield mit 2,4 GHz halt meilenweit überlegen. Plus 1,0 GHz (+42%) und eine IPC-Schippe von 30 Prozent dazu und du hast die +47% bzw +60%.
Ya, in Crysis 2, Dirt 3 und BC2 (alles Super-Mehrkernspiele) würde das wohl anders aussehen. Dennoch ist die Effizienz des i3 sehr nett.
MfG,
Raff
Cyphermaster
2011-10-15, 15:07:12
Nein, je moderner (u.a. Multithreading, usw.) die Anwendung, desto besser wird bzw tut BD abschneiden!Es wird auch genug "moderne" Anwendungen geben, die sind Single-Thread (bzw. "wenige" Threads), und bleiben das notwendigerweise auch. Die Mär, daß Parallelisierung immer weiter ginge, ist und bleibt nun mal eine. Bis zu einem gewissen Grad geht das - aber eben nicht weiter.
1. Er stellt eine gute Aufrüst-Option für AM3/AM3+ Boards dar, von sowas träumt Intel (MoBo-Wechsel ist da praktisch immer erforderlich)Für wen denn? Wer ein Board mit AM3/3+ hat, hat mit an Sicherheit grenzender Wahrscheinlichkeit einen Phenom, der praktisch gleich schnell in den gewünschten Anwendungsfällen ist.
2. Er ist schlicht GÜNSTIGER im Einkauf + Multi freiGünstiger mag sein, aber er ist nicht gleich gut. Wenn, dann müßte man ihn mit CPUs vergleichen, die auf Augenhöhe mit ihm sind. Und in Gaming-Anwendungen sind das CPUs, die günstiger als der i2600k sind.
3. Es ist eine neue (Fertigungs-)Technologie, natürlich lahmt sie an Kinderkrankheiten - wer hat etwas anderes erwartet (bei AMD)?Korrekt. Trotzdem kauft ein Kunde wohl kaum aus "Mitleid" etwas, was lahmt und mit Kinderkrankheiten gespickt ist. Er erwartet Leistung für sein Geld, danach kauft er Hardware in der Regel. Diese Kinderkrankheiten kosten AMD wahrscheinlich deswegen viel Geld.
4. Die 2-3 Moduler haben auch ihre Daseins-Berechtigung, auch wenn (noch) einige K10-Produkte eine interne Konkurrenz darstellen (+ Multi frei).Daseinsberechtigung für was? Die Dinger sind so langsam, daß sie kein Upgrade, sondern nur ein Sidegrade wären.
5. Offensichtlich ist der Win7-Scheduler nicht optimal für BD (siehe Win8/Linux-Tests)Siehe 3.. Das wird einen Durchschnitts-Kunden nicht so besonders interessieren. Wer BD-interessiert ist, und darauf hofft, wird trotzdem erst einmal nicht kaufen, sondern abwarten. Das heißt, ebenfalls kein Umsatz für AMD, wenn auch vielleicht nur vorerst.
6. AMD (ich erinnere an David vs Goliath) hat nun mal weniger Resscourcen und bringt mit Bulldozer eine Desktop-/Server-CPU.
Nochmal siehe 3..
Es ist nicht optimal gelaufen, aber dass hier 99% der Leute blind draufkloppen ist einfach unfair. Ja das ist es. Niemand zwingt Kritiker einen BD zu kaufen. Geht zu Intel und Ruhe ist!Fakten sind nicht unfair. Blind draufkloppen kann man es auch wohl kaum nennen, wenn reihenweise Tests da sind. Mag sein, du hast ein Herz für den "Underdog" AMD (nix dagegen einzuwenden), aber rein sachlich gesehen ist BD nun mal keine Rakete, und der Markt ist auch sicher nicht der Ponyhof im Lieblichknuffeltal, wo Hab-dich-lieb-Bärchis den armen Bulldozer gesundpflegen. Ich denke, die Frage ist da doch eher, ob du hier nicht fehl am Platz bist, wenn du alles außer Beifall für BD nicht verträgst. Das hier ist eine Diskussion über BD, und da kann es eben auch kritische Meinungen geben.
Skysnake
2011-10-15, 15:27:43
na das ist doch simple
Ich nehm ein Spiel daher wo ich meine gewünschte Performance laut Fraps nicht mehr hinbekomme (einige wollen 30+ FPS einige 60+ einige 90+) bzw. welches sich ruckelig anfühlt...
-> Auflösung runter/hoch
Besserung ja: CPU ist noch ok Graka tuts nicht mehr (oder ich muss generell auf details verzichten) ich schau mich mal bei aktuellen GraKa tests um und hol was Neues
Besserung nein: CPU ist der Übeltäter, ich guck mal die aktuellen CPU Tests durch (die hoffentlich NICHT im GPU limit durchgeführt sind) und bestell mir was neues
Done.
Falls man eher der Typ ist der die ganze Möhre ab und an mal entsorgt bildet man einfach die Schnittmenge aus GraKa und CPU test
Nein, die Einzeltests sind eben nicht ausreichend, es sei denn, man probiert halt rum.
Du hast aber KEINE Chance, zu erkennen, ob jetzt Die 200€ CPU +300€ GPU besser ist, oder die 150€ CPU+350€GPU.
Du kannst es einfach nicht. Erst wenn du beide Systeme dastehen hast, und in den normalen Settings testet, die man so @home verwendet, sieht man was dann wirklich besser ist. Wenn ich das aber machen muss, dann brauch ich gar keine News-Seite/Review mir anschauen.
Sir Integral Wingate Hellsing
2011-10-15, 15:38:22
Es wird auch genug "moderne" Anwendungen geben, die sind Single-Thread (bzw. "wenige" Threads), und bleiben das notwendigerweise auch. Die Mär, daß Parallelisierung immer weiter ginge, ist und bleibt nun mal eine. Bis zu einem gewissen Grad geht das - aber eben nicht weiter.
Für wen denn? Wer ein Board mit AM3/3+ hat, hat mit an Sicherheit grenzender Wahrscheinlichkeit einen Phenom, der praktisch gleich schnell in den gewünschten Anwendungsfällen ist.
Günstiger mag sein, aber er ist nicht gleich gut. Wenn, dann müßte man ihn mit CPUs vergleichen, die auf Augenhöhe mit ihm sind. Und in Gaming-Anwendungen sind das CPUs, die günstiger als der i2600k sind.
Korrekt. Trotzdem kauft ein Kunde wohl kaum aus "Mitleid" etwas, was lahmt und mit Kinderkrankheiten gespickt ist. Er erwartet Leistung für sein Geld, danach kauft er Hardware in der Regel. Diese Kinderkrankheiten kosten AMD wahrscheinlich deswegen viel Geld.
Daseinsberechtigung für was? Die Dinger sind so langsam, daß sie kein Upgrade, sondern nur ein Sidegrade wären.
Siehe 3.. Das wird einen Durchschnitts-Kunden nicht so besonders interessieren. Wer BD-interessiert ist, und darauf hofft, wird trotzdem erst einmal nicht kaufen, sondern abwarten. Das heißt, ebenfalls kein Umsatz für AMD, wenn auch vielleicht nur vorerst.
Nochmal siehe 3..
Fakten sind nicht unfair. Blind draufkloppen kann man es auch wohl kaum nennen, wenn reihenweise Tests da sind. Mag sein, du hast ein Herz für den "Underdog" AMD (nix dagegen einzuwenden), aber rein sachlich gesehen ist BD nun mal keine Rakete, und der Markt ist auch sicher nicht der Ponyhof im Lieblichknuffeltal, wo Hab-dich-lieb-Bärchis den armen Bulldozer gesundpflegen. Ich denke, die Frage ist da doch eher, ob du hier nicht fehl am Platz bist, wenn du alles außer Beifall für BD nicht verträgst. Das hier ist eine Diskussion über BD, und da kann es eben auch kritische Meinungen geben.
Jeder weiss, das BD verrissen wurde. Ihr könnt es ja immer wieder und wieder wiederholen. Wayne? SCHLECHTER wird er dadurch auch nicht. Eher auf Dauer BESSER (Scheduler/Multithreaded).
Wg Aufrüsten: Die wenigsten (dieses Forum ist keine Referenz) haben nen dicken X4/X6 (oder gar i5/i7), insofern macht es Sinn. Die Masse krepelt noch auf alten Dualcores (Athlon 64 X2/ C2D bzw bissl besser) rum (3DC ist keine Referenz für die Masse).
Ich sehe durchaus die Kritik als berechtigt an (am BD), aber irgendwann ist ja mal gut. Die Fakten sind bekannt. Und dein Knuddelbär-Geschnacke ist lächerlich, hätte da mehr von Dir erwartet. Zumal eben nicht alles verrissen wurde, es gibt durchaus gute Punkte (wenn auch nicht in der Gesamtheit). Wenn Du nur bashen kannst, ich kann beides.
Bucklew
2011-10-15, 15:51:35
Wg Aufrüsten: Die wenigsten (dieses Forum ist keine Referenz) haben nen dicken X4/X6 (oder gar i5/i7), insofern macht es Sinn. Die Masse krepelt noch auf alten Dualcores (Athlon 64 X2/ C2D bzw bissl besser) rum (3DC ist keine Referenz für die Masse).
Damit fällt aber der Vorteil des AM3 Sockel weg, denn wenn man ein so altes System hat muss zu 99% ein neues Mainboard her - und dann kann man auch direkt ein 1155-Board kaufen, das nimmt sich nichts.
Und man kann dann auch Ivy auf das Board setzen, wer weiß was AMD für den Bulldozer2 als Sockel nimmt? Ich würde mir heute kein AM3-Board mehr kaufen.
Wg Aufrüsten: Die wenigsten (dieses Forum ist keine Referenz) haben nen dicken X4/X6 (oder gar i5/i7), insofern macht es Sinn. Die Masse krepelt noch auf alten Dualcores (Athlon 64 X2/ C2D bzw bissl besser) rum (3DC ist keine Referenz für die Masse).
Du meinst scheinbar die OEMs würden sich von den FISI-Folien beeindrucken lassen oder würden beim Anblick BDs dem Caritas-Dachverband beitreten. Vieleicht können sie ja dann die Kosten für dickere PSUs und Kühllösungen als Spende absetzen. Kannst du ja mal einen Blick auf gh werfen und nachsehen wie viele der angepriesene Llano-"Design Wins" es in die Notebook- oder "Markenkomplettsysteme" Übersicht geschafft haben.
bei den BD-Leistungsdaten wird es für die OEMs ein leichtes sein ihre Rabatte ordentlich auszubauen (Bei Team Blau entsprechend umgekehrt).
Einfach nur geil wie der i3 21X0(65Watt) den Q6600(95Watt) abzieht,so ne geile Steigerung der Effizienz selbst vom C2Q.
http://www.hardware.fr/articles/842-20/jeux-3d-crysis-2-arma-ii-oa.html
Ja Spiele und so ... da bringen mehr als 3 Kerne selten meßbare Mehrleistung.
Von daher wäre ja eigentlich so ein Bulldozer FX4/FX6 eine ziemlich gute Idee leider ist die Architektur im jetzt-Zustand als Zambezi eher nicht so gelungen :redface:
Nein, die Einzeltests sind eben nicht ausreichend, es sei denn, man probiert halt rum.
Du hast aber KEINE Chance, zu erkennen, ob jetzt Die 200€ CPU +300€ GPU besser ist, oder die 150€ CPU+350€GPU.
Du kannst es einfach nicht. Erst wenn du beide Systeme dastehen hast, und in den normalen Settings testet, die man so @home verwendet, sieht man was dann wirklich besser ist. Wenn ich das aber machen muss, dann brauch ich gar keine News-Seite/Review mir anschauen.
Genau dieses rumspekuliere müsste ich doch machen wenn eben CPUs eher nicht unabhängig von GraKas getestet werden. Weiterhin schmeisst man doch als Selbstbauer meist nicht alles auf den Müll sondern tauscht pro CPU/MB/Ram die Grafikkarte meist mehrmals durch.
Das ganze skaliert doch nicht/kaum (Treiberlast nuancen) in Abhängigkeit von einander. Man sorgt dafür das die CPU genug Leistung für gewünschte FPS liefert (+ etwas Luft je nachdem wielang man damit auskommen will) und sucht sich dann eine Grafikkarte für das Restbudget.
Letzteres kann man praktisch immer auslasten (mal abgesehen von Minesweeper&Co) indem man genug AA&AF und Downsampling und max settings reinknallt.
Sollte das dann mal nicht mehr reichen fährt man seine Settings halt etwas zurück und legt sich mal eine neue Karte zu
wenn die CPU am Ende ist heisst es aber GG
Dunkeltier
2011-10-15, 16:32:44
Wer soll überhaupt die Zielgruppe für diese CPU sein?
Eindeutig der Server-Markt. Allerdings wird hier der Bulldozer an seiner hohen Abwärme kranken, die eine entsprechend aufwendige Kühlung/Belüftung der Server-Räume erforderlich macht. Und halt für dicke Stromrechnungen sorgt. Ob hier Firmen unbedingt zugreifen würden?
Jeder weiss, das BD verrissen wurde. Ihr könnt es ja immer wieder und wieder wiederholen. Wayne? SCHLECHTER wird er dadurch auch nicht. Eher auf Dauer BESSER (Scheduler/Multithreaded).
Wg Aufrüsten: Die wenigsten (dieses Forum ist keine Referenz) haben nen dicken X4/X6 (oder gar i5/i7), insofern macht es Sinn. Die Masse krepelt noch auf alten Dualcores (Athlon 64 X2/ C2D bzw bissl besser) rum (3DC ist keine Referenz für die Masse).
Ich sehe durchaus die Kritik als berechtigt an (am BD), aber irgendwann ist ja mal gut. Die Fakten sind bekannt. Und dein Knuddelbär-Geschnacke ist lächerlich, hätte da mehr von Dir erwartet. Zumal eben nicht alles verrissen wurde, es gibt durchaus gute Punkte (wenn auch nicht in der Gesamtheit). Wenn Du nur bashen kannst, ich kann beides.
Man kauft keine Hardware für die Zukunft, wo er vielleicht etwas besser abschneiden könnte. Aber dann eh wieder zu langsam weil zu veraltet ist. Eher für das hier und heute und die nahe Zukunft (die nächsten 6 Monate vielleicht). Und da bietet der Bulldozer für Otto-Normal User und Zocker nun mal halt nicht viel.
Hm, erst erwähnst du groß das Aufrüsten - wofür der Bulldozer doch eine Alternative wäre. Aber nachdem das Argument nicht zieht (weil das wie gesagt eher ein Sidegrade wäre), kommst du damit dass man besser fährt wenn man sich den als neue Plattform zulegt. Warum? Den Spaß bekommt man bei Intel mit vergleichbarer Leistung günstiger in der Anschaffung - und mit weniger Strom"verbrauch". Siehe FX-8150 VS i5-2400 - wobei der 2400er sogar noch 8% im Mittel schneller ist - in Spielen sind es 21%. -> http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/14/#abschnitt_gesamt
Wo Bulldozer bzw. überhaupt die älteren AMD Phenom II noch Sinn machen, sind nur noch die sehr preisgünstigen Einsteiger-Systeme für 08/15 User. Da zählen extrem niedrige Plattform- bzw. Gesamt-Kosten (CPU+GPU). Allerdings bleibt nicht viel Marge übrig, man macht da nur Gewinn über Stückzahlen. Ich bin beileibe kein Fanboy. Aber hier muss man sich einfach eingestehen, dass AMD das Ding ziemlich tief in den Sand gesetzt hat. Entsprechende Konsequenzen auf personeller Ebene gab es ja nun schon.
Cyphermaster
2011-10-15, 16:56:45
Ich sehe durchaus die Kritik als berechtigt an (am BD), aber irgendwann ist ja mal gut. Die Fakten sind bekannt.Das hier ist keine Faktensammlung, sondern eine Diskussion. Solange keiner Blödsinn labert, sehe ich keinen Grund, warum man also aufhören sollte, sich über den status quo, eventuelle Ausblicke, Folgen usw. auszutauschen.
Und dein Knuddelbär-Geschnacke ist lächerlich, hätte da mehr von Dir erwartet.Lächerlich ist imho eher, als Argument für ein nicht besonders berauschendes Produkt anführen zu wollen, daß "man eh nicht viel Besseres hätte erwarten können".Zumal eben nicht alles verrissen wurde, es gibt durchaus gute Punkte (wenn auch nicht in der Gesamtheit). Wenn Du nur bashen kannst, ich kann beides.Bashing wäre entweder repetitives oder unberechtigtes "Runtermachen". Habe ich nicht gemacht. Ich sage auch nichts gegen die positiven Punkte, oder daß BD nicht eventuell noch ordentlich Verbesserungspotential birgt. Nur, daß er so, wie er jetzt ist, kein sonderlich gutes Produkt und schon gar kein besonders überzeugendes Kaufangebot darstellt.
Sir Integral Wingate Hellsing
2011-10-15, 17:01:02
Ganz ehrlich:
AMD war EINMAL (1981-2011) mit dem K8 VOR Intel.
Was zur Hölle erwartet ihr?
EDIT: Offensichtlich Wunder.
y33H@
2011-10-15, 17:02:54
Keine kaputten Designs zum Beispiel ;(
Sir Integral Wingate Hellsing
2011-10-15, 17:06:35
Keine kaputten Designs zum Beispiel ;(
Gab es bei AMD schon:
AMD hatte Probleme bei der Entwicklungszeit und bei der Fertigungsausbeute, so dass der K5 ein Jahr später als ursprünglich geplant auf den Markt kam. Diese Version war noch eine Art „Vorabversion“, bekannt als SSA/5, mit Fehlern im L1-Cache und in der Sprungvorhersage. Sie wurde zuerst als 5K86 und später dann auch als K5 verkauft. Die fehlerbereinigte Version, als 5k86 bezeichnet, wurde nur als K5 verkauft.
http://de.wikipedia.org/wiki/AMD_K5
Ihr vergleicht nun mal "Tengelmann" mit "Real/Metro"...
Dunkeltier
2011-10-15, 17:09:37
Ganz ehrlich:
AMD war EINMAL (1981-2011) mit dem K8 VOR Intel.
Was zur Hölle erwartet ihr?
EDIT: Offensichtlich Wunder.
Von 1981 an ganz sicherlich nicht. Eher von 1999 (AMD Athlon) bis 2006 (AMD Athlon 64 [X2]). 2006 kam Intel mit seinen Core 2 Duo dann auf den Markt. Das einzige mal, das ich außerhalb dieser Leistungsführerschaft zu AMD griff, war 1996/1997 rum. Da hat bei mir das Geld nur für ein AMD K6-200 Mhz gereicht.
/edit: Ach so, einmal und nicht einmal... X-D *ditsch* Ne, eher zweimal. Der K7 konnte die damaligen PIII und Anfangs noch P4 noch ganz gut in Schach halten, bis der K8 als Ablöse kam.
Matrix316
2011-10-15, 17:12:57
Eigenglich kann man es so zusammenfassen: So lange Intel im Berechnen von Pi doppelt so schnell ist wie AMD, haben die eh keine Chance. ;)
Sir Integral Wingate Hellsing
2011-10-15, 17:14:44
Von 1981 an ganz sicherlich nicht. Eher von 1999 (AMD Athlon) bis 2006 (AMD Athlon 64 [X2]). 2006 kam Intel mit seinen Core 2 Duo dann auf den Markt.
Ich korrigiere: von 1979 bis 2011 (seitdem hat AMD die Lizenz für 8086/8088) - AMD hat in den 80igern z.B. 286er und 386er gefertigt.
Seit 2006 ist Intel mit der Nase vorne - daran wird sich erstmal auch nichts ändern. Haben das wirklich so viele vor Bulldozer geglaubt?
AMD steht/stand immer für P/L-CPUs, den Bomber-Erfolg von K8 sehe (ich als Fanboy) eher als Zufall an (und wg Intels damaliger Netburst-Schwäche).
Matrix316
2011-10-15, 17:20:28
Aber wieso geht AMD in die gleiche falsche Richtung wie Intel damals mit hohem Takt, wenig Effizienz und hohem Stromverbrauch?
Die müssten es doch besser wissen wie es geht. Man hat doch selbst versucht mit dem "1X00+" Rating gegen Intel anzukommen, weil ein 1,4 GHz Athlon schneller war als ein 1700 MHz intel. Und heute ist es umgekehrt. Mir unverständlich...
Dunkeltier
2011-10-15, 17:25:39
Ich korrigiere: von 1979 bis 2011 (seitdem hat AMD die Lizenz für 8086/8088) - AMD hat in den 80igern z.B. 286er und 386er gefertigt.
Seit 2006 ist Intel mit der Nase vorne - daran wird sich erstmal auch nichts ändern. Haben das wirklich so viele vor Bulldozer geglaubt?
AMD steht/stand immer für P/L-CPUs, den Bomber-Erfolg von K8 sehe (ich als Fanboy) eher als Zufall an (und wg Intels damaliger Netburst-Schwäche).
Ach, und vor 1999? Der AMD K6 sah doch keine Schnitte gegen die Fließkomma-Leistung der Intel Penium MMX CPUs. Netburst war nicht per se schlecht, nur leider klappte das mit dem hohen Takt halt nicht so ganz. Dafür brachte es später dann HT, um die Pipeline besser auszulasten. So hat es wenigstens etwas gutes gehabt. AMD ist seit dem K8 in den Tiefschlaf verfallen und ruht sich auf vergangene Erfolge aus.
In Analogie auf die alten Zeiten...der AMD K5/K6 hatte damals auch eine unheimlich starke Integer-Leistung, die FPU schwächelte. Statt den Integer-Teil im Bulldozer so dermaßen auszubauen und zu verbreitern hätte AMD sich besser drauf konzentriert gehabt, 4-Kerner mit extrem starker FPU zu designen. Auch im Hinblick auf die derzeitge Software-Nutzung, weil nur wenige Anwendungen von mehr als zwei Kernen profitieren. Eventuell noch HT für eine bessere Auslastung anflanschen, und wir hätten eine CPU auf Augenhöhe mit Intel gehabt. AMD hat am Markt und damit den Ansprüchen/Wünschen der meisten Käufer vorbei entwickelt.
Sir Integral Wingate Hellsing
2011-10-15, 17:31:51
Aber wieso geht AMD in die gleiche falsche Richtung wie Intel damals mit hohem Takt, wenig Effizienz und hohem Stromverbrauch?
Die müssten es doch besser wissen wie es geht. Man hat doch selbst versucht mit dem "1X00+" Rating gegen Intel anzukommen, weil ein 1,4 GHz Athlon schneller war als ein 1700 MHz intel. Und heute ist es umgekehrt. Mir unverständlich...
Gute Frage. :(
anddill
2011-10-15, 17:54:57
Vielleicht dachten sie, den Bulldozer problemlos auf 5...6GHz prügeln zu können? Die Cachelatenzen und die OC-Ergebnisse sprechen dafür. Sie dachten halt, sie könntens besser.
Matrix316
2011-10-15, 18:24:54
Vielleicht dachten sie, den Bulldozer problemlos auf 5...6GHz prügeln zu können? Die Cachelatenzen und die OC-Ergebnisse sprechen dafür. Sie dachten halt, sie könntens besser.
Aber wieso denken sie das überhaupt, obwohl sie in der Vergangenheit mit dem Gegenteil erfolgreich waren?
Aber vielleicht erklärt hier das einiges
http://www.hartware.de/news_53017.html
Cliff A. Maier, ein ehemaliger AMD-Entwickler, hat die neue Bulldozer-Architektur des Unternehmens scharf kritisiert: Seiner Ansicht nach bleibt die Leistung der neuen Acht-Kern-CPUs in der Praxis teilweise hinter Intels Vier-Kernern zurück, weil AMD sich zu sehr auf automatisierte Design-Prozesse verlasse: "Wir mussten damals aufhören CPUs von Hand zu gestalten und auf SoC-Designs setzen. Infolge gaben wir aber Leistung, Platz auf den Chips und Effizienz auf." Laut Maier seien automatisch generierte Designs aber ca. 20 % größer und langsamer als vollkommen von Hand gestaltete Modelle.
anddill
2011-10-15, 18:48:27
Das hab ich heute auch schon mindestens 4x gelesen. Abgesehen davon, daß niemand von uns weiß, was die Synthesetools heute leisten (Die Aussage ist alt, und die Sache worauf sie sich bezieht noch älter), wird das so oder so die Zukunft sein. Maschinen bauen Maschinen. Deal with it.
FeuerHoden
2011-10-15, 19:18:28
Es passt aber zur Aussage eines anderen AMD-Mitarbeiters der sich darüber beschwerte das AMD mehr Geld in die Diskreditierung gewisser Benchmark Konsortien stecke als in die CPU Entwicklung. Aussage des Mitarbeiters war etwas in der Richtung: '... give us the Tools that we need to make CPUs instead of spending the Money on Marketing against other Companies ...'.
Amboss
2011-10-15, 19:18:45
Was zur Hölle erwartet ihr?
EDIT: Offensichtlich Wunder.
du kapierst es nicht: Die meisten hier sind nicht enttäuscht weil sie AMD hassen, sondern weil sie sehen wie Intel jetzt das Monopol hat und die Preise diktieren kann. AMD launcht eine CPU die +/- gleich schnell ist wie der Vorgänger.
Jetzt weiß ich wieso der CEO Dirk Meyer gefeuert wurde: nicht nur der Cayman ist betriebswirtschaftlich ein Fehler gewesen, der Bulldozer könnte AMD für immer aus dem Rennen werfen. Ich hoffe sehr das sie noch mal die Kurve kriegen, nur glauben tu ich es nicht.
Matrix316
2011-10-15, 19:24:41
Genau. Wenn man AMD hassen würde, müsste man sich ja freuen, weil sie so langsam sind. Eigentlich wollte ich auch bald mal wieder eine AMD CPU im Rechner haben, aber so... höchstens aus Spaß im zweit PC oder so.
BTW.. wie soll man sich eigentlich einen CPU Design Programm vorstellen...hmmmm...:uponder:
http://www.abload.de/img/cpugeniuqf.jpg (http://www.abload.de/image.php?img=cpugeniuqf.jpg)
;D
Sir Integral Wingate Hellsing
2011-10-15, 19:35:23
du kapierst es nicht: Die meisten hier sind nicht enttäuscht weil sie AMD hassen, sondern weil sie sehen wie Intel jetzt das Monopol hat und die Preise diktieren kann. AMD launcht eine CPU die +/- gleich schnell ist wie der Vorgänger.
Jetzt weiß ich wieso der CEO Dirk Meyer gefeuert wurde: nicht nur der Cayman ist betriebswirtschaftlich ein Fehler gewesen, der Bulldozer könnte AMD für immer aus dem Rennen werfen. Ich hoffe sehr das sie noch mal die Kurve kriegen, nur glauben tu ich es nicht.
1. Gewöhn Dir nen anderen Ton an.
2. Nix neues was Du sagst.
3. AMD (ich glaub ich sage es zum vierten Mal) wird dennoch nicht untergehen.
Vielleicht dachten sie, den Bulldozer problemlos auf 5...6GHz prügeln zu können? Die Cachelatenzen und die OC-Ergebnisse sprechen dafür. Sie dachten halt, sie könntens besser.
Auf alle Fälle mehr. Sicher weiß mans nur vom L3 Cache, der war für 2,4 GHz eingeplant, da gibts den Shmoo Plot, hab den auch schon ein paar Mal verlinkt.
Stattdessen hat man nur 2-2,2Ghz, und alles über 2,6 ist Glückssache, da scheint schon die Grenze des Mach-/Taktbaren zu liefen. Sollte eigentlich bei 3 GHz sein.
Kurz: Der Prozess ist noch arg unoptimiert, Llano war wg. des GPU Parts und des niedrigeren Taktziels auch eher der falsche Vorläufer.
Naja, jetzt können sie wenigstens in eine Richtung hin optimieren, B3 kommt auch noch (weiteres Indiz dafür das da was noch im Argen ist), wenn Piledriver/Vishera/RevC kommt, sollte dann eingentlich alles ok sein ^^
Keine kaputten Designs zum Beispiel
Naja, kaputt ist übertrieben, es läuft ja, ist halt aber eben noch ne Art Beta Status ^^
Und Danke für die Antwort vorher. Hab ich dann zu schnell übernommen, einmal, wenn man faul ist ^^
foenfrisur
2011-10-15, 19:44:50
schlussendlich sind die meisten hier ja auch noch selber mit schuld.
es hat doch fast jeder hier einen schmutzig erkauften intel im system.
damit haben sie amds zwickmühle mit aufgebaut.
die meisten wären mit einem amd nicht wirklich schlechter gefahren, sie hätten nur einen "kleineren virtuellen pimmel".
cpu-performance ist oft so dermaßen überbewertet.
ich habe mir damals schon lieber eine ssd gekauft.
das war eine deutlich sinnvollere investition, als eine schnellere cpu ;)
an sich ist es das naturgesetz des stärkeren.
nicht unbedingt des besseren. obwohl die intel-cpus momentan einfach super sind, das kann man nicht bestreiten. in nahezu allen kategorien.
was ich mich frage:
müsste AMD nicht desktop- und server-cpu DEUTLICHER trennen?
das sind doch ganz unterschiedliche anforderungen und softwareverhältnisse.
mfg
Sir Integral Wingate Hellsing
2011-10-15, 19:48:11
schlussendlich sind die meisten hier ja auch noch selber mit schuld.
es hat doch fast jeder hier einen schmutzig erkauften intel im system.
damit haben sie amds zwickmühle mit aufgebaut.
die meisten wären mit einem amd nicht wirklich schlechter gefahren, sie hätten nur einen "kleineren virtuellen pimmel".
cpu-performance ist oft so dermaßen überbewertet.
ich habe mir damals schon lieber eine ssd gekauft.
das war eine deutlich sinnvollere investition, als eine schnellere cpu ;)
an sich ist es das naturgesetz des stärkeren.
nicht unbedingt des besseren. obwohl die intel-cpus momentan einfach super sind, das kann man nicht bestreiten. in nahezu allen kategorien.
Gut festgestellt. ;)
was ich mich frage:
müsste AMD nicht desktop- und server-cpu DEUTLICHER trennen?
das sind doch ganz unterschiedliche anforderungen und softwareverhältnisse.
mfg
Kostengründe nehme ich an.
BTW.. wie soll man sich eigentlich einen CPU Design Programm vorstellen...hmmmm...:uponder:
Nein. Das Blockschaltbild, was bei dir als Ausgang steht, ist quasi der Eingang für das Synthesetool. (In der Realität der HDL-Code) Als Ausgang müsstest du dir einen Dieshot hinmalen :)
Dunkeltier
2011-10-15, 19:58:59
1. Gewöhn Dir nen anderen Ton an.
2. Nix neues was Du sagst.
3. AMD (ich glaub ich sage es zum vierten Mal) wird dennoch nicht untergehen.
Zu 3.) Aber weitere Marktanteile und damit Gewinn abgeben dürfen. Und die Forschung gibt es nun mal nicht umsonst. Also wird hier für die nächste(n) Generationen noch mehr Geld für R&D fehlen. Ich vermute bis Ende nächsten Jahres hat AMD 2-3% Marktanteil im Desktopmarkt abgeben.
schlussendlich sind die meisten hier ja auch noch selber mit schuld.
es hat doch fast jeder hier einen schmutzig erkauften intel im system.
damit haben sie amds zwickmühle mit aufgebaut.
die meisten wären mit einem amd nicht wirklich schlechter gefahren, sie hätten nur einen "kleineren virtuellen pimmel".
cpu-performance ist oft so dermaßen überbewertet.
ich habe mir damals schon lieber eine ssd gekauft.
das war eine deutlich sinnvollere investition, als eine schnellere cpu ;)
an sich ist es das naturgesetz des stärkeren.
nicht unbedingt des besseren. obwohl die intel-cpus momentan einfach super sind, das kann man nicht bestreiten. in nahezu allen kategorien.
was ich mich frage:
müsste AMD nicht desktop- und server-cpu DEUTLICHER trennen?
das sind doch ganz unterschiedliche anforderungen und softwareverhältnisse.
mfg
Autsch, Fanboy-Gelaber. Ich kaufe das Produkt, was am ehesten zu meinen Einsatz-Bereich passt und das beste P/L-Verhältnis aufweist. Und das war im Frühjahr alles andere als der Phenom II. So dürften denke ich auch viele andere User verfahren. Und mir geht's nicht um einen möglichst großen Pimmel, sondern um eine möglichst hohe Bild- und Detailqualität in Spielen. Mit meinen beiden alten Geforce GTX 480 Grafikkarten im SLI würde ich bei einem AMD-System ständig im CPU-Limit festhängen. Schuldgefühle plagen mich deswegen keine.
foenfrisur
2011-10-15, 20:02:07
ROOOOOFL
bild- und detailqualität mit SLI....OMG
mfg
Dunkeltier
2011-10-15, 20:03:33
ROOOOOFL
bild- und detailqualität mit SLI....OMG
mfg
In Spielen. Bei zu wenig FPS müssten halt Details oder AA/AF runtergeschaltet werden.
schlussendlich sind die meisten hier ja auch noch selber mit schuld.
es hat doch fast jeder hier einen schmutzig erkauften intel im system.
damit haben sie amds zwickmühle mit aufgebaut.
die meisten wären mit einem amd nicht wirklich schlechter gefahren, sie hätten nur einen "kleineren virtuellen pimmel".
Blödsinn ich bin mir ziemlich sicher das die meisten hier auch einen AthlonI, AthlonXP/Barton und A64 hatten und keinen P4 willi oder presskopp sondern die guten AMD CPUs bis der A64 X2 zu lang das "Zugpferd" war und nochmal auf AM2 gehieft wurde obwohl dann der Zug abgefahren war (Core2)
Der Phenom war dann der richtige Fail und nun knüpft da Bulldozer an.
Damals einen PhenomI+II zu kaufen bzw. jetzt den BD I ist genauso ein fail wie einen Presskopp besessen zu haben.
Hugo78
2011-10-15, 20:06:40
@foenfrisur
AMD wurde u.a. mit Intel Kapital gegründet.
Und solange Intel eine Zerschlagung droht, sollte es AMD irgendwann nicht mehr geben, solang wird AMD auch weiterhin existieren.
Da muss kein Kunde "aus Mitleid", sich eine CPU mit dem schlechtenen Perf./€ oder Perf./W Verhältnis kaufen.
Ändern dürfte sich das erst wenn Intel im PC Bereich, aus der ARM Ecke genug Gegenwind bekommt.
Was aber noch eine Dekade dauern dürfte.
Und ich kann nur wiederholen, AMD hätte auch einen 32nm Phenom II X6 mit Stars Kern, bringen können für den Desktop.
Der wären von der Fläche sicher nicht größer als ein Bulli, vermutlich eher kleiner und hätte mit höherem Takt als die aktuellen 45nm Serie,
den aktuellen Sandys noch Parolie bieten können.
Schneller wäre er auf jeden Fall, als das was BDv1 grade abliefert.
BDv1 hätten sie für Server gelassen, bis BDv2 oder v3 auch im Desktop konkurrenzfähig wird.
Owlboy
2011-10-15, 20:10:21
Mit den zer(ver)störenden Benchmarks vom Bulldozer gehen somit auch die letzten Hoffnungen, dass AMD wieder zurückkehrt. Die kleine Alternative, die damals den Athleten geboren hat, hat sich inzwischen selbst aus dem Rennen geworfen. Vielleicht wollten die Jungs aus der Forschung und Entwicklung sogar wieder an die Spitze aber sie schafften es dann doch nicht.
Bei AMD scheint einfach das Geld zu fehlen, um gegen die Übermacht von Intel noch eine Chance zu haben. Die Fusion von AMD/ATI scheint nur noch wenig Gelder übrig zu lassen, um ein gescheites Produkt rechtzeitig auf den Markt zu werfen. Bunte Blechdosen mit irreführendem Marketinggelaber sind wohl das Einzige, was AMD noch bieten kann.
Zu gerne hätte ich gelesen, dass der Obr(maier) einfach nur Müll labert um Hits zu sammeln. Leider hatte er Recht: Bulldozer frenzy. (One Man Army hat einen Track der sich so nennt...)
10-20% sollen die neuen Modelle dann bringen - jedes Jahr bis 2014. Intel ist heute im Vergleich zu AMD bei 2014 angelangt...
Athlon und Athlon XP, ich mochte euch. Ihr wart der Cyrix P150+ meiner Kindheitserinnerungen.
Entweder geht AMD jetzt ein, oder Intel zieht so sehr am Preisrad, dass AMD CPU's so wie damals zu K5/K6 Zeiten auf Grund des attraktiveren Preises, wieder in Mode kommen.
Wer zockt, braucht ohnehin ne starke GPU und für nahezu alle Games liefert AMD ja nen Untersatz, der schnell genug ist. Für AMD bleibt imho nur die Hoffnung, dass es so bleibt.
Ich denke auch, dass es die Zocker sind, welche die Entwicklung vorantreiben. Zum Glück (...) für AMD haben sie ja noch die Grafiksparte :)
Der Wehmut bleibt trotzdem...
BesenWesen
2011-10-15, 20:16:33
schlussendlich sind die meisten hier ja auch noch selber mit schuld.
es hat doch fast jeder hier einen schmutzig erkauften intel im system.
damit haben sie amds zwickmühle mit aufgebaut.(...)
Es macht seit dem Launch von SB schlichtweg keinen Sinn mehr, auf AMD zu setzen, wenn man nicht sparen will/muss, da AMD nichts konkurrenzfähiges anzubieten hat. Und ich habe wie man an meinem System sieht, AMD im letzten Jahr nochmal eine Spende rüberwachsen lassen... aber da gings "nur" gegen Nehalem, und der war schon überlegen :)
Mancko
2011-10-15, 20:28:30
schlussendlich sind die meisten hier ja auch noch selber mit schuld.
es hat doch fast jeder hier einen schmutzig erkauften intel im system.
damit haben sie amds zwickmühle mit aufgebaut.
die meisten wären mit einem amd nicht wirklich schlechter gefahren, sie hätten nur einen "kleineren virtuellen pimmel".
cpu-performance ist oft so dermaßen überbewertet.
ich habe mir damals schon lieber eine ssd gekauft.
das war eine deutlich sinnvollere investition, als eine schnellere cpu ;)
an sich ist es das naturgesetz des stärkeren.
nicht unbedingt des besseren. obwohl die intel-cpus momentan einfach super sind, das kann man nicht bestreiten. in nahezu allen kategorien.
was ich mich frage:
müsste AMD nicht desktop- und server-cpu DEUTLICHER trennen?
das sind doch ganz unterschiedliche anforderungen und softwareverhältnisse.
mfg
Also das ist ja nun totaler Quatsch. Also ich kaufe beides SSD und CPU. Ich spare nicht am einen Ende um am anderen mehr auszugeben. Ich nehme grundsätzlich nie die Top-CPU obwohl ich es finanziell könnte. Aber es muss halt nicht sein. Ich verbaue allerdings auch kein SLI oder Crossfire. Mit dem Bulldozer muss man ganz klar sagen hat AMD richtig dick versagt. Das wird sich sehr böse in den Zahlen rächen.
Ich hatte seit dem 486er keine Intel CPU mehr in meinem Desktop und habe immer AMD gekauft, weil sie dann doch letztlich im Performance Segment mithalten konnten. Ich habe dafür sogar die leicht höhere TDP in Kauf genommen. Aber das hier ist wirklich eine Katastrophe. Ich werde niemandem im Freundeskreis raten das Teil zu kaufen und werde es auch selber nicht kaufen. Jetzt wird es halt nach vielen Jahren mal eine Intel CPU im Desktop. Ich kaufe nicht aus Mitleid irgendwelche Produkte. Das ist ganz allein AMDs Problem und wenn sie nicht mithalten können dann gehen sie halt unter und andere übernehmen den Job. Ist ja nicht so, dass dann Intel alles bekommt. Es gibt bestimmt genug Interessenten die Personal, Patente & Co übernehmen und das AMD Management entsorgen. Ich halte aber nichts von der Mitleidstour nur um ein kränkelndes Unternehmen am Leben zu erhalten. Das ist nicht die Aufgabe von König Kunde.
Was das Laptop Umfeld angeht wird es noch viel schlimmer werden. Da ist man ja schon bisher an Intel nicht vorbei gekommen. Und hier wirds richtig dunkel für AMD. Bei dem Verbrauch, der DIE Größe und der miesen Leistung werden die hier so richtig Federn lassen von dem bisschen was noch da ist.
Grundsätzlich finde ich es gut das AMD versucht im Serversegment mehr Fuß zu fassen aber das darf niemals dazu führen, dass gleich die anderen beiden Hauptsegmente (Desktop + Mobile) derart in Mitleidenschaft gezogen werden und vor allem bin ich mal gespannt wie erfolgreich AMD im Serversegment dann letztlich wirklich ist. Das Geschäft dort sind die stink normalen x86 Server aber nicht die Großrechneranlagen von Cray & Co. Wenn die Desktop CPUs derart failen, sehe ich Probleme mit AMD's Image bei den Leuten, die entscheiden was am Ende in den x86 Servern der Unternehmen landet.
Das ist wirklich ein rabenschwarzer Launch - anders kann man das nicht sagen und das belegen auch alle Tests.
Ronny145
2011-10-15, 20:31:04
JF-AMD über seine IPC Versprechungen.
So here's the story on IPC from my perspective.
The original design goal was higher IPC. Back before we had taped out the first processors the discussion came up. I am not allowed to say anything in public that hasn't been vetted past engineering. I specifically asked the engineering team about IPC and they replied that they expected higher IPC and I was cleared on that statement.
http://forums.anandtech.com/showpost.php?p=32421412&postcount=106
Savay
2011-10-15, 20:47:52
Damals einen PhenomI+II zu kaufen bzw. jetzt den BD I ist genauso ein fail wie einen Presskopp besessen zu haben.
ein Ph II X3 720 war zu release gleichpreisig zum E8600...heut ist das ding idR schneller.
ein X6 1055T war zu release günstiger als ein i5-750, in anwendungen ist das ding idR schneller..teilweise sogar deutlich.
klar...ist ja auch reiner schwachsinn sich eine CPU zu kaufen die bei gleichem preis in den für den anwender relevanten anwendungen schneller war/ist! ein vollkommener fail nicht mehr geld auszugeben als nötig... :rolleyes:
mir ist klar das bei der stammtischdiskussion hier ein differenziertes meingungsbild idR auf der strecke bleibt...aber ein wenig mühe nicht nur polemik zu verbreiten kann man sich dann doch noch geben oder ist das zuviel verlangt? :freak:
Matrix316
2011-10-15, 21:02:19
Ich war von Duron bis Athlon 64 immer auf AMDs Seite, aber seit dem C2D immer bei intel bis auf den P2 955, aber auch nur, weil der i7 mir damals noch zu viel Strom verbrauchte und der Phenom II so gerade auf Niveau des C2Q war.
Sir Integral Wingate Hellsing
2011-10-15, 21:03:41
Damals einen PhenomI+II zu kaufen bzw. jetzt den BD I ist genauso ein fail wie einen Presskopp besessen zu haben.
Wie bitte? Was gibt es denn am Phenom II auszusetzen??
Skysnake
2011-10-15, 21:09:16
Das hab ich heute auch schon mindestens 4x gelesen. Abgesehen davon, daß niemand von uns weiß, was die Synthesetools heute leisten (Die Aussage ist alt, und die Sache worauf sie sich bezieht noch älter), wird das so oder so die Zukunft sein. Maschinen bauen Maschinen. Deal with it.
Ich darf mir das den Rest vom Semester anschauen, was heutige Tools leisten :biggrin:
Analoges Hardwaredesign kommt dann aber erst nächstes Semester. Dauert also noch ca. nen 3/4 Jahr, um da halbwegs sich ne Meinung zu biden :freak:
JF-AMD über seine IPC Versprechungen.
http://forums.anandtech.com/showpost.php?p=32421412&postcount=106
Naja, was soll man dazu noch sagen?
Jetzt stellt sich halt nur die Frage nach dem Grund...
Ronny145
2011-10-15, 21:18:09
Naja, was soll man dazu noch sagen?
Jetzt stellt sich halt nur die Frage nach dem Grund...
Ich finde das widerspricht sich mit anandtechs Meldung, AMD hätte ursprünglich 30% mehr Takt angepeilt (oder waren es 20%?). Ich glaube kaum, dass AMD so naiv mit Taktraten von 5+ Ghz in Planung ging. Die unerwartet schwache IPC ist wohl eher das Problem, was auch immer der Grund sein sollte.
Cyphermaster
2011-10-15, 21:23:02
Ganz ehrlich:
AMD war EINMAL (1981-2011) mit dem K8 VOR Intel.
Was zur Hölle erwartet ihr?
EDIT: Offensichtlich Wunder.Ich hatte nicht erwartet, daß AMD sich mit BD vor Intel setzt. Ich bin daher auch nicht enttäuscht, daß sie das nicht haben. Es ist aber nun mal so, daß bezüglich des "bang for the buck" BD aktuell so deutlich hinter Intel und gleichzeitig so wenig vor seinen Vorgängern liegt, daß es kein besonders reizvoller Chip für einen Neukauf ist. That's it.
Skysnake
2011-10-15, 21:24:50
Man sollte nicht den Takt der CPU mit dem der NB verwechseln. Die taktet ja mit was warens? 2,2 GHz nur. Da kann es schon sein, dass Sie 20-30% mehr erwartet haben. Wenn man auf 2,6 GHz NB Takt geht, geht BD auch gar nicht so schlecht.
Seh ich jetzt aber nicht direkt als total offensichtliches Problem. Mir kommt der L1 Write Wert einfach total unsinnig niedrig vor. DAS stört mich wirklich.
Schlammsau
2011-10-15, 21:25:44
Heisst das man kann in der nächsten Zeit, wenn sie den Fertigungsprozess im Griff haben oder evtl noch ein neues Stepping kommt, mit deutlich höheren Taktraten rechnen?
Ein BD mit meinetwegen 4,6Ghz + Turbo und ner TDP von 125W dürfte doch ziemlich weit vorne mitspielen oder?
ein X6 1055T war zu release günstiger als ein i5-750, in anwendungen ist das ding idR schneller..teilweise sogar deutlich.
achja? der i5 750 war da bei 150€ (der Thuban startete 7 Monate später zw. 175€ und 190€) und was ein X6 1055T in multicore anwendungen im Schnitt ca. 15% schneller ist isser in Games ca. 15-20% langsamer und das zu welchem Preis bzgl. Leistungsaufnahme?
Achja und wieviel % lässt sich so ein 1055T nochmal übertakten im vergleich? :rolleyes:
mitunter kam der erst nach dem i5-750 da wurde dieser schon durch den i5 760 (auch zu ca. 150-160€) ersetzt wo sich der Performance unterschied in Anwendungen nochmals minimiert und in Games vergrössert.
wo AMD mit dem PII vielleicht noch Leistungsmässig mit Ach und Krach mit dem Performance Einstiegssegment mithalten konnte waren sie verbrauchstechnisch auch da schon Lichtjahre weit abgeschlagen (vom OC Potential mal ganz zu schweigen)
Im Prinzip ähnlich wie der Bulldozer jetzt welcher leistungstechnisch ja nicht sooooo weit weg ist aber einfach viel zu viel verbraucht.
Ronny145
2011-10-15, 21:52:18
Im Prinzip ähnlich wie der Bulldozer jetzt welcher leistungstechnisch ja nicht sooooo weit weg ist aber einfach viel zu viel verbraucht.
Leistungstechnisch sahe es bei Lynnfield vs Thuban positiver für AMD aus. Eine derart große Differenz in Singlethread Anwendungen gab es nicht, in multithread ist/war Thuban schneller. Im CB Gesamtrating lag Thuban vorm i5-750.
http://www.computerbase.de/artikel/prozessoren/2010/test-amd-phenom-ii-x6-1055t-und-1090t-be/32/#abschnitt_performancerating
Jetzt schaue man sich das Gesamtrating von Bulldozer an, sieht schlechter aus als damals.
Fragman
2011-10-15, 21:52:36
das problem ist halt das amd seit vielen jahren mittlerweile hintenan ist, seit 2007 oder wars schon 2006 als intel mit core kam? hatte mir im fruehjahr 2007 auch noch einen dual amd gekauft obwohl ich wusste das core 30% schneller war. im herbst 2008 war das dann aber auch vorbei und ich hab mir nach ueber 8 jahren wieder einen intel gekauft.
wir schreiben nun ende 2011 und amd hat 4 oder 5 jahre an bd gewerkelt und stellt dann so ein monster in groesse und verbrauch vor das performancetechnisch nicht zu gebrauchen ist.
ich hab mal nach interlagos geschaut, der einzige bd der fuer mich interessant waere, aber die preise sind mit erwarteten 850 dollar viel zu hoch (noch dazu eben nur als opteron ausfuehrung). so wirds fuer mich dann wohl der 6 core sb der fuer desktop kommen wird. dieser chip muesste amd eigentlich dazu bringen einen desktop interlagos zu launchen, aber das wird wohl nicht passieren. schoenreden kann man hier jedenfalls nichts mehr. und wenn amd aufgrund ihres budgets nichts liefern kann (kommt ja hier auch immer wieder), dann haben sie auf diesem markt nichts zu suchen.
Matrix316
2011-10-15, 21:53:02
Ich hatte nicht erwartet, daß AMD sich mit BD vor Intel setzt. Ich bin daher auch nicht enttäuscht, daß sie das nicht haben. Es ist aber nun mal so, daß bezüglich des "bang for the buck" BD aktuell so deutlich hinter Intel und gleichzeitig so wenig vor seinen Vorgängern liegt, daß es kein besonders reizvoller Chip für einen Neukauf ist. That's it.
Also ICH hätte schon erwartet, dass der schnellste Chip mindestens auf i7 2600 K Niveau wenn nicht höher liegt. Gerade WEIL es eine neue Architektur ist.
Hätten sie nur die aktuellen Chips optimiert, hätte ich das nicht erwartet.
Aber das schlimmste ist ja, dass die seit 4 Jahren oder so sich in Entwicklung befindende neue Supermegaarchitektur zum Teil sogar langsamer als die der letzten CPUs ist. Das ist doch das peinliche.
sloth9
2011-10-15, 21:57:38
Performt mit 4 Modulen wie ein 4-Kerner mit erw. SMT.
boxleitnerb
2011-10-15, 21:58:16
Das Cherrypicking geht auch nach dem Launch weiter...
http://blogs.amd.com/play/2011/10/13/our-take-on-amd-fx/
Lustig, dass ich eine CPU für "high resolution gaming" brauche und alle CPUs dann +/- 5% beisammen liegen...bei 20fps in der "high resolution" (nur eine 6970), was ja super spielbar ist...
Dann noch in einer Beta, wahrscheinlich Multiplayer, also nicht gerade reproduzierbar.
Manchmal ist weniger mehr. Klar, Marketing, aber so langsam wird es echt beleidigend für den intelligenten Leser.
Leistungstechnisch sahe es bei Lynnfield vs Thuban positiver für AMD aus. Eine derart große Differenz in Singlethread Anwendungen gab es nicht, in multithread ist/war Thuban schneller. Im CB Gesamtrating lag Thuban vorm i5-750.
http://www.computerbase.de/artikel/prozessoren/2010/test-amd-phenom-ii-x6-1055t-und-1090t-be/32/#abschnitt_performancerating
w00t? bei deinem geposteten link liegt der 1055T exakt gleich auf mit dem i5 750 (der da schon 7 Monate draussen war) im Gesamtrating
kurz drauf gabs den i5 760 der dann hier
http://www.computerbase.de/artikel/prozessoren/2011/test-llano-cpu-leistung/9/#abschnitt_testergebnisse
schon wieder im gesamtrating mit dem 18% höher getaktetem (im vergleich zu 1055T) 1100T gleichaufliegt :rolleyes:
soviel dazu
das problem ist halt das amd seit vielen jahren mittlerweile hintenan ist, seit 2007 oder wars schon 2006 als intel mit core kam?
2006 denn 2007 hab ich mir für meinen S939 nochmal einen X2 3800+ für gut 50€ gegönnt der da eigentlich schon unsinnig gewesen wäre wenn man nicht nich die Plattform rumstehen gehabt hätte
Als neukäufer gabs da schon die ersten E2140 sehr günstig mit tüchtig OC reserven
BesenWesen
2011-10-15, 21:59:45
wo AMD mit dem PII vielleicht noch Leistungsmässig mit Ach und Krach mit dem Performance Einstiegssegment mithalten konnte waren sie verbrauchstechnisch auch da schon Lichtjahre weit abgeschlagen (vom OC Potential mal ganz zu schweigen)
Am Verbrauch lässt sich noch gut was drehen bei den meisten Thubans, hier ist AMD sehr auf Nummer sicher gegangen an der Volt-Schraube. An die Effizienz eines Nehalems kommt er natürlich niemals ran.
DAS Preis Leistungs-Ding unter den Phenom2 war eher der X4 955 BE, deutlich billiger als i5 750/760 etwas billigere Boards und einfach zu takten... die Leistungsaufnahme war natürlich schon da nicht mehr konkurrenzfähig.
Was AMD mit BD abgeliefert hat, sieht aber nirgendwo einen Stich auf dem Consumermarkt
Ronny145
2011-10-15, 22:02:29
w00t? bei deinem geposteten link liegt der 1055T exakt gleich auf mit dem i5 750 (der da schon 7 Monate draussen war) im Gesamtrating
kurz drauf gabs den i5 760 der dann hier
http://www.computerbase.de/artikel/prozessoren/2011/test-llano-cpu-leistung/9/#abschnitt_testergebnisse
schon wieder im gesamtrating mit dem 18% höher getaktetem (im vergleich zu 1055T) 1100T gleichaufliegt :rolleyes:
soviel dazu
Und das ist ein klar besseres Resultat wie mit Bulldozer jetzt. Das Flaggschiff liegt hinter einem i5-2400. In deinem Link lag das Thuban Flaggschiff vor dem beliebten Mittelklasse Lynnfield, preislich vergleichbar mit i5-2500k heute.
Hugo78
2011-10-15, 22:03:25
Ein BD mit meinetwegen 4,6Ghz + Turbo und ner TDP von 125W dürfte doch ziemlich weit vorne mitspielen oder?
Wären halt +20%, das wäre besser, das wäre das was DBv1 bräuchte um halbwegs als X6 Nachfolger gelten zukönnen, im Desktopbereich.
Aber mehr Takt ist ja so eine Sackgasse.
Soweit ich das verstanden habe, braucht man für immer mehr Takt auch immer mehr Abstand zwischen den Leitungen, ergo wird der Chip immer größer und damit teurer.
AMD sollte wirklich an der IPC arbeiten.
Zumal 8 Threads auch ne Schallmauer darstellen, wenn es darum geht, wie Software abseits von Non Realtime-Rendering, effektiv den Chip ausnutzten kann.
Und zu jederzeit 8 Threads anbieten, tut ja kein Spiel. (ausser bald BF3?!)
Konsolenport liefern, wenn überhaupt auch nur max. 6, weil man sich ja hier an der Xbox und ihren 3 Core+SMT Design orientieren muss (Kleinster gemeinsamer Nenner).
Mehr Takt durch besseren GloFo 32nm ist sicher als kurzfristige Maßnahme dringend notwendig, aber auf lange Sicht nicht zielführend.
Grad wenn Intels 22nm TriGate tatsächlich die Leistungsaufnahme um 50% senken sollte.
sklave_gottes
2011-10-16, 00:01:13
Hallo zusammen,
mir ist aufgefallen das BD ausgehend von 4 Modulen, wo nur eine Core pro Modul läuft (4M/4C) gegenüber einem BD mit 4 Modulen und allen Aktiven Cores (4M/8C). Bei vielen spielen bis zu 5% an leistung verliert. Will amd nicht mit Win8 erreichen das erst immer alle Module voll ausgelastet werden ? Das kann doch nur nach hinten los gehen oder wie seht ihr das ?
Hier der test:
http://www.hardware.fr/articles/842-11/tests-3-2-ghz.html
mfg martin
EDIT :
Der BD mit 4 Aktiven Cores (4M/4C) ist meistens 5% schneller wie der BD mit 8 Aktiven Cores (4M/8C)
FeuerHoden
2011-10-16, 00:16:29
Hallo zusammen,
mir ist aufgefallen das BD ausgehend von 4 Modulen, wo nur eine Core pro Modul läuft (4M/4C) gegenüber einem BD mit 4 Modulen und allen Aktiven Cores (4M/8C). Bei vielen spielen bis zu 5% an leistung verliert. Will amd nicht mit Win8 erreichen das erst immer alle Module voll ausgelastet werden ? Das kann doch nur nach hinten los gehen oder wie seht ihr das ?
Hier der test:
http://www.hardware.fr/articles/842-11/tests-3-2-ghz.html
mfg martin
Mit Windows 8 sollen Threads so verteilt werden dass zuerst beide Cores eines Moduls angesprochen werden anstatt je ein Core zweier getrennter Module welche sich erst den L3? Cache teilen der langsamer ist. Der Performancegewinn dafür bewegt sich zwischen 2% und 10% unter Windows 8 und ~3% unter Linux wofür es schon einen Patch gibt.
Gibt es eigentlich schon einen Optimizing Guide für BD? Ich hatte damals einen Optimizing Guide zur Software Entwicklung für K7 und K8 gefunden welche Beispiele für Assembler Codes beinhalteten wie man die CPU effektiver auslasten kann. Für den gewöhnlichen Programmierer ist das uninteressant aber in High Performance Bereichen wird Assembler bzw. werden optimierte Compiler eingesetzt und ich frage mich inwieweit hier BD Optimierungen bereits vorhanden sind da die BD Architektur doch eine andere ist als K7-10.
was ich mich frage:
müsste AMD nicht desktop- und server-cpu DEUTLICHER trennen?
das sind doch ganz unterschiedliche anforderungen und softwareverhältnisse.
Kostengründe nehme ich an.
Jo das Enthusiastensegment ist viel zu klein. Außerdem ergänzt es sich gut, den Enthusiasten kann man die Hochtaktteile mit hohem Stromverbrauch verkaufen, im Serverbereich gibts den niedrigeren Takt mit unter 80W.
Ist jetzt halt das ziemlich erstemal, dass sie sich so stark auf Durchsatz konzentriert haben. Wenigstens ein Tool, das 4 Threads auf 4 Module legt, hätte man da beilegen müssen ^^
Heisst das man kann in der nächsten Zeit, wenn sie den Fertigungsprozess im Griff haben oder evtl noch ein neues Stepping kommt, mit deutlich höheren Taktraten rechnen?
Si, claro, mMn ist der aktuelle Prozess noch in den Kinderschuhen, d.h. ziemlich schlecht optimiert, B3 kommt ja auch gleich hinterher. Hab ich aber gerade erst geschrieben, siehe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8985455#post8985455
Ein BD mit meinetwegen 4,6Ghz + Turbo und ner TDP von 125W dürfte doch ziemlich weit vorne mitspielen oder?Naja, sei erstmal mit nem Turbo@4,6 froh ;-) Kleine Brötchen backen, soo "deutlich" wirds dann sicher nicht. Der 8170 soll angeblich ja 3,9Ghz Standard schaffen, schauen wir mal, was das wird.
Edit:
@FeuerHoden:
Das ist seit Mai oder so online ;-)
http://support.amd.com/us/Processor_TechDocs/47414.pdf
JF-AMD über seine IPC Versprechungen.
http://forums.anandtech.com/showpost.php?p=32421412&postcount=106
Merkwürdig, dass niemand den Punkt in die Diskussion aufnimmt.
Da bleiben 2 Möglichkeiten zum Ablauf übrig:
a) Bulldozer wie veröffentlicht hat einen Performancebug der mindestens 15% IPC kostet (nach oben ist das nicht so klar, es wurde ja nie eine konkrete Zahl zur Verbesserung genannt -- ein 25% Performancebug wären aber auch durchaus noch möglich).
b) AMDs Chipentwickler sind zu blöd um die zu erwartende IPC zu einem Design korrekt zu ermitteln.
Mit der geplanten IPC höher als Phenom2 und gut funktionierender Fertigung bei GF wäre der BD ein klasse Produkt. Mal sehen ob AMD das bis Trinity hinbekommt.
Neon3D
2011-10-16, 02:08:54
Merkwürdig, dass niemand den Punkt in die Diskussion aufnimmt.
Da bleiben 2 Möglichkeiten zum Ablauf übrig:
a) Bulldozer wie veröffentlicht hat einen Performancebug der mindestens 15% IPC kostet (nach oben ist das nicht so klar, es wurde ja nie eine konkrete Zahl zur Verbesserung genannt -- ein 25% Performancebug wären aber auch durchaus noch möglich).
b) AMDs Chipentwickler sind zu blöd um die zu erwartende IPC zu einem Design korrekt zu ermitteln.
Mit der geplanten IPC höher als Phenom2 und gut funktionierender Fertigung bei GF wäre der BD ein klasse Produkt. Mal sehen ob AMD das bis Trinity hinbekommt.
jepp, bd hat sicherlich noch potential einen sprung zu machen.
1. den tiefen ipc bug beheben
2. mehr L1 cache
3. win7/8 scheduler für multithread verbessern
4. den northbridge verbessern
-> daher habe ich auch bei der umfrage auf bd version2 hoffen, gewählt. trotzdem bleibt noch der viel zu hohe tdp und der verschwenderische umgang mit der die-größe:redface:
sklave_gottes
2011-10-16, 03:00:12
jepp, bd hat sicherlich noch potential einen sprung zu machen.
1. den tiefen ipc bug beheben
2. mehr L1 cache
3. win7/8 scheduler für multithread verbessern
4. den northbridge verbessern
-> daher habe ich auch bei der umfrage auf bd version2 hoffen, gewählt. trotzdem bleibt noch der viel zu hohe tdp und der verschwenderische umgang mit der die-größe:redface:
Zu 1. Wir wissen doch garnicht ob es ein bug ist oder einfach am design liegt.
Zu 2. Noch mehr cache ? der BD hat doch schon sehr viel cache insgesamt und ist sehr groß. Wieso haben die Ing. nicht den L1 cache viel größer gemacht und den L2/L3 dafür kleiner? denn die großen L2/L3 caches scheinen BD nichts zu bringen. => vieleicht bringt ein großer L1 catch genauso wenig.
Zu 3. Die wollen ihn verbessern indem zuerst beide cores eines moduls beschäftigt werden. Doch laut diesem test :
http://www.hardware.fr/articles/842-9/efficacite-cmt.html
sinkt dadurch die ipc um über 12% im schnitt und im schlimsten fall um 30%.
der turbo schaft beim FX8150 höstens 16%, wobei ja nicht ausgeschlossen ist das er nicht auch bei einer 4C/4M config anläuft. Das sieht für mich eher nach weniger leistung aus.
Zu 4. ja da gibt es wohl viel zu verbessern, trotzdem finde ich BD so schlecht das ich lieber die stars cores verbessern würde. Denn die sind im verhältnis sehr klein und haben trotz minimalen cache quasi die ipc eines Phenom2.
=> da frag ich mich was der L3 überhaupt bringt wenn ich Liano mit Ph2 vergleiche.
mfg martin
mapel110
2011-10-16, 03:02:49
Bei Intel ist doch die Cache-Assoziativität viel höher. 8fach vs 2fach. Das wird schon sehr viel ausmachen.
y33H@
2011-10-16, 03:59:51
Die ursprüngliche Planung sah 2,4 GHz NB vor. Nun sind es je nach Modell 2,2 oder 2,0 GHz [Phenom II: 2,0 oder 1,8 GHz].
Savay
2011-10-16, 06:06:17
achja? der i5 750 war da bei 150€ (der Thuban startete 7 Monate später zw. 175€ und 190€) und was ein X6 1055T in multicore anwendungen im Schnitt ca. 15% schneller ist isser in Games ca. 15-20% langsamer und das zu welchem Preis bzgl. Leistungsaufnahme?
erstens lag der preisunterschied bei ~10€ (in beide richtungen btw), zweitens spielt OC bei der betrachtung überhaupt keine rolle weil sich die CPUs nicht aufgrund eines seltsamen bios unfalls von alleine bis zum maximum übertakten sobald sie in den sockel fallen und drittens es gibt menschen die interessiert die spieleleistung herzlich wenig!
jeder hat ein individuellen anspruch an seine hardware und einen anderen softwaresatz den er verwendet. wer das optimale produkt für seine zwecke aussucht sollte das alles berücksichtigen und je nach prämisse war ein PhII aus P/L sicht durchaus die bessere alternative.
ist ja schön und gut wenn für DICH nen i5 die bessere wahl war...das muss sie nur noch lange nicht für jemand anderen sein und das als "fail" abzutun ist lediglich überheblich und anmaßend... :)
die ollen kamellen spielen hier aber eh keine rolle mehr weil es um den BD geht...
erstens lag der preisunterschied bei ~10€ (in beide richtungen btw)
Je öfter du diesen Käse wiederholst desto richtiger wird er doch nicht....zum Release war der Einstiegs i5 schon 8 Monate auf dem Markt, etwas günstiger (das hat dann nochmal über ein halbes Jahr gedauert bis sich preislich was angleichte), im Schnitt gleich schnell (Anwendungen/Synthetic Benches teils langsamer, Spiele meistens einiges schneller mittlerweile aber im Schnitt schneller - was wohl dem gewachsenen Anspruch einiger Spiele geschuldet ist) bei deutlich weniger Leistungsaufnahme
http://666kb.com/i/bxu4paaclnm1hh682.gif
http://666kb.com/i/bxu450jdkysbraegy.gif
die ollen kamellen spielen hier aber eh keine rolle mehr weil es um den BD geht...
Ach bei dem richtigen initialen Fail (Phenom I) müsste man ja noch viel weiter zurück anfangen.
Aber die Situation beim BD ist jetzt ähnlich wenn auch wesentlich schlimmer -
- man konkuriert mit einem schon lang erhältlichen Produkt
- ist dabei oftmals langsamer und nur manchmal schneller
- bei absolut unterirdischer Leistungsaufnahme
- und kann nichtmal über den Preis konkurieren (im Moment zumindest).
Die Schere war eben schon seit Phenom fail geöffnet und hat sich nur weiter auseinander gespreizt.
Dennoch halte ich es weiterhin für richtig das sie jetzt den Bulldozer gebracht haben und nicht noch weiter an dem K10 Zeugs festgehalten haben.
Vielleicht läuft der Prozess wirklich nur schlecht für so einen Monster chip.
Und je schlechter man startet desto mehr potentielle Baustellen hat man für Verbesserungen :D
Wer sich so einen stromfressenden, überteuerten und performancearmen Prozessor holt, ist selbst Schuld. Hatte wesentlich mehr erwartet. War von allen AMD Prozessorren, die ich bisher hatte, begeistert! Aber den werde ich mir nicht holen - und wohl auf Intel umsatteln... Schade. Das wird AMD viel Geld und vor allem Prestige kosten.
OC_Burner
2011-10-16, 10:30:31
Lassen sich bei Bulldozer die Cores im Taskmanager ähnlich zuteilen wie bei Intel Prozessoren mit Hyper-Threading? Oder sind die Kerne der Bulldozer Module anders verteilt?
http://www.abload.de/img/vista_intel_core_i7_ecbqzf.png
anddill
2011-10-16, 10:44:40
Ja. Man kann anscheinend auch Halbmodule im BIOS UEFI deaktivieren, was der Singlethread- oder "Wenigthread-" Performance auf die Sprünge hilft.
y33H@
2011-10-16, 10:51:57
Du kannst per UEFI komplette Module oder die CMT-Fähigkeit dieser deaktivieren.
OC_Burner
2011-10-16, 11:00:55
Hyper-Threading läßt sich auch per Bios deaktivieren. Mich interessiert rein Interessehalber ob es sich wie bei Intel CPUs via Windowstaskmanager deichseln läßt.
anddill
2011-10-16, 11:01:54
Warum nicht. Die Cores sind genauso numeriert. Also (0+1) (2+3) (4+5) (6+7)
Lassen sich bei Bulldozer die Cores im Taskmanager ähnlich zuteilen wie bei Intel Prozessoren mit Hyper-Threading?
Was erhoffst du dir davon? CMT skaliert wie erwartet ziemlich gut , das Problem ist schon die Singlethread-Leistung...
http://www.hardware.fr/articles/842-9/efficacite-cmt.html -> 4 Threads auf 4 Module bringt im Mittel nur 17% mehr Leistung als 4 Threads auf 2 Module.
Cyphermaster
2011-10-16, 11:40:09
Also ICH hätte schon erwartet, dass der schnellste Chip mindestens auf i7 2600 K Niveau wenn nicht höher liegt. Gerade WEIL es eine neue Architektur ist.
Hätten sie nur die aktuellen Chips optimiert, hätte ich das nicht erwartet.
Aber das schlimmste ist ja, dass die seit 4 Jahren oder so sich in Entwicklung befindende neue Supermegaarchitektur zum Teil sogar langsamer als die der letzten CPUs ist. Das ist doch das peinliche.Du betrachtest die Architektur aus reiner Spiele-Sicht, und relativ kurzfristig. BD war schon von Anfang an auf stärkeres Multi-/Hyperthreading hin konzipiert (u.a. ja auch auf Verschlüsselungs- und Datenbank-Operationen usw., wie sie im wirtschaftlich sehr lohnenswerten Büro-Anwendungsfall sehr relevant sind), und nicht als Singlethread-Gaming-Rakete. Mit dem Hintergrund, daß AMD ohne die Möglichkeit weiteren Abwartens und Verbesserns am Chip plus mit einer nicht optimierten und gegenüber Intel schlechteren Fertigung ins Feld ziehen mußte, war es nicht zu erwarten, daß die neue Architektur sofort eine Wunderwaffe ist, die die Rollen im Markt auf den Kopf stellen würde. Ich hatte deswegen die BD hinter dem 2600k erwartet - aber eben nicht SO weit hinten an. Das hat wohl sogar AMD nicht.
LovesuckZ
2011-10-16, 12:03:11
Und warum vergleichst du dann BD mit SB? Dann sollte man doch eher die SB-E+ mit mindesten 6 Kernen als Vergleich nehmen. Und da sieht man erst, was die Ausrichtung auf MT bei BD überhaupt wert ist - nämlich nichts.
Und warum vergleichst du dann BD mit SB? Dann sollte man doch eher die SB-E+ mit mindesten 6 Kernen als Vergleich nehmen.
Man braucht für den Vergleich nicht mal neue Intel-Chips, selbst gegen Gulftown hat BD keine Chance.
Skysnake
2011-10-16, 12:19:16
Und warum vergleichst du dann BD mit SB? Dann sollte man doch eher die SB-E+ mit mindesten 6 Kernen als Vergleich nehmen. Und da sieht man erst, was die Ausrichtung auf MT bei BD überhaupt wert ist - nämlich nichts.
Weil der Desktop-BD kein Konkurrent für SB-E ist. AMD lässt dieses Marktsegment beim Desktop schlicht unbesetzt. Oder wer sollte die Konkurrenz zu den 8 Modul-BDs sein, wenn nicht SB-E?
john carmack
2011-10-16, 12:31:36
Ich hoffe das bei AMD endlich ein paar "C-Level" Köpfe rollen werden!!!
So was kann und darf man einfach nicht auf den Kunden los lassen!
Sehr peinlich sowie extrem Geschäfts und Existens schädigend!
Viel zu viel Politik im AMD C-Level!
Matrix316
2011-10-16, 12:33:23
Du betrachtest die Architektur aus reiner Spiele-Sicht, und relativ kurzfristig. BD war schon von Anfang an auf stärkeres Multi-/Hyperthreading hin konzipiert (u.a. ja auch auf Verschlüsselungs- und Datenbank-Operationen usw., wie sie im wirtschaftlich sehr lohnenswerten Büro-Anwendungsfall sehr relevant sind), und nicht als Singlethread-Gaming-Rakete. Mit dem Hintergrund, daß AMD ohne die Möglichkeit weiteren Abwartens und Verbesserns am Chip plus mit einer nicht optimierten und gegenüber Intel schlechteren Fertigung ins Feld ziehen mußte, war es nicht zu erwarten, daß die neue Architektur sofort eine Wunderwaffe ist, die die Rollen im Markt auf den Kopf stellen würde. Ich hatte deswegen die BD hinter dem 2600k erwartet - aber eben nicht SO weit hinten an. Das hat wohl sogar AMD nicht.
Naja, wir sind ja auch im 3D Center Forum und nicht im SQL Server Forum. ;)
Allerdings hatte ich auch erwartet, dass ein 4x1 1/2 Kerner ;) schneller ist, als ein reiner 4 Kerner wie der 2500K. Und der 2600K hat ja auch "nur" Hyperthreading und keine echten 8 Kerne. Da ist AMD theoretisch ja weiter als Intel.
Dass jetzt aber ein "Kern" vom Bulldozer SOOOO viel langsamer ist, als einer von intel oder vom Phenom II ist natürlich auch nicht sehr hilfreich.
Ronny145
2011-10-16, 12:35:57
Weil der Desktop-BD kein Konkurrent für SB-E ist. AMD lässt dieses Marktsegment beim Desktop schlicht unbesetzt. Oder wer sollte die Konkurrenz zu den 8 Modul-BDs sein, wenn nicht SB-E?
Solange Intel die Kernzahl im Mainstream nicht steigert (frühestens mit Haswell). Kommt Intel mit 6 starken Kernen in den Mainstream, müsste AMD nochmal 2 Module dranbauen.
Lassen sich bei Bulldozer die Cores im Taskmanager ähnlich zuteilen wie bei Intel Prozessoren mit Hyper-Threading? Oder sind die Kerne der Bulldozer Module anders verteilt?
http://www.abload.de/img/vista_intel_core_i7_ecbqzf.png
das hast du aber manuell eingestellt, oder?
normal parkt Win7 eh jeden zweiten thread bei SMT. (zu sehen im ressourcenmonitor)
mironicus
2011-10-16, 13:22:58
Kennt das schon jemand:
http://quinetiam.com/?p=2356
Sir Integral Wingate Hellsing
2011-10-16, 13:30:42
Kennt das schon jemand:
http://quinetiam.com/?p=2356
WTF?
Aus dem Link:
AMD FX-8150 Passmark CPU Score has jumped from 8500 to 13000 using REG Patch. But it is not stable yet.
I saved $150 building this new AMD system and it’s around 15-20% faster for my heavy 3D renders and video work. Ever since AMD Phenom-II, I noticed that big 3D scenes with heavy geometry and effects like ambient occlusion rendered much faster on AMD than Intel. The more complicated and longer the render… the better AMD performed.
It may also be of interest that Windows 7 may not be fully optimized for the 8-core Bulldozer chip, the guys over at Maxon developers forum are speculating that Windows 8 may unleash the full potential of the new design to the effect of an additional 50% performance. There is also talk of an updated Windows 7 AMD CPU driver fix. Either way this new system feels three times faster and the price is awesome.
Was ist davon zu halten?
LovesuckZ
2011-10-16, 13:32:36
Ähm, schau dir die Seite dochmal an: http://quinetiam.com/
Fragman
2011-10-16, 13:43:30
WTF?
Aus dem Link:
Was ist davon zu halten?
wenn das stimmen sollte dann hat amd den launch aber so richtig verkackt und die marketingleute sollten gefeuert werden.
die performance waere fuer mich sehr interessant, muss man mal abwarten ob das alles so bestaetigt werden kann.
nur bleibt die frage weshalb amd da nichts selber geliefert hat und so veroeffentlichen liess.
Undertaker
2011-10-16, 14:14:24
http://www.hardware.fr/articles/842-9/efficacite-cmt.html -> 4 Threads auf 4 Module bringt im Mittel nur 17% mehr Leistung als 4 Threads auf 2 Module.
Mit Mittelwerten darfst du in Bezug auf die CMT-Skalierung nicht arbeiten, denn nicht alle Benchmarks können 4 Threads optimal ausnutzen. In Extremfall "Houdini 2" sind 4M/4C z.B. über 40% schneller als 4C/2M, im Schnitt der auch wirklich gut parallelisierten Anwendungen etwa 25%, also 60% Profit durch CMT.
Edit: Hab mal bisschen OT der letzten Postings entsorgt. Bitte zumindest grundlegend den Themenbezug wahren. ;)
Screemer
2011-10-16, 15:18:46
Ähm, schau dir die Seite dochmal an: http://quinetiam.com/
die geschichte ist ungefähr so glaubwürdig, wie der von den usa genehmigte erstschlag israels gegen den iran...
Savay
2011-10-16, 16:46:03
Je öfter du diesen Käse wiederholst desto richtiger wird er doch nicht....
toll so schöne verläufe kann ich hier auch posten.
im april war der X6 noch etwas teurer, da war die lieferbarkeit aber auch nahezu nicht gegeben und ab mai war der i5 dann nur noch runde 10€ billiger...danach eine weile auch 10€ teurer...
die waren in den ersten 3 monaten effektiv nicht mehr als 10€ auseinander. das weiß ich genau weil ich in dem zeitraum einen neuen Rechner kaufen wollte...und ich hatte beide CPUs in der näheren auswahl. :)
ich sage es gerne nochmal damit es vielleicht endlich bei dir ankommt:
es kommt immernoch darauf an welche anwendungen man laufen hat...je nachdem war ein X6 auch durchaus die bessere wahl als ein i5...da kannst du auch noch so sehr rumkrakelen weil es dir nicht ins weltbild passt.
also erspar uns bitte diesen dogmatischen mist.
selbst ein BD hat seine anwendungsgebiete in denen er keine schlechte wahl ist...da braucht man weder von "fail" zu reden noch jedem der einen PhI, PhII oder BD gekauft hat oder kaufen will zu beleidigen.
das der BD in seiner jetzigen form als desktop CPU nicht sehr gelungen ist, ist eine tatsache und man kann ja gerne über stärken und schwächen diskutieren aber dieses sinn und ziellose gebashe bei der jegliche differenzierte meinung auf der strecke bleibt geht mir persönlich tierisch auf den sack wenn ich mich hier durch den thread wühle...
manchmal komme ich mir hier eher vor wie an einem HBF nach einem Fussballspiel...hauptsache rumgegröhlt wie scheiße der andere verein doch ist.
grobi
2011-10-16, 17:28:41
Bin echt verstört wie die Fanboys nichts schlechtes am Bulli zulassen. Ich hab einen Core i7 920 und der neue schnellste Bulli kann ihn nicht schlagen. Das muss man einfach einsehen. Es ist ja nicht nur das er verbraucht auch mehr als dieser.
mfg grobi
merfu
2011-10-16, 18:00:46
Der Intel ist teils auch nur durch jahrlange Optimierung, Stichwort SSE, usw. so stark geworden. Ich denke der Bulli hat Potential, aber wie weit wird man sehen müssen, spätestens mit BDv2.
Ich bin dafür das das Fanboy Krieger in einem anderen Thread geführt werden.
mfg
(del676)
2011-10-16, 18:12:50
Bin echt verstört wie die Fanboys nichts schlechtes am Bulli zulassen. Ich hab einen Core i7 920 und der neue schnellste Bulli kann ihn nicht schlagen. Das muss man einfach einsehen. Es ist ja nicht nur das er verbraucht auch mehr als dieser.
mfg grobi
Im 1337-Counterstrike 1.6?
Schlammsau
2011-10-16, 18:13:10
Der Intel ist teils auch nur durch Jahrlange Optimierung, Stichwort SSE, usw. so Stark geworden. Ich denke der Bulli hat Potential, aber wie weit wird man sehen müssen, spätestens mit BDv2.
Ich bin dafür das das Fanboy Krieger in einem anderen Thread geführt werden.
mfg
Hat er auch, nur leider wird es (noch) nicht genutzt.
Wie bereits mehrfach gesagt, hoffentlich wird in Kürze Software folgen oder/und auch ein Patch für Windows angeboten, der das Kräfteverhältniss wieder etwas ausgleicht.
Nicht desto trotz ist BD nicht das Gelbe vom Ei, er hat deutliche Schwächen vor allem bei der Leistungsaufnahme unter Last und AMD wird es enorm schwer haben, akzebtable Absatszahlen im Customerbereich zu erreichen.
Im Serverbereich wirds mMn deutlich besser aussehen, dort kann die Architektur ihre Stärken ausspielen und ist gut aufgestellt.
grobi
2011-10-16, 18:35:01
Im 1337-Counterstrike 1.6?
In fast jedem Spiel was ich habe und das sind nicht so alte Schinken wie CS 1.6 :freak:
(del676)
2011-10-16, 19:16:12
D.h. Leute die NICHT Gamen, und deshalb den BD ganz ok finden, sind AMD-Fanboys? Erzaehl das mal den Mitarbeitern bei Cray. :freak:
Der_Korken
2011-10-16, 20:17:36
D.h. Leute die NICHT Gamen, und deshalb den BD ganz ok finden, sind AMD-Fanboys? Erzaehl das mal den Mitarbeitern bei Cray. :freak:
Unrecht er nicht, denn dafür dass er so lange in Entwicklung war und im Vergleich zum Vorgänger mal eben so in 32nm statt 45nm gefertigt ist, ist das Ergebnis eben sehr ernüchternd. Und abseits von Spielen, wo der BD im Vergleich zum Sandy einfach abstinkt, reißt der BD auch nicht so viel, wie man es von seinen theoretischen Daten erwarten könnte.
dildo4u
2011-10-16, 20:24:05
Unrecht er nicht, denn dafür dass er so lange in Entwicklung war und im Vergleich zum Vorgänger mal eben so in 32nm statt 45nm gefertigt ist, ist das Ergebnis eben sehr ernüchternd. Und abseits von Spielen, wo der BD im Vergleich zum Sandy einfach abstinkt, reißt der BD auch nicht so viel, wie man es von seinen theoretischen Daten erwarten könnte.Jup selbst unter Anwendungen braucht er 50% mehr Energie für ca 2500k Performance.
http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/15/#abschnitt_anwendungen
http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/19/#abschnitt_leistungsaufnahme
Mancko
2011-10-16, 21:03:47
D.h. Leute die NICHT Gamen, und deshalb den BD ganz ok finden, sind AMD-Fanboys? Erzaehl das mal den Mitarbeitern bei Cray. :freak:
Nochmal Cray ist weder ein Indikator für den allgemeinen Servermarkt noch für den Consumer Markt. Im Desktop ist BD ein einziger Fail. Daran gibt es nichts zu beschönigen. Es gibt keinen Grund das Teil zu kaufen. Man ist bei Intel so ziemlich überall besser bedient - leider.
Und im Servermarkt spielt die Musik bei den simplen x86 Servern und nicht im HPC Bereich. Dort bleibt abzuwarten wie es für BD aussieht.
(del676)
2011-10-16, 21:08:21
Man ist bei Intel so ziemlich überall besser bedient - leider.
Wenn man anstaendige Boards will zahlt man sich bei Intel zum Idioten.
dildo4u
2011-10-16, 21:13:12
Wenn man anstaendige Boards will zahlt man sich bei Intel zum Idioten.Nicht wirklich.
http://geizhals.at/deutschland/669685 SLI,Crossfire,PCI-E 3.0,USB 3.0,SB GPU kann genutzt werden etc.
Wenn man kein SLI,PCI-E 3.0 braucht.
http://geizhals.at/deutschland/638760
http://www.pcgameshardware.de/aid,847374/Asrock-Z68-Pro-3-im-Kurztest-Solides-Sockel-1155-Mainboard-fuer-den-kleinen-Geldbeutel/Mainboard/Test/
boxleitnerb
2011-10-16, 21:33:22
Jup selbst unter Anwendungen braucht er 50% mehr Energie für ca 2500k Performance.
http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/15/#abschnitt_anwendungen
http://www.computerbase.de/artikel/prozessoren/2011/test-amd-bulldozer/19/#abschnitt_leistungsaufnahme
Mir fehlen solche Tests wie die von Tomshardware, die den Gesamtverbrauch in Joule während der Rechenzeit ermitteln.
Der_Korken
2011-10-16, 22:03:20
Mir fehlen solche Tests wie die von Tomshardware, die den Gesamtverbrauch in Joule während der Rechenzeit ermitteln.
Stimmt, das wäre mal interessant, da der BD seine Ressourcen selten voll ausschöpft (außer eben bei den Burn-Tests, wo der Verbrauch gemessen wird). Da siehts bei Spielen mit dem Verbrauch u.U. besser aus.
dildo4u
2011-10-16, 22:12:28
Stimmt, das wäre mal interessant, da der BD seine Ressourcen selten voll ausschöpft (außer eben bei den Burn-Tests, wo der Verbrauch gemessen wird). Da siehts bei Spielen mit dem Verbrauch u.U. besser aus.
Der Turbo funzt besser beim BD im Gegensatz zu SB,von daher dürfte der Verbrauch unter Teillast nich so viel geringer sein.
Unten auf der Seite nicht der x264 Test.
http://www.anandtech.com/show/4955/the-bulldozer-review-amd-fx8150-tested/4
Ronny145
2011-10-16, 22:12:32
Stimmt, das wäre mal interessant, da der BD seine Ressourcen selten voll ausschöpft (außer eben bei den Burn-Tests, wo der Verbrauch gemessen wird). Da siehts bei Spielen mit dem Verbrauch u.U. besser aus.
Hardware.fr hat immerhin mit Fritzchess gemessen.
boxleitnerb
2011-10-16, 22:21:31
Hardware.fr hat immerhin mit Fritzchess gemessen.
Aber doch auch nur mit einem willkürlich und fix festgelegten Delta beim Stromverbrauch. Tomshardware hat die Leistungsaufnahme während der Aufgabe kontinuierlich gemessen in einem früheren Artikel und daraus dann die absolut benötigte Energie für Aufgabe X errechnet. Alles andere ist Unsinn, da nicht praxisnah. z.B. kann man die Energieratings bei Computerbase total vergessen, das ist größter Quatsch. Schreiben sie ja selbst dazu und präsentieren sie trotzdem :freak:
Der_Korken
2011-10-16, 22:24:20
Der Turbo funzt besser beim BD im Gegensatz zu SB,von daher dürfte der Verbrauch unter Teillast nich so viel geringer sein. [/url]
Tatsache, wobei ich Spiele interessante fände (am besten auch mit integriertem Verbrauch).
Hardware.fr hat immerhin mit Fritzchess gemessen.
Da ich leider kein Französisch kann, weiß ich nicht, was genau das für Watt-Angaben sind. Womit man misst, ist auch erstmal egal, uns (oder besser gesagt mich) interessiert hier eher sowas wie ein durchschnittlicher Verbrauch. Wobei ich angesischts des Links von dildo4u da nicht mehr so optimistisch bin :(.
Ronny145
2011-10-16, 22:39:23
Da ich leider kein Französisch kann, weiß ich nicht, was genau das für Watt-Angaben sind. Womit man misst, ist auch erstmal egal, uns (oder besser gesagt mich) interessiert hier eher sowas wie ein durchschnittlicher Verbrauch. Wobei ich angesischts des Links von dildo4u da nicht mehr so optimistisch bin :(.
Fritzchess ist bei mir stabil +-1-2 Watt. Maximaler Verbrauch liegt ziemlich nah am Durchschnitt. Ich schätze mal das Hardware.fr den Wert von der Systemmessung rundet und nicht den Maximalwert angibt, falls der Maximalwert überhaupt groß abweicht. Andere Messungen wären trotzdem wünschenswert (mit anderen Boards bspw.)
Mancko
2011-10-17, 00:23:48
Wenn man anstaendige Boards will zahlt man sich bei Intel zum Idioten.
Red keinen Blödsinn. Es gibt massig Boards für unter 100 Euro. Die CPUs selber sind auch nicht teuer. Als privater Endverbraucher ist man bei Intel derzeit deutlich besser aufgehoben. Für Bulldozer spricht da rein gar nichts und deshalb sollte man den auch nicht kaufen. Dann lieber noch den Phenom II X6. Aber in Summe ist man eigentlich überall mit Intel derzeit besser bedient.
Skysnake
2011-10-17, 01:31:35
WTF?
Aus dem Link:
Was ist davon zu halten?
Ja, würde mich auch interessieren. Möglich wäre es, auch wenn ich es eher für unwahrscheinlich halte. Klingt schon irgendwie strange.
Könnte aber eventuell das Core-hopping erklären.
Ja, würde mich auch interessieren. Möglich wäre es, auch wenn ich es eher für unwahrscheinlich halte. Klingt schon irgendwie strange.
Könnte aber eventuell das Core-hopping erklären.
Lol, ne, leider siehst Du ein paar Beiträge nicht mehr, in denen der Type schön auf die Schippe genommen wurde.
Damits nochmal klar ist,dass ist auf dem Stand von
Elvis lebt !!!!!!! (sorry, weiß jetzt nicht mehr, wers ursprgl. gepostet hat).
Das sind einfach Domainhändler, die fantastische Geschichten verkaufen, damit Idioten wir wir (zähle mich auch dazu ^^) das 100000x verlinken. Ergebnis: Schon prescht die Domain im Google Ranking nach vorne und gewinnt an Wert.
Sowas hatten wir auch schon letztes Jahr, da gabs vermeintliche BD Benches mit doppelter i7-990X Leistung oder so und die Seite hieß auch noch "whore" irgendwas, da sollten spätestens die ALarmglocken klingeln ^^
Skysnake
2011-10-17, 02:23:56
:udown:
Muss ich mehr zu so nem DRECK sagen?
....
Warum kann AMD nicht endlich mit der Sprache raus rücken, was Sie verbockt haben -.-
EDIT:
Ja, man springt halt auf so etwas an. Es könnte ja durchaus stimmen, auch wenn es einem komisch vorkommt. Es ist ja irgendwo der Wurm drin -.-
Wenn einer so was übern SB sagen würde, wärs viel offensichtlicher. Da läuft ja alles wunderbar. Selbst bei nem IB würde ich es nicht für annährend realistisch halten, bei BD kommt mir aber wie gesagt immer dieser Chingel in den Kopf:
"Nichts ist unmöglich Bulldozer" (ne schon klar, das es Toyota ist ;))
Ja, ein paar Bremsen hier und da gibts sicherlich, davon geh ich ja auch aus. Aber der Type lallt was von +40% durch nen Registery patch ... wie soll das dann bitte gehen?
Viel zu viel und der Vergleich mit ARM ist auch eher schräg.
Was schief gelaufen ist .. tja, sieht man dann wenns behoben ist. Mal schauen, was B3 bringt. Ich weiß, ich wiederhole mich, aber ich frag mich echt, wieso AMD B2 überhaupt auf den EndUser losgelassen hat. Im Server is da Teil sicherlich konkurrenzfähig, aber Client ... naja, irgendnen Grund wirds schon gegeben haben ... bzw. nichts ist unmööglich AAAAA Emmmmmm Deeeeee ^^
Blutmaul
2011-10-17, 06:13:42
Vielleicht haben sie den B2 deshald losgelassen, damit B3 in goldenem Lichte dasteht, auch wenn es bloß moderat ist.
;)
Knuddelbearli
2011-10-17, 06:20:47
naja es gibt scheinbar keine bugs die sie fixen wollen also gibts scheinbar keinen bug der die Performance massiv einbremst
gibts eigentlich ne Seite mit Benches/Vergleichen der Server-Versionen?
foenfrisur
2011-10-17, 08:49:25
eine sache steht ja auf der 3dc news-page.
http://www.xbitlabs.com/news/cpu/display/20111013232215_Ex_AMD_Engineer_Explains_Bulldozer_Fiasco.html
"...zu sehr auf automatische Designtools vertraut..."
was natürlich schon dumm genug ist. sind bestimmt günstig von intel nach dem presskopp-desaster angekauft worden ;)
mfg
naja es gibt scheinbar keine bugs die sie fixen wollen also gibts scheinbar keinen bug der die Performance massiv einbremst
Das glaube ich nicht. In der Errata stehen mit sicherheit nur die Bugs drin, die für Programmierer wichtig sind, also Fehler erzeugen können. Einen Bug der nur einbremst, aber keine Rechenfehler erzeugt müssen sie nicht veröffentlichen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.