Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs Bulldozer - Wo geht die Leistung hin?
PacmanX100
2012-01-08, 00:00:25
Interessehalber habe ich mir über die Tage so ziemlich jedes Review angesehen und da fiel immer folgendes auf: Egal ob das Modell ein 8 Kerner oder ein extrem schneller 4 Kerner war, scheinbar kamen beide trotz unterschiedlichen Taktes nicht von der Stelle. Was heißen soll, wie kann es sein, das ein Modell wie der AMD-FX 4170 (4 Kern, 4,2 GHz Basis!) im selben Feld dümpelt wie der FX-8150 (8 Kern, 3,6 GHz Basis) den die meisten Seiten getestet haben? Es ist ja wohl sehr unwahrscheinlich das genau die ausgewählten Games mehr als 4 Kerne erforderten, dagegen spricht ja die Dominanz der 2500K/2600K in genau diesem Feld.
Selbst wenn der Taktunterschied 3,1 vs 4,2 GHz beträgt, so müssten doch sogar im schlimmsten Fall noch ca 15-20% davon zu sehen sein. In den meisten Reviews ist die Lücke aber so gut wie nicht vorhanden, die liegen da fast gleichauf.
Bei diesem Test: http://www.techspot.com/review/452-amd-bulldozer-fx-cpus/page10.html scheint mir das Ergebniss schrott, nichtmal die anderen Prozessoren können sich untereinander absetzen. Dass das Quatsch ist sollte klar sein, die liefern bekanntermaßen mehr Leistung mit steigenden Takt.
Hier noch merkwürdiger: http://www.technic3d.com/review/cpu-s/1305-amd-fx-bulldozer-architektur-im-test/8.htm
Wie kann ein 4,7GHz Quad nicht immer schneller sein als das Standardmodell? Selbst wenn ein Turbomode greifen würde, besteht eine Taktdifferenz.
Gibt es überhaupt einen Artikel der die wahre Leistungsfähigkeit zeigt? Es gibt ja einzelne Benchmarks die riesen Differenzen aufzeigen könnten, die waren aber bei keinem Artikel wirklich dabei. Absicht ?
Gibts denn noch Informationen darüber wie gut sich die Architektur gegenüber einem Core2 schlägt? Leider haben die meisten Tests diese ausgemustert obwohl sie noch Millionenfach im Einsatz sind.
Alle Welt schreibt von Prozessoren wie dem FX-4170, schon im September, gibts den überhaupt im Handel?
Knuddelbearli
2012-01-08, 00:03:23
der 2600K ist trotz 100MHZ mehr Takt genau 1 % schneller als der 2500K. und das in deinem ersten Link in allen Games. das sagt doch über die Anzahl der genutzten Kerne alles aus.
Im 2ten Link passt es dann ja gibt 2 Spiele wo der 2600K Stück vor dem 2500K steht und dort ist auch durchgängig der FX-8 ein gutes Stück schneller als der FX-4
Ronny145
2012-01-08, 00:06:31
Hier noch merkwürdiger: http://www.technic3d.com/review/cpu-s/1305-amd-fx-bulldozer-architektur-im-test/8.htm
Wie kann ein 4,7GHz Quad nicht immer schneller sein als das Standardmodell? Selbst wenn ein Turbomode greifen würde, besteht eine Taktdifferenz.
GPU Limit: Gainward GTX 460 768 MiB
Knuddelbearli
2012-01-08, 00:07:43
wtf habe ich komplett übersehen wasn das für ein cpu benchmark ...
PacmanX100
2012-01-08, 00:07:50
Um die Intel Prozessoren geht es ja gar nicht, die kann ich nur deshalb als Vergleich heranziehen weil "ich weiß", das sie sehr gut mit Takt in der Performance skalieren.
In den genannten Benches sind aber sogar 8 Kerner mit 4,7 GHz nicht fixer als 4 Kerner mit weniger Takt. Wie ist das möglich ?
Und warum setzt sich der FX-4170 nicht immer von den anderen 4 Kernern ab? Selbst in alten Anwendungen ist sein Basistakt der höchste.
Knuddelbearli
2012-01-08, 00:10:27
Basistakt sagt nicht aus, bei FX ist nunmal die IPC ( Instructions per Clock, Befehle pro Takt ) relativ mies.
Siehe früher der Athlon XP, damals gabs ja nur Singlecore und der Athlon XP hat Pentium 4 geschlagen die 50% merh Takt hatten.
PacmanX100
2012-01-08, 00:17:01
GPU Limit
Das dachte ich mir auch, ich habe alle Benchmarks die ich finden konnte angesehen und bei keinem ist es wirklich besser. Das sind ein dutzend Seiten.
Was soll das? Die Testen doch die CPU, wieso hauen sie solche Szenarien rein? FarCry1 war ein sehr guter Indikator damals, leider sind solche Titel nie mehr dabei, stattdessen wählen sie unrealistische Szenarios wo CPUs "ab" 4 Kernen gut dastehen. Aber das interessiert in der Praxis ja kaum, das sind vielleicht 5% aller Titel. Auch wird die Anzahl der Tests immer geringer, 3 Spiele sind schon sehr mager. Was ihnen komplett fehlt sind unterschiedliche Genres... in einem Grafiktitel punktet eine CPU nunmal nicht, das kann bei Strategie komplett anders sein. Und dann bleibt noch die Frage, wieso deren Tester nichts dazu schreiben, Übertakten aber trotzdem die fast selben Werte in den Artikel klatschen.
Zergra
2012-01-08, 00:17:54
Test für 2-3 Moduler (http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/)
Test für den 4 Moduler (http://www.tweakpc.de/hardware/tests/cpu/amd_fx-8150_bulldozer/s07.php)
Ronny145
2012-01-08, 00:18:47
Und warum setzt sich der FX-4170 nicht immer von den anderen 4 Kernern ab? Selbst in alten Anwendungen ist sein Basistakt der höchste.
Weil da im Techspot Test der flotteste K10.5 Dualcore namens X4 980 mit 3,7 Ghz getestet wird. Der hat 10-20% bessere IPC und 4 echte Kerne. Der FX-4170 ist ein Dualcore mit CMT. In Dirt 3 bspw. macht das was aus. Die 500 Mhz mehr können das nicht rausreißen.
In den genannten Benches sind aber sogar 8 Kerner mit 4,7 GHz nicht fixer als 4 Kerner mit weniger Takt. Wie ist das möglich ?
GPU Limit. Die Ergebnisse kannst Du auswürfeln. Bei einer Differenz von +- 1 fps ist das rein zufällig, ob der eine Bulldozer im Zehntelbereich knapp vorne oder dahinter liegt.
PacmanX100
2012-01-08, 00:37:08
Das wäre dubios. Der Name suggeriert auch, das man nicht die Katze im Sack kauft. Meinten sie tatsächlich virtuelle Cores? Dann erklärt sich ja auch wieso die Preise von der 6000 und 8000er Serie so niedrig ausfallen können. Hat man mit so einem Teil überhaupt Vorteile gegenüber "echten" 4 Kernern?
So schlecht fand ich die Ergebnisse der Prozessoren nicht, man muss halt auch bedenken, das Intel in der Fertigung locker ein Jährchen vielleicht 1,5 mehr Erfahrung aufbietet. So ein Teil in 22nm TriGate mit entsprechenden Takt oder besserer IPC wär nicht mal übel. Aber das kann AMD nicht herbeizaubern. Da zahlte sich eben das große Investitionsvolumen aus... die Preise vom Core i sind schon wieder gestiegen laut Geizhals. :(
Zergra
2012-01-08, 00:45:10
Naja die werden aber noch sinken .... kurz bevor ivi kommt den ivi wird den Preisplatz von Sandy einnehmen :D
naja und wie ich damals schon bevor die gesagt haben das BUlli so schlecht ist und es mir keinen glauben wollte. da ein Kern im Bulldozer nur 80% der Fläche von einem normalem Kern hat...
8x80% = 640.... also etwas schneller als der x6 kam ja hin :D
6x80% = 480.... etwas schneller als ein Phenom
4x80% = 320.... naja das kann man sich ja ausmahlen :D
PacmanX100
2012-01-08, 00:49:27
Mich interessiert in erster Linie mal die Leistung bei "üblichen" Anwendungen. 1-2-3 Kern Betrieb und das unter verschiedenen Taktraten. Es war kein Test in der Lage mir zu zeigen, wie groß die Unterschiede zwischen 3,1 - 4,2 und OC-Betrieb ausfallen "können". Der da oben ist ja mal total für die Tonne. 4,7 GHz und nichtmal % Differenz vorhanden. Sehr unrealistisch.
Wenn es dumm läuft werden die Preise gleich bleiben, sogar heute noch haben die alten Plattformen (Core 2, Northwood & Co) einen hohen Wert. Es werden Mondpreise bei ebay gezahlt und ein Neukauf lohnt ebenso nicht.
Mich interessiert in erster Linie mal die Leistung bei "üblichen" Anwendungen. 1-2-3 Kern Betrieb und das unter verschiedenen Taktraten. Es war kein Test in der Lage mir zu zeigen, wie groß die Unterschiede zwischen 3,1 - 4,2 und OC-Betrieb ausfallen "können". Der da oben ist ja mal total für die Tonne. 4,7 GHz und nichtmal % Differenz vorhanden. Sehr unrealistisch.
Mh, ich versteh das Problem nicht, es gibt doch eine Latte gute Tests die nicht am CPU Limit tümpeln. Siehe die Links von Zergra. Diese Anwendungstests würde ich zum Teil als alltagsgebräuchlich bezeichnen, z.B. der Packer-Bench. Tests mit OC Vergleich sind schwer zu finden das ist wohl wahr.
Wenn es dumm läuft werden die Preise gleich bleiben, sogar heute noch haben die alten Plattformen (Core 2, Northwood & Co) einen hohen Wert. Es werden Mondpreise bei ebay gezahlt und ein Neukauf lohnt ebenso nicht.
Das liegt wiederum nicht an der Leistung der Plattform sondern an der Preispolitik von Intel.
Naja die werden aber noch sinken .... kurz bevor ivi kommt den ivi wird den Preisplatz von Sandy einnehmen :D
naja und wie ich damals schon bevor die gesagt haben das BUlli so schlecht ist und es mir keinen glauben wollte. da ein Kern im Bulldozer nur 80% der Fläche von einem normalem Kern hat...
8x80% = 640.... also etwas schneller als der x6 kam ja hin :D
6x80% = 480.... etwas schneller als ein Phenom
4x80% = 320.... naja das kann man sich ja ausmahlen :D
my brain is full of fuck.
AMDs offizielle Aussage war damals: 1 Bulldozermodul hat 80 % der Rechenleistung von 2 vollständigen Kernen bei einer nur minimal höheren DIE-Größe gegenüber einem normalen Kern. (selbst da stand absolut frei im Raum auf welche 2 Kerne sich die Aussage bezog). Die Milchmädchenrechnung ignorieren wir am besten mal. :rolleyes:
Pentium M
2012-01-08, 02:15:44
THG : Problematisch wird es natürlich dann, wenn zwei Threads dieselben Ausführungseinheiten nutzen wollen, denn dann fällt die Performance gegenüber Chip-Level Multiprocessing ab. AMD gibt sich aber optimistisch: Vergangenen August, als man im Rahmen der Hot Chips Konferenz die ersten Details zur neuen Architektur vorstellte, schätzte man, dass ein Bulldozer-Modul im Durchschnitt auf 80 Prozent der Leistung zweier vollständiger Kerne erreichen könne, dabei aber deutlich weniger Chipfläche brauche. Daher sollte ein Prozessor auf Bulldozer-Basis in Anwendungen und Umgebungen, die viele Threads nutzen, deutlich effizienter zu Werke gehen.
Das bedeutet allerdings auch, dass AMD seine Definition von „Kern“ umschreiben muss, was man unter dem Begriff „Kern“ versteht. Um den Bulldozer nicht ins falsche Licht zu rücken, gilt nun laut AMD (wenig überraschend) alles als Kern, was eigene Integer-Ausführungs-Pipelines besitzt. Das ist ein Stück weit nachvollziehbar, denn die meisten Aufgaben, die Prozessor abarbeitet, bestehen größtenteils aus Ganzzahl-Berechnungen. Prinzipiell haben wir an dieser Definition nicht mehr oder weniger auszusetzen, als an anderen Definitionen. Doch wenn das Teilen von Ressourcen sich negativ auf die Pro-Takt-Performance auswirken wird, muss sich AMD wohl oder übel wieder auf höhere Taktraten oder deutlich stärkeres Threading stützen müssen, um das zu kompensieren.
AMD willkommen in der Wüste der Wirklichkeit.
Knuddelbearli
2012-01-08, 02:41:54
AMDs offizielle Aussage war damals: 1 Bulldozermodul hat 80 % der Rechenleistung von 2 vollständigen Kernen bei einer nur minimal höheren DIE-Größe gegenüber einem normalen Kern. (selbst da stand absolut frei im Raum auf welche 2 Kerne sich die Aussage bezog). Die Milchmädchenrechnung ignorieren wir am besten mal. :rolleyes:
ja sie bezogen sich aber eben nicht auf 2 Phenom Kerne. Also ist die Rechnung da oben unsinnig.
PacmanX100
2012-01-08, 03:48:26
Zumindest scheint er zu skalieren "sagt das Web". Bei einigen Benchmarks gab es sogar ganz gute Resultate. Bei den wenigen Diagrammen sah man einen 4.5GHz Core i5 als Vergleich und da lag ein FX-8150 @ 4.9 GHz ungefähr gleich auf. Allerdings waren das leider Anwendungen aus dem Kompressions und Grafikbereich. Hier würde das Konzept aufgehen.
Leider testet kaum einer den FX-6100 oder FX-6200 mit, die sind meines erachtens am interessantesten für Homeuser, außerdem etwas billiger. Vielleicht hält sich der Verbrauch in Grenzen, wenn nicht alle Kerne die ohnehin ungenutzt rumliegen werden in den ganzen Verbrauchstest überschüssige Energie ziehen. Wenn das dann ein 3 Moduler ist, hät er ja eigentlich genug Reserven für das übliche Zeugs.
Scheinbar muss es AMD bloß gelingen die Taktfähigkeit oder den Verbrauch anzugehen, Performance ist erst dann ein Problem, wenn sie das Potential nicht nutzen können. Aber so ein Fertigungsprozess lässt sich ja optimieren, schon damals war es beeindrucked was Intel mit den Core2 Steppings so anstellte, da war plötzlich der Verbrauch 10+ W weniger und das bei gleicher Performance (G0, E0 ?).
Woher möchte AMD die Performance mit den kommenden Upgrades holen? Sie selbst wollen sie jährlich steigern, aber wie?
Zergra
2012-01-08, 11:47:53
ja sie bezogen sich aber eben nicht auf 2 Phenom Kerne. Also ist die Rechnung da oben unsinnig.
klar ist sie etwas unsinnig... aber es kommt meisten hin... sobald aber mehr als 4 Kerne Skallieren kommt sie wieder nicht hin ..... es passt leider einfach zu gut...
Tiamat
2012-01-08, 20:11:01
Früher oder später sehen wir Zeiten, wo Hersteller mit Kernen nur noch um sich werfen.
AMD muss dann nicht aufwändige n-Core CPUs designen, sondern einfach mehr Module integrieren. Das ist natürlich der Vorteil auf Langzeitsicht.
Anscheinend kommt dem Bulldozer das Multithreading in Windows 8 mehr gelegen. Ein paar Benchmarks zeigten im Schnitt 4% bessere Ergebnisse(10% Peak).
Was man im Endeffekt tun kann, um die Performance von Jahr zu Jahr zu steigern ? Ne Menge.. Man muss bedenken, das mit Hochdruck an der Fertigstellung gearbeitet wurde. Da blieb sicherlich keine Zeit mehr übrig, um sich bewusst zu machen, welche Elemente jetzt bei entsprechend kleiner Modifizierung zu besserer Performance führen würden. Umfangreiche Analysen konnte man sicher erst mit Lauffähigen Samples durchführen und die Auffälligkeiten werden dann erst mit dem Bulldozer Update berücksichtigt. Bis dahin wird man sicherlich rausgefunden haben, was der eigentlich Flaschenhals ist.
AMD muss dann nicht aufwändige n-Core CPUs designen, sondern einfach mehr Module integrieren.
Warum sollte das einfacher sein?
PacmanX100
2012-01-08, 20:56:54
Deutlich bessere Benchmarks:
1. http://www.pcgameshardware.de/aid,848744/Test-Bulldozer-FX-8150-Gelungenes-Comeback-fuer-AMD-Update-mit-Umfragen/CPU/Test/?page=3
2. http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=537&page=6
Manchmal kommt er sogar nah heran, allgemeines Problem ist vorallem das Anwendungen die Leistungsfähigkeit aller Module nicht auszunutzen wissen, aber das Problem hat ja auch ein 2600K mit HT oder Six-Core. Bei WinRAR ist die Leistung schon beeindruckend, aber auch in Spielen wo gute Unterstützung herrscht geht es gut ab. Wenn sie allgemein ein schippchen Takt und Leistung/Takt drauflegen könnten, wären sie nicht mehr so weit weg.
Interessant auch der Vergleich zum Penryn, Aufrüstung von der alten Plattform kann sich lohnen, da ja CPU und Mainboardpreise sehr gering ausfallen, das alte Zeug aber gut weggeht.
Bei THG haben sie außerdem noch den Effizienztest gemacht und undervoltet. Damit kommt er auf sehr annehmbare Werte: http://www.tomshardware.de/FX-8150-bulldozer-ubertakten-undervolting-effizienz,testberichte-240915-15.html
Anscheinend kommt dem Bulldozer das Multithreading in Windows 8 mehr gelegen. Ein paar Benchmarks zeigten im Schnitt 4% bessere Ergebnisse(10% Peak).
Das soll aber auch für andere gelten. Intel dürfte profitieren. Das Problem an Windows 7 ist wohl, das der Prozessor seinen Turbomode nicht ausspielen kann, weil die Last zu sehr verteilt ist und nicht auf dem selben Modul bleibt (was dann höher getaktet wäre). Warum überhaupt erst mit Windows 8? Sind Änderungen wie diese so schwer umzusetzen?
Ronny145
2012-01-08, 21:21:19
Bei WinRAR ist die Leistung schon beeindruckend
Aber auch nur im integrierten Benchmark. Praxisnahe Winrar Benchmarks sehen Sandy Bridge klar vorne.
Deutlich bessere Benchmarks:
1. http://www.pcgameshardware.de/aid,848744/Test-Bulldozer-FX-8150-Gelungenes-Comeback-fuer-AMD-Update-mit-Umfragen/CPU/Test/?page=3
Anno 1404? i7-2600K liegt 26% vorne. Bedenkt man, dass Bulldozer deutlich mehr Transistoren und Fläche besitzt und mehr verbraucht, ist das alles andere als toll.
PacmanX100
2012-01-08, 21:32:43
Das sah schon viel schlimmer aus. Allgemein könnten sie mit leichten Verbesserungen der Architektur und mehr Takt etwas aufholen. Wie gut der IvyBridge wird, das weiß man ja auch noch nicht. Vielleicht ists diesmal ein mittelmäßiges Upgrade.
AMDs Problem liegt vorallem im Verbrauch und Fertigung, wenn Intel 22nm am Massenmarkt hat, bauen sie vielleicht noch 32nm CPUs zusammen. Aber wenn jetzt jedes Jahr wirklich ein kleines Upgrade kommt und Windows 8 dem noch entgegen kommt, sind einige Lücken kleiner. Für Server ist das Teil nichtmal schlecht... außerdem wurde ein FX-8170 schon für dieses Quartal gesetzt, der fehlt in dem Bench noch.
Starcraft2 ist wie üblich das Extrembeispiel, Anwendungsmäßig wirds nicht ganz so schlimm ausfallen, viele MMOs sind schon das komplette Gegenteil davon, die wissen mit der Leistung selten was anzufangen.
Tiamat
2012-01-08, 21:48:12
Warum sollte das einfacher sein?
Ich geh davon aus das ist einfacher. Cache und so weiter werden ja einfach im Modul geshared. Es findet keine Core exclusive Cacheverarbeitung und Synchronisation. Das ist ja gerade das aufwändige bei n-Core CPUs.
Zergra
2012-01-08, 21:53:36
außerdem wurde ein FX-8170 schon für dieses Quartal gesetzt, der fehlt in dem Bench noch.
glaubst du das wirklich das der Besser wird? nein ... der wird einfach mehr standart takt haben was aber auch so jeder mit etwas OC hinbekommen kann
Twodee
2012-01-08, 21:53:42
Aber auch nur im integrierten Benchmark. Praxisnahe Winrar Benchmarks sehen Sandy Bridge klar vorne.
.
Jupp, da im Benchmode der I7 unter Win7 mit CoreParking gedrosselt wird. Benche mal ohne aktivierten CoreParking, da schafft ein ein i72600K locker über 5000kb/s. Da sieht ein BD alt aus dagegen.
PacmanX100
2012-01-08, 22:06:16
der wird einfach mehr standart takt haben was aber auch so jeder mit etwas OC hinbekommen kann
OC ist nicht jedermanns Sache. Im OC-Mode sind die Prozessoren wieder fernab jeglicher Spezifikationen, so auch der Verbrauch. Wenn man irgendwo die Spannung heraufsetzt, kann aus der sparsamen Kiste gleich ein >150W Monster werden. Weiteres Problem: Aufpreis für Kühler. Bei einem günstigen Prozessor ein 40€ Kühler? Das ist wieder was für Freaks. ;) Dann gibts da noch die Pechvögel, die nur durch Vcore überhaupt am Takt schrauben können, da ist Standard einfach handlicher.
Es muss gar nicht besser werden, so lang der Preis spricht. Der 2500K und 2600K scheinen preisstabil zu sein, vermutlich wird sogar der FX-8170 in dem Rahmen sein und trotzdem attraktiv ausfallen, weil Mainboardpreise auch noch eine Rolle spielen. Wenn die Hauptanwendungen nicht ausschließlich im Gamingbereich liegen, ist so eine Allround Plattform durchaus interessant. Was interessieren % Performance, wenn so mehr Geld bleibt. :) "Ausreichend" ist es allemal.
=Floi=
2012-01-09, 02:32:37
du redest dir auch alles schön wie es dir gerade passt.
da bin ich echt zu faul zu antworten, weil das eh sinnlos ist.
alleine der satz mit den mmos ist ja nur noch krank. :facepalm:
deshalb gibt es ja cpu-tests, welche ohne grafiklimit die leistung der cpu aufzeigen und mit endsprechender cpu-power kann auch die cpu ihr wahres potenzial in games zeigen.
wenn ivy bridge so schlecht werden würde, würde man an der taktschraube drehen und vor allem nicht die tdp senken und das gleiche mhz lineup auffahren wie mit sandy bridge.
zum schluß vergleichst du dann die performance krücke mit den (teuren) intel topmodellen. es gibt bei intel auch sehr günstige modelle, welche oft auf augenhöhe mit bulldozer sind.
PacmanX100
2012-01-09, 07:53:59
alleine der satz mit den mmos ist ja nur noch krank. :facepalm:
Was gibt es daran nicht zu verstehen? Außer dass das Bild dort fehl am Platze ist? Ein Großteil solcher Titel kann mit extremer Leistung nichts anfangen und auch nichts mit 8 Cores.
Vielleicht überschätzt du einfach, das ein normaler User vielleicht 20% seiner Zeit vor den PC sitzt und noch weniger davon überhaupt in Games verbringt. Es wäre sogar rigerose Verschwendung, nur für diesen Anwendungszweck das "beste" und teuerste zu holen, wenn die anderen Anwendungsbereiche (herumidlen) in der Mehrheit sind.
es gibt bei intel auch sehr günstige modelle, welche oft auf augenhöhe mit bulldozer sind.
Nach unten geht es immer, die sind aber leistungsmäßig nicht mehr die selben wie 2500K, 2600K. Die Mainboardpreise sollte man auch nicht außen vor lassen.
Außerdem ist die Diskussion fehl am Platze, wie schon gesagt, spielt schon der Preis eine große Rolle. Wer maximale Leistung will, der kauft sich auch keinen Quad mehr sondern geht eine Stufe weiter. Und da es hier um Fragen um Bulldozer ging, interessiert Intel schonmal gar nicht. Schonmal die Technik hinterfragt?
R.I.P.
2012-01-09, 09:16:33
Verstehe nicht, warum ihr immer noch über BD1 diskutiert....ein fast reines Serverdesign mit eindeutigen Problemen in der Fertigung. In ein paar Monaten kommt schon BD2 (welcher eigentlich mehr auf Desktop ausgelegt sein soll, wir werden sehen). Warum glaubt ihr, daß rein gar nichts mehr in BD1 investiert wird? Kein 8170, kein neues stepping, Win7 Scheduler patch im Frühjahr 2012. Persönlich finde ich den technologischen Ansatz von BD hervorragend und glaube, daß AMD sehr wohl auf den richtigen Weg ist. Rein von der CPU Leistung werden wir hoffentlich mit Trinity sehr bald wissen, wie der neue BD Kern sein wird
Iceman346
2012-01-09, 09:19:53
Grade MMOs sind sehr CPU-lastige Spiele und nicht unbedingt Multithreadingfähig. Hier ist eine CPU mit möglichst hoher Leistung pro Kern das Optimum und das ist eben nicht Bulldozer.
Und grade weil die meisten PCs den Großteil ihrer Zeit im Idle verbringen ist es sinnig auch einen Blick darauf zu werfen was die CPU im Idle verbrät und auch da sieht es ganz übel für Bulldozer aus.
Prinzipiell hast du Recht, dass man eine solche CPU nur über den Preis verkaufen kann, nur kriegt man für den Preis eines FX-8120 auf Intel Seite einen i5-2500 welcher der AMD Konkurrenz wirklich in allen Bereichen gnadenlos überlegen ist. Es gibt in der aktuellen Marktsituation einfach keinen rationalen Grund einen Bulldozer zu kaufen.
Knuddelbearli
2012-01-09, 09:28:07
Und grade weil die meisten PCs den Großteil ihrer Zeit im Idle verbringen ist es sinnig auch einen Blick darauf zu werfen was die CPU im Idle verbrät und auch da sieht es ganz übel für Bulldozer aus.
ähm
http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index24.php
Iceman346
2012-01-09, 09:37:10
Und im Gesamtsystem sinds auf einmal fast 20W Unterschied:
http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index23.php
Sind die Mainboards so massiv stromhungrig auf AMD Seite?
Knuddelbearli
2012-01-09, 09:50:07
naja da ist das Problem das alle die mainboards nehmen die gerade da sind.
Und bei AMD gibt es mehr Stromschleuder boards als bei Intel da eher günstige Bauteile verbaut werden ( dafür sind die dann auch mal 20-30€ günstiger bei gleicher ausstattung )
und zumindest bei HT4U kommt noch dazu das das AM3 Board ein stromfressendes ASUS ist. bei Sandy ist es ein MSI die sich grossteils im Mittelfeld bewegen aber auch einige sehr gute stromspar boards haben ( dafür auch schwächeren turbo )
Bei CB sind bei beiden Systeme Asus Boaards im Test ( Das AMD Board sieht aber auf den ersten blick besser ausgestattet aus alleine das es mehr PCI-E Lanes hat ) und dort ist der unterschied nur mehr 5W
Beispiel:
AMD Board 6x USB3 Intel Board 4x USB3
AMD 7x Sata 3.0, 1x Esata 3.0. Intel 2x Sata 3.0, 4x Sata 2.0 2x Esata 2.0
AMD 7.1 Audio (SupremeFX X-Fi) Intel 7.1 Audio (ALC889)
AMD extra Netzwerk Chip. Intel 2 mal integriertes Lan ( ok da ist AMD zum teils elber Schuld )
da sind 5W nichts
und der idle Champion ist sogar eine AMD CPU.
Tiamat
2012-01-09, 10:18:30
Als gestern hier im Thread jemand geschrieben, die Skalierung jenseits der 3 Ghz sei kaum bemerkbar, hab ich sofort an den P4 denken müssen.
AMD macht wie ich eben gelesen habe, keine Angabe dazu wie viele Pipelinestufen Bulldozer jetzt genau hat. Höchstwahrscheinlich deswegen, weil man Kritik befürchtet. Der Cache ist ja auch nicht mehr so bissig, was alles auf eine taktorientierte Strategie hindeutig.
y33H@
2012-01-09, 10:42:55
@ Knuddelbearli
1) Hat AMD das C5F für den FX-Test mitgeschickt, also selbst Schuld [nicht jeder Tester hat weitere Platinen, zumal selbst AM3+ nicht heißt, dass der FX läuft :usad:]
2) Ist das C5F ziemlich sparsam im Vergleich mit den meisten anderen AM3+ Boards
Ronny145
2012-01-09, 11:40:43
AMD macht wie ich eben gelesen habe, keine Angabe dazu wie viele Pipelinestufen Bulldozer jetzt genau hat.
Mike Butler, Senior Fellow Design Engineer, AMD - The pipeline within our latest "Bulldozer" microarchitecture is approximately 25 percent deeper than that of the previous generation architectures. That deeper pipeline is a key technology advancement, providing record breaking frequencies and performance improvements.
http://www.hardocp.com/article/2011/11/29/hardocp_readers_ask_amd_bulldozer_questions/2
@ Knuddelbearli
1) Hat AMD das C5F für den FX-Test mitgeschickt, also selbst Schuld [nicht jeder Tester hat weitere Platinen, zumal selbst AM3+ nicht heißt, dass der FX läuft :usad:]
2) Ist das C5F ziemlich sparsam im Vergleich mit den meisten anderen AM3+ Boards
War das nicht sogar das sparsamste im Idle bei euch?
Tiamat
2012-01-09, 12:08:19
Das wäre ja ok. Allerdings hatte diese Angabe keine HW-Seite beim Bulldozer Release.
y33H@
2012-01-09, 13:31:47
War das nicht sogar das sparsamste im Idle bei euch?Aus dem Kopf - ja.
Das wäre ja ok. Allerdings hatte diese Angabe keine HW-Seite beim Bulldozer Release.Dann muss das AMD auf ihre Kappe nehmen, that's it. Beim X6-Launch haben sie verbuggte Boards geschickt, so was darf einfach nicht passieren ;(
Ich geh davon aus das ist einfacher. Cache und so weiter werden ja einfach im Modul geshared. Es findet keine Core exclusive Cacheverarbeitung und Synchronisation. Das ist ja gerade das aufwändige bei n-Core CPUs.
Und zwischen den Modulen gibt es keine Cache-Kohärenz und keinen gesharten L3 Cache oder wie?
Exxtreme
2012-01-09, 22:10:59
Und im Gesamtsystem sinds auf einmal fast 20W Unterschied:
http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index23.php
Sind die Mainboards so massiv stromhungrig auf AMD Seite?
Also die ersten BD-Reviews waren ja katastrophal was den Stromhunger angeht. Jetzt mit neuen Boards sieht das besser aus. Mal sehen wie der BD2 wird. Der soll weniger Strom verbrauchen.
y33H@
2012-01-09, 22:13:56
Wieso soll der weniger verbraten? Absolut gesehen sicherlich nicht, aber in Relation zur Leistung wohl schon (IPC geht hoch, Takt auch und ergo die Perf/Watt ratio). Denn der ist immer noch 32 nm und das Flaggschiff wird bestimmt wieder 125W TDP mitbringen.
Exxtreme
2012-01-09, 22:33:53
Wieso soll der weniger verbraten? Absolut gesehen sicherlich nicht, aber in Relation zur Leistung wohl schon (IPC geht hoch, Takt auch und ergo die Perf/Watt ratio). Denn der ist immer noch 32 nm und das Flaggschiff wird bestimmt wieder 125W TDP mitbringen.
Naja, auf einer AMD-Folie stand dran, dass er energieefizienter sein wird. Sprich, mehr IPC pro Watt. Absolut gesehen wird er wohl genauso viel schlucken.
Tiamat
2012-01-09, 23:09:17
Und zwischen den Modulen gibt es keine Cache-Kohärenz und keinen gesharten L3 Cache oder wie?
Doch die gibt´s natürlich auch, aber meiner Vermutung nach müsste man damit schon mal kräftig was gespart haben. Aus der Perspektive der Cache-Kohärenz sind es eben Module und nicht mehr Cores.
Der L3 Cache wird nicht wirklich für alle Module geshared. Jedes Modul erhält 2 MB L3 Cache exclusive. Ich gehe davon aus, dadurch konnte man auch etwas vereinfachen.
Sprich, mehr IPC pro Watt.
Ich behaupte: mehr Takt pro Watt. Und jetzt? :D
GloomY
2012-01-10, 05:46:26
Doch die gibt´s natürlich auch, aber meiner Vermutung nach müsste man damit schon mal kräftig was gespart haben. Aus der Perspektive der Cache-Kohärenz sind es eben Module und nicht mehr Cores.Aus der Perspektive der Cache-Kohärenz zählt jeder Cache, der die entsprechende Cacheline beinhalten kann, auf die gerade eben geschrieben wird (und diese im Zustand (http://www.chip-architect.org/news/Opteron_moesi.gif) "shared" oder "owned" ist). Für alle diese Caches muss man eine Invalidierung bzgl. der gerade betrachteten Cacheline schicken.
Das sind pro Modul vier Caches: die zwei L1-D, der L1-I und der L2. Bei vier Modulen pro Chip und dem zusätzlichen L3 sind das 17 Caches.
Gibt es weitere CPUs in anderen Sockeln (bzw. anderen Dies im gleichen Package), muss man zusätzlich noch n weitere Invalidierungen per Hypertransport schicken. Bei Letzterem kann man dies ggf. reduzieren, wenn man weiß, dass die anderen Dies die fragliche Cacheline garantiert nicht beinhalten, indem man den Directory-Cache in der Home-Node ("HT-Assist" im Marketing-Gebrabbel) befragt, ob und wenn ja wer die fragliche Cacheline überhaupt gecached hat.
Der L3 Cache wird nicht wirklich für alle Module geshared. Jedes Modul erhält 2 MB L3 Cache exclusive.Ist das so? Ist mir nicht bekannt, kann mich aber auch irren.
Aber selbst wenn es so ist, macht es doch keinen Unterschied. Man kann ja in jedem 2MiB-Teil jede physikalische Addresse speichern. Bei einem Schreibzugriff muss man damit auch jedes Teil prüfen.
Tiamat
2012-01-10, 06:50:27
Ja das stimmt. Aber AMD wählt doch den exklusiven Weg, d.h jede Cache-Line von egal welchem Cache im Modul wird zusätzlich im l3 Cache untergebracht. Ich finde nicht, das das keinen Unterschied macht. Weil hier ist jetzt noch von Interesse, wie das mit dem 2 MB Häppchen Modulübergreifend geregelt wird. Was wird in jedem L3 Sub-Cache gespeichert.
Ja klar, vielleicht irre ich mich auch, was die "Vereinfachung" angeht, is mehr n Bauchgefühl.
Naitsabes
2012-01-10, 13:37:00
Äh, nöö
AMDs Cache ist eklusiv, da hast du recht, allerdings bedeutet das genau das Gegenteil: Im L3 ist der Inhalt des L2 und L1 Caches eben nicht gespiegelt!
[...]
Anno 1404? i7-2600K liegt 26% vorne. Bedenkt man, dass Bulldozer deutlich mehr Transistoren und Fläche besitzt und mehr verbraucht, ist das alles andere als toll.
Naa, so groß ist der Unterschied nun nicht. Die GPU hat recht wenig Transistoren und BD hat 7MB Cache mehr... Und die Fläche wird bei BD im Großteil relativ nutzlos verschwendet... Ich würde eher darauf tippen, dass SB vom Platzbedarf her und auch bezüglich der thermischen Gegebenheiten erheblich besser optimiert ist. Ein SB-Kern könnte sogar mehr Transistoren haben als ein BD-Modul ohne L2-Cache. BD ist ein komplett neues Design, für das man sich grad mal etwas mehr als ein Jahr Zeit nahm, um es in einem neuen (unvollständigen) Fertigungsrpozess zu fertigen - der erste BD war ja ursprünglich für Frühsommer geplant.
Ronny145
2012-01-10, 14:28:45
Naa, so groß ist der Unterschied nun nicht. Die GPU hat recht wenig Transistoren und BD hat 7MB Cache mehr... Die Fläche wird bei BD im Großteil relativ nutzlos verschwendet...
Wie viele Transistoren hat die GPU?
y33H@
2012-01-10, 14:37:11
Bulldozer war sogar ursprünglich für 2009 angesetzt, siehe FAD 2007.
Faint86
2012-01-10, 14:43:09
Ja das stimmt. Aber AMD wählt doch den exklusiven Weg, d.h jede Cache-Line von egal welchem Cache im Modul wird zusätzlich im l3 Cache untergebracht. Ich finde nicht, das das keinen Unterschied macht. Weil hier ist jetzt noch von Interesse, wie das mit dem 2 MB Häppchen Modulübergreifend geregelt wird. Was wird in jedem L3 Sub-Cache gespeichert.
Ja klar, vielleicht irre ich mich auch, was die "Vereinfachung" angeht, is mehr n Bauchgefühl.
Ist AMD beim Bulldozer nicht auf ein inklusives Cache-Design umgestiegen? Jedenfalls für die L1 und L2 Caches. Der L3 ist doch eine Mischform von exklusiv und inklusiv, oder nicht? Ich meine eine Cacheline auf einem L1 oder L2 Cache kann zusätzlich noch im L3 vorhanden sein, bin mir aber nicht sicher..
Wie viele Transistoren hat die GPU?
Na ja, Nehalm(vielmehr Lynnfield) hat knapp 800 Mio, Sandy hat insgesamt 1,16Mia. Es gibt Angaben im Netz, die SB 995Mio Transistoren zugestehen, ich nehme an, dass das der Wert ohne GPU ist, denn die 1,16 Mia für den 4-Kerner insgesamt sollten als sicher gelten. Ohne I/O-Krams hat eine low-End-GPU eben nicht viele Transistoren, irgendwo zwischen 120 und 160Mio sind da schon plausibel find ich. BD hat 1,2Mia, aber wie gesagt genau 7MB Cache mehr... Wieviel Transistoren hat denn 16MB 6T-Cache? Das wär die viel interessantere Frage ;).
Bulldozer war sogar ursprünglich für 2009 angesetzt, siehe FAD 2007.
Dann kannst auch sagen, dass er schon als K7-Nachfolger angesetzt war ;). Nur unter anderem Namen.
Ist AMD beim Bulldozer nicht auf ein inklusives Cache-Design umgestiegen? Jedenfalls für die L1 und L2 Caches. Der L3 ist doch eine Mischform von exklusiv und inklusiv, oder nicht? Ich meine eine Cacheline auf einem L1 oder L2 Cache kann zusätzlich noch im L3 vorhanden sein, bin mir aber nicht sicher..
Ich nehme an, dann würde man dieses ganze Cache-Geschnüffel, dass da mit großen Aufwand implementiert wurde, dann nicht nötig wäre. Nein BD ist voll Exklusiv (bis auf den L3, der ist eine Mischform), wie schon seine Vorgänger.
Ronny145
2012-01-10, 15:04:42
Na ja, Nehalm(vielmehr Lynnfield) hat knapp 800 Mio, Sandy hat insgesamt 1,16Mia. Es gibt Angaben im Netz, die SB 995Mio Transistoren zugestehen, ich nehme an, dass das der Wert ohne GPU ist, denn die 1,16 Mia für den 4-Kerner insgesamt sollten als sicher gelten.
Das hat damit nichts zu tun. Die Differenz entstand durch verschiedene Zählweisen.
http://www.anandtech.com/show/4818/counting-transistors-why-116b-and-995m-are-both-correct
Undertaker
2012-01-10, 15:07:15
Allein der Unterschied zwischen GT1 und GT2 beträgt 120 Millionen Transistoren bei 18mm² Fläche. Die Die Size der gesamten IGP beträgt etwa 45mm². Ergo in Summe etwa 300 Millionen Transistoren für die IGP. Die Packdichte ist hier deutlich höher als im Prozessorteil.
Der gesamte Cache beträgt bei Bulldozer afair ~100mm². Das ist nicht der einzige Grund für die enorme Fläche, zumal der Cache ja auch mal mehr, mal weniger zur Performance beiträgt.
Beim BD fallen vor allem die großen Zwischenräume auf, die nur mit Leiterbahnen durchzugen sind. Auch die I/O-Anbindung ist bei AMD mMn deutlich größer als bei Intel. Man darf ja auch die 4 HT-Links nicht vergessen, die seit 65nm kaum geschrumpft sein dürften. Die Fläche taugt nicht zum Vergleich Orochi vs. Sandy-Bridge4C.
So groß kann die GPU nicht sein, man kann davon ausgehen, dass Sandy allein schon aufgrund der FPU tendenziell eher mehr Transistoren als Lynnfield haben dürfte. 300Mio für Grafik würde würde bedeuten, dass CPU und Uncore nur etwa auf Lynnfield-Niveau wäre. Schlimmer noch: Das würde bedeuten, dass der IGP in etwa auf Caicos-Niveau wäre (ohne I/O), was nicht stimmen kann, da SB die Leistung dieses Low-End-Chips nicht erreichen würde... der IGP muss weniger als 300Mio haben. Ich sehe ein, dass meine 120 zu knapp kalkuliert sind, es sind wohl eher etwas mehr als 200, also eher Cedar-Niveau ohne I/O.
Das hat damit nichts zu tun. Die Differenz entstand durch verschiedene Zählweisen.
http://www.anandtech.com/show/4818/counting-transistors-why-116b-and-995m-are-both-correct
Verstehe. Ich geh jetzt aber einfach mal davon aus, dass AMD die tatsächliche Transistorzahl des Orochi angibt.
Undertaker
2012-01-10, 15:56:18
So groß kann die GPU nicht sein, man kann davon ausgehen, dass Sandy allein schon aufgrund der FPU tendenziell eher mehr Transistoren als Lynnfield haben dürfte. 300Mio für Grafik würde würde bedeuten, dass CPU und Uncore nur etwa auf Lynnfield-Niveau wäre. Schlimmer noch: Das würde bedeuten, dass der IGP in etwa auf Caicos-Niveau wäre (ohne I/O), was nicht stimmen kann, da SB die Leistung dieses Low-End-Chips nicht erreichen würde... der IGP muss weniger als 300Mio haben. Ich sehe ein, dass meine 120 zu knapp kalkuliert sind, es sind wohl eher etwas mehr als 200, also eher Cedar-Niveau ohne I/O.
Ich denke nicht, dass Intel im GPU-Bereich bereits die Perf/Transistor von AMD und Nvidia erreicht. 240 Millionen für die SB-IGP sind bereits zwangsläufig notwendig, wenn der Unterschied GT1 zu GT2 120 Millionen beträgt. Dazu wird in jedem Fall ein gewisser Grundstock weiterer Transistoren kommen, die nicht von der Ausbaustufe der GPU abhängen.
Lynnfield hatte ~770M Transistoren, +300 für die GPU wären 1070M bei Sandy Bridge. Bleiben ~100M Spielraum für sonstige Veränderungen - das klingt nicht unrealistisch. Meine obige Rechnung basiert auch nur auf den Flächen und Transistorzahlen verschiedener SB-Dies, kann also durch unterschiedliche Packdichten zwischen den Modellen leicht verfälscht sein. Aber die Größenordnung sollte stimmen. :)
Beim BD fallen vor allem die großen Zwischenräume auf, die nur mit Leiterbahnen durchzugen sind. Auch die I/O-Anbindung ist bei AMD mMn deutlich größer als bei Intel. Man darf ja auch die 4 HT-Links nicht vergessen, die seit 65nm kaum geschrumpft sein dürften. Die Fläche taugt nicht zum Vergleich Orochi vs. Sandy-Bridge4C.
Vom Zerpflücken einzelner Bestandteile eines Dies (in Bezug auf eine Bewertung der Flächeneffizienz) halte ich generell wenig, wenn man deren Bedeutung für die Performance nicht zweifelsfrei isolieren kann - beispielsweise bei Caches. Klar ist, das sowohl Sandy Bridge als auch Bulldozer für die CPU-Leistung im Desktopsegment einige unnütze Transistoren mit sich tragen.
kunibätt
2012-01-10, 16:59:19
Gibts es eigentlich Bilder von geköpften ( ohne HS) Bulldozern?
Zieht der BD in "normalen" Desktopanwendungen überhaupt einen Vorteil aus seinem großen L2-Cache? Oder ist dies eher für den Servermarkt von Vorteil?
Tiamat
2012-01-10, 18:35:59
Äh, nöö
AMDs Cache ist eklusiv, da hast du recht, allerdings bedeutet das genau das Gegenteil: Im L3 ist der Inhalt des L2 und L1 Caches eben nicht gespiegelt!
Ups, sorry! damit erklaeren sich ja auch die 2mb haeppchen im l3 cache..
Doch die gibt´s natürlich auch, aber meiner Vermutung nach müsste man damit schon mal kräftig was gespart haben. Aus der Perspektive der Cache-Kohärenz sind es eben Module und nicht mehr Cores.
Der L3 Cache wird nicht wirklich für alle Module geshared. Jedes Modul erhält 2 MB L3 Cache exclusive. Ich gehe davon aus, dadurch konnte man auch etwas vereinfachen.
Vertrau mir, es macht exakt null Unterschied von der Schwierigkeit, ob man vier Module oder vier Cores verbinden muss.
mercutio
2012-02-21, 12:49:09
Keine Frage, BD1 ist enttäuschend. Ich warte auch auf den BD2 und hoffe, dass der viel besser wird.
Aber AMD hat ja selber schon gesagt, dass es nicht mehr darum geht, wer die Leistungsspitze anführt - sondern darum, wer eine brauchbare X86-CPU neben Intel anbietet.
Knuddelbearli
2012-02-21, 12:51:09
zu brauchbar gehört halt auch immer P/W
und wenn sie bei 65W dann konkurenzfähig sind wieso sollte amd keine 125W CPU bringen ?
Henroldus
2012-02-21, 12:54:32
Keine Frage, BD1 ist enttäuschend. Ich warte auch auf den BD2 und hoffe, dass der viel besser wird.
Aber AMD hat ja selber schon gesagt, dass es nicht mehr darum geht, wer die Leistungsspitze anführt - sondern darum, wer eine brauchbare X86-CPU neben Intel anbietet.
Gerade die heutigen News
http://www.3dcenter.org/news/weitere-bulldozer-modelle-mit-95-watt-tdp-vorbereitung
stimmen doch wieder etwas optimistischer:
Taktsteigerung bei TDP Senkung.
Die Frage wird, was kosten die Neuen
y33H@
2012-02-21, 13:04:28
Nun ja, das ist erst mal die klassische Produktpflege, die von Anfang an geplant ist. Fraglich zudem, ob es die 95W-Modelle in den Retail-Handel schaffen - den 8120 und den 8100 gibt's seit Monaten nur für OEMs.
anddill
2012-02-21, 13:12:31
Die Daten dieser CPUs kann man heute schon haben, wenn man etwas mit Takt und Spannung frickelt und etwas Glück beim Kauf hatte.
Vertrau mir, es macht exakt null Unterschied von der Schwierigkeit, ob man vier Module oder vier Cores verbinden muss.
Logisch, aber er meint doch 8 Kerne oder nicht? Ein Module hat bekannterweiße 2 "Kerne". Blöderweise ist die Cache Kohärenz aber ein ziemliches komplexes Konstruktum (die "lustigen" Sache wo man trotz L2-inklusiven L1 doch noch den L1 abfragen muss kennst Du ja). Wo man also was spart ist nicht die Kohärenz sondern eher die Die-Fläche für den Interconnect, da man nur einen Port für 2 "Kerne" braucht. Sind aber halt doch keine "echten" Kerne, was wieder ein Nachteil ist, aber naja, halt die typische Kompromisslösung.
Keine Frage, BD1 ist enttäuschend. Ich warte auch auf den BD2 und hoffe, dass der viel besser wird.
Ich nicht, BD2 wird mMn nur ein Bugfix-Release. Behebung der allergröbsten Schnitzer und Mitnahme von 32nm Prozessverbesserungen bei GF. Der große Wurf kommt mMn erst mit Steamroller & 28nm. Aber der darf sich dann auch schon mit Intels 22nm Haswell herumschlagen.
dildo4u
2012-02-21, 13:22:20
Ich nicht, BD2 wird mMn nur ein Bugfix-Release. Behebung der allergröbsten Schnitzer und Mitnahme von 32nm Prozessverbesserungen bei GF. Der große Wurf kommt mMn erst mit Steamroller & 28nm. Aber der darf sich dann auch schon mit Intels 22nm Haswell herumschlagen.
Phenom 2 war doch auch nur ein fix im selben Herstellungsverfahren.Imo war die CPU wesentlich besser als der erste ärmliche Versuch.
Knuddelbearli
2012-02-21, 13:24:31
ich vermutlich schon mit 16nm "Haswell" rumschlagen das ist ja das Problem ...
Phenom 2 war doch auch nur ein fix im selben Herstellungsverfahren.Imo war die CPU wesentlich besser als der erste ärmliche Versuch.
nö Phenom 1 war 65nm Phenom 2 45nm
oder meinst du die X6?
ich vermutlich schon mit 16nm "Haswell" rumschlagen das ist ja das Problem ...Na wenigstens nicht gleich zum Start. Im Moment verschieben sie ja den Ivy Start etwas, damit noch die Sandy Regal leergekauft werden können, das sollte sich dann auch auf die nachfolgenden Generationen auswirken.
Außerdem geb ich Steamroller in ner CPU (nicht APU)-Variante für Ende 2013 noch nicht auf. Hauptproblem ist wohl die neue Server-Plattform. Falls die jetzt gleich für DDR4 entwickeln wirds dann doch nichts mehr mit 2013, aber mal schauen.
Ronny145
2012-02-21, 14:03:09
ich vermutlich schon mit 16nm "Haswell" rumschlagen das ist ja das Problem ...
Das wäre Broadwell in 14nm auf Basis der Haswell Architektur in 2014. Kommt Steamroller so spät?
Im Moment verschieben sie ja den Ivy Start etwas
Ivy Bridge wird nicht verschoben. Anfang April geht es los.
AnarchX
2012-02-21, 14:12:38
Das wäre Broadwell in 14nm auf Basis der Haswell Architektur in 2014. Kommt Steamroller so spät?
Es ging wohl eher um den Non-APU-Steamroller mit 4-6 Modulen, der erst gegen Ende 2013 erscheinen könnte.
Das Mainstream-Duell 2013 wird Haswell vs Kaveri (28nm, bis zu 4 SR-Kerne) heißen.
IVB-Launch-Datum-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9176079#post9176079
fondness
2012-03-03, 14:10:17
Bulldozer-Architektur unter der Lupe: Schwachstellen identifiziert
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1330775558
sloth9
2013-06-01, 12:23:00
Bulldozer-Architektur unter der Lupe: Schwachstellen identifiziert
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1330775558
AMD: "Bulldozer war ein totaler Fehlschlag - und wir wissen das" (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369917323)
Bulldozer ist laut AMD eine einzige Schwachstelle.
Und Abzocke:
1 Modul entsprach nie 2 vollen Kernen. Wussten alle, bloß AMD und ihre Fanboys nicht...
YfOrU
2013-06-01, 12:35:12
Und Abzocke:
1 Modul entsprach nie 2 vollen Kernen. Wussten alle, bloß AMD und ihre Fanboys nicht...
Wüsste nicht wie man hier auf "Abzocke" kommt. Es ist eben CMT und die (MT) Skalierung geht durchaus in Ordnung:
http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index21.php
Knuddelbearli
2013-06-01, 13:02:29
AMD: "Bulldozer war ein totaler Fehlschlag - und wir wissen das" (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369917323)
Bulldozer ist laut AMD eine einzige Schwachstelle.
Und Abzocke:
1 Modul entsprach nie 2 vollen Kernen. Wussten alle, bloß AMD und ihre Fanboys nicht...
Die Intel Fanboys bestehen doch imemr darauf das das 2 Kerne sind damit sie sagen köännen das AMD nichtmal mit 8 Kernen gegen Intels 4 Kern gewinnt.
Die meisten die eher AMD zugeneigt sind sagten immer 4 Kerne bzw was dazwischen
Schaffe89
2013-06-01, 13:26:14
1 Modul entsprach nie 2 vollen Kernen. Wussten alle, bloß AMD und ihre Fanboys nicht...
Ich wüsste nicht wer das jemals behauptet haben soll, oder ist das jetzt ironie?
Twodee
2013-06-01, 13:34:01
Die Intel Fanboys bestehen doch imemr darauf das das 2 Kerne sind damit sie sagen köännen das AMD nichtmal mit 8 Kernen gegen Intels 4 Kern gewinnt.
Die meisten die eher AMD zugeneigt sind sagten immer 4 Kerne bzw was dazwischen
Bullshit, selbst AMD vermarktet diese Dinger so!
http://www.amd.com/de/products/desktop/processors/amdfx/Pages/amdfx.aspx
AMD FX Eight-Core-Prozessor Black Edition
Erleben Sie den weltweit ersten nativen Eight-Core-Desktop-Prozessor.
Tauchen Sie ein in die Welt modernster 3D-Spiele.
Werden Sie als Megatasker produktiver denn je.
AMD FX Six-Core-Prozessor Black Edition
Führen Sie atemraubende 3D-Modellierung und HD-Videobearbeitung aus.
Chatten, Filme ansehen, Games spielen und mehr mit maximalem Multitasking.
AMD FX Four-Core-Prozessor Black Edition
Sehen Sie sich flüssige, gestochen scharfe HD-Videos an.
Müheloser Ausführung mehrerer rechenintensiven Anwendungen.
Dann ist AMD auch ein Intel Fanboy? ;D
http://shop.amd.com/de/All/Detail/Processor/FD8150FRGUBOX
Knuddelbearli
2013-06-01, 13:40:56
ja AMD, ich sprach aber von den oben angesprochenen fanboys, es sind eben nicht AMDs ( ihre ) Fanboys sondern Intels Fanboys ...
aber lies ruhig nur selektiv, zeigt wessen Kind du bist.
genau genommen wäre AMD FX-8 ja eh ein 6,8 Core und Intels I7 ein 5,2 Core ^^ ( Mit Haswell 5,6 )
Schaffe89
2013-06-01, 13:56:46
Bullshit, selbst AMD vermarktet diese Dinger so!
Klar weil es sich anbietet, das hat aber dann eher was mit Reklame zu tun, als denn mit technsichen Gegebenheiten, das kann man auch auf AMD´s Folien nachlesen.
Wie man das in der Werbung verpackt ist reine Definitionssache, früher hatte eine CPU auch keine FPU´s mit integriert und schon hätte man eine Rechtfertigung von 8 Cores zu sprechen.
Nichtsdestotrotz halte ich das marketingstechnisch für einen Fehler.
Twodee
2013-06-01, 13:58:20
ja AMD, ich sprach aber von den oben angesprochenen fanboys, es sind eben nicht AMDs ( ihre ) Fanboys sondern Intels Fanboys ...
aber lies ruhig nur selektiv, zeigt wessen Kind du bist.
Nö lass mal stecken, das stimmt schon so.
genau genommen wäre AMD FX-8 ja eh ein 6,8 Core und Intels I7 ein 5,2 Core ^^ ( Mit Haswell 5,6 )
Jetzt machst du dich lächerlich, 6.8 5.2? gemessen woran, am SpeedUpFaktor von CineBench? :rolleyes:
Der AMD FX-8 ist schon ein 8 Kerner, immerhin ja er 8 Threads simultan ausführen, oder nicht?
Knuddelbearli
2013-06-01, 14:00:15
Der AMD FX-8 ist schon ein 8 Kerner, immerhin ja er 8 Threads simultan ausführen, oder nicht?
Dann ist der I7 aber auch ein 8 Kerner :eek: und ist nur 25-30% schneller ( bei 8 Threads Auslastung ) als der I5 man ist Intel schlecht :freak:
Twodee
2013-06-01, 14:02:51
Dann ist der I7 aber auch ein 8 Kerner :eek: und ist nur 25-30% schneller ( bei 8 Threads Auslastung ) als der I5 man ist Intel schlecht :freak:
Schlecht? Gemessen woran? Das man mit fast dem gleichen Transistoraufwand 25-30% [und bis zu 40% in Ausnahmefällen] mehr Gesamtleistung herausholt? Ja da ist Intel schlecht :rolleyes:
Knuddelbearli
2013-06-01, 14:15:26
tja das eine ist aber ein 4 Kerner laut dir und das andere ein 8 kerner.
Aber scheinbar verstehst du die Unsinnigkeit deiner Aussage einfach nicht ^^
Dann übertreibe ich halt noch weiter, was ist dann ein IBM CPU mit 4 fach SMT und 4 Int Kernen? etwa ein 16 Kern CPU?
Zumindest bestätigst du aber meine Aussage bezüglich Fanboys damit ^^
Für Intelfanboys ist es ein 8 kerner da sie darüber dann herziehen können wie schlecht AMD ist und wie geill Intel da sie mit 4 Kernen schneller sind,
für AMD Fanboys ist es ein 4 Kerner.
Und die Wahrheit ist irgendwo dazwischen da man dank SMT CMT kerne einfach nicht mehr vergleichen kann
Twodee
2013-06-01, 14:30:31
tja das eine ist aber ein 4 Kerner laut dir und das andere ein 8 kerner.
Aber scheinbar verstehst du die Unsinnigkeit deiner Aussage einfach nicht ^^
Dann übertreibe ich halt noch weiter, was ist dann ein IBM CPU mit 4 fach SMT und 4 Int Kernen? etwa ein 16 Kern CPU?
Zumindest bestätigst du aber meine Aussage bezüglich Fanboys damit ^^
Für Intelfanboys ist es ein 8 kerner da sie darüber dann herziehen können wie schlecht AMD ist und wie geill Intel da sie mit 4 Kernen schneller sind,
für AMD Fanboys ist es ein 4 Kerner.
Und die Wahrheit ist irgendwo dazwischen da man dank SMT CMT kerne einfach nicht mehr vergleichen kannIch bestätige dich in keinster Weise, da ich keine wertende Aussage bzgl. Intel und 4 oder 8 Kerne gemacht habe! Also lass das in Zukunft bitte. Danke.
sloth9
2013-06-02, 13:47:18
:)Bullshit, selbst AMD vermarktet diese Dinger so!
http://www.amd.com/de/products/desktop/processors/amdfx/Pages/amdfx.aspx
Dann ist AMD auch ein Intel Fanboy? ;D
http://shop.amd.com/de/All/Detail/Processor/FD8150FRGUBOX
Ack!
Aber immerhin verabschieden sie sich von dem Crap (wer kauft sich das noch nach so einer Ansage?) und die ganzen Leute sind (zurecht) auch geflogen.
Schade nur, wer jetzt noch sowas "uncooles" in seinem PC hat...
gnahr
2013-06-02, 15:33:12
Aber immerhin verabschieden sie sich von dem Crap (wer kauft sich das noch nach so einer Ansage?) und die ganzen Leute sind (zurecht) auch geflogen.
ach was, der name taucht einfach nur nicht mehr auf den marketingfolien, aber das erbe der "broken architecture" müssen zwangsbeatmet auch in den nachfolgern noch ein tristes dasein fristen, garniert mit ner lausigen igp die überall das verkaufsargument neben "mitleid" bleibt.
es war vorher crap, wir wussten es, manche konnten sich eben nur gut was vormachen, aber ne wirkliche verbesserung tritt durch das eingeständniss nicht automatisch ein.
Knuddelbearli
2013-06-02, 17:24:33
jaja wie sich die ganzen hater wieder hier versammeln :ubash:
gnahr
2013-06-02, 18:50:10
du geh mal zurück in den keller kerne zählen und fanboys identifizieren. :rolleyes:
so ein stuss... "es steht zwar auf der packung, aber natürlich muss man sie als vierkerner vergleichen, weil is so."
es wurde genug angebrachte kritik beim launch geübt, aber da war der support von den anderen doof-bären genauso. "aber so viele kerne so günstig, zukünftige anwendungen und spiele werden damit skalieren und ich kann meine mühle von 2004 damit updaten ohne sockel- oder netzteilwechsel. suuuuper."
Knuddelbearli
2013-06-02, 19:42:28
zeig mir das bitte wo ich das gesagt habe ich warte ^^
und es gibt nunmal auch anwendungszwecke für Bulldozer, aber eben nicht für uns normalos die eigentlich nur spielen ^^
anddill
2013-06-02, 21:40:03
Selbst wenn AMD jetzt das eigene Produkt schlechtredet, ich fand die Idee interessant und bin mit meiner CPU zufrieden. 8 Kerne machen zwar keinen Sinn, aber es macht Spaß den Auslastungsbalken beim Tanzen zuzusehen.
:D
Knuddelbearli
2013-06-02, 21:59:46
lol wenn man sonst keine sorgen hat ^^
gnahr
2013-06-02, 23:34:46
8 Kerne machen zwar keinen Sinn, aber es macht Spaß den Auslastungsbalken beim Tanzen zuzusehen.
:D
das hat es damals aber schon mit bloomfield anno 2009.
von gulftown mal garnicht zu reden, da hat man im taskmanager ja gänzlich die gotteserfurcht verloren.
sloth9
2013-06-05, 07:42:38
jaja wie sich die ganzen hater wieder hier versammeln :ubash:
Was meinst, wieviele bei AMD den Bulldozer haten, es aber nie sagen durften?
Von der Technischen Seite gibt es eh nur eine Deutungshoheit, d.h. man kann ganz klar sagen ab wann eine Architektur 2, 4, 8, 12, 16, 32 usw. ist! Von daher kann man sich solcherart an Diskussionen schenken denn sie führen zu nichts, einzig die Leute weiterhin oder noch mehr zu verwirren! ^^
Die AMDs im momentan erhältlichen maximal Ausbau sind nicht nur irgendwie sondern tatsächlich 8 Kern Architekturen!
Twodee
2013-06-07, 16:01:08
AMD hat keine 16-Kern Architekturen. Das sind nur 2x8-Kern-Architekturen auf einem Träger.
Stimmt, die L3-Cache: 16MB shared, spielten mir beim überfliegen einen Streich. :redface:
Matrix316
2013-06-07, 17:56:51
Ob echte 8 Kerne oder zusammengeklebt, ist doch wurstegal.
Ich behaupte mal, zwei Phenom II Quadcores mit 4 GHz auf einem Chip wären schneller als jeder echte 8 Core Bulldozer...:rolleyes: (vielleicht ;))
Knuddelbearli
2013-06-07, 18:33:28
Ob echte 8 Kerne oder zusammengeklebt, ist doch wurstegal.
Ich behaupte mal, zwei Phenom II Quadcores mit 4 GHz auf einem Chip wären schneller als jeder echte 8 Core Bulldozer...:rolleyes: (vielleicht ;))
kann man nicht sagen da AVX usw ja doch große Umbauarbeiten bedeutet hätten
Ein K10 mit Hyperthreading wär viel interessanter gewesen ^^
SavageX
2013-06-08, 11:04:40
Och bitte, nicht wieder "die den hätten lieber den K10 aufbohren sollen". Trinity hat doch bereits gezeigt, dass Piledriver eine höhere Energieeffizienz als Husky hat (der A10-5800k ledert den A8-3850 ab, bei eher gesunkenem Verbrauch). Und solche Sachen wie AVX oder HT baut man nicht einfach so ein. Gerade zu letzterem: Bei K7/K8/K10 hat jede Pipe einen eigenen Scheduler. Befehle, die einmal einer Pipe zugeordnet sind, bleiben auch dort. Damit ist es schwierig, dass sich ein zweiter Thread "mal eben" opportunistisch leerstehende Ausführungsressourcen schnappt.
@SavageX:
War doch nur Spass, ich kann die "K10-mit-8-Kernen-wär-besser-gewesen-Geschichte" auch nicht mehr hören, deswegen jetzt der Einwurf mit HTh, mal was anderes ;-)
Das mit dem Extra-Scheduler pro Pipe wär kein Problem gewesen. Dort kann sich der 2. Thread ja nen freien Platz suchen. Wenn er es durch den Dekoder geschafft hat, dann ist logischerweise auch freier Platz in einem der Scheduler. In einem Scheduler gabs 8 Plätze, da ginge schon etwas OoO.
Knuddelbearli
2013-06-08, 11:31:20
was bedeutet eigentlich Vishera?
Bulldozer und Steamroller sind ja klar, damit man aber weiss wie man Centurio einordnen kann müsste ich auch wissen was Vishera bedeutet
was bedeutet eigentlich Vishera?
Bulldozer und Steamroller sind ja klar, damit man aber weiss wie man Centurio einordnen kann müsste ich auch wissen was Vishera bedeutet
Also zur Centurio-Diskussion bist DU hier im falschen Thread.
Nur kurz, weitere Fragen bitte im FX-Thread im Spekuforum:
Vishera ist ein Marketingname, Centurio vermutlich auch. Für was es steht weiss nur der Marketingleiter, technische Rückschlüsse sind nicht möglich.
Ronny145
2013-06-08, 12:04:32
Och bitte, nicht wieder "die den hätten lieber den K10 aufbohren sollen". Trinity hat doch bereits gezeigt, dass Piledriver eine höhere Energieeffizienz als Husky hat (der A10-5800k ledert den A8-3850 ab, bei eher gesunkenem Verbrauch). Und solche Sachen wie AVX oder HT baut man nicht einfach so ein. Gerade zu letzterem: Bei K7/K8/K10 hat jede Pipe einen eigenen Scheduler. Befehle, die einmal einer Pipe zugeordnet sind, bleiben auch dort. Damit ist es schwierig, dass sich ein zweiter Thread "mal eben" opportunistisch leerstehende Ausführungsressourcen schnappt.
Der Vergleich ist nicht fair. Llano war das allererste Design auf 32nm. Damals lief der echt mies, hat sich im Laufe der Zeit deutlich gebessert.
YfOrU
2013-06-08, 13:36:20
Der Vergleich ist nicht fair. Llano war das allererste Design auf 32nm. Damals lief der echt mies, hat sich im Laufe der Zeit deutlich gebessert.
Derart signifikante Verbesserungen würden sich auch bei der Core Voltage deutlich bemerkbar machen. Bei einer Betrachtung von Llano - Trinity hält sich die Differenz aber in einem überschaubaren Rahmen.
Vergleichbare Performance:
A8-5600K: 1,312V (3,8Ghz, Turbo)
A8-3870K: 1,356V (3,0Ghz)
Ronny145
2013-06-08, 13:38:00
Derart signifikante Verbesserungen würden sich auch bei der Core Voltage deutlich bemerkbar machen. Bei einer Betrachtung von Llano - Trinity hält sich die Differenz aber in einem überschaubaren Rahmen.
Vergleichbare Performance:
A8-5600K: 1,312V
A8-3870K: 1,360V
Nur wenn es sonst keine Unterschiede gibt bei gleicher Spannung.
YfOrU
2013-06-08, 13:46:40
Nur wenn es sonst keine Unterschiede gibt bei gleicher Spannung.
Das der Vergleich aufgrund der unterschiedlichen Architekturen nur äußerst grob ausfallen kann ist mir bewusst.
Da ich selber diverse Llanos in der Hand hatte und deren (Stock) Core Voltage durch die Bank viel zu hoch angesetzt war würde ich schon sagen das der 32nm Prozess nicht so schlecht gewesen ist wie häufig dargestellt. AMD hatte damals Produkte in der Hand (wie A6-3650) welche bezogen auf Perf/Watt nahe an den SB Dualcores (ebenfalls 32nm) gewesen wären. Hier der Einfachheit halber sehr häufig 0,2 bis 0,3V mehr als nötig anzusetzen war nicht gerade überragend. Typisches Beispiel:
http://www.computerbase.de/artikel/prozessoren/2011/test-amd-a6-3650-vs.-intel-core-i3-2100/14/
Meiner Ansicht nach ist die nach oben explodierende Verlustleistung (Skalierung) viel mehr ein Problem des Llano Designs als der Fertigung gewesen.
SavageX
2013-06-08, 14:14:10
@SavageX:
War doch nur Spass, ich kann die "K10-mit-8-Kernen-wär-besser-gewesen-Geschichte" auch nicht mehr hören, deswegen jetzt der Einwurf mit HTh, mal was anderes ;-)
:redface:
Das mit dem Extra-Scheduler pro Pipe wär kein Problem gewesen. Dort kann sich der 2. Thread ja nen freien Platz suchen. Wenn er es durch den Dekoder geschafft hat, dann ist logischerweise auch freier Platz in einem der Scheduler. In einem Scheduler gabs 8 Plätze, da ginge schon etwas OoO.
Klar kann man auch die Befehle des zweiten Threads auch an die drei Scheduler verteilen (also an eine Pipeline binden). Allerdings muss dann sehr früh (zu früh) geraten werden, wo in Zukunft Ressourcen brach liegen (z.B. wegen einem Cache-Miss). Da steht zu befürchten, dass die Reibungsverluste so groß werden, dass sich die Threads gegenseitig behindern.
LordDeath
2013-06-08, 14:20:44
Wie steht es eigentlich mit der Unterstützung der aktuellen AMD CPUs durch die Compiler? Gibt es da noch ein Mehrleistungspotenzial für AMDs Architektur?
Afaik arbeiteten AMD-Entwickler am GCC mit. Wie sieht es mit LLVM/Clang aus?
Undertaker
2013-06-08, 14:31:47
Hier der Einfachheit halber sehr häufig 0,2 bis 0,3V mehr als nötig anzusetzen war nicht gerade überragend.
Könnte das nicht gerade auf Schwierigkeiten/Qualitätsschwankungen des damaligen Prozesses hinweisen?
Meiner Ansicht nach ist die nach oben explodierende Verlustleistung (Skalierung) viel mehr ein Problem des Llano Designs als der Fertigung gewesen.
Untenrum sah es auch nicht viel besser aus. Wie schnell takteten die schnellsten Notebook-APUs auf allen Kernen? Ich meine rund ~1,6 GHz bei den verfügbaren 35W-Modellen.
Captain Future
2013-06-08, 14:38:20
Könnte das nicht gerade auf Schwierigkeiten/Qualitätsschwankungen des damaligen Prozesses hinweisen?
Das kann auch auf Geld sparen hinweisen. Wenn man schon im voraus weiß, dass man am Margenlimit operiert, muss man eben jeden möglichen Chip verkaufen. Und anstelle eines teuren Binnings (dass pro CPU kostet) haut man dann eben einen Sicherheitsaufschlag auf die Spannung, damit möglichst auch ja jeder Chip die Frequenzen schafft. Und hohe Frequenzen braucht AMD ja, um mithalten zu können.
Hat AMD auch bei den 45nm-Athlon II gemacht, die kamen nach einiger Zeit alle mit 1,4V an. Ich vermute auch, dass sie das auch bei Llano so gemacht haben um Kosten einzusparen.
YfOrU
2013-06-08, 15:08:01
Das kann auch auf Geld sparen hinweisen. Wenn man schon im voraus weiß, dass man am Margenlimit operiert, muss man eben jeden möglichen Chip verkaufen. Und anstelle eines teuren Binnings (dass pro CPU kostet) haut man dann eben einen Sicherheitsaufschlag auf die Spannung, damit möglichst auch ja jeder Chip die Frequenzen schafft. Und hohe Frequenzen braucht AMD ja, um mithalten zu können.
Ja und das war auch eindeutig der Fall denn sonst hätte es sehr viel mehr (Desktop) VIDs gegeben.
Könnte das nicht gerade auf Schwierigkeiten/Qualitätsschwankungen des damaligen Prozesses hinweisen?
Genau deshalb wird ja selektiert, also um die besseren Chips herauszufiltern. Mir ist aber nie ein wirklich "schlechter" Llano untergekommen und die waren wohl auch sehr selten wenn man die entsprechenden Reviews und Forenbeiträge mitverfolgt hat. AMD hat wenn wir die Relation zu Intels i3 (SB, 32nm) nehmen teilweise mehr als die doppelte Reserve drauf geschlagen. Bei einem Design welches vergleichsweise miserabel skaliert (Takt + Spannung) war das ziemlich bescheuert. Die heutigen Trinity bzw. Richland haben deutlich weniger Reserve.
Untenrum sah es auch nicht viel besser aus. Wie schnell takteten die schnellsten Notebook-APUs auf allen Kernen? Ich meine rund ~1,6 GHz bei den verfügbaren 35W-Modellen.
AMD und der Turbo bzw. die dynamische Verteilung der TDP zwischen CPU Kernen und GPU... leider ein absolutes Trauerspiel. Da wurde so viel und wird teilweise immer noch massiv Performance verschenkt (siehe Kabini).
Aus einem damaligen Notebookcheck Review:
Auch bei zeitgleicher GPU-Last steht der Takt mehrheitlich stabil auf 4x 1.5 GHz. Zum Vergleich: Ohne GPU-Last läuft ein einzelner Cinebench R11.5 mit 4x 1.6 GHz. Das Lastverhalten zeigt sich völlig unproblematisch.
http://www.notebookcheck.com/Test-Acer-Aspire-5560G-Fusion-Notebook.64156.0.html
APU abzüglich GPU TDP bringt unglaubliche 100Mhz pro Kern. Der Turbo war im Vergleich zu Intel vermurkst. Erst recht bei Betrachtung von Last auf ein oder zwei Kernen.
AMD hat damals ein eigentlich gutes und vergleichsweise konkurrenzfähiges Produkt ordentlich gegen die Wand gefahren und wenn Kabini nicht schleunigst eine brauchbare Turbo Implementierung bekommt wird man gegen Saltwell kein Land sehen. Der Turbo (Intel) ist halt nicht nur für Benchmarks toll sondern auch in der Praxis wirklich bemerkbar.
Wenn man bei der Betrachtung längst vergessene mobile CPUs wie den Phenom II X4 N970 (45nm, 2,2Ghz, 35W, kein L3) mit einbezieht würde ich sagen das die integrierte GPU bei Llano ein echtes Problem darstellt denn etwas anderes bleibt als Ursache für die viel zu niedrigen (CPU) Frequenzen kaum übrig und irgendwo muss die TDP schließlich verbraten werden. Wird noch interessant wie sich Kaveri mit bulk statt SOI und GCN statt VLIW verhalten wird.
Knuddelbearli
2013-06-08, 19:17:14
ja verstehe auch nicht was sich AMD beim Turbo denkt ...
Undertaker
2013-06-09, 00:02:22
Genau deshalb wird ja selektiert, also um die besseren Chips herauszufiltern. Mir ist aber nie ein wirklich "schlechter" Llano untergekommen und die waren wohl auch sehr selten wenn man die entsprechenden Reviews und Forenbeiträge mitverfolgt hat. AMD hat wenn wir die Relation zu Intels i3 (SB, 32nm) nehmen teilweise mehr als die doppelte Reserve drauf geschlagen.
Ohne Grund wird das ja kaum geschehen sein, zumal man ohne dutzendweise Auswertung verschiedener Produktions-Chargen kaum selbst eine statistische Aussage treffen kann. Aber ganz abgesehen von allen Schwächen des Llano-Designs: Der Prozess dürfte zwischenzeitlich in jedem Fall deutliche Fortschritte gemacht haben.
YfOrU
2013-06-09, 11:48:43
Ohne Grund wird das ja kaum geschehen sein, zumal man ohne dutzendweise Auswertung verschiedener Produktions-Chargen kaum selbst eine statistische Aussage treffen kann.
Deshalb habe ich auf die vielen Reviews und Foren verwiesen. Exzessives Undervolting war bei Llano praktisch Volkssport denn das ging in einem gewissen Rahmen blind ;)
Aber ganz abgesehen von allen Schwächen des Llano-Designs: Der Prozess dürfte zwischenzeitlich in jedem Fall deutliche Fortschritte gemacht haben.
Ja nur scheint das bei Trinity im Vergleich zu Llano recht wenig zu helfen. Auch hier sind die CPU Frequenzen der mobilen APUs deutlich niedriger als man es bei einer TDP von 35W erwarten würde. Da der Prozess mit Sicherheit etwas besser wurde und eine komplett andere CPU Architektur dahintersteht bleibt eigentlich nur die GPU. Identisch ist die zwar auch nicht (VLIW4 statt VLIW5) aber es gab mal vor langer Zeit Gerüchte das AMD mit dem GPU Part in Kombination mit SOI größere Probleme hat. Der Vergleich zu 28nm bulk und GCN (Kaveri) könnte da sehr interessant werden.
(del676)
2013-06-10, 17:54:42
http://www.youtube.com/watch?v=4et7kDGSRfc
Intel? Pwned. X-D
Vor allem beim ArmA2 Bench verliert der Intel echt schlimm.
boxleitnerb
2013-06-10, 17:59:05
Wir haben längst geklärt, dass der Kerl Käse zusammenbencht. Wer sich mal die Mühe macht, die Ergebnisse Stück für Stück zu analysieren, wird mindestens ein halbes Dutzend Ungereimtheiten finden. Vertraut den Profis, die ihre Benchmarks gescheit dokumentieren und wissen, was sie tun, nicht so einem Hampelmann.
y33H@
2013-06-10, 18:01:48
Das ist der Typ, der beim Gamen streamt - klar gewinnt hier der FX dank seiner 8C. Mit normalem Spielen hat das aber nichts zu tun, denn was der hier macht ist ein Spiel rendern als wäre es ein Video.
boxleitnerb
2013-06-10, 18:04:39
Hat der in jedem Benchmark gestreamt? Irgendwas war da, ja.
Ronny145
2013-06-10, 18:18:02
http://s1.directupload.net/images/130610/qihw9pe7.png
:rolleyes:
y33H@
2013-06-10, 19:45:34
Bloß keine Fakten, die lenken nur ab!
http://s1.directupload.net/images/130610/qihw9pe7.png
:rolleyes:
Wenn ich das sehe wo mein 1100T ist im Vergleich zum FX8350..Wie lange habe ich den schon???:freak:
Wahrscheinlich wäre ein X2 550 immer noch geauso schnell, oder wie?
Wo kommt dieses Diagramm eigentlich her?
y33H@
2013-06-10, 21:16:54
http://www.hardware.fr/articles/897-21/cpu-jeux-3d-crysis-2-arma-ii-oa.html
Knuddelbearli
2013-06-10, 22:35:01
naja es ist aber schon ein korrekter Nutzungszweck, nur sollte man wenn man ihn postet auch wissen was dort gebencht wird ^^
Schaffe89
2013-06-11, 18:53:08
Hm.. ich bin jedenfalls sehr gespannt auf Steamroller @ 28nm.
20% mehr IPC und vielleicht bei den Topmodellen ja 4x5ghz Takt innerhalb von 100 Watt TDP.
vielleicht bei den Topmodellen ja 4x5ghz Takt innerhalb von 100 Watt TDP.
Du meinst mit 4x nen FX-4xxx Nachfolger?
Wird auch mit 28nm eng, höchst unwahrscheinlich. Bei 125W und nur nem Turbo-Mode wie bei den aktuellen 220W-Teilen könnten wir darüber reden ;-)
M4xw0lf
2013-06-24, 11:33:49
SuperPI wird auf Piledriver ~30% schneller durch einen x87-Fix: http://forum.hwbot.org/showthread.php?t=78490
Entdecker The Stilt hat auch schon ein kleines Tool gebastelt um die Änderung vornehmen zu können:
http://imageshack.us/a/img526/3776/k7ez.jpg
(del676)
2013-06-24, 12:06:35
if [ $CPU != "INTEL" ]
then
sleep 100
fi
zum Thema wohin die Leistung geht?
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
eh alles da. ;)
Ronny145
2013-06-24, 16:31:21
Genau, es ist mehr als genügend Leistung vorhanden.
http://s7.directupload.net/images/130624/tmehfice.png
Schaffe89
2013-06-24, 18:11:52
Trotzdem ist es erstaunlich, wie der FX bei starker Last noch stabil bleibt, selbst wenn man FX-6300 gegen den 1100T vergleicht.
Die Werbesprüche von AMD bezüglich Multitasking haben doch ihren Hintergrund.
Soll ich jetzt Cherrypicking betreiben und C-Ray Benchmarks raussuchen? Mit Spielen kannst du sicherlich keine Prozessoren ordentlich auslasten, geschweige denn eine Aussage zur Geschwindigkeit des Prozessors tätigen, wahrscheinlich limitiert bei diesem Benchmark etwas ganz erheblich, wahrscheilich ist der FX da kaum ausgelastet, bei Spielen + X264HD sicherlich schon eher ausgelastet.
Und angeommen man hat mehrere Hintergrundprogramme am Start, dann kannst man was Spieleleistung sicherlich behaupten dass mehr Threads sinnvoller sind, nur testen tuts keiner, aber man hat hier zumindest schonmal einen A haltspunkt.
Undertaker
2013-06-24, 18:18:55
Trotzdem ist es erstaunlich, wie der FX bei starker Last noch stabil bleibt, selbst wenn man FX-6300 gegen den 1100T vergleicht.
...und genau das ist ziemlich merkwürdig. Zumal ohne Messung aller zeitgleich ausgeführten Programme eine Bewertung gar nicht möglich ist. Mit entsprechender Priorisierung kann ich auch auf einem einfachen Dual-Core nahezu beliebig multitasken.
uweskw
2013-06-25, 10:41:17
SuperPI wird auf Piledriver ~30% schneller durch einen x87-Fix: http://forum.hwbot.org/showthread.php?t=78490
Entdecker The Stilt hat auch schon ein kleines Tool gebastelt um die Änderung vornehmen zu können:
http://imageshack.us/a/img526/3776/k7ez.jpg
Wie?
Seit Jahren ist fehlende Leistung in Benchmarks und Spielen ein Hauptproblem von AMD. Und da kommt ein OC-ler und holt mal eben 20-30% in einem gängigen Benchmark? Und das ohne ein Errata zu verletzen?
Was für Superpflaumen müssen da bei AMD sitzen? Gibt es da nicht einen FÄHIGEN!! der Prioritäten setzt? Wundert mich nicht wenn die wirklich Pleite gehen.
Greetz
U.S.
M4xw0lf
2013-06-25, 10:58:55
Dieser x87-Fix hat leider außerhalb von SuperPi nahezu null Relevanz.
uweskw
2013-06-25, 11:26:54
SuperPi ist aber nun mal einer der "wichtigsten" Benchmarks für all die semiprofessionellen Meinungsbilder in den Foren. Das sind diejenigen die fürs Image wichtig sind. Wenn die ein Kollege fragt ist die Antwort kurz: AMD, Heiss lahm und unzuverlässig! Kauf nen Intel!
Greetz
U.S.
Fetza
2013-06-25, 11:40:38
http://s1.directupload.net/images/130610/qihw9pe7.png
:rolleyes:
Genau, es ist mehr als genügend Leistung vorhanden.
http://s7.directupload.net/images/130624/tmehfice.png
Hier hätte ich eine Frage:
Diese beiden folien zeigen imo einen durchaus guten performance gain, der zwischen ivy bridge und haswell liegt. Wenn diese benchmarks also wirklich stimmen, wäre haswell doch bezüglich seines performance gains durchaus respektabel.
(del676)
2013-06-25, 11:48:03
SuperPi ist aber nun mal einer der "wichtigsten" Benchmarks für all die semiprofessionellen Meinungsbilder in den Foren. Das sind diejenigen die fürs Image wichtig sind. Wenn die ein Kollege fragt ist die Antwort kurz: AMD, Heiss lahm und unzuverlässig! Kauf nen Intel!
Jein.
Streiche das Wort "semiprofessionellen" und ersetze es durch "Hobbyadmins".
Echte Admins (sogar semiprofessionelle) wissen um die Staerken der Bulldozer Architektur. Nur weil die Gaming Kinder nicht ueber den Tellerrand sehen koennen, heisst das noch lange nix. :)
Synthetische Benchmarks haben soviel Aussagekraft, wie ein Kaffeesatz. Deshalb verurteile ich 640x480 Game Benchmarks ja auch.
Im Echteinsatz rennt das Game in FullHD, mit AA/AF, daneben Steam/Origin, Skype, Antivirus, ein Browser und Winamp oder was weiss ich noch.
Und gebencht wird 640x480 ohne Allem, und auf einem blanken Windows. :lol:
boxleitnerb
2013-06-25, 11:58:31
Da hat einer immer noch nicht den Sinn dieser Benchmarks verstanden trotz ausführlicher Erklärungen. Oder er trollt.
Undertaker
2013-06-25, 11:59:39
Weil man Sportwagen ja auch am "realen" Stadtverkehr miteinander vergleicht. Ob man damit zukünftig mal auf die Rennstrecke will? Ach, egal. :)
Ronny145
2013-06-25, 12:01:35
Hier hätte ich eine Frage:
Diese beiden folien zeigen imo einen durchaus guten performance gain, der zwischen ivy bridge und haswell liegt. Wenn diese benchmarks also wirklich stimmen, wäre haswell doch bezüglich seines performance gains durchaus respektabel.
In Spielen sieht Haswell generell besser aus. In richtig CPU limitierten Szenen aus Oblivion, Gothic 2, pCARS, Crysis 3 habe ich auch 15% gemessen. Teils auch mehr (Gothic 2).
Fetza
2013-06-25, 12:06:03
In Spielen sieht Haswell generell besser aus. In richtig CPU limitierten Szenen aus Oblivion, Gothic 2, pCARS, Crysis 3 habe ich auch 15% gemessen. Teils auch mehr (Gothic 2).
Ok, dann könnte ein wechsel von meinem phenom II auf haswell ja doch sinn machen, danke. :) Ich habe die Frage jetzt nochmal in den haswell-thread gestellt, da sie hier ja eigentlich ot ist.
(del676)
2013-06-25, 12:10:47
Weil man Sportwagen ja auch am "realen" Stadtverkehr miteinander vergleicht. Ob man damit zukünftig mal auf die Rennstrecke will? Ach, egal. :)
Bloedsinn.
Was ihr alle testet, ist der Normverbrauch von Autos unter Laborbedingungen. Hat mit dem realen Verbrauch aber NICHTS zu tun. Da vertraue ich lieber auf unabhaengige Verbrauchstests unter Normalbedingungen. ;)
y33H@
2013-06-25, 12:13:11
Deshalb verurteile ich 640x480 Game Benchmarks ja auch.Tja, dann hast du es nicht kapiert.
Ronny145
2013-06-25, 12:20:32
640x480 oder beliebige 4:3/5:4 verurteile ich in heutigen Spielen wegen dem CPU schonendem Schmalformat. Leider dauert das, bis das Tester mitbekommen (hardwareluxx, computerbase).
(del676)
2013-06-25, 12:24:55
@yehaa: Sagte der Hobbyadmin. :)
Deshalb bricht die Intel Plattform bei hohen Aufloesungen auch teilweise unter AMD Performance ein. Aber das muss ignoriert werden, weil wir dank Sturheit irgendwas Realitaetsfremdes Benchen, und das MUSS einfach richtig sein. :lol:
boxleitnerb
2013-06-25, 12:31:51
^ aktuell gilt das praktisch nicht mehr. Und dieser Einbruch ist lächerlich gering im Vergleich zu dem möglichen Unterschied zwischen CPUs im CPU-Limit. Daher -> irrelevant.
y33H@
2013-06-25, 12:32:01
Deshalb bricht die Intel Plattform bei hohen Aufloesungen auch teilweise unter AMD Performance ein.So ein Quatsch, das war einzig bei FC2 sowie Anno 1404 bei Nehalem gegen K10.5 der Fall und das wird am Treiber gelegen haben - ließ sich nicht genau klären.
640x480 oder beliebige 4:3/5:4 verurteile ich in heutigen Spielen wegen dem CPU schonendem Schmalformat. Leider dauert das, bis das Tester mitbekommen (hardwareluxx, computerbase).Es geht im ja um die geringe Auflösung, natürlich sollte man heute 16:9 wählen, etwa 720p.
(del676)
2013-06-25, 12:33:30
Erinnert mich an die Sturheit der Reviewer in Anfangszeiten der SSDs.
Uiii neue Firmware, in ALLEN synthetischen Benchmarks schneller. Ja tolle Wurst, und wennst ein Spiel installierst oder was Kopierst, wars langsamer als vorher. Aber Hauptsache die synthetischen Benches sind schnell. Weiter ging der geistige Horizont damals nicht. :lol:
boxleitnerb
2013-06-25, 12:35:01
Ergebnisse in niedrigen Auflösungen sind durchaus übertragbar auf höhere Auflösungen - sofern die GPU stark genug ist für das entsprechende Setting. Das ist also mitnichten per se "synthetisch".
Das wurde dir aber schon ausführlich erklärt.
(del676)
2013-06-25, 12:36:45
Ausser du laeufst in Eigenheiten/Kinderkrankheiten der Plattform, wie schlechte PCIE Performance. :rolleyes:
Es gibt KEINEN Grund 640x480 zu benchen, wenn man FullHD mit AA/AF benchen kann. Man muss nur dafuer sorgen, eine(oder zwei) Grafikkarten zu haben die noch nicht limitieren. Dann wird auch die PCIE Performance mitgebencht, die im ECHTEN Einsatz sehr wichtig ist, bei 640x480 aber kaum zum tragen kommt.
boxleitnerb
2013-06-25, 12:37:32
Wie y33H@ richtig sagt, das war selten und ist heute auch gar nicht mehr relevant. Strohhalm?
y33H@
2013-06-25, 12:38:38
Aber Hauptsache die synthetischen Benches sind schnell.Spiele sind alles andere als synthetisch, es sind schließlich Spiele - auch in einer niedrigen Auflösung. Im Grafiklimit CPUs zu vermessen, verschleiert deren Potenzial, das hilft dem Käufer nicht. Nur im CPU-Limit erkennt er, was welche CPU pro Euro leistet und ob zB 60 Fps konstant möglich sind (Vsync-enabled Gaming). Das negieren nur Leute, denen es nicht passt, dass AMDs CPUs in Spielen langsamer sind oder die Geld ausgeben möchten, ohne korrekte Messwerte zu erhalten ;-)
Man muss nur dafuer sorgen, eine (oder zwei) Grafikkarten zu haben die noch nicht limitieren.Genau daher nimmt man 720p. Du verstehst es ja doch, schön.
Dann wird auch die PCIE Performance mitgebencht, die im ECHTEN Einsatz sehr wichtig ist, bei 640x480 aber kaum zum tragen kommt.Die Auflösung hat nichts mit dem Datentransfer durch den PCI-E zu tun, denn die Geometrie und die Texturen etc ändern sich nicht, wenn man 720p statt 1080p testet. Zudem ist die PCI-E-Geschwindigkeit bei PCI-E 2.0 16x und besser für Spiele ziemlich irrelevant.
(del676)
2013-06-25, 12:40:41
Ich habs dir ja schon 100x erklaert, und wieder laberst du was von "im GPU Limit benchen", obwohl ich das NIE gefordert habe. Hobbyadmin halt. :kotz:
dargo
2013-06-25, 12:41:01
Leute... ignoriert ihn einfach, schont die Nerven. ;) Unfassbar, dass es im 3DC-Forum immer noch Leute gibt die nicht wissen wie man CPU-Leistung in Spielen misst. :facepalm: Und das nach gefühlten 1.000 Erklärungsversuchen. Aber manche scheinen lernresistent zu sein. :ugly:
y33H@
2013-06-25, 12:41:56
Hobbyadmin halt.Ich bin kein Admin, niemals gewesen.
@ dargo
Leider ja, wird man nie allen vermitteln können, da sie nicht wollen.
(del676)
2013-06-25, 12:43:10
Hauptsach Luegen ueber mich verbreiten, und dann auf die wiederholten Richtigstellungen nie eingehen. Toller Charakter.
Willkommen auf der Ignoreliste du Troll.
seaFs
2013-06-25, 12:53:53
Dieser x87-Fix hat leider außerhalb von SuperPi nahezu null Relevanz.
PhysX ohne nVidia-GPU. Ein Fallback auf CPU-PhysX läuft meines Wissens nach auch heute noch auf x87-Basis, obwohl schon seit 2010 bkannt.
PhysX ohne nVidia-GPU. Ein Fallback auf CPU-PhysX läuft meines Wissens nach auch heute noch auf x87-Basis, obwohl schon seit 2010 bkannt.
Ja, aber das heißt nicht, dass es auch vom Patch profitieren würde ...
Ich würde den Patch erstmal SuperPi-Patch nennen und nicht x87-Patch. wir habens schon mal bei nem alten Boinc-Programm mit x87-Code ausprobiert, da bringts 0.
Deswegen sehe ich ein eventuellen PhysiX-Speedup auch erstmal kritisch, bevor keiner das Gegenteil beweist.
Afaik gab es ende letzten Jahres eine physx version die nicht mehr mit hauptsächlich x87 code läuft.
Ob die jeweilige Anwendung dann auch diese relativ neue Version nutzt ist natürlich eine andere Frage.
M4xw0lf
2013-06-25, 13:09:10
PhysX ohne nVidia-GPU. Ein Fallback auf CPU-PhysX läuft meines Wissens nach auch heute noch auf x87-Basis, obwohl schon seit 2010 bkannt.
Richtig nur bringt der Fix da trotzdem nahezu nichts, wurde im PCGH-Forum angetestet.
Bei Mafia 2 Physx auf hoch .
Enabled 10,2
Disabled 10,6
http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/281051-x87-hack-sind-amds-prozessoren-doch-schneller-usernews-von-olstyle-5.html#post5395343
Das sind immerhin +4 Prozent. Wenn das reproduzierbar ist, dann schön – AMD kann jedes Prozent gebrauchen. :ugly:
MfG,
Raff
M4xw0lf
2013-06-25, 13:17:11
Das sind immerhin +4 Prozent. Wenn das reproduzierbar ist, dann schön – AMD kann jedes Prozent gebrauchen. :ugly:
MfG,
Raff
Ja warte, ich hab auch die weisen Worte des PCGH-Mitglieds nicht vollständig wiedergegeben: Bei Mafia 2 Physx auf hoch .
Enabled 10,2
Disabled 10,6
Das ist ein völlig neues Spielerlebnis.
:D
(Schön trockener Humor von "Interceptorvtec" ;) )
Hrhr. Sad but true. ;) Hat er mal Medium PhysX ausprobiert? Dort ist's im spielbaren Bereich ...
MfG,
Raff
dildo4u
2013-06-25, 13:22:45
Mafia 2 ist doch Asbach,Arma 3 sollte man testen,das erste Physx 3.0 Game.
http://physxinfo.com/news/11327/multithreaded-performance-scaling-in-physx-sdk/
Ronny145
2013-06-25, 13:27:44
Das sind immerhin +4 Prozent. Wenn das reproduzierbar ist, dann schön – AMD kann jedes Prozent gebrauchen. :ugly:
MfG,
Raff
Sind das keine fps Werte? Mit Patch langsamer.
Mafia 2 ist doch Asbach,Arma 3 sollte man testen,das erste Physx 3.0 Game.
http://physxinfo.com/news/11327/multithreaded-performance-scaling-in-physx-sdk/
pCARS hat letztes Jahr auf SDK 3.2 umgestellt.
Now with all features converted, direct comparison of PhysX SDK run-time memory footprints is possible. I've tested few different scenarios, and the numbers say that PhysX 3.2 consumes around 66% less memory than PhysX 2.8, on average. For example, on California Raceway track with 54 vehicles, PhysX 2.8 requires 15.7 MB of RAM, while PhysX 3.2 gets along with just 5 MB. As already mentioned in earlier post, this is important mainly for consoles, where available memory is quite limited, and each free megabyte counts.
y33H@
2013-06-25, 13:29:14
Jede halbwegs aktuelle PhysX-Version nutzt kein x87 mehr, da müsste man Uralt-Titel rauskramen ... Cryostasis etwa.
Undertaker
2013-06-25, 13:31:31
Das sind immerhin +4 Prozent. Wenn das reproduzierbar ist, dann schön – AMD kann jedes Prozent gebrauchen. :ugly:
MfG,
Raff
Sind das nicht eher 4% Verlust, wenn die fps bei enabled niedriger ausfallen? Edit: Ronny war schneller.
Aber schon komisch, das SuperPi so stark zulegt.
M4xw0lf
2013-06-25, 13:31:43
Sind das keine fps Werte? Mit Patch langsamer.
Nee, Disabled ist MIT Patch ;)
y33H@
2013-06-25, 13:43:18
Das ist ne Messschwankung bei Mafia.
Bulldozer mit x87-Fix im Test: Kaum mehr als ein SuperPi-Boost? (http://www.pcgameshardware.de/Bulldozer-Codename-238780/Specials/Bulldozer-x87-Fix-Test-1075950/)
Dennoch kurios.
MfG,
Raff
Hm, merwürdig. Hatte es gestern auch mit Fluidmark getestet und bin auf +- 0 Speedup gekommen. Wobei der aktuelle Fluidmark u.U. auch ein aktuelles PhysX einsetzt. (Multicore- und Async-Support wirken echt wunder in dem Benchmark, dessen PhysX-Performance mich ansonsten an Alice erinnert :freak: )
Da wäre dann wirklich mal interessant, *was* genau gefixt wird (resp. was für ein Workaround disabled wird) - vielleicht nur eine einzelne Instruktion, so wie damals die Hardware-Integer-Division, die zunächst deaktiviert war.
Spasstiger
2013-06-27, 10:54:50
Intel ist in SuperPI immer noch doppelt so schnell bei gleichem Takt, insofern liegt bei AMD in diesem Anwendungsfall generell einiges brach.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.