Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-Serie - Bulldozer - Review-Thread
Seiten :
1
2
3
4
5
6
7
8
[
9]
10
y33H@
2014-01-02, 09:57:00
Bliebe die Frage...
Wann hast es zuletzt ausprobiert?
Ich denke die Mehrzahl der Leute kann das gar nicht so gut testen, weil ihnen die entsprechenden Systeme fehlen.Ich habe viele Jahre bei PCGH gearbeitet und dort Boards sowie CPUs getestet, auch heute noch habe ich viel Zeug zum testen da - das mit den Boards und der Bootzeit habe ich erst kürzlich wieder probiert.
Twodee
2014-01-02, 10:23:30
Lokadamus und y33H@
....
Detail am Rande... kann die AMD SB 750 SATA3? Nein?
Zufällig ist SATA2 halb so schnell wie SATA3?
Und nun ist tatsächlich die SSD am halb so schnellen Interface halb so schnell?
D.h. also max. ~50MB/s bei SATA2 an einer SB750 sind also normal, weil "Begründung:" ist halt nur SATA2 !!? ;D
Skysnake
2014-01-02, 11:11:37
Mit anderen Worten:
Ethernet taugt für zeitunkritische Datentransfers ganz gut, zum Beispiel Fileserver/Dateiaustausch, nicht aber zur Verbindung von mehreren Rechnern, die dann zusammen etwas berechnen sollen.
Im Prinzip ja. Die Grenzen sind da aber relativ fliesend.
Es kommt halt wie IMMER! sehr auf das Problem drauf an, das man hat.
Es gibt Probleme, wie z.B. Hash funktionen berechnen fürs Codeknacken oder auch für Bitcoins usw die sind praktisch komplett unabhängig. Genauso Sachen die man per distributed Computing machen kann, einfach weil Sie sehr unabhängig voneinander sind. Montecarlo-Simulationen sind da z.B. ganz gute Indikatoren für derartige Probleme.
Da sind die Latenzen praktisch komplett egal, und man braucht nur nen gewissen Durchsatz, um die Daten zu den Rechnern zu bekommen und die Ergebnisse wieder ein zu sammeln. Das gute daran ist, die sind eigentlich auch immer gleichzeitig sehr! Rechenintensiv. Du rechnest also an paar MB Minuten/Stunden/Tage. Ethernet, selbst die onBoard 100/1000 MBit Controller reichen da locker für aus.
Dazu kommen noch die von dir genannten Dinge wie Fileserver usw. wo es auch wieder nur auf den Durchsatz ankommt, aber nicht auf die Latenzen, und man auch nicht nur sehr kleine Datenpakete versendet. Und wenn man mal doch richtig große Bandbreiten braucht wie z.B. für die Datensicherung oder weil man mit Videoediting usw arbeitet, kann man immer noch 10/40 GBit Ethernet nehmen, um den Durchsatz zu steigern.
Und dann gibts halt noch Probleme wie z.B. Wettersimulationen, Crashtests usw usw. Die man möglichst schnell rechnen will, bzw halt z.B. maximal <12-24h brauchen darf und gleichzeitig sehr oft Daten austauschen. Bei So Gridbasierten Algorithmen (Finite Elemente), werden nach JEDER! Iteration Daten ausgetauscht im normalfall. Und das eben nur ein paar Byte. In der Regel weniger als ein kB, aber halt alle paar tausend Instructionen. Und genau da kommt man dann in die Sch.... Die CPU fängt nämlich an nur noch auf den Datenaustausch zu warten, was natürlich ziemlich doof ist.
Man kann natürlich so Sachen wie überlappende Kommunikation machen, also das man senden und empfangen parallel macht, aber das geht eben auch nur bis zu einen gewissen Punkt. Dann steigt man um auf z.B. Infiniband, was eben deutlich niedrigere Latenzen ermöglicht. Mit >100 GBit ist man auch nicht wirklich schneller als mit den schnellsten Ethernet Verbindungen, aber man behält halt das gute Verhalten bei kleinen Paketen und die niedrigere Latenzen. Und gerade das ist heutzutage oft Ausschlaggebend, da man selbst mit allen Tricks wie überlappender asynchroner Kommunikation nicht immer schafft die CPU am arbeiten zu halten.
Es gibt zwar auch selbst heute noch HPC Cluster mit Ethernet, aber die machen halt auch wieder "nur" spezielle Sachen, wo Latenzen nicht so kritisch sind. Man spart halt wo man kann. So Infiniband Netzwerke sind nämlich NICHT billig!
Wenn ich mich recht erinnere, waren es so 20% an den Gesamtkosten eines HPC Clusters. Leider finde ich die Grafik nicht mehr :frown:
Dafür zwei andere gute Grafiken :up:
http://www.mellanox.com/blog/2009/09/roi-through-efficiency-and-utilization/
http://wikibon.org/wiki/v/Gigabit_Ethernet_is_Not_Taking_Over_the_World_of_Performance_Computing
@Ulukay:
Was macht ihr denn? :biggrin:
Lokadamus
2014-01-02, 11:47:39
Lokadamus und y33H@
Bliebe die Frage...
Wann hast es zuletzt ausprobiert?Was getestet?
Irgendwie fehlen mir hier ein paar Angaben, was eigentlich getestet werden soll und wie es aussehen soll und zum Schluß geht es darum, das Nadelöhr zu finden.
Haarmann
2014-01-02, 13:53:06
y33H@
Die Bootzeit hängt bei mir eher von den Treibern ab, die geladen werden müssen... Das G53 mit Sandy Quad verliert zB gegen die alte 4820TG Kiste mit der Bootzeit.
Da hilft weder SATA3 noch die schnellere SSD.
Twodee
Es geht dort ja um die IOs und sehr kleine Blocks. Weder lasten 50MB/s SATA2 aus, noch 100MB/s SATA3...
Lokadamus
Wer sitzt schon mit ner Uhr neben nem Rechner der sich aufsetzt... tut sich doch keiner mehr an. Bei den wenigen Eingaben, die ein Win7 oder 8 erfordert, macht sich wohl auch keiner mehr gross die Mühe eine automatische Installation selbst zu generieren.
Skysnake
Das letzte Etwas an Performance liess man sich doch schon immer in Gold aufwiegen ;).
y33H@
2014-01-02, 14:02:20
Bei identischer Software und identischer CPU kommt es auf das Board an. Bei identischer Software und identischem Board macht die CPU keinen messbaren Unterschied.
Lokadamus
2014-01-02, 14:28:29
Wer sitzt schon mit ner Uhr neben nem Rechner der sich aufsetzt... tut sich doch keiner mehr an. Bei den wenigen Eingaben, die ein Win7 oder 8 erfordert, macht sich wohl auch keiner mehr gross die Mühe eine automatische Installation selbst zu generieren.Kommt drauf an, wenn man kein System zur automatischen Verteilung hat, muss eben Waik herhalten.
Da sitz ich zwar nicht mit der Uhr daneben, aber eine komplette Installation nach 20 - 25 Minuten finde ich prima.
Das Erstellen des Images dauert zwar die ganz normale Zeit, also ca. 2 Stunden, aber dann ist wenigstens alles gleich bei der Installation dabei. Ich fang doch nicht an auf jedem System einzelnd Office 2010, Firefox, Adobe Reader, Java und so weiter zu installieren, wenn ich alles auch in ein Image prügeln kann. Und das Image lässt sich wenigstens auf jeder Hardware installieren, da es sich wie Win7 bei der Installation verhält.
Das lästige Problem mit dem Updaten bleibt, aber das Image kann man nach einiger Zeit einmal neu erstellen.
Haarmann
2014-01-02, 17:43:41
y33H@
Und die Treiber... kannst einiges abschalten und es wird nicht langsamer.
Bei den H61 Shuttle Barebones brauchen meine Celerons aber doch 1.5 mins mehr fürs Aufsetzen, denn die Pentium Gurken.
Sind aber auch beides nicht gerade HiEnd CPUs ;).
Lokadamus
25 mins finde ich jetzt lang. Letzte Messung auf nem H61 Barebone mit nem Pentium drin und ner 5400rpm HDD dauerte 12 mins.
VMs sind da leider ned schneller...
StefanV
2014-01-02, 17:45:52
D.h. also max. ~50MB/s bei SATA2 an einer SB750 sind also normal, weil "Begründung:" ist halt nur SATA2 !!? ;D
Ist die Frage, wie die SSD die Daten überträgt...
Was der Controller macht und so weiter.
Wenn die SSD z.B. kurze Burst rausshaut, kanns schon sein, dass das S-ATA 3 Teil 'nen bisserl flotter zu Werke geht als S-ATA II. Das ist halt ein Punkt von vielen.
Dazu kommt, dass bei dem Intel System ein Treiber installiert war, bei AMD aber nicht.
Kurzum: Der ganze Test ist von vornherein darauf ausgelegt, Intel als Sieger dasstehen zu lassen. Die SB750 ist schon steinalt. Die dürfte etwa 4-5 Jahre alt sein.
Buttom Line: Das ganze mit einem AMD 790 Board mit SB750 zu testen, was seit mehreren Jahren keine BIOS Updates mehr erhält, ist schon ziemlich frech.
Aktuell ist die AMD SB850, die noch bei AM3(+) Boards zum Einsatz kommt. Allerdings dürfte die Verbreitung relativ gering sein.
Verbreiteter dürften da eher die A55-A88X Chips auf den FM Plattformen sein.
Und jetzt kommt die alles entscheidende Frage:
WARUM hat man mit solch einem alten AMD Board getestet und NICHT mit einer modernen AMD Plattform?!
Wenn man fies wär, würd man unterstellen, dass dann das AMD System viel zu gut dastehen würde...
THG hat ja auch früher schon den einen oder anderen Stunt gemacht/versucht, um Intel gut dastehen zu lassen. Der eine oder andere ist damals aber furchtbar in die Hose gegangen (Stabilitätstest bei AMD vs. Pentium D. Das Intel Board ist dabei abgeraucht).
Lokadamus
2014-01-02, 17:46:20
Und dann war alles drauf? Win7 + Updates, Office 2010 usw.?
Das Image hab ich mit einem USB 2.0 Stick installiert, da geht es nicht schneller.
Butterfly
2014-01-02, 19:17:49
Und jetzt kommt die alles entscheidende Frage:
WARUM hat man mit solch einem alten AMD Board getestet und NICHT mit einer modernen AMD Plattform?!
Wenn man fies wär, würd man unterstellen, dass dann das AMD System viel zu gut dastehen würde...
THG hat ja auch früher schon den einen oder anderen Stunt gemacht/versucht, um Intel gut dastehen zu lassen. Der eine oder andere ist damals aber furchtbar in die Hose gegangen (Stabilitätstest bei AMD vs. Pentium D. Das Intel Board ist dabei abgeraucht).
Vermutlich weil eh alles der gleiche Mist ist, vor allem das was man misst. ;D
Wenn man es sehr streng technisch sieht, kann man sich auch fragen ob man mit einer 1,6 in Physik nicht doch etwas verpasst hat. :freak:
Allein schon die technischen Daten sprechen für AMD, wenn die Software ein Update in den Wurzeln erhält. :smile:
klutob
2014-01-02, 19:56:58
Ist die Frage, wie die SSD die Daten überträgt...
Was der Controller macht und so weiter.
Wenn die SSD z.B. kurze Burst rausshaut, kanns schon sein, dass das S-ATA 3 Teil 'nen bisserl flotter zu Werke geht als S-ATA II. Das ist halt ein Punkt von vielen.
Dazu kommt, dass bei dem Intel System ein Treiber installiert war, bei AMD aber nicht.
Kurzum: Der ganze Test ist von vornherein darauf ausgelegt, Intel als Sieger dasstehen zu lassen. Die SB750 ist schon steinalt. Die dürfte etwa 4-5 Jahre alt sein.
Buttom Line: Das ganze mit einem AMD 790 Board mit SB750 zu testen, was seit mehreren Jahren keine BIOS Updates mehr erhält, ist schon ziemlich frech.
Aktuell ist die AMD SB850, die noch bei AM3(+) Boards zum Einsatz kommt. Allerdings dürfte die Verbreitung relativ gering sein.
Verbreiteter dürften da eher die A55-A88X Chips auf den FM Plattformen sein.
Und jetzt kommt die alles entscheidende Frage:
WARUM hat man mit solch einem alten AMD Board getestet und NICHT mit einer modernen AMD Plattform?!
Wenn man fies wär, würd man unterstellen, dass dann das AMD System viel zu gut dastehen würde...
THG hat ja auch früher schon den einen oder anderen Stunt gemacht/versucht, um Intel gut dastehen zu lassen. Der eine oder andere ist damals aber furchtbar in die Hose gegangen (Stabilitätstest bei AMD vs. Pentium D. Das Intel Board ist dabei abgeraucht).
Man könnte ja auch einen 4-5 Jahre alten Intel Chipsatz daneben stellen und immer noch das gleiche Ergebnis beobachten.
AMD hat einfach Probleme seit Urzeiten mit der I/O Leistung ihrer Southbridge, erst das USB Disaster (600er Serie) weiterhin schlechte SATA Peformance usw.
Igzorn
2014-01-02, 20:32:31
AMD hat einfach Probleme seit Urzeiten mit der I/O Leistung ihrer Southbridge, erst das USB Disaster (600er Serie) weiterhin schlechte SATA Peformance usw.
Kann ich nicht bestätigen. Sowohl die SATA 3 Ports als auch die USB 3 leistung in einem A85 sind vorbildlich gelöst. Auch die Netzwerkleistung über einen angebundenen Reltek Chip kann man nicht meckern.
Denke das sind Erinnerungen die vielleicht von alten Produkten auf neue übertragen werden.
Sollte auch durch aktuelle Mainbordtest von den bekannten webseiten bestätigt werden.
Hier ein beispiel bevor wieder nach Quellen geschriehen wird:
http://www.hardwareluxx.de/index.php/artikel/hardware/mainboards/25629-test-asrock-fm2a85x-extreme6-overclocking-wird-hier-grossgeschrieben.html?start=5
http://www.tweaktown.com/reviews/5160/asrock_fm2a85x_extreme6_amd_a85x_motherboard_review/index8.html
StefanV
2014-01-02, 20:33:00
Woher weißt du, dass es bei aktuellen Chips für FM2 und 2+ genau so ist, wie mit den alten?
Haarmann
2014-01-03, 04:31:04
Und dann war alles drauf? Win7 + Updates, Office 2010 usw.?
Das Image hab ich mit einem USB 2.0 Stick installiert, da geht es nicht schneller.
PQI USB3 Stick am USB2 Port... - bin zu faul hier die Treibergirlande einzubinden für USB3. Ohne Office, aber mit etwas Beigemüse. Sozusagen ne Basis mit etwas 7-zip, Acrobat und dem Krempel. Windows mit Freeware quasi.
Skysnake
Ich vermute AMD wird versuchen ebenfalls auf die Lizenzproblematik zu reagieren. Agieren geht halt meisst nur für Intel.
klutob
Intels abrauchende SATA Ports sind ja kein Desaster...
AMDs SATA ist eingekauft ... man hat gelernt.
Flusher
2014-01-23, 23:10:08
Kann ich nicht bestätigen. Sowohl die SATA 3 Ports als auch die USB 3 leistung in einem A85 sind vorbildlich gelöst. Auch die Netzwerkleistung über einen angebundenen Reltek Chip kann man nicht meckern.
Denke das sind Erinnerungen die vielleicht von alten Produkten auf neue übertragen werden.
Sollte auch durch aktuelle Mainbordtest von den bekannten webseiten bestätigt werden.
Hier ein beispiel bevor wieder nach Quellen geschriehen wird:
http://www.hardwareluxx.de/index.php/artikel/hardware/mainboards/25629-test-asrock-fm2a85x-extreme6-overclocking-wird-hier-grossgeschrieben.html?start=5
http://www.tweaktown.com/reviews/5160/asrock_fm2a85x_extreme6_amd_a85x_motherboard_review/index8.html
Hm ich habe allerdings auch in diversen Foren über schlechte SATA3 Performance der SB950 Soutbridge gelesen, weil ich selbst auch etwas über die etwas schlechteren Ergebnisse meiner SSD war. Offenbar varriert die Performance aber massiv durch die Treiber. Angeblich bekommt AMD seit Jahren die AHCI-Treiber nicht in den Griff.
StefanV
2014-01-24, 01:47:14
SB950 = AM3+ Chipsatz...
Der hängt an der NB, die aber erst an der CPU. Der Weg ist CPU -> HT -> PCIe -> SB -> SSD.
Der A85 ist 'ne ganz andere Baustelle, hier kannst/darfst du nicht von dem einen auf das andere schließen. Und die A88x hat wohl auch 'nen anderen S-ATA Teil...
Und bei den FM2+ Teilen gibts auch 'nen neuen RAID Treiber, von Dot Hill statt Promise.
Guggsu hier (http://www.planet3dnow.de/cms/5096-fm2-offiziell-nur-mit-neuen-chipsaetzen-moeglich/)...
Du schließt ja auch nicht von der Performance eines ICH10 auf das, was aktuelle Z87 Chipsätze leisten, oder?!
Der HeinZ
2014-04-12, 12:34:08
Also ich gebe jetzt mal offen zu das sich die SATA-Leistung auf meinem Board nach dem Wechsel von X6 auf Vishera erheblich gedrosselt hat. Ich hab mal alle stromsparfunktionen ausgeschaltet bei beiden Prozessoren, und in sämtlichen benchmarks schneidet der Vishera ungefähr 10 % langsamer im Burst oder linearen übertragung ab, auch (bitte beachten) wenn ich den Bulli mit weit mehr takt (5,0 Ghz) laufen lasse. Das hat mich schon sehr überrascht, ist aber nicht fühlbar, leider jedoch messbar.
Das ist mein Board: http://www.asus.com/Motherboards/SABERTOOTH_990FXGEN3_R20/
Skysnake
2014-04-12, 12:38:11
Nur das SATA-Leistung halt mal so ziemlich nichts mehr heutzutage mit der CPU-Leistung zu tun hat :ugly:
Da ist halt das I/O nicht so knalle, und je nachdem wie die SATA Ports angeschlossen sind, behindert der tolle PLX Chip halt auch noch den Transfer.
Ich wäre da sehr vorsichtig bzgl Aussagen. Wenn teste mal auf dem gleichen Board die unterschiedlichen CPUs.
(del676)
2014-05-30, 12:10:39
Wer Wolfenstein in 640x480 spielen will, muss sich wohl nen Intel zulegen. Wer dagegen auf Very High Quality setzen will, sollte einen AMD nehmen:
http://666kb.com/i/coshzypmu1iysc1hs.jpg
http://gamegpu.ru/action-/-fps-/-tps/wolfenstein-the-new-order-test-gpu.html
:)
y33H@
2014-05-30, 12:34:12
Alles im Fps-Lock und dann so eine BS-Aussage :usad:
foenfrisur
2014-05-30, 13:00:20
übertaktet man die k-cpus, stehen diese wieder vorne.
außerdem scheint es mal wieder bei 60FPS begrenzt zu sein, also wenig aussagekräftig.
und auch sonst braucht man wohl wenig cpu-power.
dennoch würde ich es amd gönnen, wenn das wirklich so stimmt :)
mfg
N0Thing
2014-05-30, 13:20:57
Immerhin schlägt sich der FX-8350 bei den Min. fps ganz gut. Sieht man auch nicht in jedem Spiel.
Alles im Fps-Lock und dann so eine BS-Aussage :usad:
Es geht doch um die Min-Fps. Das Streaming saugt kräftig an allen Kernen.
MfG,
Raff
Schnoesel
2014-05-30, 15:23:45
Auch WD läuft ganz gut mit nem Vishera, besser als mit manchem I5 was man so hört. Wenn das so weitergeht halte ich noch durch bis AMD die nächsten High End CPUs vorstellt.
Knuddelbearli
2014-05-30, 15:27:15
Berichtig mich wenn ich falsch liege! Aber ist es nicht schon lange so das im GPU Limit / vSynch AMD meist paar Prozent besser ist als Intel? Also nur knapp außerhalb der Messschwankungen aber eben so ebständig das es keine Messschwankungen sein können.
Meist bringt es halt nicht viel da Leute die auf so geringe Unterschiede Achten meist über 60FPS wollen bzw eh OCen und AMD dann doch wieder den Anschluss verliert
Twodee
2014-05-30, 20:14:31
Es geht doch um die Min-Fps. Das Streaming saugt kräftig an allen Kernen.
MfG,
Raff
Hmm laut den Diagrammen ist ein Sandy I7 mit aktivierten HTT nur zu 36% bzw. ohne HTT nur zu 46% ausgelastet, ein FX8 hingegen zu 48%. Da sollte der Sandy I7 mehr Reserven haben als der FX8....
dildo4u
2014-05-30, 20:31:24
Immerhin schlägt sich der FX-8350 bei den Min. fps ganz gut. Sieht man auch nicht in jedem Spiel.
Das Game ist ein Witz was die CPU Anforderung angeht es läuft mit 60fps auf PS3 und 360.Eine PS3 Slim nimmt 40Watt weniger als der 8530 alleine.
N0Thing
2014-05-30, 21:16:56
Naja, oft liegt ein 2500K vor dem FX-8350 und wie sich die Konsolenversionen verhalten steht sowieso nochmal auf einem anderen Blatt. Da irgendwelche Quervergleiche zu ziehen, halte ich für sehr gewagt.
Tressa
2014-05-30, 21:48:37
Finde den markierten Teil interessant:
http://i.imgur.com/zg7WdGo.jpg
Der Haswell i5 wird trotz höheren Turbotakts (3,6 vs 3,5 bei Last auf vier Kernen) sowie allen Vorteile der neueren Architektur durch den "alten" i7 Sandy mit Hyperthreading geschlagen.
Das erste Mainstreamspiel das wirklich mehr als 4 Kerne ausnützt? Scheint auch der Grund zu sein warum die Visheras hier besser als die Intelprodukte abschneiden.
y33H@
2014-07-01, 14:39:29
Mittlerweile hat AMD den FX-9590 mit WaKü online: http://www.amd.com/de-de/products/processors/desktop/fx#
Bisher war der WOF, also "without fan".
Dural
2014-07-02, 12:09:55
Habe diese Woche den 1100T (siehe Signatur) gegen einen 8350 ausgetauscht.
Und muss sagen das ich positiv überrascht bis, die CPU ist deutlich schneller zb. in WD habe ich gefühlt (nicht gemessen) locker 10FPS+ mehr :eek:
Das einzige Negativ ist der Verbrauch. Der ist einfach wirklich krass und kann sogar mein 700Watt Coolermaster NT Vollauslasten so das es sich sogar selber Ausschaltet (Prime95/5GHz/1,58V) und ich bin mir sicher das die WaKü wenn es durch laufen würde die Abwärme trotz dual 120mm Radiator nicht vernünftig kühlen könnte.
Lasse ihn jetzt mit 5GHz @ 1,55Volt laufen, leider nicht 100% stabil aber zum Zocken reicht es.
Habe diese Woche den 1100T (siehe Signatur) gegen einen 8350 ausgetauscht.
Und muss sagen das ich positiv überrascht bis, die CPU ist deutlich schneller zb. in WD habe ich gefühlt (nicht gemessen) locker 10FPS+ mehr :eek:
Yep, kann ich bestätigen. Hier gibt's Vergleichswerte FX vs. X6 @ gleichem Takt: http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/#a4
Beinahe jedes neue Spiel fluppt auf einem Vishera besser als auf einem Thuban, sogar bei gleichem Takt. Das sah früher ganz anders aus.
MfG,
Raff
M4xw0lf
2014-07-02, 13:29:59
Yep, kann ich bestätigen. Hier gibt's Vergleichswerte FX vs. X6 @ gleichem Takt: http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/#a4
Beinahe jedes neue Spiel fluppt auf einem Vishera besser als auf einem Thuban, sogar bei gleichem Takt. Das sah früher ganz anders aus.
MfG,
Raff
Hatte ich mir noch gar nicht genau angesehen. Mit NB-OC ist der Vishera ja tatsächlich so schnell wie die i7 @ Stock - ca halbe Energieeffizienz dabei, aber hey, wenigstens die Leistung ist nicht so verkehrt. :D
Thunder99
2014-07-02, 17:26:54
Habe diese Woche den 1100T (siehe Signatur) gegen einen 8350 ausgetauscht.
Und muss sagen das ich positiv überrascht bis, die CPU ist deutlich schneller zb. in WD habe ich gefühlt (nicht gemessen) locker 10FPS+ mehr :eek:
Das einzige Negativ ist der Verbrauch. Der ist einfach wirklich krass und kann sogar mein 700Watt Coolermaster NT Vollauslasten so das es sich sogar selber Ausschaltet (Prime95/5GHz/1,58V) und ich bin mir sicher das die WaKü wenn es durch laufen würde die Abwärme trotz dual 120mm Radiator nicht vernünftig kühlen könnte.
Lasse ihn jetzt mit 5GHz @ 1,55Volt laufen, leider nicht 100% stabil aber zum Zocken reicht es.
Nice, aber wie hoch ist deine NB? ;) :D
occ-kh@Mirko
2014-07-02, 17:51:14
so schnell wie die i7 @ Stock - ca halbe Energieeffizienz dabei, aber hey, wenigstens die Leistung ist nicht so verkehrt. :D
Leider der Nachteil von wirklichen Multicoreprozessoren...mit @Thunders 5Ghz dürfte der Effekt noch zunehmen. Die 32nm Fertigung hilft da noch mit. Schlimm ist eher, dass die Module zuweilen vor sich hindümpeln und eigentlich nur Energie verschwenden.
Das einzige Negativ ist der Verbrauch. Der ist einfach wirklich krass und kann sogar mein 700Watt Coolermaster NT Vollauslasten so das es sich sogar selber Ausschaltet (Prime95/5GHz/1,58V) und ich bin mir sicher das die WaKü wenn es durch laufen würde die Abwärme trotz dual 120mm Radiator nicht vernünftig kühlen könnte.
Seltsam...Benutze diesen mit 4 HDs und einem Enermax 500 W Netzteil inklusive ATI 280x Ding. Da schaltet nix ab. Den Lüfter lasse ich langsam laufen (auch von Enermax). Mhm... Allerdings übertakte ich nie. Zumindest nicht in den letzten 25 Jahren :D
Seltsam...Benutze diesen mit 4 HDs und einem Enermax 500 W Netzteil inklusive ATI 280x Ding. Da schaltet nix ab. Den Lüfter lasse ich langsam laufen (auch von Enermax). Mhm... Allerdings übertakte ich nie. Zumindest nicht in den letzten 25 Jahren :D
Er hat ja auch die VCore sehr stark erhöht. Die CPU alleine wird so vermutlich locker 250W schlucken. Wenn nicht noch mehr.
Er hat ja auch die VCore sehr stark erhöht. Die CPU alleine wird so vermutlich locker 250W schlucken. Wenn nicht noch mehr.
Ja, das ist so. Wenn sie voll beansprucht wird, geht sicher die Post ab. Sicher noch höher. Nutze das http://www.heise.de/preisvergleich/enermax-modu82-525w-atx-2-3-emd525awt-a312971.html und wundere mich auch über die extreme Stabilität des PCs. :eek: Aber ist okay so.
dildo4u
2014-11-12, 21:37:57
Leider wird's auch nicht besser jetzt wo Games mit 8 Cores skalieren.
i3 besser als 8350
http://i.imgur.com/SIFxckH.jpg
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
Leider wird's auch nicht besser jetzt wo Games mit 8 Cores skalieren.
i3 besser als 8350
http://i.imgur.com/SIFxckH.jpg
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
Weniger als 50% Mehrleistung bei doppelter Kernzahl würde ich jetzt nicht unbedingt skalieren nennen :D
dildo4u
2014-11-12, 21:48:57
Ich find's erstaunlich wie viel schneller der Intel 8 Core ist mit nur 3ghz.
Wenn ich den 4770 auf 3GHz runterrechne, lande ich bei 67 min. Damit ist der 5960 46% schneller. Bei mehr als 70% können wir nochmal über "erstaunlich" verhandeln :)
Dural
2014-11-13, 09:15:01
naja GTX980 SLI mit PCI-E 2.0.
ich finde es aber immer wieder bemerkenswert wie gut der 2600 noch mithalten kann. in anbetracht das die meisten mit 5GHz laufen ist ein CPU update auf einen neueren quad core so
ziemlich sinnlos. zudem ja auch diese CPU nur PCI-E 2.0 hat :eek: ich werde mein office system mit 2600K @ 5GHz nie her geben ;)
N0Thing
2014-11-13, 14:19:34
ich finde es aber immer wieder bemerkenswert wie gut der 2600 noch mithalten kann. in anbetracht das die meisten mit 5GHz laufen ist ein CPU update auf einen neueren quad core so
ziemlich sinnlos.
Mit welcher Kühlung? Stickstoff? :D
Der Durchschnitt liegt bei ca. 4,5GHz, da können die meisten keine 5GHz schaffen. http://www.3dcenter.org/news/aktualisiert-ueberblick-der-overclocking-ergebnisse-zum-pentium-g3258
Dural
2014-11-13, 14:27:31
was?
mein 2600K läuft mir normaler LuKü 5GHz Prime stabil und das ist kein aussergewöhnlicher takt, das haben so einige mitgemacht. (nicht alle)
BlackBirdSR
2014-11-13, 15:18:04
was?
mein 2600K läuft mir normaler LuKü 5GHz Prime stabil und das ist kein aussergewöhnlicher takt, das haben so einige mitgemacht. (nicht alle)
Meiner macht nur knapp 4ghz... Also von 4.5 average weit weg...
Welche Spannung?
5 GHz ist natürlich weit entfernt von einem normalen Wert, egal mit welcher CPU – das ist immer mit Aufwand und Glück verbunden.
MfG,
Raff
dildo4u
2014-11-13, 16:46:16
Ubi oder NV muss irgendwie schon Top Arbeit geleistet haben wenn man sieht wie gut die FPS selbst mit einem FX6300 sind,bin gespannt wie groß der Sprung zu DX12 überhaupt sein wird wenn NV weiter so gut optimiert.
Unicous
2015-01-13, 20:15:16
Hier sieht man mal wieder wie beschissen der 32nm Prozess doch war/ist.
http://images.anandtech.com/graphs/graph8864/67026.png
http://anandtech.com/show/8864/amd-fx-8320e-cpu-review-the-other-95w-vishera
Durch offensichtlich extensives binning schafft man es bei der Leistungsaufnahme zumindest auf i7 Haswell-Niveau. Erhöht man Takt und Spannung haut die Leakage jedoch wieder voll rein.:freak:
Ändert natürlich auch nichts an der weiterhin bescheidenen Leistung, interessant ist aber, dass auch der Turbo aggressiver ist und man so oftmals an den 8150 und 8370E herankommt, bei anscheinend deutlich geringerer Leistungsaufnahme.
Liszca
2015-01-16, 23:58:04
Hier sieht man mal wieder wie beschissen der 32nm Prozess doch war/ist.
http://images.anandtech.com/graphs/graph8864/67026.png
http://anandtech.com/show/8864/amd-fx-8320e-cpu-review-the-other-95w-vishera
aehm schon hast du das mal wieder gemacht, natuerlich ist daran nichts falsch.
Aber es fehlt etwas: Intel hat die selben probleme mit avx wie amd nur eben auf einem anderen niveau. Prinzipiell ist avx unwichtig und wird es dank arm auch bleiben aber wer weiß dem markführer darf man ja nichts böses nachsagen youefi *duckundweg*.
Mit was für ein Programm haben die denn getestet? Kann doch nicht so schwer sein mit anzugeben.
Butterfly
2015-01-17, 00:29:53
Mit was für ein Programm haben die denn getestet? Kann doch nicht so schwer sein mit anzugeben.
Bestimmt mit (b)lin(d)X, Boinc meint 95W idle to AVX mit 8x 4.1GHz (HPC Mode)
Naja könnte mehr sein: http://abload.de/img/ddr3-2400multi-ecc_aiepj7o.png
Ist ja nur Multi-Bit ECC...
Unicous
2015-01-17, 02:16:12
@Liszca
So richtig verstehen tue ich deinen Kommentar nicht. Die Testmethodik und das Angeben des Deltas halte ich persönlich für Banane, es ist ja auch nur ein einziges Szenario um Vollast zu erzeugen, dennoch kann man erahnen, dass, wie bereits gesagt die Leakage ab einer bestimmten Spannung bei 32nm SOI voll "zur Geltung" kommt und die ohnehin schon hohe LA noch weiter in die Höhe treibt.
Einen ordentlichen Prozessor zu bekommen der entweder gut taktet oder eine geringe Leakage hat ist bei diesem Prozess unmöglich. Die Bulldozer Architektur wurde für Taktraten über 4 GHz konzipiert, hat das anfangs noch nicht einmal geschafft und jetzt nach fast 4 Jahren ist das immer noch in weiter Ferne.
Da kann man AMD nur wünschen, dass sie daraus gelernt haben und Prozess und Architektur zueinander führen können. Noch so einen Debakel überlebt die High Performance-Sparte nämlich nicht.
Undertaker
2015-01-18, 16:25:38
Durch offensichtlich extensives binning schafft man es bei der Leistungsaufnahme zumindest auf i7 Haswell-Niveau.
Bevor man hier Vergleiche fährt, wie war denn gleich der theoretische AVX -Durchsatz pro Takt und Kern bei Bulldozer und Haswell? Die Leistungsaufnahme wird ja erst im Zusammenhang mit der gebotenen Performance interessant.
Unicous
2015-01-18, 16:31:45
Warum muss man sich eigentlich ständig von den gleichen Moderatoren trollen lassen, die einzelne Sätze zitieren und aus dem Zusammenhang reißen?
[...]Ändert natürlich auch nichts an der weiterhin bescheidenen Leistung,[...]
Undertaker
2015-01-18, 17:30:49
Mit dem Begriff "Trolling" solltest du etwas vorsichtig sein, wenn du eine sachliche Nachfrage bekommst. Ich wiederhole darum:
Wie hoch ist denn der jeweilige Durchsatz bei AVX-Code? Afair gab es hier größere Leistungsdifferenzen als bei sonstigem Code. Wenn du dort mit einem "weiterhin bescheiden" ganz normale Performanceverhältnisse suggerierst und den vergleichsweise geringen Verbrauch allein mit "extensives binning" begründest, ist das nur die halbe Wahrheit.
Edit: Was hier ebenfalls komplett fehlt, ist eine Aussage über die jeweils anliegende Taktrate (sowohl bei den AMD- als auch Intel-Modellen). Gerade bei AVX-Benches ein überaus wichtiger Punkt. Leider lässt Anandtech nach den jüngsten Personal-Rochaden doch spürbar nach... :(
Unicous
2015-01-18, 18:54:23
Nö. Ich habe lediglich die Last in einem bestimmten Szenario zum Anlass genommen mich über den Fertigungsprozess auszulassen. Ich hab in einem weiteren Satz das in Relation gebracht mit der dessen ungeachtet bescheidenen Leistung, wollte aber keine Abhandlung Performance/Watt anzetteln.
Bevor man hier Vergleiche fährt, wie war denn gleich [..]
Wer so tdrollig anfängt hat keine "sachliche Nachfrage" im Sinn. Das weißt du doch selbst.:wink:
Sieh dir den Vergleich mit dem 8730E an, der auch eine TDP von 95 Watt hat und 7,5% höheren Turbo (3,3% höherer Basistakt) und dafür fast 50% bzw. 41 Watt im Leistungsdelta aufnimmt.
Ein Vergleich betrachtet zwei Dinge im Verhältnis zueinander. Es können, müssen aber nicht, mehrere sein.
Ich kann also auch die Leistungsaufnahme losgelöst von der geleisteten Arbeit vergleichen. Ich muss nicht zwangsläufig eine P/W Relation anstrengen.
Undertaker
2015-01-18, 19:10:02
Nö. Ich habe lediglich die Last in einem bestimmten Szenario zum Anlass genommen mich über den Fertigungsprozess auszulassen.
Du weißt doch ganz genau was du impliziert hast, warum wohl der Vergleich mit Haswell? ;)
Ich kann also auch die Leistungsaufnahme losgelöst von der geleisteten Arbeit vergleichen.
Du kannst auch gerne Schuhgrößen vergleichen, denn wirklichen Sinn hat eine Betrachtung der Leistungsaufnahme ohne Relation zur Performance allenfalls für Kühler- oder Netzteil-Dimensionierungen. Und ich kann auf Besonderheiten wie die speziellen Umstände bei AVX-Messungen hinweisen. Wenn dir das missfällt steht es dir frei, darauf nicht weiter einzugehen. :)
Zusammenfassend können wir uns vielleicht darauf einigen, bei speziell dieser Messung eher bei Architektur-internen Vergleichen zu bleiben. Wobei es immer noch sehr unklar bleibt, welche Taktraten hier jeweils anlagen (und erst bei Kenntnis derer bzw. der konkreten Performance lässt sich ein Verbrauchswert einordnen).
Unicous
2015-01-18, 19:18:11
Ganz einfach. Weil der 8320E auf i7 Haswell-Niveau landet. Bei der Leistungsaufnahme in einem bestimmten Szenario. Der 8730E mit nur geringfügig höheren Taktraten jedoch ist deutlich entfernt.
Mir ging es nur um den Prozess. Die Bulldozer-Derivate sind den den Core-i Leistung und Effizienz mehr als deutlich unterlegen. Letzteres liegt aber nicht unbedingt an der Architektur.
Du kannst auch gerne Schuhgrößen vergleichen, denn wirklichen Sinn hat eine Betrachtung der Leistungsaufnahme ohne Relation zur Performance allenfalls für Kühler- oder Netzteil-Dimensionierungen.
Du trollst dennoch weiter.
Ich kann und ich werde zwei Dinge vergleichen ohne sie in Relation mit einer anderen Messgröße zu bringen.
Denn Bulldozer hatte ja nicht nur das Problem der nicht nur im Vergleich zu Intel sondern auch zur Vorgänger-Architektur stagnierenden Leistungssteigerungen.
Nein auch die Leistungsaufnahme war der zweitgrößte Kritikpunkt.
Beide Dinge kann man getrennt voneinander betrachten. Und am Ende gerne auch in Relation setzen. Ich habe es nicht gemacht. Warum zwingst du mir also diese Debatte auf?
Wenn dir das missfällt steht es dir frei, darauf nicht weiter einzugehen. Genauso steht das dir auch frei. Ich bin da sehr großzügig.
Undertaker
2015-01-18, 19:44:04
Der 8730E mit nur geringfügig höheren Taktraten jedoch ist deutlich entfernt.
Ich hatte ja schon erwähnt, dass die anliegenden Taktraten nicht dabeistehen. Bekanntermaßen ist Throttling unter AVX-Last generell kein seltenes Phänomen.
Du trollst dennoch weiter.
Ich argumentiere, trolling bezeichnet man eher das was du gerade treibst. :) Versuch dich doch einmal an einer sachlichen Argumentation.
Ich kann und ich werde zwei Dinge vergleichen ohne sie in Relation mit einer anderen Messgröße zu bringen.
[...]
Warum zwingst du mir also diese Debatte auf?
Und ich werde derlei uneindeutige Aussagen auch weiterhin um wichtige Bemerkungen ergänzen. Ich zwinge dir keinerlei Debatten auf; die einzige Frage die ich eingangs als weiteren Diskussionsansatz gestellt habe, bezog sich auf das Thema AVX -Durchsatz. :)
Unicous
2015-01-18, 21:28:23
Wenn ich Äpfel vergleiche, du aber Birnenkompott genauso magst, heißt das doch nicht, dass du mir das automatisch auftischen musst. Ich rede über das eine, du reißt die Tür auf und rufst: AAAAABER, du hast völlig vergessen meine Argumente einzubeziehen.
A plus point worth noting is that the turbo mode seemed a lot more aggressive than our FX-8150 and FX-8370E numbers. This allowed for higher frequencies in some of our variable threaded benchmarks, and gave some better results which is rather odd. However, it was only for a few select benchmarks in the end, with the pure single threaded ones and the fully multithreaded results still grasping at the FX-8150 numbers. The plus side in all this is that our FX-8150 power consumption measured significantly higher than the TDP (156W vs 125W TDP) and the FX-8320E gave a lower result (86W vs 95W TDP), essentially handing any performance/watt trophy to the FX-8320E.
Der Turbo bei der Bulldozer-Familie ist leider nicht besonders intelligent und ich vermute, dass er vor allem auf die anliegende Spannung guckt.
AAAABER: das ist vollkommen Banane, oder auch Birne. Mir ging es um den zugrunde liegenden Prozess und seine nicht unerheblichen Auswirkungen auf eine ohnehin schon enttäuschende CPU-Architektur.
Ein Fazit könnte auch sein: Die Architektur kann noch so mittelmäßig sein, wenn es der Prozess auch ist, ist gar nichts mehr zu retten.:wink:
Ein Sprung auf 28nm Bulk wäre eine weitere Katastrophe gewesen, die Taktraten wären ins Bodenlose fallen (4 Module, L3-Cache,...), denn auch hier kann die Leakage ab einem bestimmten Spannungsthreshold nur ungenügend aufgefangen werden und lustigerweise macht der Prozess nach oben auch noch die Schotten dicht, da kann man soviel Spannung drauflegen wie man möchte.
Undertaker
2015-01-18, 21:52:21
Um das endlich mal abzuschließen: Ich habe schlicht einen wichtigen Hinweis bzw. eine Ergänzung zu dem verlinkten Diagramm bzw. den daraus geschlossenen Schlüssen gebracht. Wenn dich mein Schwenk von isolierter Leistungsaufnahme zur imo interessanteren Effizienzfrage nicht interessiert hat, geh darauf einfach nicht ein. :)
Btw zu 28nm: Könnte imo nicht nur eine technische, sondern auch eine finanzielle Entscheidung gewesen sein. So schlecht scheint mir 28nm bei mittleren Taktraten etwas unter 4 GHz ggü. 32nm nicht zu sein.
Unicous
2015-01-18, 22:24:02
Nochmals: Ich habe nicht von der Effizienz der Architektur gesprochen.
Aber: Nehmen wir dennoch an, Bulldozer hätte die schlechte Leistung abgeliefert (insbesondere im Vergleich zu K10) in puncto Leistungsaufnahme Sandy Bridge aber klar geschlagen?
Das hätte vllt. den Enthusiasten nicht tangiert, der sowieso auf SB-E gewartet hat, aber im Server-Bereich hätte man durchaus eine paar Blumentopfbeete mehr gewinnen können.
Zu 28nm Bulk. Siehe Richland->Kaveri. Man musste den Takt um 10% verringern um im TDP-Budget zu bleiben(Auf GPU-Seite 15%. Man hatte ja 1TFLOP anvisiert). Wie sehe das bei einer CPU mit 4 oder gar 5 Modulen (Komodo) aus. Dazu kommt der L3 der auch ordentlich reinhaut. Das sind natürlich z.T. auch Limitierungen der Architektur.
28nm Bulk macht (jedenfalls bei GF) nach oben hin zu, die Leakage erhöht sich zwar nicht so exzessiv wie bei 32nmSOI aber dafür hat man auch noch eine geringe Taktbarkeit (siehe durchwachsen OC-Ergebnisse bei Kaveri). Man hätte FD-SOI dafür gebraucht, aber weder war es einsatzbereit noch wollte/konnte AMD dafür den Aufpreis und die Pionierarbeit bezahlen. GF wartet darauf, dass sie Kunden an Land ziehen, AMD wird es aber eher nicht sein, denn man schwenkt bereits über zu 14nm und da wird es wieder interessant, wie sich die FinFETs verhalten und ob AMD ihre Architektur darauf abgestimmt hat.
Das musste Intel auch lernen und jetzt sind sie schon bei der zweiten "Generation" angelangt. AMDs Problem war auch, dass GF sich erst in die Rolle der Foundry finden musste und es drunter und drüber ging. Etliche Produkte wurden gecancelt/modifiziert und/oder verschoben. Nicht zuletzt, weil entweder TSMC oder GF Verzögerungen im Produktionsstart hatte. Ursprünglich wollte man auch noch andere Produkte bei TSMC fertigen lassen (32nm). Man wollte auch viele Produkte schon früher oder nur bei GF fertigen lassen. Diese Probleme hatte Intel nicht. Da geht Prozess und Architektur Hand in Hand. Auch das musste AMD erst einmal lernen. Sie sagten ja selbst vor einiger Zeit, dass sich das Verhältnis zu GF deutlich verbessert hat. Um sich zu verbessern muss es ja vorher schlechter gewesen sein.:freak:
Dural
2015-01-19, 09:49:00
Der 32nm Prozess ist sogar recht gut. Genau das zeigen die Messungen.
Es liegt einfach an der Architektur. Sehr breit und trotzdem ist keine Leistung vorhanden, man muss über den Takt gehen.
Unicous
2015-01-19, 12:29:41
Wenn ich nicht wüsste, dass du das ernst meinst, hätte ich jetzt herzhaft gelacht. So bleibt mir nur in Unglauben den Kopf zu schütteln.
Für soo enntäuschend halte ich die Bulldozer-Architektur weiterhin nicht - unter Linux sieht man ziemlich gute Ergebnisse. Das heisst, das eigentlich enttäuschende scheint mir die Compiler-/Softwareunterstützung für AMD-CPUs unter Windows zu sein.
kunibätt
2015-01-24, 19:54:58
Sehe ich seit 2011 anders.
Der HeinZ
2015-01-28, 11:40:31
Nur das SATA-Leistung halt mal so ziemlich nichts mehr heutzutage mit der CPU-Leistung zu tun hat :ugly:
Da ist halt das I/O nicht so knalle, und je nachdem wie die SATA Ports angeschlossen sind, behindert der tolle PLX Chip halt auch noch den Transfer.
Ich wäre da sehr vorsichtig bzgl Aussagen. Wenn teste mal auf dem gleichen Board die unterschiedlichen CPUs.
Öhm öööööööh..... HAB ICH DOCH GEMAACHT!
X6 zeigt bessere Werte auf dem gleichen Board. Aber nur im Burst und linear. Bei den 4k und 4k 64 Threads ist der Vishera schneller.
Und warum meinst du ich ssoll dabei vorsichtig sein, mit solchen Aussagen.... ich kann doch nix dafür wenn das böse Programm nach vielen Testreihen kleinere Werte auswirft. :D
Gruss Matthias
Butterfly
2015-01-29, 21:11:09
Der Turbo bei der Bulldozer-Familie ist leider nicht besonders intelligent und ich vermute, dass er vor allem auf die anliegende Spannung guckt.
AAAABER: das ist vollkommen Banane, oder auch Birne. Mir ging es um den zugrunde liegenden Prozess und seine nicht unerheblichen Auswirkungen auf eine ohnehin schon enttäuschende CPU-Architektur.
Der Turbo ist CPU intern gelöst und unabhängig vom System.
Ob er intel(ligent) ist, darüber lässt sich natürlich streiten.
Aber wie schaut der Vergleich den mit den Größen des Physikalisch vorhanden Einheiten.
Wie viel größer ist der L2 Cache oder die Integer-Kerne oder die Speicher-I/O oder die Anzahl der Befehlssätze...etc.
Ein Prozess aufgrund dessen zu beurteilen, weil weniger vorhanden ist, halte ich nicht für intelligent. :tongue:
Unicous
2015-01-29, 21:56:08
Da hat wohl jemand nicht richtig gelesen/verstanden was ich meinte.:rolleyes:
Ein Prozess aufgrund dessen zu beurteilen, weil weniger vorhanden ist, halte ich nicht für intelligent.
Was willst du damit sagen? Außer einer müden Beleidigung kommt nicht mehr rum, oder wie?
Der Sprung von 32nm auf 28nm ist den APUs auf den Takt bezogen schon nicht bekommen (ich rede explizit von den Topmodellen 95 Watt). Ein FX mit weiteren "Verbrauchern" wie einem 8MB großen L3 Cache und einem weiteren Modul hätte die Taktraten weiter einbrechen lassen und mögliche Architekturvorteile zunichte gemacht. Die CPU hätte vermutlich weniger Leistung aufgenommen (geringere Leakage, geringere voltage ceiling im Vergleich zu 32nm SOI), diese aber nicht in "Mehrleistung" umwandeln können. Man wäre weiterhin auf der Stelle getreten.
Der Turbo ist CPU intern gelöst und unabhängig vom System.
Das ist ein Nichtsatz. Die Aussage macht keinen Sinn.
Ich weiß nicht welches "System" du meinst, aber Turbo Core überwacht die ganze Zeit die Speisespannung und ist äußerst restriktiv was das angeht. Zuviel Spannung und es wird sofort untertaktet (gerne auch unter den Basistakt). Bei Intel darf auch kurzzeitig die TDP überstiegen werden.
http://pics.computerbase.de/2/9/0/3/9/4.jpg
Der Turbo wird über die P-States geregelt, die wiederum an genau festgelegte Spannungen gekoppelt sind. Bei den FX-CPUs gibt es sehr gerne Spannungsspikes und kurze aber starke Spannungsabfälle und eben diese machen dem Turbo zu schaffen.
Du kannst dir dazu gerne diverse Threads bei xtremesystems, HWBot und Co. durchlesen. Ich empfehle dahingehend auch nach "The Stilt" zu googleln, der zu Bulldozer und Co. sehr viel Faktenwissen zusammengetragen hat (gerade auch bezüglich Taktverhalten, Overclocking, Turbo Core/APM).
Butterfly
2015-01-29, 23:51:04
@Unicso
Der verweis auf the Stilt war Super.
Den Rest überlasse ich mal jedem selber.
Die bisher beste Tech-Spec Auflistung fand ich hier: http://www.overclockersclub.com/reviews/amd_fx8370__fx8370be/2.htm
Unicous
2015-01-30, 00:01:49
Der verweis auf the Stilt war Super.
Den Rest überlasse ich mal jedem selber.
Was willst du mir damit sagen?
Und was für eine " Tech-Spec Auflistung" meinst du? Die Feature-Auflistung von Vishera kommt 100% direkt von AMD und ist 1:1 aus dem whitepaper oder press kit übernommen. Gibt zig Links dazu wenn man googleld und WTF-Tech hat es bei seiner Review des 8350 auch 1:1 übernommen.
Was willst du mir sagen. Erst beleidigen, noch nicht mal Argumente liefern und wieder von dannen ziehen. Nicht die feine Art.
Übrigens mein Accountname lautet Unicous. So viel Zeit hast du noch, oder?
Dural
2015-01-30, 09:37:06
Hör doch auf alles auf den Prozess zu schieben, es ist einfach nicht war.
Er ist sicher nicht so gut wie der 32nm von Intel, aber das war in der Geschichte bis jetzt doch fast schon immer so. Ich habe die schon mit bis zu 5,5GHz betrieben, was übrigens mit einem sooooo schlechten Prozess sicherlich gar nie möglich wäre :rolleyes:
Hast du schon jemals ein Bulldozer mit 5GHz gebencht? Oder von 5GHz auf 5,5GHz? Ich denke nicht... Eine Architektur die so extrem schlecht mit dem Takt Skaliert habe ich bei Intel noch nie gesehen. Die "Leistung" verpufft im nirgend wo, Bulldozer hat nur einen Leitungsvorteil, nämlich auf dem Wattmeter :freak: Es ist eine fehlt Entwicklung und das hat auch AMD recht schnell erkannt.
anddill
2015-01-30, 09:58:00
Solltest Du tatsächlich noch nicht mitbekommen haben daß bei BD das Frontend und der L3 limitieren? Du kannst das Ding bis zur hellen Rotglut pushen und wirst immernoch kaum Mehrleistung rausbekommen. Alles über 4,5GHz macht wenig Sinn, vor allem wenn man dazu die Spannung deutlich anheben muss.
Butterfly
2015-01-30, 10:55:19
Was willst du mir damit sagen?
Und was für eine " Tech-Spec Auflistung" meinst du? Die Feature-Auflistung von Vishera kommt 100% direkt von AMD und ist 1:1 aus dem whitepaper oder press kit übernommen. Gibt zig Links dazu wenn man googleld und WTF-Tech hat es bei seiner Review des 8350 auch 1:1 übernommen.
Was willst du mir sagen. Erst beleidigen, noch nicht mal Argumente liefern und wieder von dannen ziehen. Nicht die feine Art.
Übrigens mein Accountname lautet Unicous. So viel Zeit hast du noch, oder?
Sorry wenn es etwas frech rüber kam, war nicht direkt beabsichtigt.
Die Folie die du gepostet hast ist vom Thuban (Phenom II X6) nicht vom FX, dieser hast schon Turbo CORE 2.
Hier mal die wichtigsten Eckdaten die mit dem Turbo CORE zusammenhängen:
AMD PowerNow!™ AMD Technology (Cool'n'Quiet™ Technology)
•Enhanced power management features which automatically and instantaneously adjusts performance states and features based on processor performance requirements
•C6 power state flushes the cache and removes voltage from individual cores to help reduce power consumption
•CC6 power state puts all cores in C6 into an even lower power state
•for quieter operation and reduced power requirements
•Separate memory controller power control
•IO-based c-state interface
•Works automatically without the need for drivers or BIOS enablement.
•Power can be switched on or off within a single clock cycle, saving energy with minimal impact to performance
•Benefit: Helps users get more efficient performance by dynamically activating or turning off parts of the processor.
Wer ein FX übertakten will, sollte auch auf die Power Limits achten und freischalten damit die Leistung sich frei entfalten kann. :wink:
Unicous
2015-01-30, 13:20:59
Hör doch auf alles auf den Prozess zu schieben, es ist einfach nicht war.
Er ist sicher nicht so gut wie der 32nm von Intel, aber das war in der Geschichte bis jetzt doch fast schon immer so. Ich habe die schon mit bis zu 5,5GHz betrieben, was übrigens mit einem sooooo schlechten Prozess sicherlich gar nie möglich wäre :rolleyes:
Hast du schon jemals ein Bulldozer mit 5GHz gebencht? Oder von 5GHz auf 5,5GHz? Ich denke nicht... Eine Architektur die so extrem schlecht mit dem Takt Skaliert habe ich bei Intel noch nie gesehen. Die "Leistung" verpufft im nirgend wo, Bulldozer hat nur einen Leitungsvorteil, nämlich auf dem Wattmeter :freak: Es ist eine fehlt Entwicklung und das hat auch AMD recht schnell erkannt.
Ist dir das nicht irgendwie peinlich immer wieder aufs Neue in einen Thread zu stürmen, ohne zu überlegen, ohne zu lesen, ohne zu verstehen und dann deine "Weisheiten" zu platzieren.
Niemand hat es allein auf den Prozess geschoben. Es wurde aber in der Vergangenheit behauptet, die Architektur wäre extrem ineffizient und der Prozess habe damit nichts zu tun.
Ich behauptete auch nicht, ein besserer Prozess würde aus der FX-Familie automatisch eine bessere Architektur machen. Im Gegenteil. Da Bulldozer und die Nachfolger auf hohe Takte ausgelegt sind hätte sich ein Bulk Prozess noch negativer ausgewirkt.
All das wiederhole ich zigtausend mal, aber das wird nicht mal ansatzweise von dir oder anderen als Argument (bzw. mMn Fakt:wink:) angesehen sondern sofort kommt die alte Formel heruntergebrochen: Bulldozer=Arsch, Alles=Arsch.
Wahr wird übrigens <-so geschrieben. Vor lauter Aufregung sollte doch die Wahrheit nicht leiden, oder?:rolleyes:
Bulldozer war ursprünglich auf Taktraten jenseits der 4 GHz ausgelegt, man wollte eigentlich sogar 5 GHz erreichen. Das hat man ja auch fast geschafft: Mit dem FX 9590.:wink:
Ich wollte eigentlich nur eine Aussage machen: Das Design war unterdurchschnittlich, der Prozess hat die Unzulänglichkeiten aber nochmals verschlimmert.
@Butterfly
Ich verstehe nicht warum du diesen unstrittigen Umstand herausstellst. Hier hat doch niemand behauptet, dass der Turbo vom "System" (jetzt verstehe ich hoffentlich was du meinst- von der Software/vom OS?) gesteuert sondern deterministisch vom Chip selbst. Das hat keiner in Abrede gestellt oder angewezeifelt.
Wer einen FX übertakten will muss den Turbo ausschalten, das ist doch das Lustige. Bei Intel muss man das nicht unbedingt (je nachdem was man erreichen will). Das liegt bei AMD einfach an der einseitigen "Betrachtungsweise" des TDP Headrooms der nur über den current draw determiniert wird. Dadurch ist der Turbo inkonsistent.
Es hat sich auch nichts Grundlegendes geändert. Turbo Core 2.0 hat einfach nur einen weiteren Turbo-Modus hinzugefügt: den All Core Turbo. Aber genau dieser funktioniert nicht ordentlich bei Bulldozer/Vishera.
"3.0" ist nur wichtig für die APUs, denn hier wurde ein bidirektionaler Turbo eingeführt, der die GPU bevorzugt.
Weil der Turbo zu "dumm" ist und der 32nm SOI Prozess (immer noch) zu schlecht ist kann er sich nicht entfalten und offenbahrt dadurch die architekturellen Schwächen. Das sieht man besonders beim Vergleich von Low Leakage Chips wie dem 8320E mit "normalen" bins wie dem 8350. Auch der Turob konnte sich teilweise besser entfalten, dass hat Anandtech ja in ihrem Test bestätigt. Sobald aber übertaktet wird säuft der 8320E bin ungefähr genauso viel wie ein 9590.
Der Prozess kann das also nicht auffangen und genau das war meine Kernaussage.
Butterfly
2015-01-30, 15:39:20
@Unicous
Der Allcore Turbo funktioniert schon, nur muss dazu der HPC Mode enabled sein.
Dieser High Performace Computing Mode ist aber nicht bei allen Mainboards bzw im UEFI Menü vorhanden.
Ein schlechter FX-8370E hat laut the Stilt erst bei 5.1GHz@1472Vcore ein Delta von 246.9W an der Steckdose.
Also ungefähr 180W TDP für die CPU alleine und etwa 40% weniger Leckströme gegenüber einem FX-8350.
http://www.xtremesystems.org/forums/showthread.php?289461-A-little-birdie-told-me&p=5237981&viewfull=1#post5237981
Also für mich ist das die beste Prozess Optimierung seit der Einführung von Bulldozer. ;)
Unicous
2015-01-30, 16:54:01
Ja, das ist schlicht und einfach Binning. Nicht umsonst sieht er die "E" SKUs als die besten Parts an. Sie haben die geringste Leakage im Vergleich zu anderen SKUs. Nichts anderes sage ich die ganze Zeit. Das ist aber nur im geringen Maße Prozessverbesserungen geschuldet, sondern ist wie gesagt Binning. Nach etwa 4 Jahren (Produktions-)Laufzeit für den gesamten Prozess ist das eher ein Armutszeugnis. Denn der Rest der Produktion hat diese "Quantensprünge" natürlich nicht gemacht. Sicherlich haben sie die VID etwas senken können und ein neuer 8350 wird ein paar mV weniger brauchen, aber das sollte nicht darüber hinwegtäuschen, dass die target operational voltage afaik für Bulldozer ursprünglich (wie bei Llano) bei max. 1,3V lag (und natürlich bei gleichzeitig höherem Takt:wink:).
Die E SKUs sind pi mal Daumen 1 guter Die aus 100, der Rest fächert sich in alle Richtungen auf. Bei Intel hingegen gab es diese enorme Varianz weder bei 32nm Bulk noch bei 22nm FinFET Bulk.
Das mMn größte Problem Leakage, kann AMD jetzt angehen. Denn FinFETs helfen exakt bei dieser Problematik. OB die Architektur etwas taugt steht natürlich dennoch in den Sternen.
Butterfly
2015-01-30, 19:42:54
@Unicous
Achso 8x4.7GHz mit 220W sind also Gleichviel wie 8x5.1GHz mit 180W ?
Finde ich schon beeindruckend, zumal mein FX-8350 bei 5.1GHz gute 50W drüber liegt, wenn der Speichercontroller richtig Ausgelastet wird. ;)
Unicous
2015-01-30, 19:57:17
Wo hast du diese expliziten Zahlen her? Ich kann das nicht einordnen Von The Stilt? Das ist ein tolles Ergebnis...für The Stilt. Er kennt die Chips in und auswendig und kann dadurch das letzte Quentchen herausdrücken. Aber das lässt sich nicht auf alle Chips übertragen, das musst du doch mal anerkennen. The Stilt sagt selbst, dass kein chip gleich ist, sogar die Taktfähigkeit von CU zu CU unterschiedlich ist. Diese hohe Varianz wird größtenteils durch den Prozess verursacht.
Butterfly
2015-01-30, 20:59:47
@Unicous
Ich stehe zu "the Stilt" Aussagen und Tests, ich konnte viele Limits aushebeln auch durch eine Profi Wasserkühlung.
Trotzdem braucht the Stilt mit Luftkühlung weniger CPU Vcore mit dem FX-8370E .
4.9GHz mit Luftkühlung sind schon eine Hausnummer, 1.476Vcore (Luft) vs. 1.488Vcore (WaKü).
:cool:
Unicous
2015-01-30, 21:06:35
Deine Posts sind nicht gerade vollgepackt mit Informationen.
Was willst du damit sagen?
Ich stehe zu "the Stilt" Aussagen und Tests
Du vergisst, dass er über die Jahre zig solcher Chips selbst getestet und handselektiert hat. Er hält nicht aus Versehen den Weltrekord.:wink:
Butterfly
2015-01-30, 21:15:11
Mein Englisch ist eingeschränkt, aber mein technisches Hintergrund Wissen, reicht um ihm recht zu geben.
http://abload.de/img/boinc_pogs_fx-83504.9bnx4c.jpg
72h sind eher die Regel, am Stück.
Unicous
2015-01-30, 21:39:40
Recht zu geben wobei?
Meine Güte ist es wirklich so ein großes Problem dein Anliegen in Sätze zu verpacken, in denen etwas mehr Informationen vorkommen. Das ist doch hier ein Dialog und kein Verhör.
Butterfly
2015-01-31, 09:14:27
@Unicous
Keine Ahnung was meinst du genau? Lesen kannst du doch?
Kartenlehrling
2015-07-12, 22:40:09
LOL,
der zweite Frühling ist nach 3 Jahren nun doch da ... leider zu spät !!!
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-F1_2015_-test-f1_proz.jpg
http://gamegpu.ru/racing-simulators-/-gonki/f1-2015-test-gpu.html
anddill
2015-07-12, 22:42:57
War doch von Anfang an klar, aber keiner Hats damals geglaubt.
aufkrawall
2015-07-12, 23:00:09
Wo ist das Ergebnis stark unterschiedlich zu anderen?
Ein moderat OCter 2500k ist immer noch schneller als der 8350 und pro Mhz bei 4Ghz immer noch mehr als doppelt so schnell. Entsprechend ist ein 2600k in weiter Ferne.
LOL,
der zweite Frühling ist nach 3 Jahren nun doch da ... leider zu spät !!!
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-F1_2015_-test-f1_proz.jpg
http://gamegpu.ru/racing-simulators-/-gonki/f1-2015-test-gpu.html
geil ;D
dildo4u
2015-07-12, 23:52:36
LOL,
der zweite Frühling ist nach 3 Jahren nun doch da ... leider zu spät !!!
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-F1_2015_-test-f1_proz.jpg
http://gamegpu.ru/racing-simulators-/-gonki/f1-2015-test-gpu.html
GPU Limit.
Menace
2015-07-13, 06:45:55
Ein moderat OCter 2500k ist immer noch schneller als der 8350 und pro Mhz bei 4Ghz immer noch mehr als doppelt so schnell. Entsprechend ist ein 2600k in weiter Ferne.
:rolleyes: Hat irgendjemand geschrieben, dass die "moderat OCter 2500k" schlecht sei? :freak:
Zu GPU-Limit: wohl die falsche GraKa gewählt?
StefanV
2015-07-13, 11:15:18
Ist doch bekannt, dass die Bulldozer Architektur auf massiv paralleles Arbeiten ausgelegt ist. Aber auch nur dann, können die ihre Muckis spielen lassen. Sonst natürlich nicht so sehr...
Erinnert ihr euch noch an das?!
eu8Sekdb-IE
Da hat auch 'nen FX 8350 'nen Core i7-3770 geplättet - eben weil es ein szenario war, was den BD CPUs besonders liegt...
y33H@
2015-07-13, 11:24:29
Die Streaming-Nummer war das doch .... sehr obskur, dafür gibt's Shadowplay und Co ;-)
Mal sehen, ob DX12 für den FX noch was bringt.
Unicous
2015-07-13, 11:49:44
Findet ihr euch nicht ein bisschen selbst peinlich, dass euch bei einer Anomalie, die in einem! Spiel auftritt, die Höschen aufplatzen.:freak:
Wie und warum es dazu kommt, wäre in der Tat ein interessante Geschichte, täuscht aber nicht darüber hinweg, dass Bulldozer im Allgemeinen eine, gelinde gesagt, mittelmäßige Architektur ist, die nur in sehr, sehr wenigen Fällen ihr Potential zeigen kann. Das sieht man auch bei den min. fps die dennoch gegenüber Intel abkacken.
Liszca
2015-07-13, 12:00:22
Das sieht man auch bei den min. fps die dennoch gegenüber Intel abkacken.
In diesem fall doch eher nicht.
Ansonsten lass sie doch zur abwechslung mal das AMD fähnchen hissen :D.
Wartet mal nicht GPU-limitierte Benchmarks ab (dauert aber noch etwas). :naughty:
MfG,
Raff
Deathcrush
2015-07-13, 13:05:09
Ich bin mit meinem AMD FX 6300 mehr als zu frieden. Er läuft problemlos mit 4400MHZ (mit nur geringer VCore Anpassung) und hat mich gerade mal 100€ gekostet. Und wenn man sich dann mal Spiele wie Crysis 3 anschaut, hat er doch ein verdammt gutes Preis Leistungsverhältnis.
Menace
2015-07-13, 13:32:32
Da Spiele mich nur hin und wieder interessieren, bin ich mit meinem 8350 auch sehr zufrieden. RAW-Verarbeitung, viele Programme gleichzeitig, Indizierungen, Datenbanken. Alles kein Problem. Aber wen interessiert schon reale Anwendungen wenn es auch Spiele gibt.
Die Dinger performen im Alltag definitiv klasse, es haben ja auch schon diverse Tests gezeigt, dass ein FX-8 wegen seiner acht Integer-Schleudern besser bei hoher Mischlast klarkommt als ein Vierkerner mit SMT.
MfG,
Raff
Unicous
2015-07-13, 13:50:45
@Menace
Genau, denn spielen auf dem PC tut ja so gut wie niemand (also bis auf ein paar...hundert Millionen Menschen), eigentlich spielen wir ja alle noch Mensch ärger dich nicht und Monopoly.:rolleyes:
Dieses Forum richtet sich auch eigentlich ausschließlich an CAD-Zeichner und MySQL-Nutzer, die anderen werden nur geduldet. Hat nur noch keiner bemerkt.
Cyphermaster
2015-07-13, 14:38:32
@Menace
Genau, denn spielen auf dem PC tut ja so gut wie niemand (also bis auf ein paar...hundert Millionen Menschen), eigentlich spielen wir ja alle noch Mensch ärger dich nicht und Monopoly.:rolleyes:
Dieses Forum richtet sich auch eigentlich ausschließlich an CAD-Zeichner und MySQL-Nutzer, die anderen werden nur geduldet. Hat nur noch keiner bemerkt.Du sagst doch selber, daß das Nutzungsszenario relevant ist - aber dann machst du wieder eine allgemeine "Mittelmäßigkeit" einer Architektur daran fest, wie sie ausgerechnet in deinem eigenen Einzelfall performt. Das ist zweierlei Maß (sonst müßte man wohl schon alleine aufgrund der großen Anzahl reiner Arbeitsrechner und Server in den Büros die Betrachtung anders gewichten), und zudem nicht mal der Punkt.
Bei der durch die "Anomalie" aufgeworfenen Frage geht es doch viel mehr darum, ob sich gegenüber der ursprünglichen Einschätzung der Spiele-Performance durch die Software-Entwicklung der letzten Jahre etwas verändert hat.
Knuddelbearli
2015-07-13, 14:44:26
Die Streaming-Nummer war das doch .... sehr obskur, dafür gibt's Shadowplay und Co ;-)
damals noch nicht, vor allem nicht auf AMD Karten
Menace
2015-07-13, 14:45:11
Genau, denn spielen auf dem PC tut ja so gut wie niemand (also bis auf ein paar...hundert Millionen Menschen), eigentlich spielen wir ja alle noch Mensch ärger dich nicht und Monopoly.:rolleyes:
:eek: Wenn ich im GPU-Limit spiele behindert mit der FX-8350 inwieweit? :rolleyes:
Ich habe bisher alle Spiele mit toller Grafik und ohne starke Einbrüche problemlos spielen können (vielleicht, weil mir Balkenlängen ziemlich egal sind, da mir solche Kinkerlitzchen nicht interessieren) und das auch ohne auf "CPU-Limit-tauglichen" Auflösungen nutzen zu müssen, die sowieso selten real sind. Spielen aber ist für mich zuerst Hobby und der PC wird als Arbeitsgerät ausgerichtet. Das ist aber MEIN Nutzungsprofil. Im Vergleich zu anderen Menschen gehe ich nicht davon aus, dass die Welt am meinen Wesen genesen muss. :rolleyes:
Menace
2015-07-13, 14:47:50
Die Dinger performen im Alltag definitiv klasse, es haben ja auch schon diverse Tests gezeigt, dass ein FX-8 wegen seiner acht Integer-Schleudern besser bei hoher Mischlast klarkommt als ein Vierkerner mit SMT.
Danke. Soweit ich mich erinnere gab es aber nur wenige Tests dazu. Wart nicht ihr das, die das einmal gemacht haben? Übrigens wie häufig sind Mischlastanwendungen [z.B. mit laufenden Desktop-Suchprogrammen, Virenscanner, offenen Browser, Outlook].
aufkrawall
2015-07-13, 14:52:13
Die FXler machen sich halt durch den höheren Verbrauch selbst als Billigheimer nicht wirklich empfehlbar, bei einem Intel wird der Lüfter immer viel langsamer drehen.
Und im alltäglichen Windows-Betrieb ist die IPC am wichtigsten. Wenn man ständig zig Sachen gleichzeitig geöffnet hat, beschleunigt HTT das ohne nennenswert höheren Stromverbrauch, im Gegensatz zu den BD-Cores.
Das Preisargument ist auch komplett schwach, weil bei der Laufzeit man die Differenz wahrscheinlich eh wieder druch den Stromverbrauch reinbekommt (je nachdem, wie häufig man die CPU stark auslastet).
Dann gibts nur PCIe 2.0, völlig inakzeptabel.
Das kann man sich auch nur schönreden, wenn man das Geld schon versenkt und überhaupt keinen Vergleich hat.
Ganz im Gegenteil. Ich würde einen FX6 einem I3 immer vorziehen, wenn es um Spiele geht. Zwar ist der i3 oft schneller, jedoch ist die Varianz extrem hoch, da es einige fordernde Titel gibt, die mit SMT überhaupt nicht klarkommen. Zudem gibts mittlerweile doch nen ganzen Haufen Titel die mit 6 Threads gut was anfangen können. Da ist man mit dem FX immer auf der sicheren Seite.
Erst wenn Intel 4-Kerner in Preisbereiche kommen, in denen es AMD-Prozessoren gibt, sind die Intels durchgängig besser. Die 2-Kerner sind einfach zu schwachbrüstig.
Übrigens gilt das noch viel extremer für FX4/AthlonX4 vs. Pentium. Denn da gibts mittlerweile einen ganzen Haufen Spiele, die auf dem FX4 noch laufen (wenn auch nicht maximal toll), aber auf den Pentiums gar nicht mehr starten!
Preislich korrekt:
Pentium/Celeron vs. AthlonX4 oder FX4
I3 vs. FX6
I5 vs. FX8/9 -> erst ab da würd ich ganz klar zu Intel raten.
Und PCIe2.0 ist vollkommen scheiss egal, um das mal auf deutsch zu sagen. Dass die Plattform LGA1150 bald genauso outdated ist wie AM3+, daran ändert auch PCIe3 nix.
Deathcrush
2015-07-13, 15:14:35
Ich würde einen FX6 einem I3 immer vorziehen, wenn es um Spiele geht. Zwar ist der i3 oft schneller, jedoch ist die Varianz extrem hoch, da es einige fordernde Titel gibt, die mit SMT überhaupt nicht klarkommen.
Richtig, Watch Dogs und Crysis 3 beweisen das eindeutig. (laut PCGH Benchmark)
Unicous
2015-07-13, 15:22:18
@Cyphermaster
Ney, das unterstellst du mir nur.:wink:
Wir sind hier in einem von Spielen, und der dafür nötigen Hardware, dominierten Forum. Die Spiele-Leistung interessiert also hier vordergründig und insbesondere auch Multimedia-Leistung. Dass Menace die einfach beiseite wischt, als wäre sie hier und generell nur nebensächlich ist ein ziemlich schlechter Witz. Er schließt vom Speziellen ( nämlich seiner Nutzung/Nutzungsverhalten) aufs Allgemeine, nicht ich.
Dass Bulldozer und Piledriver in einigen, wenigen, vereinzelten Fällen, die man an wohl einer Hand abzählen kann, Vorteile gegenüber vergleichbaren Chips von vor drei, vier Jahren herausholen kann, die z.T. sogar im Messtoleranz-Bereich liegen, und dabei deutlich höhere Leistungsaufnahme hat... will ich nicht bestreiten.:wink:
Dass diese Einzelfälle aber den Markt ziemlich kalt gelassen haben und AMD damit nicht mal in irgendeiner Nische einen Blumentopf gewinnen konnte, sollte auch klar sein. Nicht umsonst hat man 2012 jedwede Weiterentwicklung von Opteron- oder FX-Produkten auf Basis von Steamroller und Excavator eingestellt.
Dieser Wahrheit muss man sich endlich mal stellen (AMD hat es schon längst getan) und nicht immer Szenarien herauspicken, die einem gerade in den Kram passen.
Das Gesamtprodukt Bulldozer/Piledriver weiß nicht zu überzeugen und da ist es egal ob man in wenigen cherrypicked Szenarien gleichziehen kann oder sogar besser da steht. Solange das Trifecta aus Leistung, Leistungsaufnahme und Preis nicht zusammenkommen gibt es keinen guten Grund AMD zu empfehlen (schlussendlich war es nur der Preis bei dem sie irgendwie punkten konnten und auch da musste man erst bis Vishera warten). (Auch wenn man sich die gesamte Plattform mit nicht mehr konkurrenzfähigen Chipsatz-Features ansieht, nur als Stichwort PCIe 2.0.)
Wenn und falls zukünftige Consumer-Anwendungen und Spiele Mehrkernprozessoren besser auslasten können, werden wir sehen wie sich die Bulldozerfamilie schlägt. Nur nutzt das demjenigen nicht, der im Jahre 2011 CPU-bound nicht (Achtung: leichte Übertreibung) über 30 fps hinausgekommen ist, während es bei der Konkurrenz ein Klacks war.
Es zählt die Leistung die zum Marktstart abrufbar war, nicht die Software-Entwicklung die Jahre danach vllt. Früchte trägt. Sich den Kauf nachträglich schön zu rechnen ist nichts als Augenwischerei. Mit Intel wäre man seinerzeit besser gefahren. Das stößt dem ein oder anderem sauer auf, aber auch das kann man mit 20/20 hindsight sagen. Der durchschnittliche Lebenszyklus für einen Rechner liegt iirc bei 3, 4 Jahren. Die Leute die sich für Bulldozer entschieden haben, könnten sich also schon einen neuen PC geholt haben und das war dann sicherlich keiner mit AMD Chip mehr, denn es gibt ja keine neuen Angebote mehr, außer ein wenig Produktpflege und den schrecklichen Centurions.
Auf APU-Seite sieht es meiner Meinung nach etwas besser aus, denn Steamroller in Form von Kaveri war an sich kein schlechtes Produkt, das leider ein wenig durch den 28nm Prozess zurückgehalten wurde. Und gerade Excavator zeigt, dass man zu viel wollte und man wieder von der Modulbauweise Abstand genommen hat. Man hat viel riskiert und viel verloren.
Zen wird jetzt leider oder glücklicherweise? Intels Core ähnlicher sein als einem lieb sein kann. Ich hoffe die Rückkehr zu "me too" hilft wenigstens, dass man langfristig überlebt und Ressourcen hat um seine Ideen zu verwirklichen. AMD braucht Geld um wieder etwas riskieren zu können. Zen ist hoffentlich ein zaghafter, konservativer Versuch sich heranzupirschen um dann im nächsten Schritt die Krallen auszufahren. Das kann man AMD und sich selbst nur wünschen. Ansonsten wird das alles sehr, traurig und langweilig.
Edit: Und ich würde einen Intel 4-Kerner (mit oder ohne SMT) einem AMD 6-Kerner vorziehen. ;)
Wenn man sich einen 8-Kerner zulegt um dann Spiele mit einer HD 5450 zu zocken... stelle ich mir eindeutig die Frage nach den Prioritäten.
y33H@
2015-07-13, 15:23:31
Danke. Soweit ich mich erinnere gab es aber nur wenige Tests dazu. Wart nicht ihr das, die das einmal gemacht haben? Ja, hab ich damals getestet: http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
Ein ziemlich von der GPU beeinflusster Benchmark bei 100+ fps und AMDler geilen sich daran auf. Wie lächerlich. Vor allem wird aus einem Rosinen Gepicke kein zweiter Frühling.
@Unicous
das sind minimum 70€ Unterschied. Für manch jemandem sind das Welten. Natürlich würd ich für einen Spielerechner auch zu einem Intel 4-Kerner raten, jedoch ist das einfach nicht immer drin. Wenn man dann dafür die Wahl zwischen einer 260 bzw. 750 und einer 280 mit 3GB hat nehme ich gerne den FX6.
Unicous
2015-07-13, 15:42:42
:eek: Wenn ich im GPU-Limit spiele behindert mit der FX-8350 inwieweit? :rolleyes:
Ich habe bisher alle Spiele mit toller Grafik und ohne starke Einbrüche problemlos spielen können (vielleicht, weil mir Balkenlängen ziemlich egal sind, da mir solche Kinkerlitzchen nicht interessieren) und das auch ohne auf "CPU-Limit-tauglichen" Auflösungen nutzen zu müssen, die sowieso selten real sind. Spielen aber ist für mich zuerst Hobby und der PC wird als Arbeitsgerät ausgerichtet. Das ist aber MEIN Nutzungsprofil. Im Vergleich zu anderen Menschen gehe ich nicht davon aus, dass die Welt am meinen Wesen genesen muss. :rolleyes:
Wer ist denn hier so narzisstisch veranlagt und meint die Welt müsse an seinem Wesen genesen?:confused:
Achso...:eek:. Du meinst mich.
:wink:
Wie wäre es wenn du mal die unangebrachten Spitzen zuhause lässt und dich auf das Wesentliche konzentrierst.:)
Ich gehe so gut wie immer von der Allgemeinheit aus und schließe nicht von mir auf andere. Ich habe mir mal einen Trinity aus Neugier geholt und weil ich so eine Art HTPC daraus gemacht habe. War das sinnvoll? Nicht wirklich. War das kosteneffektiv. Im Großen und Ganzen: nein. Ich wäre mit Intel wohl besser gefahren. Stickpunkt: TCO (total cost of ownership)
Aber von meinem Einzelfall schließe ich nicht auf die Allgemeinheit.
Und die Markt hat gesprochen. Bulldozer ist durchgefallen. Auf ganzer Linie. Auch bei den APUs konnte man nicht viel reißen. Das erfolgreichste Produkt ist und bleibt wohl Brazos. Alles was danach kam konnte keine großen Erfolge mehr verzeichnen, obwohl die Katzen durchaus konkurrenzfähig gewesen wären, hätten die OEMS sie richtig eingesetzt und nicht nur als Margenschweine ausgequetscht.
AMD kann auch leider nicht mit dem besseren Preis punkten, weil das Gesamtprodukt nicht genug überzeugen kann. AMD ist meiner Meinung nach schon da wo es weh tut, ihre Gewinnmarge ist schon so tief, man kann gar nicht weiter runtergehen um sich noch attraktiver zu machen.
Um mal mit ein paar Metaphern zu arbeiten: Das was hier hervorgekramt wird sind allenfalls Pyrrhussiege und es läuft mittlerweile auf einen Karthagischen Frieden, wenn es so weiter geht.
Daher wäre es angebracht, die Fakten einfach anzuerkennen und in die Zukunft zu schauen. Viel Faktoren machen Bulldozer und Co. zu einem mittelmäßigen bis schlechten Produkt. Es gibt so gut wie keine Szenarien die heutzutage einen Kauf rechtfertigen und vor 4 Jahren waren sie noch rarer gesät.
@HOT
Bulldozer (in Form des FX-8150) ist 4 Jahre alt und hat zu Launchzeiten eben nicht 180 Euro (wie jetzt der FX-8350) gekostet. Ursprünglich wollte man sogar knapp $250 verlangen. Ob ich mich für eine bessere oder schlechtere CPU/GPU entscheide liegt immer im Auge des Betrachters. Im Mittel ist man aber (im Mainstreamsegment) mit 4T Intel deutlich besser bedient und kann dann eine entsprechend bessere GPU holen. Ich weiß auch nicht wie du auf 70 Euro kommst. Einen FX-6xxx gibt es ab ca. 115 Euro, einen i3-Egalwelcher gibts schon ab 100 Euro.
aufkrawall
2015-07-13, 15:50:58
Richtig, Watch Dogs und Crysis 3 beweisen das eindeutig. (laut PCGH Benchmark)
Welches Spielt kommt mit HTT bei einem i3 nicht klar? Link?
Von einem i3 hat auch niemand gesprochen.
Welches Spielt kommt mit HTT bei einem i3 nicht klar? Link?
Von einem i3 hat auch niemand gesprochen.
Wenn du von FX sprichst, musst du dich schon einschränken. Ein FX8 ist sicher nicht mehr sinnvoll heute, aber ein FX4/6 sieht da schon ganz anders aus. Pauschal kann man eben nicht sagen, dass der FX heute überflüssig ist und Leute, ihr macht euch das mit den Preisen immer zu einfach. Das gilt auch für Grafikkarten. Selbst wenn ein Tahiti heute veraltet ist, ist er für 185€ immer noch ein geniales Angebot. Für FX6 gilt ähnliches. Und es gibt viele Leute, die gerne was spielen und kaum finanziellen Spielraum haben. Da ist ein FX6 mit 280 mal eben 120€ billiger als ein I5 4460 + GTX960(4G). Neuere Technik ist gut und schön, aber die Relation ist wichtig.
Deathcrush
2015-07-13, 15:55:13
Welches Spielt kommt mit HTT bei einem i3 nicht klar? Link?
Von einem i3 hat auch niemand gesprochen.
Natürlich war davon die rede, nur nicht mit dir!
http://www.pcgameshardware.de/screenshots/original/2014/05/Watch_Dogs-CPU-Benchmarks-pcgh.png
http://i.ytimg.com/vi/X4w38Ime0UY/maxresdefault.jpg
Und wenn ich mich zwischen einem Corei3 oder FX entscheiden muss, würde ich jederzeit wieder den FX6xxx nehmen.
Unicous
2015-07-13, 16:16:11
Ich nicht. Denn dann wäre ich auf eine 4 Jahre alte CPU-Infrastruktur beschränkt, mit wenn man ehrlich ist ca. 8 Jahre altem chipset und dementsprechenden feature set, das maximal von den Boardpartnern durch Extra-Chips halbwegs auf aktuellem Stand gehalten wird.
Je nachdem wie alt der Rechner werden soll, kann ich dann später sogar noch von i3 auf i5 upgraden und hätte dennoch die neuere Plattform mit besseren feauture set und total cost of ownership.
Da hole ich mir lieber etwas gebraucht, als ein komplett neues FX-System aufzusetzen.
Cyphermaster
2015-07-13, 16:21:57
@Cyphermaster
Wir sind hier in einem von Spielen, und der dafür nötigen Hardware, dominierten Forum. Die Spiele-Leistung interessiert also hier vordergründig und insbesondere auch Multimedia-Leistung. Dass Menace die einfach beiseite wischt, als wäre sie hier und generell nur nebensächlich ist ein ziemlich schlechter Witz. Er schließt vom Speziellen ( nämlich seiner Nutzung/Nutzungsverhalten) aufs Allgemeine, nicht ich.Deine Schlußfolgerung, daß a) hier die Spiele- und Multimedialeistung immer vorrangig/ausschließlich zu betrachten wäre und b) daraus eine Verallgemeinerung für die Wertigkeit einer Architektur generell (Anmerkung: Das ist nochmal etwas Anderes, als die darauf basierenden CPUs...) zu machen, ist in keiner Form unterschiedlich zu Menace - nur inhaltlich eben von der anderen Seite aufgezogen. Um deine eigene Wortwahl zu benutzen: Wenn er die Spieleleistung komplett beiseite wischt, als wäre sie nebensächlich, und das ist ein ziemlich schlechter Witz, ist dieser schlechte Witz bei dir nicht besser, nur weil du einen anderen Teil beiseite wischt.
Du gehst also ganz klar keinen halben Meter von der Allgemeinheit aus. Davon ganz zu schweigen, daß du eventuelle neue Aspekte unter einem Wust an altbekannten Platitüden "zuschreibst", was ich für kontraproduktiv halte.
Cyphermaster
2015-07-13, 16:27:47
Vor allem wird aus einem Rosinen Gepicke kein zweiter Frühling.Das ist doch der eigentliche, einzig neue Punkt in den letzten Posting, den es zu betrachten/diskutieren lohnt: Wieviele Rosinen gibt's denn mittlerweile, bzw. sind das jetzt mehr als früher - oder nicht?
Ich nicht. Denn dann wäre ich auf eine 4 Jahre alte CPU-Infrastruktur beschränkt, mit wenn man ehrlich ist ca. 8 Jahre altem chipset und dementsprechenden feature set, das maximal von den Boardpartnern durch Extra-Chips halbwegs auf aktuellem Stand gehalten wird.
Je nachdem wie alt der Rechner werden soll, kann ich dann später sogar noch von i3 auf i5 upgraden und hätte dennoch die neuere Plattform mit besseren feauture set und total cost of ownership.
Da hole ich mir lieber etwas gebraucht, als ein komplett neues FX-System aufzusetzen.
Jetzt tu nicht so, also würde der 1150 soviel besser sein als AM3+.
Klar, für den Sockel gibts 400€-Prozessoren, aber die Vergangenheit lehrt, dass man sich dafür ein Eis backen kann, da die nicht billiger werden, als dass sich hier ein Upgrade lohnen würde.
Zu den anderen Themen: Ok, eine M.2-Platte wird nicht die Datentransferraten erreichen - aber im Low-End? Ja und? Immerhin gibt es AM3+-Plattformen mit M.2. PCIe2 ist kein Nachteil und wird auf absehbare Zeit auch keins - klar ist die Plattform im Prinzip seit 2009 auf dem Markt. Allerdings halten sich die Innovationen, die einen Kauf von Sockel 1150 zwingend machen würden doch stark in Grenzen. Ich hab jedenfalls keine Hemmungen, jemanden, der eine CPU für 100€ haben will, ein passendes AM3+-Board zu empfehlen, wie schon öfter passiert i.Ü.
aufkrawall
2015-07-13, 16:38:13
Natürlich war davon die rede, nur nicht mit dir!
http://www.pcgameshardware.de/screenshots/original/2014/05/Watch_Dogs-CPU-Benchmarks-pcgh.png
http://i.ytimg.com/vi/X4w38Ime0UY/maxresdefault.jpg
Und wenn ich mich zwischen einem Corei3 oder FX entscheiden muss, würde ich jederzeit wieder den FX6xxx nehmen.
Was sieht man da? Der i3 ist mit HTT trotz geringerem Takt immer noch schneller als ein Phenom II mit vier Kernen.
HTT funktioniert also gut, was du angezweifelt hast.
Es funktioniert auch mit vier Kernen gut, zumindest mit dem NV-Treiber. HTT ist bei allen neuen Spielen mit vier Kernen sehr hilfreich.
Unicous
2015-07-13, 16:50:13
@Cyphermaster
Ja genau. Ich habe aufgezeigt, dass er die Spieleleistung marginalisiert... in einem 3D-Spieleforum. Du unterstellst mir aber, ich würde im Umkehrschluss die Leistung bei anderweitigen Anwendungen marginalisieren. Das habe ich aber aber überhaupt nicht gemacht. Verstehe daher auch nicht warum du versuchst mir das anzulasten.
Die Anwendungsfälle in denen die Bulldozer-Familie rein rein von der Leistung mal einen Vorteil hat oder auch nur gleichzieht(Effizienz ausgeklammert) sind aber wie man so schön sagt few and far between... man kann sie mit der Lupe suchen.
Das auch interessiert niemandem im Server-Bereich, im Workstation-Bereich und auch nicht im Consumer-Bereich. Die Nischen sind so eng und klein, dass sich da kein FX oder Opteron hineinzwängen kann.
Und gerade hier ist total cost of ownership wichtig. Was kostet mich System X über Jahre Y in der Gesamtheit, mit allem drum und dran. Infrastruktur, Betriebskosten etc.. Und da sieht AMD einfach kein Land.
Und bei den Privatanwendern kann AMD froh sein, dass sie noch die paar Hardcore-Fans hat die sich einen FX leisten obwohl es heutzutage wenig Sinn macht und zur Markteinführung auch wenig Sinn machte, weil ein Phenom II besser oder zumindest gleich schnell war... und noch nicht mal mehr verbrauchte. Auch heutzutage macht es fast mehr Sinn einen PhII zu kaufen (solange Vorrat reicht... und der Preis stimmt), als ein FX-6xxx oder gar Fx-8xxx. Spiele und Anwendungsleistung sind gemittelt einfach nicht konkurrenzfähig, einzelne Ausschläge nach oben sind für das Gros... für die Allgemeinheit;) nicht relevant.
Es gibt auch nur sehr wenige Anwendungen die nachträglich mal Mehrkernoptimierungen erfahren haben und wo Bulldozer ansatzweise bei der Leistung mitziehen kann. Im Großen und Ganenz und für die Allgemeinheit gesprochen;), macht ein FX-System wenig Sinn, speziell wenn es über Jahre laufen soll. Denn im Vergleich erhöht sich hier die TCO stärker als bei einem Intel-System. Und darüber hinaus gibt es große Unzulänglichkeiten bei sämtlichen I/O Schnittstellen. Die Chipsätze sind so veraltet, dass sie nicht nur hinterherhinken sondern man nicht mal die komplette Leistung abrufen kann. Siehe als Beispiel SATA-SSD auf einem AMD-Chipsatz.
@HOT
Ach jetzt sind wir schon bei 100 Euro CPUs angelangt. ;)
Die AMD Chipsätze hängen gnadenlos hinterher und waren selbst 2011 schon nicht mehr auf der Höhe der Zeit. Du halbierst im Grunde genommen den (Schreib-)durchsatz der SSD. Da ist es auch egal ob du im Low End, 100 Euro aufwärts;D;D;D, wie du es bezeichnest m.2 Steckplätze hast.
Auch USB 3.0 bekommt man nur über Zusatzchips, die wiederum die Kosten erhöhen und iirc auch nicht das komplette Potential von USB 3.0 ausschöpfen können.
Was sieht man da? Der i3 ist mit HTT trotz geringerem Takt immer noch schneller als ein Phenom II mit vier Kernen.
HTT funktioniert also gut, was du angezweifelt hast.
Es funktioniert auch mit vier Kernen gut, zumindest mit dem NV-Treiber. HTT ist bei allen neuen Spielen mit vier Kernen sehr hilfreich.
Das ist schlicht falsch. Es gibt Titel die reagieren ganz gut auf SMT (meist maximal 20% aber) und es gibt welche, die reagieren überhaupt nicht gut. Man sieht, dass auch die Cryengine-Titel ziemlich mies, also oft nicht wirklich flüssig, darauf laufen. Das ist beim FX6 einfach nicht so. Der i3 ist ein 2-Kerner und bleibt ein 2-Kerner und das ist für viele fordernde Sache einfach zu wenig.
Ein i3 ist für Gaming eine furchtbar schlechte Empfehlung, ein i5 wäre natürlich besser. Wenns finanziell nicht geht, oder man das finanziell einfach nicht will, bleibt halt nur der FX6, oder wenn es noch knapper wird, der FX4.
Nicht umsonst sieht auch die PCGH hier bei ihren 400 und 500€-PCs genau diese AMD-Prozessoren vor, genau aus dem Grund, dass der Pentium für Spiele total ungeeignet ist und der i3 nur sehr eingeschränkt.
Ich mein, der i3 ist die perfekte WoT oder SC2 CPU, aber das sind ja totale Ausnahmen. Bei ACU, C3, Ryse, DAI uvm. sieht der FX6 einfach extrem viel besser aus als der i3.
Eigentlich ist es sogar ziemlich erschreckend, dass ein I3 oft nicht mal auf K10-Niveau spielt.
anddill
2015-07-13, 17:29:03
Die Chipsätze hängen hinterher weil es sich nicht gelohnt hat die FX-CPUs und damit die Chipsätze weiterzuentwickeln. Und inzwischen empfehle ich auch keine FX mehr, außer in sehr speziellen Fällen. Aber vor ca 1-2 Jahren war die Alternative halt Intel-Dualcore (am besten noch mit 2 Threads) oder FX zum selben Preis. Die FX-Empfehlungen wurden immer niedergeschrien mit Beispielen wie: In Uraltspiel X bring der Pentium 250fps, der FX nur 150fps!!! In Spiel Y mit Engine von 1990 bringt i3 150fps, der AMD nur 100!!!111 usw.
Und wie vorhergesagt werden jetzt die Beispiele immer zahlreicher wo der FX eben doch im selben Bereich wie (damals) deutlich teurere Intels wildert.
Aber die Schlacht ist inzwischen entschieden, macht keinen Sinn deshalb jetzt wieder die Fackeln und Mistgabeln rauszuholen.
aufkrawall
2015-07-13, 17:31:40
Das ist schlicht falsch. Es gibt Titel die reagieren ganz gut auf SMT (meist maximal 20% aber) und es gibt welche, die reagieren überhaupt nicht gut. Man sieht, dass auch die Cryengine-Titel ziemlich mies, also oft nicht wirklich flüssig, darauf laufen.
Glaub das mal, ich habe gegenteilige Erfahrungen gemacht (mit vier Kernen).
Flusher
2015-07-13, 17:32:58
Dann gibts nur PCIe 2.0, völlig inakzeptabel.
Unsinn
http://geizhals.eu/asus-tuf-sabertooth-990fx-gen3-r2-0-90mb0dl0-m0eay0-a903371.html
AFAIR war AMD sogar erster mit PCIe 3.0 Brettern im Markt
aufkrawall
2015-07-13, 17:37:21
Ok, das mit den Brückenchips war mir so nicht bekannt.
In wie weit kommen die tatsächlich an natives 3.0 ran?
dildo4u
2015-07-13, 17:39:51
Bei ACU, C3, Ryse, DAI uvm. sieht der FX6 einfach extrem viel besser aus als der i3.
Eigentlich ist es sogar ziemlich erschreckend, dass ein I3 oft nicht mal auf K10-Niveau spielt.
Wo?
http://abload.de/img/aps7m.jpg
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-RPG-dragon_age_inquisition-test-DragonAgeInquisition_proz_amd.jpg
Ryse
http://abload.de/img/rysevguwa.png
http://www.computerbase.de/2014-10/ryse-benchmark-grafikkarten-vergleich-test/
Der einzige Ausfall scheint Crysis 3 zu sein vermutlich wegem dem Grass was perfekt skaliert.Ist das nicht zu sehen verschwindert der Vorteil für AMD.
Flusher
2015-07-13, 17:44:03
Ok, das mit den Brückenchips war mir so nicht bekannt.
In wie weit kommen die tatsächlich an natives 3.0 ran?
Nicht so weit - typischerweise stellen die 32 3.0 Lanes zur Verfügung werden aber nur mit 16 2.0 an die Northbridge angebunden. Bei SLI/CF könnte man evtl. Vorteile sehen, sofern die Karten die Kommunkation direkt über den Chip abwickeln, und nicht noch erst zur CPU müssen.
Unicous
2015-07-13, 17:45:48
@anddill
Ich sehe keine Mistgabeln und Fackeln.:confused: Nur den xten Versuch Bulldozer besser dastehen zu lassen, als er am Ende ist, mit Hilfe fragwürdiger Benchmarkergebnisse.
FX macht meiner Meinung nach in keiner Konstellation mehr Sinn, auch vor zwei Jahren nicht, einzig und allein wenn man stur auf die Anschaffungskosten achtet. Denn wenn man abseits der fps-Zahlen guckt, ist die Intel-Plattform mit mehr features gesegnet, effizienter und über alle Anwendungsfälle samt I/O-Performance leistungsfähiger.
Wenn man eben nicht den Max fps nacheifert macht es mehr Sinn einen Einsteiger-Intel und entsprechende AMD/Nvidia GPU zu nutzen, und leider trifft das auch oft bei den APUs zu, vor Allem weil man auf teureren Speicher angewiesen ist um die APU ordentlich nutzen zu können.:redface:
@Flusher
Das glaubst du doch jetzt selber nicht. Der PLX-Chip Blödsinn ist doch nichts als Augenwischerei. Und natürlich hatte Ivy Bridge schon PCIe 3.0 Support und entsprechende Boards.
aufkrawall
2015-07-13, 17:49:07
Nicht so weit - typischerweise stellen die 32 3.0 Lanes zur Verfügung werden aber nur mit 16 2.0 an die Northbridge angebunden. Bei SLI/CF könnte man evtl. Vorteile sehen, sofern die Karten die Kommunkation direkt über den Chip abwickeln, und nicht noch erst zur CPU müssen.
Ok. Dann sehe ich meine Argumentation allerdings nicht entkräftet. ;)
Wenn der VRAM mal voll ist, wird über PCIe ausgelagert. Mit 3.0 ist natürlich die Gefahr von Stockern geringer und wahrscheinlich macht sich 3.0 bei der Performance allgemein zunehmend stärker positiv bemerkbar (Ryse, Witcher 3).
Menace
2015-07-13, 18:17:33
:eek: Soviel Aufregung um so eine alte CPU? Ist das wie mit Autos, dass die "Charakter" besitzen müssen? :tongue:
Wie wäre es wenn du mal die unangebrachten Spitzen zuhause lässt und dich auf das Wesentliche konzentrierst.:)
Findet ihr euch nicht ein bisschen selbst peinlich, dass euch bei einer Anomalie, die in einem! Spiel auftritt, die Höschen aufplatzen.:freak:
"Was interessiert mich mein Gequatsche von vorhin"-Syndrom? :rolleyes:
Die FXler machen sich halt durch den höheren Verbrauch selbst als Billigheimer nicht wirklich empfehlbar[...]
Das ist der wirkliche Nachteil eines FXlers (zumindest je höher man taktet).
Ja, hab ich damals getestet: http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
Ja, danke, das habe ich gemeint.
Die FX-Empfehlungen wurden immer niedergeschrien mit Beispielen wie: In Uraltspiel X bring der Pentium 250fps, der FX nur 150fps!!! In Spiel Y mit Engine von 1990 bringt i3 150fps, der AMD nur 100!!!111 usw.
Und wie vorhergesagt werden jetzt die Beispiele immer zahlreicher wo der FX eben doch im selben Bereich wie (damals) deutlich teurere Intels wildert.
Aber die Schlacht ist inzwischen entschieden, macht keinen Sinn deshalb jetzt wieder die Fackeln und Mistgabeln rauszuholen.
Wieder einmal mehr ein sachlicher Beitrag. :up:
@anddill
Ich sehe keine Mistgabeln und Fackeln.:confused: Nur den xten Versuch Bulldozer besser dastehen zu lassen, als er am Ende ist, mit Hilfe fragwürdiger Benchmarkergebnisse.
Es mag Dir nicht in den Sinn kommen, aber es geht nicht darum, dass man den FX besser als intel darstellt, sondern dass man aufzeigt, dass er nicht so schlecht ist (obwohl er schon alt ist) wie häufig dargestellt wurde. Mistgabeln siehe oben.
Daneben kann die individuelle Entscheidung sein, dass man nicht nur CPUs nach technischen Möglichkeiten sondern auch nach Politik kauft. Ich kaufe immer noch intel-CPUs aber seit ihr Geschäftsgebaren zum Teil publik wurde, versuche ich, sofern es keine große Nachteile gibt, intel vorerst zu meiden. Kann aber jeder für sich entscheiden.
Zurück zu FX: Warum sollte ich den Kauf bereuen, wenn mein Rollenspiele und Strategiespiele (wie auch Ashes of the singularity) problemlos laufen und ich bei CPUlasten Anwendungen keine Nachteile habe?
Edit: Air Force One: Xeon wäre es anstelle von FX auch fast geworden. Aber dann wollte ich intel doch nochmals abstrafen. ;)
Air Force One
2015-07-13, 18:18:11
Bevor ich mir einen X6 oder sonstige AMD Geschichten einbaue, hole ich lieber Einen Intel Xeon samt günstigen Board und fertig.
Wobei man sagen sollte das dank des Euros die Intel CPUs gerne um 50€ teurer geworden sind.
Begeistert bin derzeit eher von AMD APUs.
aufkrawall
2015-07-13, 18:38:12
Wobei man sagen sollte das dank des Euros die Intel CPUs gerne um 50€ teurer geworden sind.
Die US-Wirtschaft wird wegen des ausgeweiteten Billiglohnsektors wohl auch leider nicht mehr zu besseren Preisen in € beitragen und da Griechenland offenbar im Euro bleibt, wird die EZB weiter am schwachen € festhalten.
Hardware ist nun einfach teurer, muss man sich mit abfinden.
Unicous
2015-07-13, 18:55:05
@Menace
Weil ich einen kleinen Gag mache, der an niemanden direkt gerichtet war nimmst du dir im Gegenzug das Recht heraus mich persönlich anzumachen.:confused:
Fakt ist: Bulldozer hat nicht an Leistung zugelegt über die Jahre. Er ist also nicht schlechter geworden oder besser. Er dümpelt auf dem gleichen mittelmäßigen Niveau herum und was schlecht ist und was gut liegt zwar im Auge des Betrachters, aber wenn genug Augen zusammenkommen ergibt sich ein Gesamtbild. Und das hat sich nicht mal ansatzweise verändert.
Hier geht es nicht um deine persönlichen Befindlichkeiten und was und ob du etwas bereust oder nicht, tut hier nichts zur Sache. Du schließt wieder von dir auf Andere und das ist der Knackpunkt in deiner Argumentation.
Was du als ausreichend und gut für deine Anwendungsfälle erachtest, wird vom Markt anders gesehen. Und da AMD auch außer ein wenig Binning nicht weiter in die FX-Serie investiert hat wird sich daran auch nichts ändern.
Hier will niemand deine persönliche Kaufentscheidung madig machen oder in Zweifel ziehen, es geht um den Blick über den eigenen Garten hinaus. Und da sieht es ganz "subjektiv objektiv" einfach nicht gut aus.
Und nein, es wird nicht besser. CPUs sind kein Wein und Singlethreading Performance wächst und gedeiht nicht über Zeit und man pflückt sie irgendwann von der Rebe. Diese Defizite verschwinden auch nicht auf magische Weise wenn man auf Mulithreading optimiert, die einzelnen Kerne sind dann immer noch zu schwachbrüstig. Mit LL-APIs kann man diese Schwachstelle in Spielen maximal kaschieren. Bulldozer wird dadurch aber nicht "besser", man verschiebt lediglich den Flashenhals. Bei "normalen" Anwendungen gibt es diese Möglichkeit nicht und HSA ist eine klare General Purpose Compute-Architektur , die eine enge Zusammenarbeit von CPU und GPU voraussetzt. Das kann Bulldozer nicht leisten.
Fakt ist: Bulldozers ST-Leistung ist zu schwach um sie durch die vielen Kerne wieder reinzuholen. Das wird sich nicht ändern und auch nicht besser. Wäre die Singlethread-Leistung auch nur auf Nehalem-Niveau und die MT-Leitung dementsprechend hoch, wäre Bulldozer ein kleiner Achtungserfolge gewesen auf dem man hätte aufbauen können. So bleibt nur der bittere Nachgeschmack, dass CMT nicht funktioniert.
Menace
2015-07-13, 19:08:37
Da Spiele mich nur hin und wieder interessieren, bin ich mit meinem 8350 auch sehr zufrieden.
:eek: Wenn ich im GPU-Limit spiele behindert mit der FX-8350 inwieweit? :rolleyes:
Das ist aber MEIN Nutzungsprofil. Im Vergleich zu anderen Menschen gehe ich nicht davon aus, dass die Welt am meinen Wesen genesen muss. :rolleyes:
@Menace
Weil ich einen kleinen Gag mache, der an niemanden direkt gerichtet war nimmst du dir im Gegenzug das Recht heraus mich persönlich anzumachen.:confused:
Wo habe ich Dich jetzt persönlich angegriffen? Ich betone immer wieder, dass ich meine Hardware nach meinem Nutzungsprofil und meinen Geschmack aussuche. Ich verurteile oder missioniere niemanden welche CPU er kaufen sollte und welche für ihn die beste ist. Wenn man aber über AMD-Hardware spricht wird genau dieses permanent gemacht, unabhängig ob es Sinn macht oder nicht. Schau Dir einmal die letzten 2 Seiten an. Zwei, drei Leute freuen sich, dass der FX in einem neuen Spiel nicht völlig abkackt und schon fühlen sich viele bemüssigt Wortreich das Gegenteil zu beweisen. Das meine ich, an meinen Wesen muss eben die Welt nicht genesen; weil es mir egal ist, wer welche CPU/GPU oder was auch immer verbaut.
Pulle
2015-07-13, 19:09:45
Ich war auch lange Zeit mit meinem FX-6300 sehr zufrieden, allerdings ist mit aktuellen Spielen (2014/2015) immer öfters Ende Gelände (vor allem mit meiner AMD Grafikkarte, vermutlich wegen des Treiber-Overheads).
Bestes Beispiel: Assassins Creed Unity, nur sehr schwer erträglich mit FX-6300 auf 4.5 GHz und einer R9-290. Da ist in 1080p zwischen minimalen und maximalen (ausgenommen AA) Details praktisch kein Unterschied in der Framerate, läuft mit gut 30fps, aber ist gefühlt extrem ruckelig. Gleiche Geschichte lustigerweise auch letztens mit Witcher 2 (wohlgemerkt: 2, nicht 3), das macht auch nicht so richtig Spaß auf der CPU, obwohl es nun ja schon einige Jahre auf dem Buckel hat. Auch hier wieder praktisch keine Unterschiede in der Framerate, egal ob 800x600 minimale Details oder 1440p maximale Details.
Mag sein, dass in Anwendungssoftware das Plus an physischen Cores die Nachteile noch überwiegt, zum Spielen aber ist Bulldozer heutezutage meiner Meinung nach nicht mehr zu empfehlen (vielleicht sieht es mit NVidia Grafikkarten anders aus, aber das gehört nicht hier her...).
aufkrawall
2015-07-13, 19:11:08
Auch für Nicht-Spiele ist ein Xeon wesentlich besser. Was hat das mit dem eigenen Geschmack zu tun? Ist ja nun kein Kaubonbon, sondern eine CPU, die man nach objektiven Maßstäben messen kann.
Menace
2015-07-13, 19:16:36
Auch für Nicht-Spiele ist ein Xeon wesentlich besser. Was hat das mit dem eigenen Geschmack zu tun? Ist ja nun kein Kaubonbon, sondern eine CPU, die man nach objektiven Maßstäben messen kann.
Rein technisch kann das stimmen, aber man kann auch so wahnsinnig sein, Konkurrenz aufrecht halten zu wollen, eine Schwäche für Underdogs zu haben oder -wie schon erwähnt- sauer auf die Politik von intel zu sein. Und wenn ich das Vergleiche hat beim Vergleich Xeon <-> FX zu den damaligen Preisen FX gewonnen.
Offtopic Carrizo:
[Verschwörungstheorie]Welche dunkle Macht sorgt eigentlich dafür, dass die Carrizo-APUs in Notebooks immer noch eine dezidierte GraKa mitbekommen und auch sonst Ausstattungstechnisch eher suboptimal sind?[/Verschwörungstheorie]
Unicous
2015-07-13, 19:32:23
Genauso wenig wie du laut eigener Aussage nicht versuchst andere zu AMD zu bekehren, mache ich das auch nicht mit Intel.
Es geht um rein objektive Gesichtspunkte die gegen AMD sprechen. Und es ist nicht nur die CPU sondern die gesamte Plattform die von AMD nicht gepflegt wurde und deswegen schlicht und einfach nicht mehr auf der Höhe der Zeit ist und man im Endeffekt draufzahlt wenn man sich momentan) für AMD entscheidet.
Es geht nicht mir nicht ums Bashing. Aber diese Nostalgie die nach wenigen Jahren einsetzt und die Fakten verklärt finde ich persönlich einfach daneben.
Bulldozer hat viel zu viele Defizite, als das man im Nachgang sagen kann: Och eigentlich nicht so schlecht und man dabei einzig und allein Szenarien betrachtet die Bulldozer vergleichsweise gut dastehen lassen und dabei völlig ausblendet, dass es in anderen Bereichen riesige Klippen aufgebrochen sind.
Diese Verklärung hilft im Endeffekt niemandem.
Was man am Ende ganz subjektiv kauft ist eine andere Sache. Wie gesagt, der Trinity HTPC war rein objektiv keine gute Geldanlage, rein subjektiv habe ich ich mir das System dennoch zugelegt.:wink:
Zu Carrizo
Die dunkle Eminenz ist die Marketing- und Produktabteilung von AMD, die die solche Bundles explizit schnüren und vermarkten, samt Chipsatz (wenn möglich/nötig, bei Carrizo natürlich nicht).
Deathcrush
2015-07-13, 19:45:27
Bestes Beispiel: Assassins Creed Unity, nur sehr schwer erträglich mit FX-6300 auf 4.5 GHz
Komisch, ich habe mit dem FX6300 @4,4GHZ bisher bei Unity absolut keine Probleme, eigentlich immer über 40FPS, allerdings mit einer NV 970.
http://extreme.pcgameshardware.de/attachments/784901d1415818136-assassins-creed-unity-erste-pc-benchmarks-acub5.jpg
Menace
2015-07-13, 20:11:55
Es geht um rein objektive Gesichtspunkte die gegen AMD sprechen. Und es ist nicht nur die CPU sondern die gesamte Plattform die von AMD nicht gepflegt wurde und deswegen schlicht und einfach nicht mehr auf der Höhe der Zeit ist und man im Endeffekt draufzahlt wenn man sich momentan) für AMD entscheidet.
Vielleicht habe ich die wesentliche postings überlesen, aber keiner hat doch momentan Werbung gemacht, jetzt noch AMD FX zu kaufen. Der Tenor war, dass FX auch mal gut da steht. Auch las ich nichts, dass man FX für AMDs Meilenstein hält; es ging vielmehr um persönliche Erfahrungen und Relativierungen. Aber was rede ich; ich glaube Du hast schon verstanden, worauf ich raus wollte. Ansonsten lies noch einmal Andills Beitrag.
Die dunkle Eminenz ist die Marketing- und Produktabteilung von AMD, die die solche Bundles explizit schnüren und vermarkten, samt Chipsatz (wenn möglich/nötig, bei Carrizo natürlich nicht).
Meinst Du, die haben Einfluss was HP anbietet? Wäre mal wieder ein typischer Fall sich selbst ins Knie zu schießen. Sie müssten doch zumindest bei einigen Modellen dafür sorgen, dass keine extra GPU eingebaut wird. Wieso verkaufen sie denn APUs. :freak: Und möchte AMD, dass glare-Displays und DDR3 verbaut werden? (http://www.planet3dnow.de/cms/18126-carrizo-laptop-nun-auch-von-hp-aufgetaucht-lagernd/) Aber das ist hier zu offtopic.
Unicous
2015-07-13, 20:29:48
Ja hast du offensichtlich. Siehe z.b. HOTs Postings. Das mit dem momentan war auch eher auf die Zukunft gerichtet. Ich hoffe, dass Zen diese Situation im nächsten Jahr wieder zurecht rückt.
Der FX steht aber nicht "mal" gut da nur weil in einem Spiel im GPU-Limit eine Anomalie auftritt, die auch noch nicht mal unabhängig nachgeprüft wurde. Die Frage ist eher, warum diese Anomalie aufgetreten ist. Sie hat auch keine Auswirkung auf den mittlerweile über Jahre gebildeten Konsens. Als Analogie kann man auch die Klimaforschung nehmen. Da treten auch mal Anomalien auf, die nicht so einfach erklärt werden können. Das heißt aber nicht, dass der wissenschaftliche Konsens, dass die menschgemachte globale Erwärmung existiert, dadurch erschüttert wird.
Wenn du das für dich selbst rechtfertigen willst, kann ich dagegen nichts sagen. Das aber als Argument für 'Seht her, so schlecht ist Bulldozer gar nicht' zu machen und als Diskussionsgrundlage zu nutzen finde ich vermessen.
Und ja, AMD macht das nun schon seit Ewigkeiten und macht für sie auch Sinn. Je mehr Chips sie verkaufen können, umso besser. Die OEMs bekommen sicherlich Rabatte oder ähnlich Anreize und nimmt die eingesparten Kosten um sich den den Notebooks ein wenig gesund zu stoßen. Ich schätze mal bei Intel verdienen sie am Notebook prozentual weniger.
Menace
2015-07-13, 20:46:35
Für andere ermündende Diskussion mit Unicous; mein letzter Beitrag dazu. Versprochen:
Hot hat später geschrieben; Chronologie der Ereignisse beachten und nicht nachträglich etwas zurechbiegen.
Sie hat auch keine Auswirkung auf den mittlerweile über Jahre gebildeten Konsens. Als Analogie kann man auch die Klimaforschung nehmen. Da treten auch mal Anomalien auf, die nicht so einfach erklärt werden können.
Stimmt, hier wird ja naturwissenschaftlich gearbeitet und argumentiert. Wenn ich selten an ein CPU-Limit komme (und es anderen Usern genauso geht), dann ist der FX schlecht, weil? Andere CPU besser wären, auch wenn man das aber gar nicht spüren würde, da z.B. die FX meine RAW-Konvertierung zusammen mit der OpenCl AMD-Karte einfach nur so runterrotzt? Ich neben einer Strategieschlacht nebenher indizieren lassen kann. Ohne Probleme mit QuarkXpress, Illustrator, Capture 1, X1, Copernic Search, Imatch, PS parallel arbeiten kann. Und gut, dass Du folgenden Leute Objektivität absprichst:
Die Dinger performen im Alltag definitiv klasse, es haben ja auch schon diverse Tests gezeigt, dass ein FX-8 wegen seiner acht Integer-Schleudern besser bei hoher Mischlast klarkommt als ein Vierkerner mit SMT.
Ja, hab ich damals getestet: http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
Und wie vorhergesagt werden jetzt die Beispiele immer zahlreicher wo der FX eben doch im selben Bereich wie (damals) deutlich teurere Intels wildert.
Unicous
2015-07-13, 20:55:46
Deine beschissenen Unterstellungen im ersten Satz haben mich dazu bewogen nicht weiterzulesen. Die Chronologie meines Beitrags im Thread ist eindeutig, wenn du jeden einzelnen Satz auf dich beziehst, ist das dein Problem. Verbiege nicht meine Kommentare um zu versuchen mir eins reinzuwürgen.:rolleyes:
Ganz ohne Spoiler, denn den Spam hättest du ja dann auch per PM raushauen können.
Nur eins noch: Mischlast ist eine schwammige und nicht greifbare Metrik und hat keine Aussagekraft, genauso wenig wie Streaming über CPU in Zeiten von Shadowplay und Raptr Gedöns.
...
Der FX steht aber nicht "mal" gut da nur weil in einem Spiel im GPU-Limit eine Anomalie auftritt, die auch noch nicht mal unabhängig nachgeprüft wurde. ...
Nach dem Motto es kann nicht sein, was nicht sein darf, oder wie?
KA warum du hier so vehement abgehst (und natürlich schlagen wie immer nur die anderen über die Stränge:rolleyes:) und auch Aussagen vom FX-Besitzern nicht akzeptieren willst (hast du schon mal selbst einen gehabt?).
Keiner hebt hier den alten FX in den Himmel, aber so schlecht, wie er von Anfang an teilweise gemacht wurde, ist er eben auch nicht und manchmal glänzt er eben sogar.
aufkrawall
2015-07-13, 21:22:12
Im Pippi Langstrumpf-Land tut er das ganz sicher!
Denn in der Realität wirst du wahrscheinlich nicht mit Links dienen können, um deine Aussage zu unterstützen...
Im Pippi Langstrumpf-Land tut er das ganz sicher!
Denn in der Realität wirst du wahrscheinlich nicht mit Links dienen können, um deine Aussage zu unterstützen...
Also bist du dir noch nicht so sicher?:lol: Ich traue dir durchaus zu, die Stärken/Schwächen dieser ~4 Jahre alten CPUs zu kennen.
Air Force One
2015-07-13, 21:34:12
Bei perversen MultiThread Anwendungen ist der Bulldozer eher brauchbar als gut.
Gab eine Zeit da hab ich auf den Bulli geschielt als ich noch den i7-860 hatte.
Aber wie lang ist das nun her? ;D
StefanV
2015-07-13, 21:38:25
Doch, es gibt sehr wohl einige Spiele, bei denen der Bulldozer glänzt!
Siehe das Video, was ich gepostet habe, zu Tek Syndikate auf Youtube, wo der FX den i7(!) 3770K beim zocken + streamen ziemlich plättet. Insbesondere wenn man mal den Preisunterschied bedenkt (BD bei etwa 150-200€. i7 etwa das doppelte)...
Und auch in einigen (modernen) Spielen schlägt sich der FX 83xx und 9k eigentlich ganz gut.
Unter anderem eben auch in Wolfenstein...
Und auch anderen...
aufkrawall
2015-07-13, 21:39:18
Bei perversen MultiThread Anwendungen ist der Bulldozer eher brauchbar als gut.
Ja, und dabei ist die Effizienz allerdings dann trotzdem noch ähnlich schlecht wie bei Anwendungen, bei denen er völlig schlecht aussieht.
Die Achtkerner ziehen so viel Strom bei x264 im Vergleich zu einem i7, der dabei trotzdem schneller ist, wie zum Henker will man das schönreden?
Wahrscheinlich, indem man es, wie bisher, ignoriert und sich stattdessen auf rosafarbene Allgemeinplätze beschränkt.
Stefan, ich bat um Links, nicht um deine Erinnerungsschnipsel.
Unicous
2015-07-13, 21:40:05
Nach dem Motto es kann nicht sein, was nicht sein darf, oder wie?
Ney, nach dem Motto: Was unabhängige Tests über die Jahre ergeben haben. Oder auch: Es kann nicht sein, was nicht ist. Aber ich bin kein Philosphie-Student, deswegen möchte ich mich da nicht soweit aus dem Fenster lehnen.;)
Diese Augenwischerei und Relativierung der Tatsachen ist einfach nur beschämend. Bulldozer ist und war kein gutes Produkt. Es mag Zeiten gegeben haben, da war das P/L-Verhältnis ok. Das ist aber im Jahre 2015 nicht mehr der Fall. Und auch im Jahre 2014 und 2013 war es das mMn nicht. Am Ende bleibt dann noch die viel zu hohe Leistungsaufnahme die sich auch nach all den Jahren nicht signifikant verringert hat und wo man dann auch kein Auge mehr wohlwollend zudrücken kann.
StefanV
2015-07-13, 21:43:08
Stefan, ich bat um Links, nicht um deine Erinnerungsschnipsel.
Die kannst dir selbst raussuchen.
Ich hab dir nur gesagt, wo du suchen musst.
Gamegpu.ru ist da schon mal eine gute Anlaufstelle...
Aber hast gerade keine Lust zu googeln? Angst, dass meine Aussagen der Wahrheit entsprechen könnten?!
aufkrawall
2015-07-13, 21:45:37
Die kannst dir selbst raussuchen.
Du kannst auch mit dir selber diskutieren. Denk doch nur an all die schönen, dicken roten Buchstaben, die dann niemanden stören würden. :)
Air Force One
2015-07-13, 21:50:24
starke Leistung, AMDs CPU ist bei 0,5% der PC Spiele im Vorteil.... :ulol:
Wie gesagt, ich hab nichts gegen AMD, war auch zur Athlon Serie dabei (sowohl XP als auch 64 und so) und die nächste könnte auch, wenn die Daten stimmen auch wieder ein AMD werden, aber nicht so, nein.
Unicous
2015-07-13, 21:50:27
Angst, dass meine Aussagen der Wahrheit entsprechen könnten?!
:eek:
"Ich zittere, ich zittere."
Gab eine Zeit da hab ich auf den Bulli geschielt als ich noch den i7-860 hatte.
Aber wie lang ist das nun her? ;DDas "lange her" ist ein gutes Stichwort, denn es wird eigentlich wieder Zeit, dass AMD etwas im Bereich der i5er bringt. Leider dauert das wohl nochmal eine gute Weile, bis Zen ansatzweise verfügbar sein wird. Finde es erfreulich, dass es auch wieder einen Spiele-Benchmark gibt, wo ein FX in der Spieleleistung auch etwa da liegt, wo er in Anwendungsbenchmarks gegenüber den Intel-Counterparts erscheint. Da ich eh immer im GPU-Limit fahre, wenn das relevant ist bei den absolut non-shooter-igen Spiele, die ich spiele, fühle ich 0 Nachteil durch den FX im Vergleich mit dem i5 der Freundin.
Bulldozer-Abkömmlinge APUs erlebe ich derzeit nur in meiner Arbeitsumgebung (der Kabini im Fileserver und der Llano im einen Arbeitslaptop haben ja andere Wurzeln, laufen aber geschmeidig und absolut unauffällig). Da schlagen sich die Trinitys und Kaveris problemlos mit den i5. Der grösste Produktivitätsunterschied stammt dort von SSD vs. HDD und dem eingesetzten Antivirenprogramm, sowie für die Adobe-einsetzende Grafikerin in OpenCL/GL Beschleunigung. Sehe bei der Arbeit keinerlei Grund, nicht zum Underdog zu greifen, sofern man - Knackpunkt! - eine brauchbare Konfiguration erhält. Hoffe immer noch auf ein Carrizo-FX/A10-Pro um den Llano auf's Altenteil schicken zu können. Und somit ist die Kurve zum Threadtitel "FX" wieder halbwegs geschafft :biggrin:
Zero-11
2015-07-14, 10:59:35
Im Pippi Langstrumpf-Land tut er das ganz sicher!
Denn in der Realität wirst du wahrscheinlich nicht mit Links dienen können, um deine Aussage zu unterstützen...
http://www.anandtech.com/bench/CPU/28
Air Force One
2015-07-14, 11:34:09
Leistung mag da zwar stimmen, aber dann kommt wieder der Verbrauch ins Spiel.
Wobei der bei einigen ja eher zweit oder drittrangig ist.
StefanV
2015-07-14, 11:53:29
Leistung mag da zwar stimmen, aber dann kommt wieder der Verbrauch ins Spiel.
Wobei der bei einigen ja eher zweit oder drittrangig ist.
...was dann aber oft von Leuten kommt, die 'nen LGA1366 System nutzen oder genutzt haben, die im idle mal locker 30-50W mehr denn 'nen gutes 990FX Board saugen...
...oder von Leuten, die bis an die Kotzgrenze (oder drüber) übertakten, mit Spannungserhöhung...
Und auch im Idle sind die AM3+ Systeme gar nicht soo übel, wie vielfach behauptet wird...
Mit meinem X79 System (MSI X79A-GD45 PLUS) bin ich im idle nicht nennenswert besser als mit dem FX8350 auf Sabertooth 990FX...
Kurz:
Der Stromverbrauch wird immer dann als schein Argument angeführt, wenn alles andere schon ausgeschöpft ist...
Air Force One
2015-07-14, 13:15:02
Kurz:
Der Stromverbrauch wird immer dann als schein Argument angeführt, wenn alles andere schon ausgeschöpft ist...
Ja natürlich, oder willst du Gründe erfinden?
Wenn die Leistung überlegen oder gleich ist oder eben schlechter/besser muss man eben noch andere Eigenschaften zum Vergleich ran ziehen.
Wieder mal scheiß Autovergleich aber egal...
Ich kauf mir doch lieber ein Auto das etwas mehr Kostet, mehr Power hat und dabei weniger Verbrauch hat als ein etwas günstigeres, weniger Leistung und säuft...
Aber schön das der Bulldozer bergab schneller rollt.
Unicous
2015-07-14, 15:07:20
http://www.anandtech.com/bench/CPU/28
Dein Ernst?
Du pickst dir den 2nd Pass raus, in dem sich Bulldozer mal von PhenomII absetzen, lässt aber den 1st Pass außen vor, in dem man sich im Rahmen der Messungenauigkeit bewegt. Die Erklärung, warum Bulldozer/Piledriver da ausnahmsweise im 2nd Pass!!! mal gut abschneiden: der Cache. Die insgesamt 16 MB Cache (L2+L3) und gute Parallelisierbarkeit helfen einer mittelmäßigen Architektur in dem einen Szenario.
Aber... das wurde hier und anderswo schon zig mal erläutert. Jeder weiß das. Das traurige ist doch: man kann sich im 1st Pass nicht dem PhenomII X6 entledigen, der nur mit 3,3 GHz taktet.:rolleyes: Und der hat nur insgesamt 8 MB Cache (2MB L2 + 6MB L3)
Mehr war nicht gefragt.
Aber das ist doch alles bekannt.
Unicous
2015-07-14, 15:48:45
Nein, du Witzbold. Ihr tut so als würde der 2nd Pass für sich allein stehen.
Ich nehme doch nicht einen Teil eines Benchmarks, wo man gut abschneidet und lasse den genauso wichtigen ersten Teil außen vor.:facepalm::facepalm::facepalm:
"manchmal glänzt er sogar" hatte ich geschrieben und mich dann auf nichts weiteres eingelassen, weil das eh jeder weiß.
Hier wurde nun ein Beweis erbracht, nicht mehr und nicht weniger.
Unicous
2015-07-14, 16:29:58
Das stimmt aber nicht. Bloß weil Bulldozer in einigen Szenarien gewisse Vorteile hat, kann man nicht konstatieren, das er manchmal "glänzt". Besonders wenn man das dann auch noch mit der Leistungsaufnahme in Relation setzt.
Nur weil er bei x264 beim Second Pass ganz gut abschneidet wird aus Bulldozer nicht die go to Architektur für Encoder.
Air Force One
2015-07-14, 16:38:40
Eher Nadel im Heuhaufen.
YellowDynamite
2015-07-15, 12:31:21
Ach Leute.
Die meiste Zeit (bzgl. Spielen) bewegt man sich doch sowieso im GPU Limit von daher ist der FX 8XXXX mehr als ausreichend.
Schaut euch doch einfach mal folgenden Test an:
4930/8350 beteuern ein 780/980 SLI System
http://www.tweaktown.com/tweakipedia/56/amd-fx-8350-powering-gtx-780-sli-vs-gtx-980-sli-at-4k/index.html
Ravenhearth
2015-07-15, 12:55:44
Sind dir min fps ein Begriff?
StefanV
2015-07-15, 13:18:53
...die jetzt was genau aussagen, wenn man nicht weiß, wodurch die zustande kommen?!
Aber schön zu sehen, dass man mal wieder die guten Ergebnisse eines AMD Produktes schlecht/zerreden muss...
Deathcrush
2015-07-15, 13:31:30
Sind dir min fps ein Begriff?
Und auch hier habe ich mit meinem FX6300 @4,4Ghz keinerlei Probleme. Und wenn die min. FPS nicht gut sind, sind sie bei einem gleich oder etwas teueren Intel auch nicht viel besser.
http://www.pcgameshardware.de/screenshots/original/2014/05/Watch_Dogs-CPU-Benchmarks-pcgh.png
Der Corei3 für 100€ kackt hier ziemlich ab, der FX6xxx sieht hier bedeutend besser aus, fürs gleiche Geld. Selbst der FX4xxx hat eine bessere Framerate.
Achill
2015-07-15, 14:48:01
Ach Leute.
Die meiste Zeit (bzgl. Spielen) bewegt man sich doch sowieso im GPU Limit von daher ist der FX 8XXXX mehr als ausreichend.
Schaut euch doch einfach mal folgenden Test an:
4930/8350 beteuern ein 780/980 SLI System
http://www.tweaktown.com/tweakipedia/56/amd-fx-8350-powering-gtx-780-sli-vs-gtx-980-sli-at-4k/index.html
Auch wenn ich ein FX habe und diesen ganz lieb gewonnen, finde ich den Test nicht passend. Es gibt auf der Seite einen neueren Test inkl. i7-4770k: i7-4930K vs i7-4770k vs fx-8350 (http://www.tweaktown.com/tweakipedia/58/core-i7-4770k-vs-amd-fx-8350-with-gtx-980-vs-gtx-780-sli-at-4k/index.html)
Hier wird dann auch deutlich, dass:
1. ... bei den getesteten Spielen die SC-Mhz bei den Min.FPS zählen
2. ... der i7-4930K kein Gameing-CPU ist (ohne OC, kein MT-Game / MT-API)
3. ... der FX (für seine Verhältnisse) sich ganz gut schlägt
Die (aktualisierten) Preise:
AMD FX-8350 + ASRock 990FX Extreme3 = 173€ + 103€ = 276€
Intel Core i7-4770K + MSI Z87-G55 = 344€ + 88€ = 452€
Intel Core i7-4930K + MSI X99S SLI Plus =539€ + 207€ = 746€
... sind auch interessant. Man würde heute natürlich ein i7-4790K nehmen (gibt aktuell keinen wirklichen Preisunterschied zum 4770K). Für ein SLI/CF-System sollte man dann nicht auf die ~170€ angewiesen sein. Der i7-4930K ist fürs Gaming m.M.n. einfach zu Teuer (bzw. kann sein Potenzial aktuell noch nicht wirklich ausfahren).
Es wäre mal ein Test interessant, wo man das Szenario betrachtet mit nur eine Summe X (z.B. 1000€) sich für eine Plattform inkl. GPU entscheiden zu müssen. Also FX und 980 TI oder 980 oder 980 oder (2x) 970 bzw. 4790K 980 oder 2x 970, oder i7-4930K und 960 ;D
Stromverbrauch lassen wir mal beseite, dahin gehend schlägt PS4 (~140W bei Last) & XBox (~ 110W bei Last) bei angepassten Spielen schnell unsere PCs (wo wir mehr W für mehr Grafik brauchen).
YellowDynamite
2015-07-15, 15:09:09
Hier auch ein interessanter Test
4770K vs FX 4170 (http://www.ocaholic.ch/modules/smartsection/item.php?itemid=1104&page=4)
Das Resultat ist das Gleiche.
Man kann festhalten, dass sobald es um realitätsnahe und damit relevanten Test Gaming Settings geht, ist es eher letztrangig welche CPU verwendete wird.
Denn diese bremst (zumindest im Vergleich zur GPU) kaum.
Thunder99
2015-07-15, 15:15:26
Hier auch ein interessanter Test
4770K vs FX 4170 (http://www.ocaholic.ch/modules/smartsection/item.php?itemid=1104&page=4)
Das Resultat ist das Gleiche.
Man kann festhalten, dass sobald es um realitätsnahe und damit relevanten Test Gaming Settings geht, ist es eher letztrangig welche CPU verwendete wird.
Denn diese bremst (zumindest im Vergleich zur GPU) kaum.
So lange man nicht ins CPU Limit kommt stimmt das. Ich hab es selber nur extrem bei meinen Spielen gemerkt das der Intel mehr als deutlich bessere fps liefert beim CPU Limit. :eek:
AMD muss da nachholen was hoffentlich mit Zen passiert
robbitop
2015-07-15, 15:17:15
AVG Werte sind ungünstig. Man muss sich die negativen Spikes bzw den Frameverlauf anschauen. Die führen dann im Zweifel dazu, dass es mal ruckelt oder es sich immer mal wieder nicht rund anfühlt.
Auch gibt es schon einige neuere Spiele, die durchaus höheren Bedarf an CPU Leistung haben.
Deathcrush
2015-07-16, 08:40:32
Mir persönlich ist kein Spiel bekannt bzw ich hatte noch kein Spiel auf meiner Festplatte, wo ich sagen müsste, das mein FX mich so limitiert, das ich jetzt eine neue CPU bräuchte. (egal ob WD, TW3, Crysis 3, AC Unity oder BF4) Einzig ArmA 3 zickt rum, aber das war ja schon immer ein klassiker und selbst ein Corei7 schafft da keine Abhilfe im MP. Mich würden mal die Spiele interessieren, die einen Corei5 für ~200€ rechtfertigen, ich selbst bin noch auf keines gestoßen. (Spiele die deutlich unter 35FPS in Extremsituation rutschen)
Botcruscher
2015-07-16, 09:25:47
Schau mal in den Simulationsbereich und nimm noch die Beispiele mit schlechter Mehrkernunterstützung dazu. Da wird der FX regelrecht geschreddert.
Mir persönlich ist kein Spiel bekannt bzw ich hatte noch kein Spiel auf meiner Festplatte, wo ich sagen müsste, das mein FX mich so limitiert, das ich jetzt eine neue CPU bräuchte. (egal ob WD, TW3, Crysis 3, AC Unity oder BF4) Einzig ArmA 3 zickt rum, aber das war ja schon immer ein klassiker und selbst ein Corei7 schafft da keine Abhilfe im MP. Mich würden mal die Spiele interessieren, die einen Corei5 für ~200€ rechtfertigen, ich selbst bin noch auf keines gestoßen. (Spiele die deutlich unter 35FPS in Extremsituation rutschen)Dito. Es scheint andern Usern einfach gut zu tun, FX-Nutzer nicht zufrieden mit ihrem PC sein zu lassen :D
Cyphermaster
2015-07-16, 10:03:09
Ja natürlich, oder willst du Gründe erfinden?
Wenn die Leistung überlegen oder gleich ist oder eben schlechter/besser muss man eben noch andere Eigenschaften zum Vergleich ran ziehen.Stromverbrauch einer Architektur ist aber keine Eigenschaft, die man über unterschiedliche Fertigung vergleichen kann. CPUs, ja, aber nicht Architektur. Dafür müßte man Bulldozer auf Intel-Fertigung übertragen, bzw. umgekehrt, und diese dann vergleichen.
Cyphermaster
2015-07-16, 10:13:44
Schau mal in den Simulationsbereich und nimm noch die Beispiele mit schlechter Mehrkernunterstützung dazu. Da wird der FX regelrecht geschreddert.Beispiele sind nun mal Beispiele, und nicht notwendig Trend. Ich bin auch recht zwiegespalten, was die FX angeht. Zum reinen Zocken würde ich sie sicher nicht unbedingt vorziehen, allerdings je mehr zusätzlich/abseits davon gemacht wird (Datenwurschteln, Bilderbearbeitung in nennenswertem Umfang oder sowas), können sie durchaus gut performen.
Es wäre deshalb für mich interessant, in wie weit sich die zunehmende Parallelisierung und Mehrkern-Unterstützung in der Software in der Breite, also über so ziemlich alle möglichen Anwendungen, mittlerweile gegenüber dem Launch positiv für die explizit darauf hinentwickelten Bulldozer auswirkt, oder eben nicht. Alles andere ist unnützes Geblubber über altbekanntes Zeug, das ich bei Bedarf schon in auf den ersten Threadseiten nachlesen kann, schließlich hat sich an der Hardware nichts verändert.
Deathcrush
2015-07-16, 10:15:17
Schau mal in den Simulationsbereich und nimm noch die Beispiele mit schlechter Mehrkernunterstützung dazu. Da wird der FX regelrecht geschreddert.
Nenne mir doch mal Beispiele, ich werde irgendwie nicht fündig. Wie gesagt, einzig und allein ist mir Arma 3 bekannt, aber da hat auch der Intel mit zu kämpfen. Und schaue ich mir z.B. die Benchmark´s von PCars ist beim FX6 alles im grünen Bereich. Selbst wenn dieser nicht übertaktet ist.
Menace
2015-07-16, 10:15:54
Die Frage wäre noch, wie wirkt sich Vulkan bzw. DX 12 noch nennenswert aus.
Botcruscher
2015-07-16, 10:20:42
Alle X3 Ableger. Sins, Homeworld (+Mods), SupCom, CiM, ein paar Dungeonkeeper Clone, Cities X(X)L...
Die fallen mir sofort ein.
Die Frage wäre noch, wie wirkt sich Vulkan bzw. DX 12 noch nennenswert aus.
Wenn der DX Mainthread nicht limitiert vermutlich überhaupt nicht. BF zeigt ja eher wo die Reise hin geht. Kaum mehr Leistung aber wenigstens bessere Min-FPS.
dildo4u
2015-07-16, 10:32:35
Nenne mir doch mal Beispiele, ich werde irgendwie nicht fündig. Wie gesagt, einzig und allein ist mir Arma 3 bekannt, aber da hat auch der Intel mit zu kämpfen. Und schaue ich mir z.B. die Benchmark´s von PCars ist beim FX6 alles im grünen Bereich. Selbst wenn dieser nicht übertaktet ist.
Projekt Cars läuft nicht ideal einfach Monaco mit 20 Autos testen,Planetside 2 kann man auch vergessen wenn man in große Schlachten kommt.
Watch_Dogs ist ein weiteres Beispiel vorallem wenn man durch die Stadt fährt.
Die GPU schafft locker 60 fps so bald man fährt gibts derbe Einbrüche.Und das ist mit 4.5Ghz.
https://youtu.be/Nx8rjR5Mh08?t=1m15s
Ich hab alle Games selber mit meinem OC AMDX6 gestestet,der FX bewegt sich im selben Bereich.
Die Frage wäre noch, wie wirkt sich Vulkan bzw. DX 12 noch nennenswert aus.Je nach Nutzung durch die Devs ;) Wird, von bisherigen Mantle-Implementierungen, in mehrfacher Hinsicht in CPU-Limits sinnvoll sein. In Benchmarks wirkt sich das v.a. in erhöhten Min-FPS aus, sofern diese nicht GPU-bedingt waren (und genau um CPU-abhängige min-fps geht es ja grad), und in konsistenteren Frameverläufen, weil die GPU konstanter gefüttert wird durch mehr Threads.
StefanV
2015-07-16, 10:35:02
Alle X3 Ableger. Sins, Homeworld (+Mods), SupCom, CiM, ein paar Dungeonkeeper Clone, Cities X(X)L...
Die fallen mir sofort ein.
Auch etwas aus diesem Jahrzehnt und nicht nur stein alte Software, die auf so ziemlich jedem Rechner grotten schlecht läuft, da nicht vernünftig parallelisiert? Das Trifft zum Beispiel auf die X3 Ableger zu, genau wie Homeworlds (von wann war das nochmal? 1999??) Gleiches auch für Supreme Commander, das auch schon bald 10 Jahre alt wird...
Kurzum:
Alles, was du hier aufgelistet hast, ist einfach uralte Software...
Bzw eine noch ältere Engine wird genutzt...
Jetzt bitte noch mal das gleiche bei modernen/aktuellen Dingen...
Aber genau DA schaut es ja eher so aus, als ob die FXen gar nicht mal so übel performen bzw im Vergleich zu früher 'nen ganzes Stückerl besser sind, im Vergleich mit den damaligen CPUs (u.A. i7-3770K)...
Menace
2015-07-16, 10:50:23
Ich danke Euch für den Ausblick. Trotzdem wird es Zeit, dass nächstes Jahr etwas sparsameres kommt. Die nächste 1-2 Jahre komme ich mit dem FX auch noch gut über die Runden *auf Holz klopf*.
zer0fx
2015-07-16, 10:57:52
Hallo,
Ich habe letzte Woche für ein Freund ein PC zusammengestellt. Durch das geringe Budget hab ich zu einem 8320e gegriffen. Damit noch genug Geld für eine passende Graka übrig ist, in dem Fall eine R9 280. Die games sind vor allem WoW und ab und zu mal ein neuer FPS. Aber der FX packt das ziemlich anständig. Und im Vergleich zu einer Intel hätte ich für das Geld max. ein i3 bekommen. Da wären aber gerade die FPS nicht richtig gelaufen. Und ich geh davon aus das zukünftige engines auf zwei Kernen nicht besser laufen werden.
Cyphermaster
2015-07-16, 11:20:19
Trotzdem wird es Zeit, dass nächstes Jahr etwas sparsameres kommt.Das hängt nicht unwesentlich auch von den Chipfertigern ab. Intel fertigt mittlerweile in 14nm, die Bulldozer FX bzw. ihre APU-Verwandten liegen noch immer bei 32/28nm, das hatte Intel schon mit den Clarkdales.
Menace
2015-07-16, 11:29:48
Ich gebe da AMD gar nicht die (alleinige) Schuld. :) Allerdings hatte man ja schon vor der Veröffentlichungen Befürchtungen geäußert, wenn die CPU auch hohen Takt ausgelegt ist.
Thunder99
2015-07-16, 11:45:03
Mir persönlich ist kein Spiel bekannt bzw ich hatte noch kein Spiel auf meiner Festplatte, wo ich sagen müsste, das mein FX mich so limitiert, das ich jetzt eine neue CPU bräuchte. (egal ob WD, TW3, Crysis 3, AC Unity oder BF4) Einzig ArmA 3 zickt rum, aber das war ja schon immer ein klassiker und selbst ein Corei7 schafft da keine Abhilfe im MP. Mich würden mal die Spiele interessieren, die einen Corei5 für ~200€ rechtfertigen, ich selbst bin noch auf keines gestoßen. (Spiele die deutlich unter 35FPS in Extremsituation rutschen)
StarCraft II (liegt auch am Spiel mit dessen max. 2 Kerne ^^), MMO´s wie SW (liegt auch hier an der grottigen Engine). Bei solchen Spielen braucht es eine starke CPU Leistung welche derzeit nur Intel hat, leider.
Ansonsten für ein Budget PC ist nach wie vor AMD gut aufgestellt :)
Cyphermaster
2015-07-16, 11:52:00
Ich meinte das auch für die Zukunft. Egal, was AMD macht, solange sie in Relation zur Intel-Fertigung stark hinterher hinken, haben sie im Groben nur die Wahl, zu gleicher Wattzahl eine langsamere CPU abzuliefern, oder bei gleicher Leistung eine ineffizientere CPU. Also, vorausgesetzt, sie finden nicht grade zufällig den schaltungstechnischen Stein der Weisen, der eine entsprechend riesige Effizienzsteigerung gegenüber Intel bietet und das doch deutliche Fertigungs-Manko kompensieren kann.
Botcruscher
2015-07-16, 11:56:48
Auch etwas aus diesem Jahrzehnt und nicht nur stein alte Software, die auf so ziemlich jedem Rechner grotten schlecht läuft, da nicht vernünftig parallelisiert?
Was nutzt mir das wenn es keine passenden Nachfolger gibt? Homeworld Remake oder Sins sind relativ neu. Der FX ist auch nicht mehr der Jüngste. Die Schwächen wurden genug durchgekaut. Der Indibereich bei Spielen ist noch viel schlimmer. Wer sich auf Softwaresupport verlässt ist verlassen! Egal ob FX, 970 oder Fury...
Deathcrush
2015-07-16, 12:11:39
Projekt Cars läuft nicht ideal einfach Monaco mit 20 Autos testen,Planetside 2 kann man auch vergessen wenn man in große Schlachten kommt.
Wie gesagt, bei PCars muss ich mich auf Benchmarkwerte verlassen, da ich das Spiel selber nicht besitze. Planetside 2 spiele ich auf der PS4 ;) Und alle anderen Games die ich besitze, laufen absolut Rund. Dazu zählen Crysis 2/3, BF4, AC Unity, CS Source, Hard Reset und Witcher 3. Klar, wer maximale Framerate will, muss eine Intel CPU kaufen, mein Ziel heisst aber nicht 60FPS in jeder Situation. Das sind mir die ~150€ mehr für eine CPU einfach nicht wert. Dann lieber eine bessere Grafikkarte.
Watch_Dogs ist ein weiteres Beispiel vorallem wenn man durch die Stadt fährt.
Bei WD habe ich Null Probleme mit der Framerate, komme nie unter 35FPS. Kein Plan was du verkehrt machst.
@Starcraft 2
Selbst Intel CPU´s kommen erst dann mit wenn man eine sündhaft teure CPU sein eigen nennt
Man muss den FX CPU´s einfach zu gute halten, das es im unteren Preissegment einfach keine Intel CPU gibt die da mithalten kann.
N0Thing
2015-07-16, 12:47:09
Bei WD habe ich Null Probleme mit der Framerate, komme nie unter 35FPS. Kein Plan was du verkehrt machst.
Da prallen vielleicht auch unterschiedliche Erwartungshaltungen aufeinander. Ich spiele auch lieber mit schöner Grafik und niedrigen fps, aber Watch Dogs mit 35fps waren für mich zu wenig.
Flusher
2015-07-16, 16:10:30
Auch wenn ich ein FX habe und diesen ganz lieb gewonnen, finde ich den Test nicht passend. Es gibt auf der Seite einen neueren Test inkl. i7-4770k: i7-4930K vs i7-4770k vs fx-8350 (http://www.tweaktown.com/tweakipedia/58/core-i7-4770k-vs-amd-fx-8350-with-gtx-980-vs-gtx-780-sli-at-4k/index.html)
Hier wird dann auch deutlich, dass:
1. ... bei den getesteten Spielen die SC-Mhz bei den Min.FPS zählen
2. ... der i7-4930K kein Gameing-CPU ist (ohne OC, kein MT-Game / MT-API)
3. ... der FX (für seine Verhältnisse) sich ganz gut schlägt
Die (aktualisierten) Preise:
AMD FX-8350 + ASRock 990FX Extreme3 = 173€ + 103€ = 276€
Intel Core i7-4770K + MSI Z87-G55 = 344€ + 88€ = 452€
Intel Core i7-4930K + MSI X99S SLI Plus =539€ + 207€ = 746€
... sind auch interessant. Man würde heute natürlich ein i7-4790K nehmen (gibt aktuell keinen wirklichen Preisunterschied zum 4770K). Für ein SLI/CF-System sollte man dann nicht auf die ~170€ angewiesen sein. Der i7-4930K ist fürs Gaming m.M.n. einfach zu Teuer (bzw. kann sein Potenzial aktuell noch nicht wirklich ausfahren).
Es wäre mal ein Test interessant, wo man das Szenario betrachtet mit nur eine Summe X (z.B. 1000€) sich für eine Plattform inkl. GPU entscheiden zu müssen. Also FX und 980 TI oder 980 oder 980 oder (2x) 970 bzw. 4790K 980 oder 2x 970, oder i7-4930K und 960 ;D
Stromverbrauch lassen wir mal beseite, dahin gehend schlägt PS4 (~140W bei Last) & XBox (~ 110W bei Last) bei angepassten Spielen schnell unsere PCs (wo wir mehr W für mehr Grafik brauchen).
Das ist doch eine Milchmädchenrechnung - wenn du die Plattformkosten schon vergleichst, dann nimm doch bitte auch zur FX-Performance passende Kontrahenten. Und dann auch noch ein Asrock-Board mit MSI vergleichen. :freak:
Ein von der performance passendes Intel-System aus
Core i-5 4460 + ASRock Z97 Extreme3 = 170 + 115 € = 285 €
Dann rechne noch die Stromeinsparungen über eine Laufzeit von zwei Jahren mit ein, und die Intel Plattform bietet in Spielen bei geringerem Preis deutlich mehr.
Ich habe ja durchaus Sympathie mit AMD, aber die CPU Performance unter Spielen ist einfach mies - selbst bei dem niedrigen Preis.
Deathcrush
2015-07-16, 16:19:57
Da prallen vielleicht auch unterschiedliche Erwartungshaltungen aufeinander. Ich spiele auch lieber mit schöner Grafik und niedrigen fps, aber Watch Dogs mit 35fps waren für mich zu wenig.
Mal ne andere Frage, wer glaubst du hat die besseren Frames in WD, ich mit meinem FX6300€ 4,4GHZ und eier 970GTX oder du mit deinem Corei5 2500k und einer NV 770 ;) (vorausgesetzt dein Rechner im Profil stimmt noch) Denn SO viel schneller ist dein Corei5 2500k laut Benchmarks in den min. FPS nämlich gar nicht. Und die 35FPS beziehen sich bei mir auf den Worst Case. Und mehr wirst du mit deiner 770 nämlich auch nicht packen ;)
Achill
2015-07-16, 16:25:18
Hallo Flusher, ich glaube du hast mich missverstanden...
Mir ging es zu aller erst darum, dass der ältere Artikel (http://www.tweaktown.com/tweakipedia/56/amd-fx-8350-powering-gtx-780-sli-vs-gtx-980-sli-at-4k/index.html) nicht so richtig passt und daher habe ich den neuere Artikel (http://www.tweaktown.com/tweakipedia/58/core-i7-4770k-vs-amd-fx-8350-with-gtx-980-vs-gtx-780-sli-at-4k/index.html) von der gleichen Seite (tweaktown.com) verlinkt.
Dann habe ich nur kurz die Preise (inkl. Mainboards - kann man aber gern auch andere nehmen) aktualisiert da der Artikel von 2014.10 war, um dann fest zu stellen, dass man bei einen SLI-System (egal ob NV/AMD) doch die 170€ haben sollte um sich ein 4770k bzw. 4790k zu gönnen.
Sollte nicht so rüber kommen, das ich ein FX empfehle oder das es keine anderen Optionen wie den Core i-5 4460 gibt.
Da im neuen Artikel von tweaktown.com nur die 3 CPUs verwendet werden, habe ich andere CPUs einfach von der Betrachtung ausgeschlossen. Der Core i-5 4460 ist sicher eine nette CPU, nur wie diese sich in einem SLI/CFX System schläg, dazu gibt es keinen Hinweise im Artikel.
VG
Deathcrush
2015-07-16, 16:26:40
Dann rechne noch die Stromeinsparungen über eine Laufzeit von zwei Jahren mit ein, und die Intel Plattform bietet in Spielen bei geringerem Preis deutlich mehr.
Was verbraucht ein Intel System weniger? 50W? Dann macht das bei einer Laufzeit von 4h pro Tag im Jahr gerade mal 26€ weniger. Macht in 2 Jahre ~50€. Ein Corei5 kostet aber 190€. Der FX6300 ist 90€ günstiger
Achill
2015-07-16, 16:46:08
...
Dann rechne noch die Stromeinsparungen über eine Laufzeit von zwei Jahren mit ein, und die Intel Plattform bietet in Spielen bei geringerem Preis deutlich mehr.
...
Was verbraucht ein Intel System weniger? 50W? Dann macht das bei einer Laufzeit von 4h pro Tag im Jahr gerade mal 26€ weniger. Macht in 2 Jahre ~50€. Ein Corei5 kostet aber 190€. Der FX6300 ist 90€ günstiger
Ich hatte ja auch schon geschrieben, dass bzgl. Stromverbrauch die Konsolen gewinnen, und wahrscheinlich auch bzgl. P/L bei Games ...
Rückblicken kann man aber auch einmal Vermuten / Festhalten (keine Kritik), dass jemand mit einen i7-2500k/2600k, der diesen zum Zeitpunkt der FX-8350 gekauft hat und noch immer nutzt (ohne seither starker Übertacktung), diesen gegenüber den damals auch verfügbaren FX über die Stromkosten amotisiert hat.
Wir haben wohl damals alle nicht gewusst, dass die CPU-Entwicklung so stark einschläft... :D
zer0fx
2015-07-16, 18:30:51
Ich hatte ja auch schon geschrieben, dass bzgl. Stromverbrauch die Konsolen gewinnen, und wahrscheinlich auch bzgl. P/L bei Games ...
Rückblicken kann man aber auch einmal Vermuten / Festhalten (keine Kritik), dass jemand mit einen i7-2500k/2600k, der diesen zum Zeitpunkt der FX-8350 gekauft hat und noch immer nutzt (ohne seither starker Übertacktung), diesen gegenüber den damals auch verfügbaren FX über die Stromkosten amotisiert hat.
Wir haben wohl damals alle nicht gewusst, dass die CPU-Entwicklung so stark einschläft... :D
Zumal wenn man das Geld gerade nicht hat, dann ist die Amotisierung über den Strom dann eh kein Grund. Es ist ein Unterschied ob ich jetzt 120€ bezahl und über 2 Jahre noch mal 70€ (3€ pro Monat) oder 190€ am Stück, wenn es das Budget überhaupt nicht hergibt. Oder soll man dann nochmal 2 Jahre drauf hin sparen. Budget ist Budget und da gibt es halt Grenzen. :freak:
N0Thing
2015-07-16, 21:05:42
Mal ne andere Frage, wer glaubst du hat die besseren Frames in WD, ich mit meinem FX6300€ 4,4GHZ und eier 970GTX oder du mit deinem Corei5 2500k und einer NV 770 ;) (vorausgesetzt dein Rechner im Profil stimmt noch) Denn SO viel schneller ist dein Corei5 2500k laut Benchmarks in den min. FPS nämlich gar nicht. Und die 35FPS beziehen sich bei mir auf den Worst Case. Und mehr wirst du mit deiner 770 nämlich auch nicht packen ;)
Das kommt natürlich auf die Settings an. Ich bin mit meiner GTX 770 gegenüber deiner GTX 970 sicher im GPU-Limit, allerdings habe ich die Einstellungen so konfiguriert, dass ich nur die üblichen Ruckler beim Autofahren habe. Da kommt mir natürlich auch mein oller Monitor mit 1680x1050 Auflösung entgegen. ;)
Im Endeffekt wollte ich auch nur darauf hinaus, dass man lange ohne Ergebnis über die Leistung von AMD vs. Intel diskutieren kann (Leistung reicht vs. reicht nicht), wenn unterschiedliche Ansprüche an die Framerate gestellt werden.
Einen aktuellen CPU-Test mit aktuellen Spielen fände ich interessant, um zu sehen, ob und in wie fern AMD mit ihrer Architektur in aktuellen Spielen besser abschneidet. Beim letzten CPU-Review von HT4U (http://ht4u.net/reviews/2015/amd_fx-8320_im_test/index20.php) schneidet AMD mit den Spielen aus dem Jahr 2012/13 nicht so gut ab. Ein ähnliches Bild zeigt sich beim Test von Computerbase mit vergleichbar alten Spielen (http://www.computerbase.de/2015-06/intel-core-i7-5775c-test/3/#abschnitt_spiele_full_hd).
Flusher
2015-07-16, 21:09:38
Hallo Flusher, ich glaube du hast mich missverstanden...
Mir ging es zu aller erst darum, dass der ältere Artikel (http://www.tweaktown.com/tweakipedia/56/amd-fx-8350-powering-gtx-780-sli-vs-gtx-980-sli-at-4k/index.html) nicht so richtig passt und daher habe ich den neuere Artikel (http://www.tweaktown.com/tweakipedia/58/core-i7-4770k-vs-amd-fx-8350-with-gtx-980-vs-gtx-780-sli-at-4k/index.html) von der gleichen Seite (tweaktown.com) verlinkt.
Dann habe ich nur kurz die Preise (inkl. Mainboards - kann man aber gern auch andere nehmen) aktualisiert da der Artikel von 2014.10 war, um dann fest zu stellen, dass man bei einen SLI-System (egal ob NV/AMD) doch die 170€ haben sollte um sich ein 4770k bzw. 4790k zu gönnen.
Sollte nicht so rüber kommen, das ich ein FX empfehle oder das es keine anderen Optionen wie den Core i-5 4460 gibt.
Da im neuen Artikel von tweaktown.com nur die 3 CPUs verwendet werden, habe ich andere CPUs einfach von der Betrachtung ausgeschlossen. Der Core i-5 4460 ist sicher eine nette CPU, nur wie diese sich in einem SLI/CFX System schläg, dazu gibt es keinen Hinweise im Artikel.
VG
Ok dann habe ich dich da offenbar missverstanden. Mea Culpa
Was verbraucht ein Intel System weniger? 50W? Dann macht das bei einer Laufzeit von 4h pro Tag im Jahr gerade mal 26€ weniger. Macht in 2 Jahre ~50€. Ein Corei5 kostet aber 190€. Der FX6300 ist 90€ günstiger
Hää? Wieso kommst du jetzt mit dem FX-6300 um die Ecke? Die Rede ist vom FX-8350. (Mal ganz abgesehen davon, dass der FX-6300 dem i5-4460 nicht das Wasser reichen kann)
Zero-11
2015-08-03, 02:14:50
Dein Ernst?
Der 1. Durchgang nutzt nur 1. Kern und 2nd pass ist vergleichbar mit CRF.
StefanV
2015-08-03, 03:21:20
StarCraft II (liegt auch am Spiel mit dessen max. 2 Kerne ^^), MMO´s wie SW (liegt auch hier an der grottigen Engine). Bei solchen Spielen braucht es eine starke CPU Leistung welche derzeit nur Intel hat, leider.
1. Star Craft 2 basiert (leider) auf völlig veralteter Technik, das ist ein Spiel, was technisch von vor 10 Jahren ist, nur auf heutige Rechner ausgelegt.
Star Wars the Old Republic ist von der Performance mit 'nem Sack Nüssen vergleichbar. Dass die verwendete Engine das besser kann, sieht man recht gut an TESO. Das performt deutlich besser als SWTOR, aber das nutzt erstens auch DX11 (SWTOR nur DX9) und zweitens eine Finale Version der Engine... An der grotten schlechten Performance dieses Haufens ist einzig und allein Bioware bzw EA schuld, die auf die Glorreiche Idee kamen, die Hero Engine zu forken...
Die CPU Leistung selbst ist ja gar nicht mal so schlecht bei den FXen, insbesondere wenn man den Preis bedenkt!
Es gibt da teilweise i7 Leistung für einen Preis, der z.T. auf Niveau von 'nem i3 liegt...
Verstehe auch nicht, warum die stärken der BD Architektur immer so nieder geprügelt und schlecht geredet werden müssen. Dabei hat auch dieses Stückchen Silizium seine Stärken...
Was nutzt mir das wenn es keine passenden Nachfolger gibt? Homeworld Remake oder Sins sind relativ neu. Der FX ist auch nicht mehr der Jüngste. Die Schwächen wurden genug durchgekaut. Der Indibereich bei Spielen ist noch viel schlimmer. Wer sich auf Softwaresupport verlässt ist verlassen! Egal ob FX, 970 oder Fury...
Schön, aber jetzt überlege doch mal, was für CPUs es zu Erscheinen der Spiele gab. Bei Homeworld waren das K7 und Pentium 4 CPUs. Da sollte man schon davon ausgehen, dass die Performance auf JEDER modernen CPU ausreichend sein sollte. Und auch die Anforderungen zum Homeworld Remake schauen jetzt nicht sooo übel aus...
Klar, der FX ist nicht mehr der jüngste, aber vergleiche ihn auch bitte mal mit CPUs, die zu der Zeit passen. Und das wären i5-2500 und i7-2700 bzw i5-35xx sowie i7-37xx Serien. Und jetzt schaue bitte mal, wie sich der FX bei modernster Software schlägt. Und da ist es durchaus so, dass die Performance bei massiv paralleler Arbeit eben doch nicht so schlecht ist, wie es immer hingestellt wird. Wobei der FX ja auch an dem lahmen L2 Cache zu leiden hat...
Der @ Core Clock dürfte auch noch mal einiges rausholen...
Was verbraucht ein Intel System weniger? 50W? Dann macht das bei einer Laufzeit von 4h pro Tag im Jahr gerade mal 26€ weniger. Macht in 2 Jahre ~50€. Ein Corei5 kostet aber 190€. Der FX6300 ist 90€ günstiger
Hängt davon ab, welches Intel System du zu Rate ziehst.
Bei meinen Systemen sinds, je nach Intel System, ~5W mehr (LGA2011, i7-3820). Oder aber 30-50W weniger (i7-920, ASUS P6T DLX) (im Idle wohl gemerkt)...
Aber warum muss man immer so sehr auf den Stromverbrauch rumreiten?!
Wir reden hier ja schließlich von 'nem Hobby bzw einer Leidenschaft. Ist es da wirklich so relevant, wie hoch der Stromverbrauch ist?!
Und mir kommt es eher so vor, als ob hier durchaus übertrieben wird und sich das alles so hingeredet wird, wie man es gerne hätte...
Da kann ich nur sagen:
Leute, weniger reden, mehr selbst testen!
Und groß ist der Unterschied der Leistungsaufnahme bei meinem FX mit ASUS 990FX System und dem LGA2011 System nun wirklich nicht - ganz im Gegenteil. Ich habe da keinen nennenswerten Unterschied feststellen können.
Zu dem LGA1366 System schauts natürlich anders aus. Aber nicht in der Richtung, die ihr meinen würdet...
Denn der i7-920 ist ein Säufer sondergleichen...
Gut, 'nen Haswell ist da 'nen bisserl besser, aber dagegen steht ja Kaveri. Und auch hier ist der Unterschied im Idle jetzt nicht soo gewaltig, wie man meinen würde...
Auch einige andere Behauptungen (wie, dass ein C2D sparsamer sein soll), kann ich absolut NICHT nachvollziehen, ganz im Gegenteil. Ein Phenom II 955BE auf MSI K9N2 Platinum braucht mit Gigabyte GTX 570 etwa so viel wie ein Core 2 Duo auf einem HP/Compaq DC5700 Systemboard, ohne Grafikkarte selbstverständlich (und mit 80plus bzw Bronze Netzteilen. Mit dem Originalen HP Netzteil schauts noch übler aus. Da liegt das C2D System bei etwa 100W im Idle)...
Also von daher sollten wir einfach mal weniger über Dinge reden, die wir nicht selbst in den Fingern hatten!
aufkrawall
2015-08-03, 04:16:23
Es gibt da teilweise i7 Leistung für einen Preis, der z.T. auf Niveau von 'nem i3 liegt...
Nein. Außer, du vergleichst mal wieder Äpfel mit Birnen.
Aber bei dir weiß man ja gar nicht, auf was du dich beziehst. Bis du mal einen Link postest, der deine Behauptungen untermauert, müssen schon Weihnachten und Ostern an einem Tag sein.
Verstehe auch nicht, warum die stärken der BD Architektur immer so nieder geprügelt und schlecht geredet werden müssen. Dabei hat auch dieses Stückchen Silizium seine Stärken...
In der Praxis so gut wie nie. Und "in einigen Bereichen nicht ganz so stark abkacken wie sonst" ist keine Stärke.
Aber warum muss man immer so sehr auf den Stromverbrauch rumreiten?!
Wir reden hier ja schließlich von 'nem Hobby bzw einer Leidenschaft. Ist es da wirklich so relevant, wie hoch der Stromverbrauch ist?!
Geringer Stromverbrauch lässt mehr OC zu.
Mein 185€ Sandy von 2011 zieht Kreise Planetenumlaufbahnen um jede AMD-Gurke in Spielen.
Naja, ein optimierter 5-GHz-Vishera kommt in modernen Engines ordentlich mit, allerdings ist die Leistungsaufnahme dann ... teuer.
MfG,
Raff
StefanV
2015-08-10, 00:00:19
Die Chipsätze hängen hinterher weil es sich nicht gelohnt hat die FX-CPUs und damit die Chipsätze weiterzuentwickeln.
Hm, schon.
Aber hier könnte man doch prinzipiell 'nen A88X an den 990FX hängen.
Da wüsst ich jetzt nicht, was da jetzt prinzipiell dagegen sprechen würde...
Dunkeltier
2015-08-11, 22:23:06
Naja, ein optimierter 5-GHz-Vishera kommt in modernen Engines ordentlich mit, allerdings ist die Leistungsaufnahme dann ... teuer.
MfG,
Raff
Auch die Anschaffungskosten. Weil die Spannungsversorgung bzw. Wandler von normalen Boards sowas nicht "mal eben" mitmachen. Von der Kühlung mal ganz zu schweigen. Da kann man ordentlich investieren.
Thunder99
2015-08-26, 11:21:41
Leo hats auf der Hauptseite verlinkt und kommentiert. Schade das AMD die Steamroller und Excavator Kerne nicht für FX CPU´s genutzt hat. Wäre durchaus interessant geworden
http://www.3dcenter.org/news/2015-08
Original:
http://www.planet3dnow.de/cms/18564-amd-piledriver-vs-steamroller-vs-excavator-leistungsvergleich-der-architekturen/
Unicous
2015-08-26, 13:27:13
Das hätte nichts gebracht. SR und XV bei den APUs sind deutlich abgespeckte Varianten. Allein der L3 hätte massive Probleme gebracht.
Man hätte auf 32nmSOI bleiben müssen und hätte im Endeffekt wohl gar nichts gekonnt. Die 28nm Prozesse von GF und auch TSMC sind einfach beschissen für hochfrequente ASICs.
Hier kann man sich durch die postings von TheStilt wühlen, der sehr intime Einsichten in die AMD-Prozessoren der letzten Jahre hat.
http://www.overclock.net/forums/posts/by_user/id/348110
Im Großen und Ganzen sagt er was ich auch hier schon öfter gesagt habe: Prozess und Architektur ergänzen sich nicht und behindern sich gegenseitig. Dabei würde ein shrink sogar noch mehr Schaden anrichten. Die Taktraten sinken extrem ab während man versuchen muss die TDP zu bändigen (8 Kerne + L3 Cache + NB + SB) und die IPC-Vorteile werden davon komplett aufgefressen. Das hat man schon beim Übergang Trinity/Richland zu Kaveri gesehen. Hinzu kommt, dass, laut TheStilt, die ganzen Stromspar- und ander Features nicht wirklich funktionieren und erst mit Carrizo einigermaßen zum Laufen gebracht wurden. Deswegen takten die ganzen Chips bei hoher Last so stark runter. Und selbst Carrizo zeigt, dass der gewählte 28nm Prozess eigentlich total Grütze ist, denn auch hier hat AMD große Sicherheitsmargen bei der Versorgungsspannung gewählt. TheStilt konnte auf seiner Carrizo-Testplattform die einzelnen Spannungs-Domains um etliche mV verringern und das Ding lief immer noch stabil. Schuld soll auch der L2 sein, der durch seine hohe Taktung auch eine hohe Versorgungsspannung benötigt. Carrizo könnte also sogar noch deutlich konkurrenzfähiger sein, wenn man ihn z.B. im einem FinFET-Prozess herstellen würde. Oder vllt. sogar einer der jetzt anlaufenden 28/22nm FD-SOI Prozesse.
Skysnake
2015-08-27, 15:04:09
Unicous, ich will jetzt nicht groß das Thema austreten, aber wie kommst du bitte dazu, zu sagen, dass der 28nm Prozess "Grütze" ist usw.?
Ich kann es zumindest nicht. Ich arbeite mit dem 28nm HPP Prozess von GF und bin an sich eigentlich ganz zufrieden, wenn man sich anschaut, welche Frequenzen man erreichen kann. Also auf jeden Fall ein gewaltiger Fortschritt im Vergleich zum 65nm LP Prozess von TSMC, mit dem ich vorher gearbeitet habe. Die Frequenzen wären da nicht wirklich drin gewesen, und wenn würde das Ding saufen wie blöd.
Ansonsten noch was Allgemeines. Im Endeffekt kommt es immer darauf an, wie man die Designs wirklich umsetzt. CMOS Logik hat klar ihre Probleme mit >>1GHz. Da wird die einfach zum Säufer, aber es gibt ja auch noch CML. Wenn man halt die Standardlibs verwendet, ist das halt alles CMOS, und hat gute Margen usw drin. Man muss also immer abwägen, wie viel Zeit/Manpower/Geld man da rein buttert, und vor allem! wie viel Marge man sich selbst lässt, das man auch wirklich sicher sein kann, dass das auch im realen Chip sicher funktioniert.
Ich habe das bei meinen eigenen Designs immer wieder feststellen müssen. Sobald man die PVT-Variationen berücksichtigt, wird alles viel größer und Stromfressender.... Die Welt ist aber eben kein Wunschkonzert, und man muss mit PVT-Variationen eben leben. Dabei ist man aber im Allgemeinen eben auf die Daten der Foundry angewiesen. Denen muss man blind vertrauen, denn im Normalfall hat man keine Chance selbst genug Testchips zu fertigen, um genug Samples für eine ausreichende Statistik zu bekommen. Firmen wie Intel die die Fertigung im eigenen Haus haben sind da immer im Vorteil. Da gibt es nämlich keinerlei Schranken zwischen den Abteilungen, und man kann auch mal eher Chipteile validieren, wie die Variation genau für diese Strukturen sind usw.
Und insbesondere bezüglich Reduzierung der Spannungsversorgung kann ich nur den Kopf schütteln. Das ist absolut normal. Deep Submicron Prozesse streuen wie Hölle. Ganz davon abgesehen, das man teils heftige Noise auf der Spannungsversorgung annehmen muss usw usf.
Das Ding muss halt immer funktionieren unter allen Randbedingungen für alle Chips, und nicht für einen ausgewählten Chip. Klar, AMD tendiert eher dazu sich mehr (zu viel) Marge zu gönnen, aber das ist auch immer ein Ritt auf dem Rasiermesser...
Unicous
2015-08-27, 15:33:47
Ich sehe, du hast keinen der verlinkten Posts von TheStilt gelesen.:rolleyes:
Der 28nm Prozess an sich ist nicht Grütze. Er skaliert nur nicht nach oben. Bei 3 GHz ist Schluss bzw. darunter hat man schon Probleme.
Ich weiß ja nicht an was du für Projekten arbeitest, schätze aber, dass du nicht über die 2 GHz hinaus gehst. In diesem Bereich bzw. eher darunter liegt wohl der sweet spot. Das ist auch bei TSMC der Fall. AMD bekommt ab 3 GHz deutliche Probleme mit der Leakage, das war leider auch bei 32nmSOI der Fall, nur konnte man hier wenigstens noch mit Hochtakten dagegen halten. Man ist ja bei Carrizo extra von SHP auf HPP gewechselt. Es hat dennoch nichts gebracht. Bei den CPUs ist man mittlerweile bei 4 GHz angekommen und kann bis auf 4,4 GHZ turbotakten. Bei Kaveri/Godavari hat man jetzt wohl durch exzessives Binning die 4 GHz Grenze überschritten (4,1 Ghz laut CPU-World).
28nm ist ein guter Prozess für SoCs und GPUs aber nicht für CPU-Designs. Jedenfalls nicht für CPU-Designs die hohe Takte fahren müssen, wie es bei der Bulldozer-Familie der Fall ist.
TheStilt hat einen nicht so leichten Vergleich zwischen Kaveri (Desktop-Chip) und Carrizo (Mobile-Testplattform) gemacht und taktnormiert auf ich glaube 2,6 Ghz hat Carrizo Vorteile bei der Leistungsaufnahme im einstelligen Bereich. Darüber entscheidet Kaveri das Effizenzrennen für sich. Das bedeutet also, der Wechsel von SHP auf HPP hat von der Effizienz nur sehr wenig gebracht, war aber nötig um Sachen wie high density libraries einsetzen zu können.
Vllt. schaust du dir ja vorher doch mal die Postings von TheStilt an. Das was er schreibt hat meiner Ansicht nach Hand und Fuß und ist kein Gelaber.
Das sind alle seine Postings im Carrizo-Thread bei overclock.net.
http://www.overclock.net/forums/posts/by_user/id/348110/thread/1560230
Am besten am Anfang beginnen. ;)
Ich glaube die Posts vom Raven Ridge Zen Thread sind auch interessant.
http://www.overclock.net/forums/posts/by_user/id/348110/thread/1561235
http://www.overclock.net/t/1567653/bitsandchips-future-zen-apu-with-32-cores-hbm-and-400-series-igp-appears/140#post_24253930
Und hier auch ein Dollar Quote aus einem anderen Thread.
The performance isn´t exactly at par with two separate cores either wink.gif
Carrizo is an improvement over the previous designs, however it isn´t exceptionally good in anything.
The power figures would be great if the chip was clocked to < 2GHz region, however AMD had to push the clocks a way too far.
The process itself performs worse than the older 32nm SOI in terms of power efficiency at frequencies of 3GHz and higher.
Thats why Carrizo has to have extremely aggressive power management; extremely low base frequency and a vast amount (five) of boosted states in order to wiggle through.
Das ist ja an sich auch keine Quantenphysik. Die Produkte die AMD über die Jahre herausgebracht hat, sprechen ja Bände. Kaveri war nicht der große Wurf und Carrizo wurde zurechtgestutzt um wenigstens zu versuchen ein wenig im mobilen Markt ein paar Krumen abzubekommen.
Naja, ein optimierter 5-GHz-Vishera kommt in modernen Engines ordentlich mit, allerdings ist die Leistungsaufnahme dann ... teuer.
MfG,
Raff
Das ist aber eher ein W E N N.
In den Foren von cities Skylines, Rimworld, Prison Architect oder space frog:space Mission kann man seitenweise lesen wie "glücklich" die Fx Besitzer mit ihrer Investition sind.
Da kann man lange über mangelnden softwaresupport meckern. Die Realität sieht halt anders aus..
Die lasten wohl alle genau einen Kern aus?
Skysnake
2015-08-27, 16:36:59
Unicous, schon mein 65nm TSMC Design war bei 2.5GHz bei unter 1mA. An sich wären da auch 5GHz kein echtes Problem gewesen, das Ding wäre nur ziemlich zum Säufer geworden, also selbst mit CML. Der Prozess skaliert da dann wirklich nicht mehr gut.
28nm HPP ist da viel viel viel viel besser. Also inbseondere was die maximale Taktraten anbelangt, die man vernünftigerweise noch erreichen kann.
Die Frage ist da immer, wie viel Aufwand will man betreiben, und wie groß sollen die Margen ausfallen. Da kannste mal locker einen Faktor 2 bezüglich Leistungsaufnahme ansetzen, in dem du dich bewegst, je nachdem wie viel Aufwand du bei der Optimierung bzw. den Margen du betreibst.
Meine Erfahrung bisher ist, das man ziemlich paranoid ist, was die Randbedingungen für die Funktionalität eines Chips anbelangt. Dennoch kommt es oft genug vor, das auch mal etwas nicht funktioniert.... Heute Chips und Prozesse sind einfach abartig komplex. Da einen Fehler zu machen, der einem die Effizienz killt ist ziemlich einfach. Man hat einfach sooooooooooo viele Variablen, an denen man schrauben kann... Gegen einen Gegner wie Intel oder nVidia kannste es dir aber eben nicht erlauben groß Fehler zu machen, bzw nur Potenzial ungenutzt zu lassen.
Klar, Leakage ist ein Thema, aber man hat ja schonmal min 3 Varianten an Transistoren, kann dann auch noch schauen, ob man für digital nicht nur minimale Gatelängen nutzt usw usf. Die Prozesse geben dir an sich mehr Freiheiten als du haben willst, sobald du dazu über gehst, dir deine eigene Standardzellen zu bauen. Man will ja jetzt dann sogar schon per default "Standard"-zellen verwenden, die gar keine quantisierten Gatebreiten/Treiberstärken mehr haben. :ugly: Das wird in Zukunft alles ziemlich analog, sogar für Digitaldesigns.
Und dann kommen noch so Sachen wie Power/Clockgating usw usf dazu, was man gut oder eben schlecht implementieren kann. Wie schon gesagt, es gibt sehr sehr viele Stellen an denen man Failen kann, und wirklich Fails kannste dir nicht erlauben.
Von daher ja, egal wer da was schreibt, darauf gebe ich jetzt apriori erst mal nicht so wirklich viel, so lange derjenige nicht einen 1:1 Vergleich zwischen zwei Prozessen hat, also wirklich die gleiche Schaltung implementiert hat, oder zumindest sich die PDKs beider Prozesse angeschaut hat.
Ist ja nicht so, das es da nicht auch große Unterschiede gibt, und man im Endeffekt einen noch so geilen Prozess haben kann, so lange das PDK nicht genau so TOP ist, wird man keine vernünftigen Chips designen können.
Da kommt ein 7890 mit Richland-Takten. Soviel zu dem Schwachsinn, dass der 28nm-Prozess schlechter für sowas wär als der 32nm-Prozess.
Ich glaub auch nicht, dass es ein Problem gewesen wär, einen 28nm-Prozessor mit L3 zu bauen. Man hat sich das nur gespart, weil man zu wenig Entwicklungskapazität hat und die Markterwartung für weitere FX-BDs zu gering waren. Der weiter schrumpfende PC-Markt gibt ihnen dabei sogar recht. Natürlich wär ein XV-FX interessant gewesen, was aber sehr viel wichtiger ist, ist Zen.
Unicous
2015-08-27, 18:01:28
:facepalm:
Die CPU-Bulldozer erreichen bis zu 4,3 GHz mit 8! Kernen+ L3, nicht nur mit 4 Kernen.
Und den 7890K habe ich schon längst erwähnt. Das tut auch nichts zur Sache. "Godavari" wird weiterhin unter SHP hergestellt, Carrizo unter HPP. Und wie der 7890K agiert weißt du noch gar nicht. Wahrscheinlich hat er nochmals eine höhere Leisungsaufnahme als der 7850K bzw. der 7870K und sprengt am Ende noch die eigenen TDP-Angaben. Dass Bulldozer und Co. diese nicht einhält, wissen wir ja bereits.
Und da ist es auch Scheiß egal, ob AMD seit 1 1/2 Jahren Binning betreibt um dann mal wieder ein paar speed bumps nachzureichen.
Skysnake
2015-08-27, 18:02:59
Was ich noch anmerken wollte. Man sollte bedenken, das jeder Chip der PCI-E 3.0 unterstützt Frequenzen von min 8 GHz mit machen muss. Klar läuft damit nicht stink normale Logik, und man verbrennt relativ gesehen unglaublich viel Saft, aber der Prozess an sich kann das, und wenn wir an PCI-E 4.0 denken, müssen es sogar 16 GHz werden ;)
Die Frage ist da wirklich eher, welche Stromsparmechanismen plant man ein, wie gut sind die Standardzellen und wie gut kann man damit insgesamt die notwendigen Margen drücken.
Unicous
2015-08-27, 23:32:59
Ich hab keinen Bock dir alles wiederzukäuen. Ich habe dir sogar noch den Dienst erwiesen und die einzelnen Posts fein säuberlich nach Thread sortiert herauszusuchen und du scheißt einfach drauf. Mehr kann... bzw. will ich dann auch nicht machen.
TheStilt hat deutlich mehr Expertise wenn es um AMD Chips geht und ich vertraue auf sein Urteil, weil es natürlich zufälligerweise auch meinen eigenen Überlegungen nahe kommt, also typisch confirmation bias.;)
Was "stink normale" Logik kann muss noch lange kein Multi-Milliarden Chip können. Der Vergleich hinkt einfach so sehr, dass das Bein schon gebrochen ist.
Und nur mal am Rande weil ich das immer wieder lese. PCIe 4.0 ist noch nicht einmal final verabschiedet. Du brauchst also nicht vor 2018 damit zu rechnen.
anddill
2015-08-28, 00:08:51
Was da an den PCIe Lanes so hoch taktet ist eine winzige Domäne aus spezialisierten Treiberstufen, das hat mit Millionen Transistoren großen Logikfeldern nichts zu tun.
Skysnake
2015-08-28, 09:45:39
Klar sind das nur einige tausend Transistoren. Um die Geschwindigkeiten hin zu bekommen brauchste einfach einen ziemlich hohen Strom. Das kannste never für einen großen Teil vom Chip machen.
Der Punkt ist aber ja, dass du eh hoffentlich einen großen Teil vom Chip nicht mit vollem Takt betreibst, eventuell sogar große Teile clock oder gar Power gated hast. Ansonsten haste eh ein ziemliches Problem... Du kannst eh schon seit "Urzeiten" nicht mehr den ganzen Chip mit vollen Taktfrequenzen betreiben, weil das einfach viel zu viel Energie benötigen würde.
@Unicous
Ja was gibt er denn von sich außer irgendwelche Allgemeinsätze und seiner "Expertiese" aus irgendwelchen Tests mit FERTIGEN! Produkten?
Wenn ich schon so was wie das hier lesen muss http://www.overclock.net/t/1560230/jagatreview-hands-on-amd-fx-8800p-carrizo/480#post_24330899 Hat er überhaupt eine Ahnung davon, wie groß Prozessstreuungen sein können? Hat er eine Ahnung davon was BER ist? Kennt er die Bathtubecurve von den Chips???
Ich glaube nicht...
Vor allem kennt er nur einen einzigen verschissenen Chip, soweit das aus dem klar wird, was ich gelesen habe. AMD hat dagegen die Daten aus ihren Simulationen plus die Daten aus wohl tausenden getesteten Chips. Die werden schon eher wissen, was geht und was nicht. Vor allem wenn man bedenkt, das man ja auch immer Margen einplanen muss für die ganze drecks Infrastruktur.
Und dann kommt er noch mit Knallern wie dem hier (http://www.overclock.net/t/1567653/bitsandchips-future-zen-apu-with-32-cores-hbm-and-400-series-igp-appears/140#post_24253930). Wie er die "vielen" Clock Stufen als was schlechtes darstellt... Wie 1990 ist das denn bitte in der Denkweise für ein gutes Chipdesign???
Du willst an sich nirgends starre Taktraten, und der Traum wäre natürlich, wenn man immer ganz genau die Taktrate hätte, die man gerade brüchte, denn dann würde man minimal power ziehen. Das geht aber natürlich in der Realität wegen dem Overhead nicht.
Also was sollen mir bitte seine Beträge sagen? Er macht zwar einen recht gut informierten Eindruck, aber was Fertigung anbelangt eher nicht, und insbesondere ist er kein Insider der an der Entwicklung von den Chips/Prozessen selbst mitgearbeitet hat. Damit ist es aber an sich unmöglich solche Aussagen verlässlich zu treffen, die er teils ablässt. Das ist einfach ziemlich vermessen....
Ich habe mich selbst mit dem 28nm HPP Prozess inzwischen recht gut beschäftigt (gut Corners/ MonteCarlo und vor allem Post layout muss ich mir noch genau anschauen, aber ich habe zumindest mal reingeschaut) und über den 32nm SOI habe ich auch einige Paper gelesen, konnte aber leider nicht ins PDK schauen. Von daher kann selbst ich nicht wirklich sichere Aussagen über die beiden Prozesse machen.
Was ich aber sagen kann sind einige Allgemeinheiten. 32nm SOI hat den Vorteil, das man weniger Prozessvariation hat. Dazu kommt noch, das man durch SOI eben sehr gut Substrat-Noise eleminieren kann. Das sind erstmal die wichtigsten Punkte in meinen Augen. Der Knackpunkt ist, die isolierten SOI Block bekommt man nicht for free, und ich habe keine Ahnung, wie da die Designs rules sind. Je nachdem hat man also entweder einen riesen Vorteil dadurch, oder einen eher kleinen.
Das ganze ist einfach unglaublich Komplex mit unglaublich vielen sich gegenseitig beeinflussenden Faktoren. Da sagen zu wollen, das etwas ab 3.x GHz besser ist als was anderes ist total hirnverbrannt, so lange man nicht beides implementiert hat meiner Meinung nach. Dafür sind die Prozesse einfach viel viel viel zu verschieden. Also selbst wenn du die Daten aus den PDKs hast.
Falls es dich interessiert, schau dir das hier mal ab Seite 37 (http://www.ece.usu.edu/grad/reports_theses_disseratations/2010/Rao_Arun_J/thesis.pdf) an. Das ist zwar ein asbach uralter 350nm Prozess, aber man sieht zumindest mal reale Daten. Ansonsten ist das hier auch noch didaktisch (https://www.eecs.berkeley.edu/~boser/presentations/2011-12%20OTA%20gm%20Id.pdf) gut aufgearbeitet.
Mit der gm/ID Methode habe ich meine 65nm und 28nm Designs auch gemacht, wobei es aus irgendwelchen Gründen in 65nm nicht so gut funktioniert hatte. Eventuell hatte ich ein 2Pi vergessen oder zu viel. Keine Ahnung, am Ende hat es auf jeden Fall funktioniert. Der Punkt ist, ohne zu viel zu sagen, so einfach wie in diesem alten Node, ist es nicht mehr in 28nm, Die konkreten Graphen hängen von zich Parametern ab....
Kurz um, nicht ohne Grund empfiehlt Cadence und auch sonst die Leute bei diesen extrem kleinen Strukturen so schnell wie nur irgend möglich mit dem konkreten Layout zu simulieren, weil die Effekte durch das Layout einfach gewaltig sind.
Und genau da kommen wir zum Casus knacksus. Die Methologie von Digital-Designs funktioniert in heutigen Prozessen meiner Meinung nach nicht mehr wirklich. Man muss selbst da anfangen Analog zu denken. Vor allem bei so hohen Taktfrequenzen wie bei einer High-End CPU. Im Prinzip wurde das auch schon immer teilweise gemacht durch die eigenen ausgefeilteren Standardzellen, aber eben nicht in dem Maße, in dem man heute es machen sollte/muss, wenn man Konkurrenzfähig sein will. Und soweit verrate ich nichts unbekanntes, AMD hat natürlich ihre eigenen Standardzellen. Davon kann man zumindest mit an Sicherheit grenzender Wahrscheinlichkeit ausgehen. Wie viel Potenzial Sie dabei aber ungenutzt lassen wissen nur Sie selbst! Das kann man einfach von außen nicht wirklich beurteilen. Man kann zwar Vermutungen anstellen, aber jetzt hier mit der Keule ankommen und sagen Sie hätten lieber Prozess XY genutzt ist einfach vermessen. Wer von uns würde denn, wenn er bei AMD das Sagen, aber eben auch die Verantwortung hat, übermäßig große Risiken eingehen? Am Ende kann es nälich immer passieren, dass der Chip nicht funktioniert, oder noch schlimmer, das er fast immer funktioniert, und man erst nach Monaten oder gar erst nach Verkaufsstart feststellt, dass der Chip an sich kaputt ist....
Schaffe89
2015-11-08, 16:40:49
Bulldozer: AMD wird wegen Werbung für "8Kerne" verklagt
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Bulldozer-Klage-1177074/
Dazu Grestorn als Experte:
Es ist schon ziemlich schwierig einen Unterschied zwischen dem Fall "Bulldozer" und dem Fall "GTX 970" zu finden. In beiden Fällen wird etwas beworben und obwohl die Angaben zwar auf dem Papier letztlich richtig sind, werden bestimmte Einschränkungen unterschlagen, die dazu führen, dass die angegebene Kapazität nicht immer voll genutzt werden können.
Ich bin gespannt, wie das ausgeht. Und ich bin auch ziemlich sicher, dass es Klagen gegen nVidia gibt, die halt erst in einigen Monaten zur Verhandlung kommen und erst dann werden wir davon hören.
Ich persönlich bin der Meinung, dass beide Klagen - gegen AMD und nVidia - auf extrem hölzernen Beinen stehen. Denn: Werbeaussagen und auch technische Daten sind klassisch schon immer dafür bekannt, den optimalen Fall darzustellen und Einschränkungen zu unterschlagen. Auch wenn die theoretische Leistung in der Praxis nie erreicht werden kann, bleiben die Daten und die Werbeaussage bestehen. WLAN ist nur eines von vielen Beispielen dieser Praxis.
@ Grestorn
Meinst du den Beitrag bei PCGH wirklich ernst?
Oder ist das die Version für die unterbelichtete PCGH Leserschaft?:freak:
Unicous
2015-11-08, 16:43:21
LOL.;D
Den Müll würde er sich hier nicht trauen zu schreiben.:freak:
Edit:
Grestorn hat hier keinen Account mehr?:O
Schaffe89
2015-11-08, 16:48:41
Ich möchte gerne mal wissen, welche Einschränkungen bei der Bulldozer CPU auf dem Papieren verschwiegen wurden, das liefert er bestimmt noch nach.
Edit:
Nagut, schade, dann werde ich ihn befragen, wenn ich bei PCGH wieder entsperrt bin.^^
Skysnake
2015-11-08, 17:10:11
Also BD ist ganz sicher komplett anders zu sehen als die GTX970....
Von AMD gab/gibt es mehr als genug Doku zu dem Ding, so das sich jeder selbst informieren konnte. Bei nVidia gibt es praktisch nichts.
Zudem muss man auch sagen, dass die Argumentation bei AMD ziemlich fragwürdig ist. Es geht ja nämlich nicht darum, was sich irgend ein Kunde unter einem Begriff vorstellt, sondern wie er diefiniert ist, und da ist BD schon durchaus ein Octa-Core, wenn man getrennte Decoder hat. Wenn nicht, dann eher nicht. Am Ende läuft das teilweise schon auf Haarspalterei hinaus, bei der Kleinigkeiten darüber entscheiden, wie man es denn nun am Ende wirklich sehen muss.
Bei der GTX970 ist das völlig anders. Da ist es einfach ziemlich eindeutig anders als dargestellt.
Knuddelbearli
2015-11-08, 20:08:06
Also ich sehe da einen großen unterschied.
4 Gb sind 4Gb da ein Bit ein Bit ist. Und es war auch nie üblich die unterschiedlich schnell anzubinden.
Was ein Kern ist ist dagegen nicht so klar und dazu wurde schon bei erscheinen dutzende von Seiten lang darüber Diskutiert. Und Früher ist auch immer mal wieder neues Zeug in den Kern gewandert anderes wieder raus usw. Und es gab schon Kerne mit viel weniger als das was Bulldozer hat.
Für mich galt trotzdem immer das ein Fx8 nur ein 4 Kerner ist. Aber eben nicht aus technischer Sicht sondern wegen besserer Vergleichbarkeit.
Wohl kaum, da müsste man schon radikal oberflächlich verbleiben, denn in gewissen Szenarios oder ab bestimmten Punkt würde ein 8 Kerner mit einem 4 Kerner immer Kegeln gehen (ganz egal wie stark der auf dem Papier)! :wink:
Um so mehr Kerne desto flexibler, wahrscheinlicher und zumeist auch kosteneffektiver ist die Leistung abrufbar!
Beispiel .. eine dämliche Anwendung veranschlagt 100% von einem Kern, ganz egal ob in der Form überhaupt benötigt, oder vielleicht sogar gerade nur im Hintergrund pausierend (Adobe Dreamweaver CS6 als Beispiel).
Beim 4 Kerner hätten hier schon nur noch 3 Kerne effektiv zu Verfügung und das Beispiel ließe sich leicht weiter spinnen. Und solcherlei nimmt auf Systemen mit HT effektiv gleich 2 Threads etwas raus (den jeweiligen Kern und sein HT Anhängsel), gemachte Rechnung bleibt also bestehen. Gemeint, selbst wenn es möglich Anwendung X in einem HT Tread komplett zu halten (leistungstechnisch), ist der Hauptkern nicht wirklich frei (in diesem sinne).
Von daher das auch niemals zusammenwürfeln, da sog. HT Thread ressourcen weit weniger flexibel. Es gibt viele Szenarios wo es gut aufgeht aber eben auch jene wo es einem auf die Füße knallt!
Exxtreme
2015-11-09, 09:56:10
Um so mehr Kerne desto flexibler, wahrscheinlicher und zumeist auch kosteneffektiver ist die Leistung abrufbar!
Kommt darauf an. Von der Programmierung her ist Arbeit auf mehrere Kerne aufzuteilen viel schwieriger als wenn alles auf einem Kern läuft. Sprich, irgendwas kostet es immer. ;)
Der HeinZ
2015-11-09, 15:14:32
Hallo zusammen,
habe so ein bißchen die Diskussion verfolgt. Als FX8 (8320) Nutzer kann ich zumindest sagen, dass der Prozessor mich aktuell bisher noch nicht im Stich gelassen hat.
Mit undervolting zieht er auch nicht die große Menge aus der Steckdose wie das am Anfang der Fall war. Da ich einen 4k Monitor habe versuche ich natürlich alles auf 4k zu spielen, und da limitiert die 980 Geforce meist bevor der FX überhaupt an Pfad aufnehmen kann, für mich daher durchaus ausreichend. Ansonsten kann ich bestätigen das mehrere Threads auch ordentlich abgearbeitet werden, wenn ich meinen wöchentlichen Vollcheck mit Spybot, Adaware und Virenscanner laufen lasse, geht das dank der 8 Threads ganz gut gleichzeitig ohne den mega geschwindigkeitseinbruch, das Arbeiten im Hintergrund ist dann noch ohne weiteres möglich.
Hier limitiert dann eher die USB 3.0 Festplatte, die zwar auf 7200 UPM dreht, aber immer noch Lichtjahre von jeder SSD aber auch normalen Festplatten (NCQ wird nicht genutzt) entfernt ist. Das sah bei beim Phenom X4 940 noch ganz anders aus,aber auch teilweise beim X6 1090T.
Sicherlich sind die Intel I5 und ganz besonders die I7 weitaus leistungsfähiger, mir fällt allerdings bislang noch kein Szenario ein wo ich diese Leistung spürtbar gebraucht hätte.
Die Plattform selber hat eine PLX PCIe 3.0 Chip, der bei mir aber wahrscheinlich nie zum Tragen kommen wird (eventuell mal bei Arkham Knight in Verbindung mit einer 770 für die PhysX effekte, aber ich glaube die rechnen da eh autak) und 4 USB 3.0 Anschlüsse dank Zusatzchip. Mehr brauch ich nicht, daher wird die Plattform noch relativ lange halten.
Dann mal schauen was es neues lohnenswertes gibt.
Gruss Matthias
Hatte da eher die anderen Szenarios im Auge etwa Virtualisierung, wenn etwa 4 virtuelle Maschinen gefordert mit mindest- Leistung X. Die für im Zweifel auch wirklich anliegen können sollten, optional vielleicht auch noch zusätzlich für eine Fünfte. In dem Bereich lässt sich zwar einiges strecken bzw. tricksen, davon ausgehend das nicht alle zur selben Zeit auf der gleichen Maschine unter Vollast rennen werden.
Dennoch würde da unterhalb Sechs Kernen nicht antreten bzw. auch keine Experimente mehr fahren wollen, schon gar nicht wo es seit langem diese extrem günstigen 8 Kerner (vergleichsweise), sogar für @Home Desktops gibt. Und das nebenbei auch eines der Szenarios die den FX8 sehr gut liegen (passt eigentlich alles zusammen),
Und über kurz oder lang werden VM's (https://de.wikipedia.org/wiki/Virtuelle_Maschine) wohl auch auf dem @Home Desktop verstärkter an Bedeutung gewinnen? Die Möglichkeiten bzw. auch sich eröffnenden Vorteile sind einfach zu Immens als das es nicht auch dort irgendwann breiter aufschlagen können sollte?
Davon ab und außerdem, da es eine gute Möglichkeit um wieder Hardware an privat schmackhafter werden zu lassen (RAM oberhalb 16 oder 32GB), größere SSD's von mindest- Leistungsklasse X, mehr Kerne usw.
Vorausgesetzt man schafft mit entsprechenden Kampagnen die Begeisterung zu wecken (warum das eben oder was daran Geil), nebst Simplifizierung von Bedienung, der Einrichtung und Wartung von eben solchen (insoweit halt möglich). Einschließlich was das durchschleifen von so manch HW belangt, dort gibt es speziell auch im Bereich für gaming tauglich GFX noch Probleme (DX LvL oder auch Geschichten mit AA/AF etc.), aber das alles Dinge die lösbar scheinen wenn der Wille dahinter! :smile:
Ich hab gedacht ich guck nicht richtig. Gibt ernsthaft nen neuen (alten) FX:
http://www.guru3d.com/news-story/amd-fx-6330-black-edition-six-core-processor-surfaces.html
Der Preis vor allem... für sone Daddelkiste für 500€ - kann man nicht meckern.
aufkrawall
2015-12-15, 19:34:48
Ich hab in BF4 MP im schlimmsten Fall ~75fps Minimum. Sagen wir mal, mit moderatem CPU-OC wären es noch ~65fps.
Mit einem FX 8350 wären es wie viel? 45 oder 50fps? Die Spielbarkeit ist schon eingeschränkt.
woodsdog
2015-12-15, 20:24:57
Abgesehen von AMD schlecht machen hat der Post welchen Inhalt?
Wenn schon, dann bitte mit weniger Glauben und mehr Wissen.
Knuddelbearli
2015-12-16, 01:54:42
keinen wie gewöhnlich bei ihm im AMD Threads siehe auch seinen heutigen Post in Performance & Enthusiast: aktuelle Grafikkartenpreise #2
Abgesehen von AMD schlecht machen hat der Post welchen Inhalt?
Beitrag #2234 lesen und verstehen.
Wenn schon, dann bitte mit weniger Glauben und mehr Wissen.
Das ist die Realität, was willst du denn da beschönigen?
http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks
Da wo CPU Leistung in Spielen gefragt ist, kackt AMD eben meist ab.
Novum
2015-12-16, 04:46:09
Merkwuerdiges Resultat, die Engine scheint gut mit Kernen zu skalieren. Das der AMD da so langsam ist wundert mich.
woodsdog
2015-12-16, 06:36:50
Beitrag #2234 lesen und verstehen.
Das ist die Realität, was willst du denn da beschönigen?
ich beschönige gar nix, ließ du mal lieber!
Das die FX nicht gerade die schnellsten sind wissen wir alle, aber der Beitrag trifft keine Aussagen sondern strotzt nur so von Konjunktiven und Fragezeichen... in 2 Zeilen...
so wirkt das einfach nur wie Schmutz werfen...
1-2 Eigene Messungen, 'n link dazu. Done. Dann kann man sich trotzdem selbst auf die Schulter klopfen, dass man ja ggü dem 120 Eur Prozessor immer noch überlegen ist.... Was anderes bemängle ich nicht.
in einem 500 Eur PC bekommt man mit dem Ding jede menge Leistung....
Abstriche muss man sowieso machen bei diesem Gesammtpreis. Auf intel seite steht da gerade mal ein Core i3-6100. Sieht brauchbar aus, hat aber auch nur 2 Kerne.
aufkrawall
2015-12-16, 12:25:08
in einem 500 Eur PC bekommt man mit dem Ding jede menge Leistung....
Abstriche muss man sowieso machen bei diesem Gesammtpreis. Auf intel seite steht da gerade mal ein Core i3-6100. Sieht brauchbar aus, hat aber auch nur 2 Kerne.
Besser nur zwei Kerne + HTT als die mieserable Phenom 2 IPC des Bulldozers:
http://www.pcgameshardware.de/Core-i3-6100-CPU-260945/Tests/Test-Review-1175063/
Einfach mal die Fakten auf sich wirken lassen und die bittere Realität anerkennen....
Ferengie
2015-12-16, 13:03:39
bittere Realität?
man vergleicht 3,7GHz Intel mit einen 3,2GHz FX8 AMD, toll!
Für einen fairen Vergleich müsste der AMD 400MHz MEHR haben als ein Intel.
Menace
2015-12-16, 13:05:38
Die Spar-FX 8XXX schlägt sich gar nicht so schlecht, wenn man auch damit arbeiten muss. :biggrin:
anddill
2015-12-16, 13:13:00
Ich glaube nicht daß irgend jemand hier ernsthaft behauptet die FX-CPUs sind heute noch top und schlagen ein 3 Jahre jüngeres Produkt in alten Singlethread-Spieleengines. Keine Sorge, wir kennen alle die Realität, bewerten sie vielleicht nur anders. Nicht jeder spielt den ganzen Tag Anno.
FX haben nach wie vor ihre Anwendungsfälle. Auch in den von Dir verlinkten Benchmarks schlägt der FX8320E in 4 von 7 Benches den Dualcore Skylake.
Wenn wirklich nur 130€ für die CPU zur Verfügung stehen sind die FX immer noch eine Überlegung wert. Vor allem wenn man sie auf 4-4,4GHz übertaktet, halt auf das was ohne Spannungserhöhung möglich ist. Meist kommt man da mit einem AMD 4-Moduler besser durch den Computeralltag als mit einem Intel Zweikerner.
edit:
bittere Realität?
man vergleicht 3,7GHz Intel mit einen 3,2GHz FX8 AMD, toll!
Für einen fairen Vergleich müsste der AMD 400MHz MEHR haben als ein Intel.
War ja auch noch Turbo aus, das trifft den FX-8320E ja besonders hart, weil bei dem der Turbo im Verhältnis zum Basistakt überdurchschnittlich hoch ausfällt.
Ich frag mich sowieso wieso das wieder in totales Bashing ausarten muss. Der FX6 ist AMDs einzige CPUs, die dank Intels Restruktionen und Preispolitik noch ganz gut mitspielen kann. Es ist durchaus sinnvoll da ein schnelleres Produkt zum kleinen Preis zu bringen.
Niemand bezweifelt, dass man damit noch was retten kann, das negiert allein der Fertigungsprozess schon. Aber das was auf der letzten Seite ablief ist nicht anders zu bezeichnen als Bashing.
aufkrawall
2015-12-16, 13:37:05
Das kann man auch andersrum betrachten: Kaum merkt jemand an, dass für Spiele ein i3 die bessere Wahl als ein FX6xxx ist (nach Messdaten!), kommt man gleich mit Fackeln und Mistgabeln.
robbitop
2015-12-16, 13:55:33
Ein FX8 wäre heute tatsächlich ein gutes und günstiges Vehikel für einen Youtuber. Der kann ein Lets Play spielen, aufnehmen und im Hintergrund die vorherige Folge rendern/encodieren.
Das sollte AFAIK besser gehen als auf einem i7. Für den Preis sicherlich gut.
Gegebenenfalls kann man aber auch mit einem gebrauchten So 1366 6 Core eine gute Alternative dafür wählen.
aufkrawall
2015-12-16, 13:59:19
In dem Fall würde ich einfach auf QuickSync-Encoding setzen, für YT sollte die Qualität reichen.
Ich finde sie mit Haswell in Handbrake brauchbar.
robbitop
2015-12-16, 14:00:58
Ein guter Ansatz! Wird mittels Quicksync in Handbrake die CPU nicht signifikant belastet? Funktioniert das, obwohl man gleichzeitig auf der dGPU spielt?
Die Youtuber machen das AFAIK alle auf der CPU.
aufkrawall
2015-12-16, 14:04:33
Ich meine mich zu erinnern, dass die CPU-Auslastung nicht nennenswert höher wäre als 1-2 Threads, wenn überhaupt. Das allerdings bei "offline-Encoding" mit ~220fps. Ein YT-Stream in Echtzeit mit 30 oder 60fps hätte ich ja eine viel geringere Auslastung.
Die Hauptbelastung liegt bei QuickSync auf der GPU. Bei acht Threads durch HTT sollte das kein Problem sein.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.