Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-Serie - Bulldozer - Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
9
10
dildo4u
2012-04-23, 16:10:35
Endlich kommt die Preissenkung ~ 180€ für den FX 8150
http://www.computerbase.de/preisvergleich/689396
Inselbewohner
2012-04-27, 16:41:12
Sie müssen ja nicht gleichziehen. Das werden sie auch nie mehr können. K7 und K8 waren da eher Glückstreffer. Sie sollten nur ein gutes P/L liefern. Das ist völlig ausreichend. Derzeit tun es die Bulldozer noch nicht zu richtig.
klar, das wäre auch eine möglichkeit. aber das paket stimmt bei amd derzeit einfach nicht. verbrauch, preis, leistung, intel ist in all diesen bereichen besser. mich stört es nur, dass es bei intel zischen den schnellen dc und den qc cpus so gut wie nichts gibt. da sind kaum günstige qc prozessoren im angebot.
oldDirty
2012-05-19, 15:29:31
Wurde schon mal hier gefragt ob ein AM3 Bulldozer fähiges Mainboard ( MSI 890FXA- ) auch einen Piledriver aufnehmen kann?
Davon würde ich ausgehen.
Davon würde ich ausgehen.
AMD hat bei AM3+ das Pinout geändert. Die aktuellen BDs haben das aber noch nicht, da man die Teile ursprünglich wohl doch irgendwie auf AM3 setzen wollte. Mit der Piledriver-Generation könnten sie nun aber dann doch nen Riegel vorschieben, und das neue Pinout nutzen. Chancen stehen 50/50.
Knuddelbearli
2012-05-20, 02:30:55
denke auch am3 nein am3+ ja
von mir aus dürften sie aber auch endlich mal auf nen komplett neuen sockel setzten mit HT4 und direkter PCI-E anbindung für die graka, wenn dafür danach wieder ruhe ist bis ddr4 kommt ( wo wieder alles geändert werden muss wegen point to point verbindung des rams )
Ach verdammt. Ihr habt natürlich recht. Ich hab irgendwie AM3 und AM3+ gleichgesetzt. Dann is die Wahrscheinlichkeit doch recht gering.
@Knuddelbearli
Ursprünglich sollte Komodo (der jetzt durch Vishera ersetzt wurde) ein PCIe-Interface bekommen und auf FM2 laufen, wodurch es nur noch eine Plattform gegeben hätte. Inwiefern das jetzt noch für Steamroller aktuell ist, weiß ich grad nich.
dildo4u
2012-05-30, 23:22:23
The Bulldozer Aftermath: Delving Even Deeper
http://www.anandtech.com/show/5057/the-bulldozer-aftermath-delving-even-deeper
Ganz interresant dort haben sie 65% + pro weiterem Cluster gemessen AMD Ziel war ja 80%,im Fazit werden fast alle Probleme zusammengefasst.Ein Artikel soll wohl noch folgen.
Felors
2012-06-06, 13:25:00
Schade, damals als Amd 64 und die alten athlons am start waren, später auch die X2 stand AMD gut da, gehen die miesen Pentium D und 4. Aber ab Intels Core 2 Duo sah AMD kein Land mehr.
Obwohl man auch immer bedenken muss, dass synthetische Benchmarks nicht sonderlich den täglichen Gebrauch simulieren. Deswegen kann man sicher auch mit einem FX glücklich werden. Nur der Stromverbrauch soll ja auch höher sein, das passt mir dann wieder nicht :P
=Floi=
2012-06-07, 03:06:07
amd kann sich ja nicht mal von ihren eigenen alten produkten absetzen. imho ist das ein viel größerer haken.
Schaffe89
2012-06-07, 19:17:33
Der wohl zu einem großen Teil der Fertigung anzulasten ist. Bei Llano gabs ja auch keine Fortschritte was Effizienz angeht im Vergleich zum Phenom II.
Bei den FX4100 und FX6100 allerdings schon, wenn auch nur kleine.
Hacke/schorsch/pudding
2012-06-07, 19:58:01
Der wohl zu einem großen Teil der Fertigung anzulasten ist. Bei Llano gabs ja auch keine Fortschritte was Effizienz angeht im Vergleich zum Phenom II.
Bei den FX4100 und FX6100 allerdings schon, wenn auch nur kleine.
Auch wenn ich sonst recht enttäuscht vom Bulldozer bin, aber was den Speicherdurchsatz im Vergleich zum Phenom 2 angeht haben die beim Bulldozer großartiges geleistet. Das ist in meinen Augen,das Einzige was sich messbar gebessert hat.
Blediator16
2012-06-07, 22:10:48
Wenn es so einfach wäre eine gute CPU zu bauen, dann hätte niemand mehr Probleme. AMD ist nunmal klein im Gegensatz zu Intel, wo wahrscheinlich hunderte Teams nur an CPU Architekturen forschen und Geld ausgegeben wird, wo AMD in Jahren nur von träumen wird.
boxleitnerb
2012-07-17, 19:11:22
Denke es passt am ehesten hier rein:
Der FX ist in MoH Warfighter angeblich sogar leicht vor einem 2600K:
http://forums.anandtech.com/showthread.php?t=2258302
Ergebnisse sind aber noch komisch. Phenom II vor i5-760? Schaut man auf 955 vs. 940 heben sich auch die Augenbrauen...
dildo4u
2012-07-17, 19:14:37
Multiplayer wird keine 1 zu 1 vergleichbaren Ergebnisse erzeugen.
... Schaut man auf 955 vs. 940 heben sich auch die Augenbrauen...
940 mit DDR2?
y33H@
2012-07-17, 21:44:10
Und 1,8 vs 2,0 GHz CPU-NB ... das kann schon sein. Dennoch - Alpha und MP.
Wieso MP? Falls Du noch kein MP-Test meinen solltest, dann ok. Im Text heißts nämlich:
Bingrussisch:
Here is a video of the test period:
http://www.youtube.com/watch?v=up3l-VEEnCQ
Das seh ich nix von den MPs.
Weiter im Text heißts dann noch (wieder per Bing übersetzt):
Test again at the map without rivals, since in a public multiplayer Medal Of Honor Warfighter test impossible.Wenn ich mir die lahme Testszene so anschau liegt die Vermutung nahe, dass da nicht viel passiert und deshalb auch nicht viel berechnet werden muss.
Ansonsten gibts noch ne Systemübersicht, ja der 940 hat nur DDR2, wird mit "900 MHz" angegeben, kA, obs OC RAM sein soll, oder ein Druckfehler.
dildo4u
2012-07-17, 22:59:40
Ist der MP nur ohne Spieler also Nutzlos so oder so.
Ronny145
2012-08-25, 23:53:16
Preissenkungen im Anmarsch: http://www.cpu-world.com/news_2012/2012082401_AMD_to_drop_prices_launch_FX-4130_CPU_on_August_27.html
StefanV
2012-08-26, 02:18:09
Preissenkungen im Anmarsch: http://www.cpu-world.com/news_2012/2012082401_AMD_to_drop_prices_launch_FX-4130_CPU_on_August_27.html
Hm, ist jetzt die Frage, ob das bedeutet, dass Vishera im Anmarsch ist und man noch 'schnell' versucht die Lager etwas zu leeren, da die Senkung ja teilweise relativ ordentlich ist.
FX8150, FX8130, FX6100 und FX6200 wurden um etwa 20 Dollar gesenkt, ebenso Phenom X4/965BE und 955BE und auch der A6-3650K wurde um fast 20$ gesenkt, wie auch der 3670k...
Da könnte man fast vermuten, insbesondere da letztens ja auch wieder 'nen Dokument zu den C-Step Bullies aufgetaucht ist, dass die Vorstellung der C-Step Bulldozer nicht weit ist.
y33H@
2012-08-26, 02:35:49
Oktober oder November, Vishera kommt.
Naja, die effektive Preissenkung ist ja nicht ganz so groß, da (wenn ich richtig bin) die Cashback-Aktion Ende des Monats abläuft.
Naja, die effektive Preissenkung ist ja nicht ganz so groß, da (wenn ich richtig bin) die Cashback-Aktion Ende des Monats abläuft.Jupp, die läuft bis 31.8, da gabs bisher 20 Euro Rabatt auf die FX8xxx. Da wird z.B. der 8120 eher teurer, da er laut Liste "nur" um 12 Dollar / 10 Euro billiger wird.
@y33H@
Im Produktleitfaden von vorgestern stand "Next Gen AMD FX launch late Q3" im Eck. Das wäre dann Ende September. Bis Anfang Oktober könnten die Chips dann langsam zu den Händlern durchgesickert sein.
Allerdings weiß man bei AMD z.Zt. nie so genau, ob das nun nur für OEMs oder allgemein gilt :(
StefanV
2012-08-26, 12:28:46
Naja, die effektive Preissenkung ist ja nicht ganz so groß, da (wenn ich richtig bin) die Cashback-Aktion Ende des Monats abläuft.
Stimmt, daran hab ich nicht gedacht...
sloth9
2013-06-01, 12:21:04
AMD: "Bulldozer war ein totaler Fehlschlag - und wir wissen das" (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369917323)
Jetzt ist es amtlich, was sich da man einer für Kram hat unterjubeln lassen.
foenfrisur
2013-06-01, 19:20:30
jetzt ist es auch amtlich, das hier jemand leichen schändet ;)
btw: intel hatte auch mal prescott...der wurde auch verkauft.
und: wenn man ein schlechtes produkt hat, kanns nur besser werden :D
mfg
aufkrawall
2013-06-01, 19:33:46
und: wenn man ein schlechtes produkt hat, kanns nur besser werden :D
Man hat mehr aufzuholen, was quasi unmöglich ist in Anbetracht des im Vergleich zu Intel äußerst geringen Forschungs-Budget und auch durch Nachteile bei der Fertigung.
Obs für Highend-CPUs eine Rolle spielen würde, wenn AMD jetzt pleite ginge?
foenfrisur
2013-06-01, 20:00:04
man sieht sehr gut an haswell, wie langsam und schwach es voran geht (teilweise sogar zurück), ohne einen konkurrenten.
und man konnte ebenso gut sehen, wie gut und innovativ cpus werden, wenn das gegenteil der fall ist. x64 etc.
und das hat amd damals auch, mit schwächerem forschungsbudget als intel, geschafft.
aber im grunde stimme ich dir zu, das intel ALLEN weit vorraus ist. sie mischen ja nun selbst im mobile-bereich mit.
mfg
In den heutigen 3DCenter-News (http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-14-juni-2013) wurde ein x87-Brems-"Fix" für Bulldozer und abkömmlinge erwähnt, Quelle Flying Suicide (http://flyingsuicide.net/news/amd-fix-unleashes-x87-performance-greatly-improves-superpi-performance/). Wenn das keine Ente ist, wird das wohl für so einige Intel-freundlich kompilierte Anwendungen, in denen für AMD-Prozessoren auf x87 zurückgefallen wird, helfen können.
Die Fragen sind halt: Hat die Meldung Substanz? Wenn ja, was sind die Nebeneffekte des "Freischaltens"?
In den heutigen 3DCenter-News (http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-14-juni-2013) wurde ein x87-Brems-"Fix" für Bulldozer und abkömmlinge erwähnt, Quelle Flying Suicide (http://flyingsuicide.net/news/amd-fix-unleashes-x87-performance-greatly-improves-superpi-performance/). Wenn das keine Ente ist, wird das wohl für so einige Intel-freundlich kompilierte Anwendungen, in denen für AMD-Prozessoren auf x87 zurückgefallen wird, helfen können.
Die Fragen sind halt: Hat die Meldung Substanz? Wenn ja, was sind die Nebeneffekte des "Freischaltens"?
Hat Substanz, der Typ der dransitzt ist "The Stilt", das ist ein Freak, kein Faker :freak:
Uran_235
2013-06-16, 01:33:13
Hat AMD eigentlich den AM3 Sockel aufgegeben oder wieso kommen keine neuen Chipsätze und CPUs?
AnarchX
2013-06-16, 08:37:17
AM3 ohne Plus ist natürlich schon länger EOL, wie auch die dafür angebotenen 45nm CPUs.
Bei AM3+ wird es sicherlich noch ein paar kleinere Taktupgrades geben, vielleicht auch noch ein leicht verbessertes Stepping. Für Enthusiasten wird es vielleicht auch die 220W Vishera mit bis zu 5GHz Turbo (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542773) im freien Verkauf geben.
Bei den APUs wird es für den 28nm Kaveri (Steamroller-Kerne + GCN-GPU) noch einen neuen FM2+ Sockel geben, der aber auch Richland und Trinity CPUs unterstützen soll.
Uran_235
2013-06-16, 11:52:56
Für den AM3+ kommt ja auch nichts.
Für den AM3+ kommt ja auch nichts.
Rentierte sich auch nicht, das einzig lohnenswerte wäre PCIe3, aber das rentiert sich nicht, da der Hypertransport-Link zw. CPU und Chipsatz nicht so schnell ist.
Uran_235
2013-06-16, 12:02:14
Rentierte sich auch nicht, das einzig lohnenswerte wäre PCIe3, aber das rentiert sich nicht, da der Hypertransport-Link zw. CPU und Chipsatz nicht so schnell ist.
Und was ist mit nativen USB3.0?
DarknessFalls
2013-06-16, 12:20:18
Da würde ich nicht vor Steamroller und dann aufschlagenden neuen Chipsätzen mit rechnen. Andererseits: Wozu auch? Ausgegliedertes USB3.0 funktioniert (wenn gescheit umgesetzt) ebensogut.
Und was ist mit nativen USB3.0?
Das ist in der Southbridge, könnte man einfach haben, indem man die 990FX mit dem A85X kombiniert, das ginge technisch ohne Probleme.
Aber für die Mainboardhersteller rentiert sich ein Neudesign sicherlich nicht. Wer kauft sich heutzutage überhaupt noch ne AM3+ Plattform? AMD hat bei den Stückzahlen/Marktanteil kräftig Federn lassen müssen und das Meiste wird AMD z.Zt im FM2-Bereich verkaufen schätze ich.
Das Ganze löst sich von selbst, falls AMD mal endlich CPus / FXe mit integriertem PCIe bringen würde. Ich hoffe bei FM3 (für DDR4) sind sie dann endlich soweit. Wird wohl Ende 2014/2015 mit dem Übergang auf 20nm zusammenfallen.
Uran_235
2013-06-16, 12:39:16
Aber für die Mainboardhersteller rentiert sich ein Neudesign sicherlich nicht. Wer kauft sich heutzutage überhaupt noch ne AM3+ Plattform? AMD hat bei den Stückzahlen/Marktanteil kräftig Federn lassen müssen und das Meiste wird AMD z.Zt im FM2-Bereich verkaufen schätze ich.
Was auch nicht verwunderlich ist, der Bulldozer ist eher ein Faildozer.
Ich selbst hab auch ein AM3+ System aber mit einem Phenom 2, selbst im größten Suff würde ich nicht auf die Idee kommen einen Bulldozer zu kaufen.
Was auch nicht verwunderlich ist, der Bulldozer ist eher ein Faildozer.
Ich selbst hab auch ein AM3+ System aber mit einem Phenom 2, selbst im größten Suff würde ich nicht auf die Idee kommen einen Bulldozer zu kaufen.
Lol, naja, falls noch ein neues Stepping mit weniger Stromverbrauch / höherem Takt (nein nicht das 5 Ghz Monster ^^) kommt, würde es sich vielleicht rentieren.
Aber mal abwarten.
Uran_235
2013-06-16, 13:48:37
Lol, naja, falls noch ein neues Stepping mit weniger Stromverbrauch / höherem Takt (nein nicht das 5 Ghz Monster ^^) kommt, würde es sich vielleicht rentieren.
Aber mal abwarten.
Die Leistungsaufnahme müsste mind. 30-40% sinken, damit der Bulldozer für mich Attraktiv wird. Das wird sicher kein neuer Stepping hinkriegen.
StefanV
2013-06-16, 14:29:30
Was auch nicht verwunderlich ist, der Bulldozer ist eher ein Faildozer.
Ich selbst hab auch ein AM3+ System aber mit einem Phenom 2, selbst im größten Suff würde ich nicht auf die Idee kommen einen Bulldozer zu kaufen.
Ganz so schlimm isser nicht, insbesondere wenn man mal was streamen möchte, ist eine FX CPU eine verdammt gute Wahl.
Und es gibt auch im Internet erste Berichte, die den FX einen aktuellen Intel vernichten lassen ;)
dieses zum Bleistift (http://youtu.be/eu8Sekdb-IE).
Und, wie erwähnt, wenn man nebenbei noch 'nen Xsplit laufen hat, schaut es ganz besonders übel aus...
Dass Bulldozer beim "Megatasking" regelt, ist kein Geheimnis – das konnte aber auch schon Thuban gut. Für normale Spieler ist das aber irrelevant.
MfG,
Raff
Die Leistungsaufnahme müsste mind. 30-40% sinken, damit der Bulldozer für mich Attraktiv wird. Das wird sicher kein neuer Stepping hinkriegen.Hmm nö, bräuchte "nur" 28nm plus RCM quasi ein Kinderspiel :biggrin:
Uran_235
2013-06-16, 17:06:03
Ganz so schlimm isser nicht, insbesondere wenn man mal was streamen möchte, ist eine FX CPU eine verdammt gute Wahl.
Nein? Doppeltet so hohe Leistungsaufnahme im Vergleich zu einem Intel System, bei im bestenfalls gleicher Leistung!
Knuddelbearli
2013-06-16, 17:46:47
ähm nö? hast du dir den link mal angesehen?
Ist zwar ein extremfall aber da du ja ihn zitierst hast als er sich auf diesen extremfall bezog ...
und zum Thema doppelter Verbrauch, du zockst ohne Grafikkarte?
Klar kann AMD mom nur in Spezialfällen mit Intel mithalten aber gerade verbrauch sollte man nicht überbewerten.
Ich hab nix gegen 200W CPUs wenn sie auch das entsprechende Leisten ^^
so ein G34 Bulldozer mit 16 Kernen und 4Ghz für 200W wär schon was ^^
oder eine Intel 8 kerner mit HT bei 4Ghz und 200W
Uran_235
2013-06-16, 18:11:57
ähm nö? hast du dir den link mal angesehen?
Ist zwar ein extremfall aber da du ja ihn zitierst hast als er sich auf diesen extremfall bezog ...
und zum Thema doppelter Verbrauch, du zockst ohne Grafikkarte?
Klar kann AMD mom nur in Spezialfällen mit Intel mithalten aber gerade verbrauch sollte man nicht überbewerten.
In dem Video hat man extra Spiele genommen wo AMD gut abschneidet, streaming usw. interessiert mich absolut nicht.
Ich zocke, aber recht wenig.
Knuddelbearli
2013-06-16, 18:28:41
wieso zitierst du ihn dann und kritisierst ihn? sein Beispiel ist ja richtig ...
StefanV
2013-06-16, 18:57:14
Dass Bulldozer beim "Megatasking" regelt, ist kein Geheimnis – das konnte aber auch schon Thuban gut. Für normale Spieler ist das aber irrelevant.
Das würd ich so nicht sehen wollen. Denn gerade in der MMO Landschaft ist das Streamen von Inhalten nicht soo unwichtig, wie du denkst. Insbesondere, wenn man 'nen bisserl besser spielen möchte.
Doch, siehe Link!
Und mir ist auch kein Framedrop beim SWTOR zocken _UND_ streamens aufgefallen.
In dem Video hat man extra Spiele genommen wo AMD gut abschneidet, streaming usw. interessiert mich absolut nicht.
Ich zocke, aber recht wenig.
1. Man hat irgendwelche älteren oder Indy Games genommen. Was ist daran jetzt falsch? G
2. DICH interessiert streamen nicht, MICH schon. Und andere leute aus der Gilde auch. Du darfst halt nicht immer nur und ausschließlich von deinem Standpunkt ausgehen.
Denn es gibt mehr als genug Leute, die andere Ansichten haben und/oder andere Dinge machen als du.
Und DU warsts, der sagte:
Nein? Doppeltet so hohe Leistungsaufnahme im Vergleich zu einem Intel System, bei bestenfalls gleicher Leistung!
Und das stimmt eben NICHT, siehe Link. Dort versägt ein FX8350 diverse Intel CPUs...
Gut, Sonderfälle, aber danach noch bei der hier zitierten Aussage zu bleiben, zeugt von kognitiver Dissonanz...
Denn wenn etwas 8 Threads auch wirklich ausnutzt, schaut es für die AMD CPUs auf einmal gar nicht so schlecht aus, ganz im Gegenteil. Dann halten sie sogar mit deutlich teureren CPUs mit oder versägen sie sogar.
Und das ist für 'ne 170€ CPU nicht übel, mal mit 300€ CPUs mithalten zu können...
Und wenn man auch gern eine CPU haben möchte, die selbst 8 virtuelle Kerne bietet, musst bei Intel mal eben so um die 50% mehr hinblättern...
fetthund
2013-06-17, 13:10:58
Und wenn man auch gern eine CPU haben möchte, die selbst 8 virtuelle Kerne bietet, musst bei Intel mal eben so um die 50% mehr hinblättern...
Wenn es um die 8-Threads im Task-Manager geht, das gibt es auch bei Intel günstig - und nicht zu 50% Aufpreis, z.Bsp:
http://geizhals.at/eu/intel-xeon-e3-1230v2-bx80637e31230v2-a781378.html
Habe den selbst als boxed-Variante seit einem Jahr im System, da hört man dank der niedrigen Leistungsaufnahme rein gar nix, auch bei 100%-Lastläufen
:cool:
mironicus
2013-07-17, 22:56:07
Wird es eigentlich noch weitere CPUs für AM3+ geben (in kleineren Fertigungsprozessen...)?
Hatake
2013-07-18, 18:33:43
Wird es eigentlich noch weitere CPUs für AM3+ geben (in kleineren Fertigungsprozessen...)?
Interessiert mich auch.
AMD hat neue Opterons für die alten Serversockel angekündigt, da wird dann hoffentlich auch was für AM3+ abfallen.
Obs ein Shrink wird ... mal schauen, ich rechne eher mit nem D-Stepping des aktuellen DIEs.
Einige spekulieren darüber, dass AMD das von Trinity/Richland bekannt Resonant-Clock-Mesh integrieren könnte, bisher gabs das bei den CPUs noch nicht. Damit wäre dann trotz der gleichen 32nm Produktion ein eher größerer Sprung zu erwarten. Aber sicher weiss man wie immer nichts.
marc-05
2013-07-25, 16:14:28
AMD hat neue Opterons für die alten Serversockel angekündigt, da wird dann hoffentlich auch was für AM3+ abfallen.
Da kommt nix neues ,ein Opteron 3365 (http://www.cpu-world.com/news_2013/2013071801_AMD_quietly_releases_Opteron_3365.html) (8x 2.3Ghz) wird noch komm zu den bereits erhältlichen 3320/3350/3380. (http://geizhals.de/?cat=cpuamdo64&xf=587_C0~820_AM3%2B#xf_top)
2014 kommen Berlin (Server APUs) werden dann mit dem Mobo fest verlötet.
Da kommt nix neues ,ein Opteron 3365 (http://www.cpu-world.com/news_2013/2013071801_AMD_quietly_releases_Opteron_3365.html) (8x 2.3Ghz) wird noch komm zu den bereits erhältlichen 3320/3350/3380. (http://geizhals.de/?cat=cpuamdo64&xf=587_C0~820_AM3%2B#xf_top)
2014 kommen Berlin (Server APUs) werden dann mit dem Mobo fest verlötet.
Ja aber neben Berlin kommt auch Warsawa, das sind neue Piledriver CPUs für den Sockel G34 mit 12-16 Cores.
Es besteht zwar ein Restrisiko, dass AMD plötzlich n Megadie mit 12-16Core bastelt, aber das schließ ich mal aus, hoch ist die Wahrscheinlichkeit nicht. AMD agiert z.Zt eher vorsichtig, also denke ich, dass es einfach ein neues Orochi-Stepping gibt, die dann wieder klassisch in nem G34-MCM zusammengebastelt werden.
Es gibt also mit hoher Wahrscheinlichkeit ne Rev. D der aktuellen Chips. Dass es dann auf der Serverroadmap keinen Opteron 3000 Nachfolger damit gibt und dort stattdessen Berlin steht, bedeutet nicht, dass das auf der Desktop Roadmap genauso sein muss.
Für die G34-Opterons wird AMD wieder die DIEs gut aussortieren (bei ner TDP von ~115W darf ein Die im Gehäuse ja nicht mal 60W verbraten). Die Hitzkopf-Dies sollte AMD dann eigentlich wieder als FXe verschleudern. Böte sich zumindest an. Ganz sicher ist das aber auch nicht, gab auch mal ne Rev. D bei den 6core K10, die gabs nur für Server. Die Thuban für AM3 waren Rev. E.
Kurz: Man darf aber hoffen :)
mironicus
2013-07-27, 19:19:30
Sieh mal an: In den neuesten Versionen des Aida64-Benchmark sind die FX-CPUs jetzt schneller bei den Speicherbenchmarks (Lese und Kopier-) als die Intel-CPUs. Das war in früheren Version noch anders, oder?
http://www.computerbase.de/downloads/system/aida64/
AnarchX
2013-08-21, 17:06:53
Split Kaufberatung: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9886679
AMDs FX-8300 im japanischen Einzelhandel aufgetaucht | Planet 3DNow! (http://www.planet3dnow.de/cms/2454-amd-fx-8300-im-japanischen-einzelhandel-aufgetaucht/)
StefanV
2013-09-08, 18:22:05
122€ etwa.
Der große liegt bei 145€, umgerechnet. Hier ist er etwa 10€ teurer.
Preise der FX-9000-Serie fallen in den 200-300-Eurobereich | Planet 3DNow! (http://www.planet3dnow.de/cms/3487-preise-der-fx9000-serie-fallen-in-den-200-300-eurobereich/).
Endlich mal Konkurrenz im Preisbereich des 4770K :freak:
Skysnake
2013-09-24, 00:30:54
Autsch :ugly:
Deutet das aber eventuell auch auf bald neu erscheinende CPUs hin? Bei den GPUs ist ja ähnliches aktuell passiert.
Ronny145
2013-09-24, 00:41:23
289€ sind noch zu viel.
http://www.hardware.fr/articles/905-1/amd-fx-9590-5-ghz-ou-pas-test.html
Anwendungsleistung leicht unterhalb vom 4770k, Spieleleistung leicht unterhalb vom i5-3330.
Autsch :ugly:
Deutet das aber eventuell auch auf bald neu erscheinende CPUs hin? Bei den GPUs ist ja ähnliches aktuell passiert.
Davon wüssten wir. CPUs ohne Grafik sind wohl erstmal Geschichte bei AMD. Falls es sich um eine offizielle Preissenkung und nicht wieder um Panikabverkäufe einzelner Shops handelt, ist AMD zur Vernunft gekommen. Preise oberhalb eines SB/IVB 6-core sind lachhaft gewesen.
Deutet das aber eventuell auch auf bald neu erscheinende CPUs hin? Bei den GPUs ist ja ähnliches aktuell passiert.Glaub ich eher weniger, aber wer weiss vielleicht hat AMD jetzt ein paar Dies mit 5,2 GHz / 5,5 Ghz Turbo bei 300W aussortiert, die demnächst als FX-9690 für 700 Euro erscheinen :freak:
Ne im Ernst, die Dinger sind halt übrig, für 700 kaufts keiner, jetzt hoffen sie halt das wenigstens für 300 welche weggehen.
Thunder99
2013-09-24, 11:03:51
Wenn AMD mal den Uncore Takt gescheit steigern könnte... wäre die CPU ja wieder interessant
StefanV
2013-09-24, 14:25:34
zumal 2-300MHz mehr I/O Takt mehr bringen würde als Coretakt...
Jo, mit 5 GHz Basis- und 2,8 GHz Uncore-Tacker wäre die Schleuder ganz angenehm – bei einer VID von 1,3 Volt. :ugly:
MfG,
Raff
Jo, mit 5 GHz Basis- und 2,8 GHz Uncore-Tacker wäre die Schleuder ganz angenehm – bei einer VID von 1,3 Volt. :ugly:
MfG,
Raff
wunschdenken :(
Megamember
2013-09-25, 11:51:33
Das Gesicht der Leute die ihn sich für 700€ gezogen haben will ich jetzt sehn.
Matrix316
2013-09-25, 12:26:34
Das Gesicht der Leute die ihn sich für 700€ gezogen haben will ich jetzt sehn.
Die waren doch eh eigentlich dumm, so viel Geld für so eine schlechte CPU zu bezahlen.
Shaft
2013-09-25, 14:45:27
Das Gesicht der Leute die ihn sich für 700€ gezogen haben will ich jetzt sehn.
Ich erst, würde mich da bissl verarscht fühlen.
Die waren doch eh eigentlich dumm, so viel Geld für so eine schlechte CPU zu bezahlen.
Das sowieso. Wer bei der Leistung und Verbrauch 700 Flocken hinlegt, den ist eh nicht mehr zu helfen.
Letztendlich ist der Preis da, wo man ihn angemessen erwarten sollte.
(del676)
2013-09-26, 08:44:37
Mal sehen wie stark der 9590 mit Mantle wird. :)
fondness
2013-09-26, 10:56:01
Intel-CPUs werden davon genau so profitieren. :)
Mantle soll laut AMD bei der Auslastung von bis zu 8 Kernen helfen.
MfG,
Raff
INDEX75
2013-09-26, 11:02:46
Mantle soll laut AMD bei der Auslastung von bis zu 8 Kernen helfen.
MfG,
RaffSoll nicht auch AMDs GCN besser ausgelastet werden?
Yep. Zumindest gilt das schon im Zusammenhang mit der Frostbite-Engine.
http://www.pcgameshardware.de/screenshots/original/2013/09/DSC_2842a-pcgh.jpg
MfG,
Raff
INDEX75
2013-09-26, 11:34:40
Hmm … Eventuell doch ein genialer Schachzug seitens AMD sich die PS4 und Xbox One zu angeln. :wink:
Bin gespannt wie Flitzebogen wie sich das entwickeln wird.
Yep. Zumindest gilt das schon im Zusammenhang mit der Frostbite-Engine.
http://www.pcgameshardware.de/screenshots/original/2013/09/DSC_2842a-pcgh.jpg
Geht nicht:
http://www.pcgameshardware.de/screenshots/nodeeplink.gif
@fondness:
Ja, aber die haben doch schon genug Rechenleistung um die GPU am Limit zu fahren. AMDs Motto ist quasi: Wir haben ne schwache CPU, also entlasten wir sie mal ;-) Das Sounds-Zeugs schlägt in die gleiche Kerbe. hatte dazu gestern kurz was getippelt:
AMDs Zukunftsstrategie: Weniger CPU-Last | Planet 3DNow! (http://www.planet3dnow.de/cms/3745-amds-zukunftstrategie-weniger-cpu-last/)
Badner1972
2013-10-18, 15:45:46
D.h. durch die Konsolendeals werden wir langfristig auch endlich Spiele bekommen,die 8Kerne vernünftig nutzen? Wäre super,vielleicht sehen wir ja in 2 Jahren dann nen Intel 8Kerner in nem bezahlbaren Rahmen sprich unter 500€
foenfrisur
2013-10-18, 19:45:35
in 2 jahren nicht mal abwegig...
ich hätte das gern schon nächstes jahr...
mfg
in 2 jahren nicht mal abwegig...
ich hätte das gern schon nächstes jahr...
Gibts doch jetzt schon ;-)
Schau mal bei ebay unter E5639 :biggrin:
foenfrisur
2013-10-31, 06:55:08
ja, und wo ist der bezahlbare rahmen?
was auch immer du mit E5639 meinst.
ich nehme an, einen xeon mit 8 kernen.
mfg
Skysnake
2013-10-31, 09:00:07
Ist nen S1366 Hexacore mit HT. Er meint wohl, das du einfach zwei davon nehmen sollst :ugly:
ja, und wo ist der bezahlbare rahmen?
was auch immer du mit E5639 meinst.
ich nehme an, einen xeon mit 8 kernen.
Ne, das sind Xeons mit 6 Kernen, aber seeehr bezahlbar, weit unter Deiner 500er-Grenze ;-)
Da bekommst Du sogar 2 von *G*
Teuer wird höchstens dann das 2P-Board, aber 1P reicht eigentlich auch.
@Skysnake: Ja entweder gleich 2 davon, oder halt mit SMT rechnen -> 12 Threads.
foenfrisur
2013-10-31, 16:38:39
aso :D
8 echte kerne wären mir jedoch lieber.
wobei ich mir "zeitnah" diesen gönnen werde.
http://geizhals.de/intel-core-i7-4930k-bx80633i74930k-a993654.html
auch bezahlbar und übertaktbar.
mfg
mironicus
2013-11-05, 15:35:52
Ich habe mal was lustiges gemacht. Mein FX-8350 ist fest eingestellt auf 1,26 Volt (4 GHz bei allen Kernen). Mit dem AMD MSR Tweaker habe ich jetzt den Turbo nicht auf 4,2 sondern gleich auf 4,8 Ghz gestellt.
Dazu reicht eine Batchdatei mit dem Aufruf
amdmsrtweaker p0=24
Das merkt man vor allem beim Single Core Cinebench-Test, der ist entsprechend des Turbos schneller geworden.
Bei welchen Spielen profitiert man eigentlich vom Turbo?
Warum setzt du dann nicht einfach alle Kerne auf 4,8GHz? Wenn es mit einem Kern geht, müsste es auch mit allen gehen. Es sei denn, die Stromversorgung vom Board o.Ä. limitieren.
mironicus
2013-11-05, 15:49:38
Ich habe bewußt die CPU selbst untervoltet, so dass sie bei voller Auslastung nicht so viel Strom verbraucht, außerdem ist das nur ein Asus-Board mit 760G-Chipsatz, mehr als 4.4 GHz auf allen Kernen gehen damit nicht.
Trotzdem finde ich es cool, dass man den Turbo so weit hochjagen kann trotz Spannungssenkung. Das sind fast 20% mehr Geschwindigkeit for free bei nicht optmierten Anwendungen.
Liszca
2013-11-18, 22:15:08
Warum setzt du dann nicht einfach alle Kerne auf 4,8GHz?
Das geht leider nicht, du musst leider irgendwann die spannung erhöhen, einfach weils mehr kerne werden.
Obs am Design liegt oder normal ist?
Mehr Kerne haben damit nichts zu tun. Es geht ja nur mehr in die Breite, da bleibt die benötigte Spannung gleich. Nur der Stromverbrauch steigt. Daher, wie oben gesagt, wird die Stromversorgung des Boards instabil. Mit mehr Spannung lassen sich höchsten kurzzeitige Einbrüche besser überbrücken.
Skysnake
2013-11-19, 14:01:47
Das Augediagramm wird mit größerer Spannung aber besser ;)
Und mit nem größeren DIE haste längere Wires, und damit kleinere Augen bei gleicher Spannung ;)
Augediagramm musste ich jetzt erstmal googeln :)
Bei größeren Dies geb ich dir grundsätzlich recht. Aber hier ging es um deaktivierte Kerne. Die Abmessungen sind also da, egal ob die Kerne laufen oder nicht.
Skysnake
2013-11-19, 14:56:16
Ja, durch mehr Kerne werden deine Lastwechsel aber größer, was wiederum dein Augendiagramm kleiner macht ;)
Ich habe hier ein massives Problem mit Shift 1 (ich liebe dieses Spiel - sry). Meine Min-Frames gehen bis zu 45 runter und es ist auch völlig Schnuppe ob mit oder ohne SSAA in 1080P. Was kann ich hier noch machen? Die CPU läuft mit >4.8Ghz und die NB auf 2.6Ghz. Oder vielleicht anders gefragt: Es gab doch afaik einen Trick, mit dem man die Singelcore-Performance steigern konnte?! Für Instruktionen, Links, Tipps ..... wäre ich sehr dankbar.
BTW. habe ich den direkten Vgl. zu meinem Alienware Notebook, welches ich unter max. Q normalerweise gnadenlos ausradiere, allerdings in diesem Spiel leider nicht, denn hier liegen bei identischen Settings, die min-FPS über 68 und somit, dank Framepacing, im sehr gut spielbaren Bereich.
Kerne abschalten und auf 5,x übertakten. Wenn das denn noch geht, ohne astronomischen Vcore. Wieviel benutzt Shift denn? bestimmt nicht mehr als drei, oder?
mironicus
2013-12-13, 11:53:15
Vielleicht taktet das Mainboard die CPU im Betrieb auf 1,4 GHz runter weil du sie zu hoch übertaktet hast (4,8 GHz) und das Mainboard und die VRMs zu heiss werden. Dein Mainboard hat auch kein 5 GHz-FX Support, daher verständlich.
Versuch einfach mal die VRMs etwas anblasen zu lassen, dann sollte es keine Einbrüche geben.
Die 4.8Ghz liegen immer an, die CPU taktet also nicht herunter. 4.95Ghz bekomme ich gerade so stabil zum Laufen, was allerdings dem grottigen Spielerlebnis keinen Abbruch tut.
Dann werde ich wohl damit leben müssen, dass Shift 1 mit einem Bulli praktisch unspielbar ist :(
Hm, welche Strecke ist besonders schlimm? Ich habe das Spiel noch installiert, aber ewig nicht mehr angeworfen. Mit meinem X6 lief das super. Vermutlich ist das eines der Spiele, bei denen die Nordbrücke limitiert. Daher: Prügel den Northbridge-Takt so hoch, wie's geht, möglicherweise skalieren die fps linear. 2,4 GHz gehen sicher, mit Spanungserhöhung 2,5 bis 2,6 GHz – 2,7 ist schon außergewöhnlich viel, daher bist du wohl schon am Limit ... Ich kann's gern mal auf meiner optimierten Mühle (mit einer GeForce) testen und dir Feedback geben. :)
MfG,
Raff
mironicus
2013-12-13, 13:31:55
Die Need for Speed Spiele liefen nie gut auf FX-Prozessoren, diese Games brauchen eine extrem hohe IPC um mit über 60 Frames zu laufen, das ist bei den aktuellen Teilen der Reihe auch nicht anders (Core i5/i7 mit über 4 Ghz notwendig). Deshalb wird ja auch Zeit für "Mantle". :)
Die Entwickler wechseln aber ständig die Engine, Shift 1 & 2 nutzen einen anderen Unterbau als Hot Pursuit und Most Wanted; Rivals ist erstmals auf Frostbite-Basis. Letztere skaliert sehr gut mit den Kernen, aber da das Spiel unnötigerweise auf 30 fps limitiert ist, verpufft dieser Vorteil ...
MfG,
Raff
mironicus
2013-12-13, 13:57:11
Ich habe Rivals auf einem FX-8350 (Standard) mit einer Radeon 7970 (1100/1700) und 60 fps-Tweak probiert.
Das gleiche mit einem i7-3770k auf 4,4 Ghz und einer R290x (1100/1500).
Selbst auf dem i7 gibt es ab und zu leichte Ruckler (bei kleineren Städten), der FX ruckelt natürlich mehr, und die GPU langweilt sich total. Ein Patch wird wohl nicht kommen, da halt für 30 fps ausgelegt...
Und die Begrenzung auf 30 fps ist auch nicht unproblematisch - der Bildaufbau ist nicht so sauber und es gibt Mikroruckler (Judder), da spiele ich lieber mit 60 fps-Tweak.
sklave_gottes
2013-12-13, 16:02:11
Es könnte eventuel an den Modulen liegen. Geh mal ins Bios und deaktiviere auf dem FX-8350 pro Modul einen Core. So das du am Ende nur noch 4 Aktive Cores hast. Wichtig ist aber das du pro Modul einen Deaktivierst und nicht einfach 2 Module. So habe ich schon damals auf dem FX-8150 einige Spiele mit dualcore Suport um bis zu 20-25% Beschleunigen können. Dazu kommt, dass durch die veringerte Leistungsaufnahme meist auch noch ein Paar mhz mehr möglich sind.
mfg martin
Hm, welche Strecke ist besonders schlimm? Ich habe das Spiel noch installiert, aber ewig nicht mehr angeworfen. Mit meinem X6 lief das super. Vermutlich ist das eines der Spiele, bei denen die Nordbrücke limitiert. Daher: Prügel den Northbridge-Takt so hoch, wie's geht, möglicherweise skalieren die fps linear. 2,4 GHz gehen sicher, mit Spanungserhöhung 2,5 bis 2,6 GHz – 2,7 ist schon außergewöhnlich viel, daher bist du wohl schon am Limit ... Ich kann's gern mal auf meiner optimierten Mühle (mit einer GeForce) testen und dir Feedback geben. :)
MfG,
Raff
An welcher Schraube muss ich denn drehen um den NB-Takt noch weiter zu erhöhen? Spannungstechnisch habe ich so einiges ausgelotet, allerdings ohne Erfolg. Und ob jetzt 4.5, 4.8 oder 5Ghz, die CPU kommt einfach nicht in Fahrt. Am meisten bringt es noch den NB-Takt zu erhöhen.
Strecken, welche gut gehen, sind eigentlich fast alle Übersee-Strecken - da sind es zwischen 70 und 120FPS. Katastrophal ist allerdings z.B. Spa (GPU-Auslastung zwischen 0 und 30 Prozent :mad:). Da läuft, kein Scherz, Projekt Cars maxed out incl. DS4x sehr viel besser. Das ärgert mich maßlos!
Mir war schon bewusst, dass ich mit einem Bulli keine Benchmarkrekorde aufstellen werde, allerdings ist der Unterschied zwischen dem 4.3Ghz i7 aus meinem Notebook zum ebenfalls bis zum Anschlag übertakteten Bulli enorm, um nicht zu sagen - schlicht gigantisch.
Vielleicht in einen separaten Problem-Thread im AMD-Prozessor-Unterforum verschieben, da es eher weniger mit Bulldozer-Review zu tun hat?
An welcher Schraube muss ich denn drehen um den NB-Takt noch weiter zu erhöhen? Da bist du mit 2.6 ziemlich sicher am Maximum - du hast aber nicht zufällig die "NB" statt der "CPU-NB" übertaktet?
Mir war schon bewusst, dass ich mit einem Bulli keine Benchmarkrekorde aufstellen werde, allerdings ist der Unterschied zwischen dem 4.3Ghz i7 aus meinem Notebook zum ebenfalls bis zum Anschlag übertakteten Bulli enorm, um nicht zu sagen - schlicht gigantisch.Interessant. Falls da nicht ein Problem im System anliegt, könnten Grid-Besitzer vielleicht mal gezielte Tests zur Skalierung anstellen - Kerne, Architektur, Takt? Klingt irgendwie höchst bescheiden, die Engine :D
Vielleicht in einen separaten Problem-Thread im AMD-Prozessor-Unterforum verschieben, da es eher weniger mit Bulldozer-Review zu tun hat?
Da bist du mit 2.6 ziemlich sicher am Maximum - du hast aber nicht zufällig die "NB" statt der "CPU-NB" übertaktet?
Interessant. Falls da nicht ein Problem im System anliegt, könnten Grid-Besitzer vielleicht mal gezielte Tests zur Skalierung anstellen - Kerne, Architektur, Takt? Klingt irgendwie höchst bescheiden, die Engine :D
Ne schon die NB:D
Ich habe mal ein paar Tests gemacht und bin zu der Erkenntnis gekommen, dass der Bulli ab 4.6Ghz und 2.6 GHz NB-Takt bei einer 290x unter Einsatz von SSAA nicht mehr merklich bremst :ulol3:
Z.B. in Sleeping Dogs (1080p, Maxed Out, 2x2SSAA):
4.3Ghz -Avg: 70.3 min: 44
4.6Ghz -Avg: 81.3 min: 56
Project Cars, gemessen mit Fraps, Strecke Badenring-Test (Maxed Out, Smaa und Fxaa aus, Ds4x)
4.3Ghz -Avg. 59Fps Min. 41
4.6Ghz -Avg. 75Fps min. 59
Dass eine CPU dermaßen überproportional bremst, habe ich ehrlich gesagt noch nicht erlebt, vor allem in Settings, wo eigentlich ein GPU-Limit vorherrscht.
Cool, dass du einen Sweetspot bei 4.6GHz gefunden hast :) Ist aber die CPU-NB, nicht die NB, die zu übertakten wäre (und sehr zur Hitzeentwickung beiträgt btw) :)
Bei einer übertakteten 290x wundert es mich nicht, dass die CPU früh limitiert, die Aussage "wo eigentlich ein GPU-Limit vorherrscht" stimmt ja nicht, wenn die CPU limitiert ;)
Nein, ich meinte schon die NB und NICHT den HT-Link
http://up.picr.de/16751709kg.png
;)
Alles was ich damit leider ausdrücken will ist, dass der Bulli vielleicht irgendwo schon seine Vorzüge hat, zum Spielen (mit einer potenten Grafikkarte) allerdings nur bedingt geeignet ist. Aber immerhin: Sauschnelle Grafikkarten können se schon bauen, die AMDler :)
StefanV
2013-12-15, 04:54:19
Das Problem ist halt, dass viel zu viele Spiele immer noch zu stark auf Single Thread Performance setzen...
Die Multi Thread Performance der Bullis ist aber durchaus ganz gut...
Nutzt nur beim Zocken momentan nicht allzu viel, wenn die ganzen Spiele nur 1-3 Threads, mit viel Glück auch mal 4 nutzen.
=Floi=
2013-12-15, 06:33:06
das ändert ja auch nichts daran, dass intel dann auch bei 4 threads prozentual gleich weit vorne liegt wie bei zwei oder einem thread. nebenbei gibt es noch (nicht am markt) immer den 6 core amd.
Der HeinZ
2013-12-15, 09:39:13
das ändert ja auch nichts daran, dass intel dann auch bei 4 threads prozentual gleich weit vorne liegt wie bei zwei oder einem thread. nebenbei gibt es noch (nicht am markt) immer den 6 core amd.
Jepp und da kann ich die NB auf 3 Ghz ziehen... das ergibt schon heftige unterschiede!
grobi
2013-12-15, 09:51:39
Ich finde es schon merkwürdig das man durch die erhöhung des Taktes der NB soviel an Leistung gewinnt. Das bedeutet ja das man Leistung die die Architektur bringen kann brach liegen lässt. Kann man das als Fehlleistung AMD's deuten?
StefanV
2013-12-15, 10:01:08
Naja, das Problem ist halt, dass Bulli noch für Server gebaut ist. Und da war das Delta zwischen Coretakt und NB Takt relativ gering (max. 1GHz).
Im Endkundenbereich liegt das Delta aber bei bis zu ~3GHz. Und das limitiert dann doch gewaltig...
Schade, dass es keine 'Super Extreme Edition' mit 3GHz NB Takt gibt...
Ich glaub eher, dass man sich beim Design zu sehr auf ULK-Materialien verlassen hat. Zur Erinnerung, beim Thuban waren 3GHz möglich. Ohne ULK gibts halt weniger Takt.
StefanV
2013-12-15, 11:32:04
Naja, ist halt die Frage, ob man an dem I/O Teil überhaupt irgendwas geändert hat, oder ob das immer noch das gleiche Zeugs wie beim Deneb ist...
Ich fürchte fast, dass man in diesem Punkt nichts getan hat, obwohl das eigentlich bitter nötig wäre...
Skysnake
2013-12-15, 12:28:56
Das Problem ist halt, dass viel zu viele Spiele immer noch zu stark auf Single Thread Performance setzen...
Die Multi Thread Performance der Bullis ist aber durchaus ganz gut...
Nutzt nur beim Zocken momentan nicht allzu viel, wenn die ganzen Spiele nur 1-3 Threads, mit viel Glück auch mal 4 nutzen.
Tja, das ist halt ein Problem, aber mal schauen, was Mantle da bewegen wird.
Selbst nen 2Ghz Bulli soll ja ne 290X nicht mehr limitieren :freak:
Klar, das Gleiche gilt dann auch für Intel, nur muss dann fast keiner mehr ne neue CPU kaufen und AMD kann zumindest noch die GPUs und APUs absetzen.
Das Problem ist halt, dass viel zu viele Spiele immer noch zu stark auf Single Thread Performance setzen...
Die Multi Thread Performance der Bullis ist aber durchaus ganz gut...
Nutzt nur beim Zocken momentan nicht allzu viel, wenn die ganzen Spiele nur 1-3 Threads, mit viel Glück auch mal 4 nutzen.
Der Gipfel des Unfugs ist ja Starcraft 2. Da gibt's Szenen, bei denen man mit einer AMD-CPU nur 10-15 Fps hat, auf den schnellsten Intels dann 20-30. Schaut man sich das Multithread-Verhalten an, wird deutlich, dass hier nur etwa 3 Kerne "angelutscht" werden. Ich halte das für eine Frechheit. Ruckeln auf schnellen CPUs ist okay, wenn diese am Limit laufen – und nicht, wenn drei Viertel des Prozessors im Leerlauf sind. Die aktuellen Engines von Crytek, DICE, Codemasters & Co. zeigen, wie man vernünftige Bildraten aus AMD-Chips holt. Das Problem erledigt sich also im Laufe der zeit von selbst.
MfG,
Raff
Gimmick
2013-12-15, 13:20:13
Der Gipfel des Unfugs ist ja Starcraft 2. Da gibt's Szenen, bei denen man mit einer AMD-CPU nur 10-15 Fps hat, auf den schnellsten Intels dann 20-30. Schaut man sich das Multithread-Verhalten an, wird deutlich, dass hier nur etwa 3 Kerne "angelutscht" werden. Ich halte das für eine Frechheit. Ruckeln auf schnellen CPUs ist okay, wenn diese am Limit laufen – und nicht, wenn drei Viertel des Prozessors im Leerlauf sind. Die aktuellen Engines von Crytek, DICE, Codemasters & Co. zeigen, wie man vernünftige Bildraten aus AMD-Chips holt. Das Problem erledigt sich also im Laufe der zeit von selbst.
MfG,
Raff
Das is ja das bekloppte. Ältere Spiele können schlechter laufen als neue. Wann gabs das schon mal.
Das nervt mich vor allem bei neueren MMOs (z.B. Wildstar aktuell). Niedrige FPS aber Hauptsache nur 2 Kerne einigermaßen ausgelastet ~.-
Skysnake
2013-12-15, 13:30:05
Der Gipfel des Unfugs ist ja Starcraft 2. Da gibt's Szenen, bei denen man mit einer AMD-CPU nur 10-15 Fps hat, auf den schnellsten Intels dann 20-30. Schaut man sich das Multithread-Verhalten an, wird deutlich, dass hier nur etwa 3 Kerne "angelutscht" werden. Ich halte das für eine Frechheit. Ruckeln auf schnellen CPUs ist okay, wenn diese am Limit laufen – und nicht, wenn drei Viertel des Prozessors im Leerlauf sind. Die aktuellen Engines von Crytek, DICE, Codemasters & Co. zeigen, wie man vernünftige Bildraten aus AMD-Chips holt. Das Problem erledigt sich also im Laufe der zeit von selbst.
MfG,
Raff
Das ist auch einer der Gründe, warum ich nicht so ganz verstehe, warum Starcraft in eurem Rating mit drin ist. :confused:
BlizzardGames sind einfach ziemlich bescheiden programmiert, was den CPU-Part der Engines anbelangt. Ich finds RICHTIG! das ihr das überhaupt testet, da es sehr beliebte Spiele sind, aber es ist doch ein ziemlicher Extremfall. Mich erinnert das immer ein bischen an RUSE, welches ihr wegen der explizieten Intel-Unterstützung damals ja nicht in den Parcour aufgenommen habt.
Und ja ich weiß, im Prinzip kann man bei solchen Games es nur falsch machen bzgl Parcourauswahl. :(
Ich fänd es daher echt gut/nett, wenn man sowas auch mal kritisieren würde, und eben darauf eingeht/den Leuten zeigt, welch "schlechte" Engines es noch gibt. Also das die Software teils einfach grottig ist, und nicht die Hardware "schlecht" ist.
Cities XL ist da ja auch so ein EXTREMES! Negativbeispiel... Hab ich mir letztens geholt für ganz kleines Geld, weil ich mal wieder bock hatte auf ne Städtebausim, aber dass das Ding nur einen Kern nutzt ist echt ne Frechheit... Ich wusste dann sofort wieder, warum ich mir das Game NICHT gekauft hatte. So Software gehört im Regal stehen gelassen, bis Sie verrottet...:mad::down:
StefanV
2013-12-15, 17:05:38
Ältere Spiele können schlechter laufen als neue. Wann gabs das schon mal.
Benzium 4?
Aber genau das ist ja das Problem bei den Bullis, dass sie zu sehr auf 'Server' ausgerichtet sind, dazu der High Leakage IBM Prozess...
Bei World of Tanks ist es ebenso, die Engine läfut nur auf einem Kern. Immerhin soll es bald Multikern(also zwei)-Kernunterstützung geben.
Die Framerate pendelt teilweise von 60-25FPS. (i7-860@stock). Das nervt manchmal nur noch. Auf 3,4Ghz sinds immerhin 35 Minimum.
Twodee
2013-12-15, 19:30:16
Benzium 4?
Aber genau das ist ja das Problem bei den Bullis, dass sie zu sehr auf 'Server' ausgerichtet sind, dazu der High Leakage IBM Prozess...
SB-E ist auch zu sehr auf Server ausgerichtet... dennoch kein Problem Games zu zocken :rolleyes:
kruemelmonster
2013-12-15, 20:00:25
SB-E ist auch "nur" ein 50% breiterer SB welcher seinerseints "nur" ein effizientes Mobilchipdesign auf Steoriden ist.
Das ist ne ganz andere Grundlage als die low-IPC-mit-vielen-Kernen Designausrichtung des Bullis, SB-E ist breit und schnell.
Der Gipfel des Unfugs ist ja Starcraft 2. Da gibt's Szenen, bei denen man mit einer AMD-CPU nur 10-15 Fps hat, auf den schnellsten Intels dann 20-30. Schaut man sich das Multithread-Verhalten an, wird deutlich, dass hier nur etwa 3 Kerne "angelutscht" werden. Ich halte das für eine Frechheit. Ruckeln auf schnellen CPUs ist okay, wenn diese am Limit laufen – und nicht, wenn drei Viertel des Prozessors im Leerlauf sind. Die aktuellen Engines von Crytek, DICE, Codemasters & Co. zeigen, wie man vernünftige Bildraten aus AMD-Chips holt. Das Problem erledigt sich also im Laufe der zeit von selbst.
MfG,
Raff
Yap, wobei ich vor allem Codemasters lobend hervorheben möchte.
StefanV
2013-12-16, 04:12:05
SB-E ist auch zu sehr auf Server ausgerichtet... dennoch kein Problem Games zu zocken :rolleyes:
Nee, ists nicht. Das Teil ist einfach nur ein aufgemotzter Sandy.
Bulldozer ist aber ein Design, das von Anfang an auf massiv parallele Leistung ausgelegt ist - auf kosten der 'unparallelen Leistung'.
Ist ja eben nicht so, dass die Bullis immer schlechter als die (damals) entsprechenden Intel Prozessoren wären, ganz im Gegneteil! Bei mindestens 4 Threads sind sie schon ganz gut dabei, bei 8 Threads oft schneller...
Wobei auch hier wieder der 'Uncore' Teil etwas stärker limitiert, da Delta zwischen Coretakt und NB Takt gewaltig ist. z.T. mehr als Faktor 2!
Twodee
2013-12-17, 11:02:18
Nee, ists nicht. Das Teil ist einfach nur ein aufgemotzter Sandy.:rolleyes:
Bulldozer ist aber ein Design, das von Anfang an auf massiv parallele Leistung ausgelegt ist - auf kosten der 'unparallelen Leistung'.
Das war mMn ein ziemlicher Schuß in den Ofen, da die massiv parallele Leistung sich bei gleichem Takt nicht mal von einem Sandy absetzen kann.
Es gibt weder Platz noch Leistungsvorteile, dazu der beschissene Prozess wo man auf hohe Taktraten angewiesen ist.
Ist ja eben nicht so, dass die Bullis immer schlechter als die (damals) entsprechenden Intel Prozessoren wären, ganz im Gegneteil! Bei mindestens 4 Threads sind sie schon ganz gut dabei, bei 8 Threads oft schneller...
Aber nicht bei gleichem Takt! Bulli hat unter MT oft 400-500MHz mehr TurboTakt, bei gleichem Takt wird er von einem Sandy geschlagen.
Wobei auch hier wieder der 'Uncore' Teil etwas stärker limitiert, da Delta zwischen Coretakt und NB Takt gewaltig ist. z.T. mehr als Faktor 2!
Weitere fehlerhafte Design-Entscheidung?
Bei gleichem Takt wird aber wiederum der Pentium 4 deutlichst vom Bulli geschlagen - sogar "single-threaded", was sagt uns das?
Weitere fehlerhafte Design-Entscheidung?
Hier sieht man nur wieder die Ausrichtung auf den Server-Bereich. Dort sind die CPUs meist deutlich langsamer getaktet, der uncore, wenn überhaupt nur geringfügig langsamer als bei den FXen. Das Verhältnis Core/Uncore wird also besser, wodurch auch die IPC steigen sollte.
StefanV
2013-12-17, 14:22:00
Ganz genau. DIe schnellsten '16 Core' Opteronen takten gerad mal mit 2.8GHz (http://geizhals.at/de/?cat=cpuamdo64&xf=25_16%7E820_G34%7E3_2500#xf_top)...
Gibt natürlich auch Chips mit mehr als 3GHz, das sind aber nur '8 Kerner (http://geizhals.at/de/?cat=cpuamdo64&xf=820_G34%7E3_3000#xf_top) und sogar 4 Kerner...
Der Opteron-Server-Marktanteil geht inzwischem gegen Null. Können wir das Thema damit abschließen?
Intels Architektur ist im Moment in jeglichen Belangen Bulldozer überlegen. Das liegt nicht einmal am Grundkonzept sondern schlicht an der Implementierung.
Schaffe89
2013-12-18, 01:35:04
Das ist auch einer der Gründe, warum ich nicht so ganz verstehe, warum Starcraft in eurem Rating mit drin ist.
Habe ich schon immer auch recht vehement kritisiert, aber wenn man sich die Verkäufe dieses Spiels ansieht, kann man das so eben rechtfertigen, halte es trotzdem für unnsinnig, zumal PCGH ja CPU Limits forciert. Bei mir läuft Star Craft II recht gut auf dem FX, keine Ruckler bisher, muss wohl schon ein recht anspruchsvolles Szenario sein.
Skysnake
2013-12-18, 01:59:16
Habe ich schon immer auch recht vehement kritisiert, aber wenn man sich die Verkäufe dieses Spiels ansieht, kann man das so eben rechtfertigen, halte es trotzdem für unnsinnig, zumal PCGH ja CPU Limits forciert. Bei mir läuft Star Craft II recht gut auf dem FX, keine Ruckler bisher, muss wohl schon ein recht anspruchsvolles Szenario sein.
Ja, das Spiel IST verbreitet wie Sau, aber eben an sich überhaupt nicht representativ.
In meinen Augen wäre da eine "außer konkurrenz Wertung" vorteilhafter.
Also entweder eben ein Einzeltest der Engine, wie bei so manchem Spiel auch bereits gemacht wird, nur halt ausführlicher, oder halt einfach nicht mit in die Abschlusswertung.
Alternativ wäre auch ein geteiltes Rating für Multi-Core und Single/Dual-Core Engines denkbar. Ein Wert allein spiegelt halt nicht wirklich die reale Situation wieder.
Die Performance ist sehr sehr sehr sehr unterschiedlich von Anwendung zu Anwendung. Am Ende bleibt einem eigentlich fast nur übrig halt zu schauen, was bei einem wie genau läuft. :(
Haarmann
2013-12-18, 09:30:34
Der Opteron-Server-Marktanteil geht inzwischem gegen Null. Können wir das Thema damit abschließen?
Intels Architektur ist im Moment in jeglichen Belangen Bulldozer überlegen. Das liegt nicht einmal am Grundkonzept sondern schlicht an der Implementierung.
Also ich kriege von AMD 4 Sockel mit 64 Int Kernen für wenig Geld...
Bei Intel kriegst fürs gleiche Geld genau eine CPU...
y33H@
2013-12-18, 10:47:14
Euro pro Kerne ist nicht das einzige Argument. Leistung pro Kern, Kerne pro CPU und Kerne pro Plattform sowie die Leistungsaufnahme sind ebenfalls relevant.
Undertaker
2013-12-18, 12:08:27
Euro pro Kern ist überhaupt kein Argument, ebensowenig wie Euro pro MHz. Was nützt einem so eine nichtssagende Zahl auch schon? Wie schon gesagt zählt nur die absolute Leistung pro Thread, pro Sockel/CPU, die maximale Leistung insgesamt sowie die Energieeffizienz. Dazu kommen noch Dinge wie Features und Plattform.
Nakai
2013-12-20, 14:44:54
Der Opteron-Server-Marktanteil geht inzwischem gegen Null. Können wir das Thema damit abschließen?
Intels Architektur ist im Moment in jeglichen Belangen Bulldozer überlegen. Das liegt nicht einmal am Grundkonzept sondern schlicht an der Implementierung.
Ja, leider. :frown:
Das sieht man in vielerlei Hinsicht. AMDs Architekturen sind "einfacher" und deswegen "umständlicher". Ist zwar nur meine Laien-Sicht, aber...
...AMDs Decoding hat mehr Overhead(pro Op -> 1-2MOps; 4 fette Decoder, je 1-2MOps). Intels Decoding ist eher für Normalfall aufgebaut(~1:3 der Instructions sind Complex)
...AMDs dedizierte Scheduler für Gleitkomma-, ALU- und AGU-Operationen sind schlechter, da zusätzliche Pipelinestages und wohl längere Datenpfade
...AMDs Ausführungseinheiten sind sehr simpel aufgebaut. Hinter jedem Port steckt nur eine Funktionalität. Bei Intel sind hinter jedem Port mehrere Funktionalitäten vereinigt. Wohl deutlich besser für bestimmte Code-Fälle.
...AMDs Cache-System ist nachteilig(kleiner Data-Cache). Intel verbaut extra eine Store-Einheit um größere Datenblöcke zu speichern. AMD hat zwei AGUs, welche Store und Load können(hier wieder extra Lade und Speicher-Blöcke). Intel hat hier direkte Funktionalitäten. Kürzere Pipeline.
AMDs Jaguar/Bobcat sieht schonmal gut aus. Hat leider immer noch die Einfachheit einer AMD-Architektur.
mfg
Thunder99
2013-12-20, 15:07:53
Habe ich schon immer auch recht vehement kritisiert, aber wenn man sich die Verkäufe dieses Spiels ansieht, kann man das so eben rechtfertigen, halte es trotzdem für unnsinnig, zumal PCGH ja CPU Limits forciert. Bei mir läuft Star Craft II recht gut auf dem FX, keine Ruckler bisher, muss wohl schon ein recht anspruchsvolles Szenario sein.
Spiel mal 4vs4. Da limitierte mein FX6300 ohne OC das der PC verlangsamt wurde :( oder lasse mal ein Replay mit 8fach Geschwindigkeit laufen.
Daher finde ich es schon vertretbar, dass das Siel im Parcour ist da es sehr verbreitet und beliebt ist
Erdbeermayonnaise
2013-12-20, 17:49:06
Spiel mal 4vs4. Da limitierte mein FX6300 ohne OC das der PC verlangsamt wurde :( oder lasse mal ein Replay mit 8fach Geschwindigkeit laufen.
Daher finde ich es schon vertretbar, dass das Siel im Parcour ist da es sehr verbreitet und beliebt ist
Es ist ja auch nicht so, als wäre Starcraft 2 das einzige Spiel mit diesem Problem. Es ist nur am einfachsten zu benchen. Vor kurzem laß ich in einem anderen Thread, dass jemand mit einem auf knapp unter 5Ghz übertaktetem FX-8350 noch Probleme hatte, einen der neueren NFS-Teile flüssig zu spielen.
So lange es noch Spiele ohne oder mit schlechter Mehrkernünterstützung gibt, muss man das auch in ein Performanceranking mit einbeziehen.
Haarmann
2013-12-24, 17:13:25
y33H@ und Undertaker
Unterm Strich gehts um Euro pro User. Ich kenne diese absurden Rechenmodelle, die einige dort genutzt haben. Da wurde dem Kunden die CPU 4 fach verkauft...
Oder einem User standen satte 100MHz zur Verfügung - das muss ein Spass sein auf so ner Kiste zu arbeiiten...
Letzten Endes mussten die Investitionen innert 24 Monaten wieder drin sein und da zählen nur die Euros und nichts sonst.
Das die Software Intel nicht bevorzugt ist bei den Sachen normal. Wenn man Glück hat gibts Multithreading... meisst aber auch nichtmals das.
kruemelmonster
2013-12-25, 05:04:06
Es ist ja auch nicht so, als wäre Starcraft 2 das einzige Spiel mit diesem Problem. Es ist nur am einfachsten zu benchen. Vor kurzem laß ich in einem anderen Thread, dass jemand mit einem auf knapp unter 5Ghz übertaktetem FX-8350 noch Probleme hatte, einen der neueren NFS-Teile flüssig zu spielen.
Auch wenns shice ist auf einen am Boden liegenden einzutreten; aber es handelte sich um das über 4 Jahre alte NFS Shift 1 welches wohl derbe auf dem FX eingeknickt ist. Das ist bei aller Fortschrittswilligkeit kein Zustand und deswegen ist das...
So lange es noch Spiele ohne oder mit schlechter Mehrkernünterstützung gibt, muss man das auch in ein Performanceranking mit einbeziehen.
...auch uneingeschränkt richtig. Die Relevanz eines Spiels in einem Benchmarkparcour macht sich nicht an seiner Multithreadingfähigkeit fest sondern an dem Grad in dem er die Spielelandschaft repräsentieren kann. Und die Spielelandschaft definiert sich nicht durch die Graslandschaften in Crysis 3.
Zwischen "teilweise werden 60 Fps nicht gehalten" (gedis Aussage) und "derbe einknicken" bzw. Unspielbarkeit wegen mangelnder Optimierung (Starcraft 2) liegen IMO Welten. Aktuelle Intel-CPUs arbeiten selbst grützigen Code flink ab, AMD-Chips benötigen jedoch viel Multithread-Liebe, um aufzudrehen. So frech ist es im Jahr 2013 bzw. bald 2014 doch nicht, ordentliches MT zu fordern, hm? ;)
MfG,
Raff
StefanV
2013-12-25, 13:24:09
zumal die ersten Multi Threaded Games schon über 10 Jahre alt sind (Quake 2 oder sowas), damals waren auch SMP Systeme mit 2 Selleries beliebt.
Leider hat man dem aber einen Riegel vorgeschoben...
(del676)
2013-12-25, 14:24:33
Ja, leider. :frown:
Meinst du?
Wir bekommen in den ersten Jaenner Wochen jetzt endlich Opteron basierende HP Blades als Teststellung. Wir brauchen einfach verdammt viele Kerne pro HE.
Nakai
2013-12-25, 15:35:14
Meinst du?
Wir bekommen in den ersten Jaenner Wochen jetzt endlich Opteron basierende HP Blades als Teststellung. Wir brauchen einfach verdammt viele Kerne pro HE.
Es ist natürlich nur meine Laiensicht. Bulldozer hat ne miese IPC für Singlethread-Anwendungen. Im Multitasking ist Bulldozer/Piledriver ganz passabel. PCGH hat hier einen kleinen Test gemacht:
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/
Skysnake
2013-12-25, 18:24:32
AMD hat teilweise aber auch ziemlich schicke Instructionen.
z.B. son dummer Bitshift nach links mit was anderem als 0 reingezogen gibts bei Intel erst seit Haswell, wenn ich das richtig gesehen habe.
Gut andersrum gibts sicherlich auch so Fälle, aber was ich damit sagen will ist, das auch bei Intel nicht alles Gold ist, was glänzt. Es kommt immer drauf an, was man denn machen will.
Schaffe89
2013-12-26, 02:09:41
Aktuelle Intel-CPUs arbeiten selbst grützigen Code flink ab, AMD-Chips benötigen jedoch viel Multithread-Liebe, um aufzudrehen.
Ach was, in Star Craft II fehlt es in eurem Worst Case bei AMD lediglich an Bandbreite des Rams.
Ansonsten könnte ein FX-9590 nicht so deutlich vor einem FX-8350 liegen, sind ja 40%.
Ihr solltest den Test einfach aus dem Testparcour entfernen, ist einfach Grütze solche Extrembeispiele.
Nakai
2013-12-26, 09:53:20
AMD hat teilweise aber auch ziemlich schicke Instructionen.
z.B. son dummer Bitshift nach links mit was anderem als 0 reingezogen gibts bei Intel erst seit Haswell, wenn ich das richtig gesehen habe.
Gut andersrum gibts sicherlich auch so Fälle, aber was ich damit sagen will ist, das auch bei Intel nicht alles Gold ist, was glänzt. Es kommt immer drauf an, was man denn machen will.
Ja, wenn man selber die Software anpasst mag das stimmen. Im Normalfall werden diese Sonderintruktionen niemals Verwendung finden.
Ich hoffe natürlich, dass AMD einen großen Batzen der Probleme mit SR behebt...wird aber nicht passieren.
Ich habs zwar schon woanders erwähnt, aber ich finde, dass AMD auf der Wildkatzen-Basis weitermachen sollte. Diese Mikroarchitekturen sind relativ ausgewogen, was ein guter Neuanfang wäre.
Haarmann
2013-12-26, 11:11:57
Die Frage ist doch - ist ein FX8350 ein Achtkerner oder ein Vierkerner mit verbessertem HyperThreading?
Dann müsste man so einige Vergleiche eben anders gestalten...
Und egal wie oft Starcraft 2 verkauft wurde - wer spielts denn noch?
War wohl die Enttäuschung der Dekade der Schrott.
Undertaker
2013-12-26, 11:23:49
Ach was, in Star Craft II fehlt es in eurem Worst Case bei AMD lediglich an Bandbreite des Rams.
Ansonsten könnte ein FX-9590 nicht so deutlich vor einem FX-8350 liegen, sind ja 40%.
Ihr solltest den Test einfach aus dem Testparcour entfernen, ist einfach Grütze solche Extrembeispiele.
Dafür gibt es ja Ratings, um Extremausschläge in die ein oder andere Richtung auszumitteln. Genausowenig sollte ein einzelnes Spiel entfernt werden, nur weil es auf einem FX besonders gut läuft.
Btw: An die Bandbreitentheorie glaube ich nach wie vor nicht. Imo verhungern die FX hier eher an den langsamen Caches.
Thunder99
2013-12-26, 14:06:23
Die Frage ist doch - ist ein FX8350 ein Achtkerner oder ein Vierkerner mit verbessertem HyperThreading?
Dann müsste man so einige Vergleiche eben anders gestalten...
Und egal wie oft Starcraft 2 verkauft wurde - wer spielts denn noch?
War wohl die Enttäuschung der Dekade der Schrott.
Du Unwissender ;) Es wird sehr oft gespielt da es einen guten MP Anteil hat
Exxtreme
2013-12-26, 15:52:15
Dafür gibt es ja Ratings, um Extremausschläge in die ein oder andere Richtung auszumitteln. Genausowenig sollte ein einzelnes Spiel entfernt werden, nur weil es auf einem FX besonders gut läuft.
Btw: An die Bandbreitentheorie glaube ich nach wie vor nicht. Imo verhungern die FX hier eher an den langsamen Caches.
Das Teil verhungert schon. Wobei ich immer noch davon ausgehe, dass das Absicht ist. Denn ansonsten würde der FX den Hitzetod sterben. Ich schätze, dass die BD-Architektur massig Luft nach oben hat mit besseren Chip-Fertigern und besseren Fertigungsprozessen.
Lokadamus
2013-12-26, 17:28:24
Meinst du?
Wir bekommen in den ersten Jaenner Wochen jetzt endlich Opteron basierende HP Blades als Teststellung. Wir brauchen einfach verdammt viele Kerne pro HE.Wenn Geld scheiß egal wäre, wären dann 10 echte Kerne eine Option?
http://ark.intel.com/products/family/59139/Intel-Xeon-Processor-E7-Family
Ist aber die Frage, was bei dir auf der Arbeit überhaupt gemacht wird. Je nach Aufgabe kann AMD vielleicht die bessere Wahl sein.
Schaffe89
2013-12-26, 20:19:03
Nicht nur je nach Aufgabe, sondern auch deutlich im P/L was 1P server anbetrifft.
y33H@
2013-12-26, 23:29:51
Im 1P-Bereich bietet AMD als schnellstes Modell den Opteron 4386 für 300 Euro an. Für 100 Euro weniger bekomme ich den durchgehend schnelleren, sparsameren Xeon E3-1230 v3 - der gleich teure Opteron 3380 ist hier chancenlos. Und statt des Opteron 4334 für 160 Euro erhalte ich beim Xeon E3-1220 v3 für 10 Euro mehr das in praktisch allen Bereichen bessere Produkt.
Oder habe ich etwas übersehen?
Im 1P-Bereich bietet AMD als schnellstes Modell den Opteron 4386 für 300 Euro an. Für 100 Euro weniger bekomme ich den durchgehend schnelleren, sparsameren Xeon E3-1230 v3 - der gleich teure Opteron 3380 ist hier chancenlos. Und statt des Opteron 4334 für 160 Euro erhalte ich beim Xeon E3-1220 v3 für 10 Euro mehr das in praktisch allen Bereichen bessere Produkt.
Oder habe ich etwas übersehen?
Eventuell die max. Speichergröße. Da gabs doch mal den Hinweis, dass die Seamicrokunden auch gerne den Opteron nähmen, da der max. 64 GB ermöglicht. Der Intel nur 32, oder hat Haswell da mittlerweile nachgebessert? Die Info war noch Stand Ivy.
Aus Rechenleistungssicht hast Du garantiert nichts vergessen, wenn man aktuell mit Haswell auch noch mit AVX2 kommt, wirds fast schon peinlich.
y33H@
2013-12-27, 00:05:48
Mit DDR3-ECC sind es offiziell 32 GB bei den Xeon E3 und ich meine, das gilt pro Bank (also 4x 32 GB). Bin aber zugegeben nicht sicher, da ich in der Praxis nie mehr als 4x 8 GB mit einem E3 probiert habe.
Air Force One
2013-12-27, 00:12:05
Der Intel Core i7-860 soll angeblich auch nur maximal 16GB verarbeiten können.
Aber dieser verträgt lustigerweise bei mir sogar 32GB RAM.
Funktioniert auch problemlos, der RAM wird immer voll gefüllt beim Berechnen von Rauch/Feuer/Wasser Simulationen.
Hat mich echt gewundert, aber erst im nachhinein da ich vom Limit nichts wusste und einfach blind eingebaut habe.
Speichertakt ist auch schneller als auf dem Datenblatt angegeben:
http://ark.intel.com/De/products/41316/Intel-Core-i7-860-Processor-8M-Cache-2_80-GHz
Mit einem Takt von 4GHz mit HT und 32GB RAM ganz "nett", wenn da nicht der Verbrauch wäre. ;D
Skysnake
2013-12-27, 00:40:11
nur wird kein vernünftiger Admin in ner Firma von den Specs abweichen :rolleyes:
Die AMD Kisten sind schon teils ganz interessant, wenn man wirklich richtig! viel RAM brauch/haben will. Wenn einem einfach das Swapping das Genick bricht, dann kann die CPU so schnell sein wie Sie will. Aber das sind auch wieder nur Nieschen.
Für den 0815 Anwender sind die Intels schon die bessere Wahl in den meisten Fällen. Die Nieschen sollte man aber nie aus den Augen verlieren. Wenn man nämlich selbst zu so ner Niesche gehört, dann kanns einem scheis egal sein wies für den Rest der Welt aussieht. Wenn für einen selbst ne andere Wahl geschickter ist, dann nimmt man halt was anderesals der Rest der Welt.
HarryHirsch
2013-12-27, 00:47:50
Intel deckt jede denkbare Nische ab. Zum Hundertsten mal: wer kauf schon AMD?
StefanV
2013-12-27, 01:15:32
Zum Hundertsten mal: wer kauf schon AMD?
Jemand, der genau über den Einsatzzweck der Hardware nachgedacht hat und zu dem Schluss gekommen ist, dass für ihn AMD die bessere Wahl ist?!
Früher wars ja mal so, dass die AMD Systeme die Intel Teile bei Virtualisation vernichtet haben. Wenn das immer noch so ist, dann könnte das ein Punkt sein, bei dem man eher zu einem AMD System greift, wenn man ein Admin ist, der völlig neutral gegenüber den CPU Herstellern eingestellt ist...
Was leider die wenigsten sind, sonst hätten die zu P4 Zeiten nicht so viele P4 verbaut...
HarryHirsch
2013-12-27, 01:25:53
Jemand, der genau über den Einsatzzweck der Hardware nachgedacht hat und zu dem Schluss gekommen ist, dass für ihn AMD die bessere Wahl ist?!
Früher wars ja mal so, dass die AMD Systeme die Intel Teile bei Virtualisation vernichtet haben. Wenn das immer noch so ist, dann könnte das ein Punkt sein, bei dem man eher zu einem AMD System greift, wenn man ein Admin ist, der völlig neutral gegenüber den CPU Herstellern eingestellt ist...
Was leider die wenigsten sind, sonst hätten die zu P4 Zeiten nicht so viele P4 verbaut...
Früher! Hätten sie doch die Finger von ATi gelessen.
AMD kann nix.
Undertaker
2013-12-27, 10:08:36
Was leider die wenigsten sind, sonst hätten die zu P4 Zeiten nicht so viele P4 verbaut...
Im Vergleich zum aktuellen Bulldozer war der Pentium 4 zwar ähnlich energiehungrig, dabei jedoch stets irgendwo in der Nähe der absoluten Leistungsspitze und ab und an auch mal vor den konkurrierenden Athlon FX - siehe alte CB-Ratings. Nur weil der nachfolgende Core 2 so ein gigantischer Wurf war, muss man den P4 nicht (noch ;)) schlechter machen als er war. Ineffizienz ja, aber damals selbst in Spielen konkurrenzfähiger als AMD heute.
Exxtreme
2013-12-27, 10:29:46
nur wird kein vernünftiger Admin in ner Firma von den Specs abweichen :rolleyes:
Die AMD Kisten sind schon teils ganz interessant, wenn man wirklich richtig! viel RAM brauch/haben will. Wenn einem einfach das Swapping das Genick bricht, dann kann die CPU so schnell sein wie Sie will. Aber das sind auch wieder nur Nieschen.
Sind keine Nischen. Sobald man Server virtualisiert dann braucht's in allererster Linie RAM. Weil dann laufen mehrere Server parallel auf gleicher Hardware.
Twodee
2013-12-27, 11:18:21
Sind keine Nischen. Sobald man Server virtualisiert dann braucht's in allererster Linie RAM. Weil dann laufen mehrere Server parallel auf gleicher Hardware.
512GB sollten doch reichen, oder? http://www.supermicro.com/products/motherboard/xeon/c600/x9srl-f.cfm
oder findest du das hier besser? http://www.supermicro.com/Aplus/motherboard/Opteron6100/SR56x0/H8SGL-F.cfm
Skysnake
2013-12-27, 12:08:09
Dann schau nochmal genau hin ;)
Das liegt nur daran, dass das Intel Boards 64GB LRDIMM unterstützt und das AMD Board nicht. AMD an sich supported aber 64GB LRDIMMs von der CPU her. Und genau da kommt dann der Knackpunkt ins Spiel.
Die 2 Sockel-Systeme für 1TB RAM kannste bei AMD recht günstig erstehen. Und von Quad-Sockel mit dann 4TB RAM ganz zu schweigen.
Der Vorteil beim RAM hat sich für AMD aber auch mit S2011 deutlich reduziert. Intel hat halt wieder ein Quadchannel Interface und nicht nur Tripple wie bei S1366.
Was halt noch bleibt ist die relativ günstige Möglichkeit 4 CPUs zusammen zu stecken bei AMD, wobei das auch gut skaliert dank nur einem HOP.
Auch gibt es Boards mit 12 DIMMs/CPU für AMD. Das gibt es meines Wissens nach bei Intel nur für Westemere-EX.http://www.supermicro.nl/Aplus/motherboard/Opteron6000/SR56x0/H8DGU-LN4F_.cfm
Sind keine Nischen. Sobald man Server virtualisiert dann braucht's in allererster Linie RAM. Weil dann laufen mehrere Server parallel auf gleicher Hardware.
Ja und das kannste dir halt bei AMD billig zusammenstecken. Bei Intel brauchste zwingend S2011.
Ich hab gerade aber gesehen, das oben verlinkte Board macht sogar 1866 MHz DDR3 mit. Müsste man sich mal nochmal genau anschauen. Bisher hat Intel nämlich immer bei Maximalbestückung nicht den gleichen RAM-Takt wie die AMD Systeme fahren können, was ziemlich ärgerlich war/ist.
y33H@
2013-12-27, 12:43:13
Bei Vollbestückung supporten die FX auch nur 1600 statt 1866.
Haarmann
2013-12-27, 13:29:06
Du Unwissender ;) Es wird sehr oft gespielt da es einen guten MP Anteil hat
Ich kenne drei Leute, die sehnsüchtig gewartet haben und es vorbestellt haben - und nach 2 Stunden es gleich wieder deinstallierten...
Es gibt MP Spiele, die spielst man noch nach Jahren, zB Warcraft 3 mit all den Mods, und andere, die sind Wochen danach schon out oder wenn der Nachfolger kommt ist dann eben Fertig.
Mir ist keine LAN bekannt wo SC2 nen Turnier hinbekam in meiner Gegend.
y33H@
Im 1P Bereich bietet AMD den FX an mit 8 Kernen und bis zu 4.7 GHz, der auch mit 32 GB ECC Speicher umgehen kann. Zusätzlich ist dessen IO Andbindung einiges mächtiger.
Auch für die kleinen Opterons gibts DP Boards. Das ist also kein 1P System.
Air Force One
Mein Notebook mit i5 480 zB weigert sich 8GB Module zu fressen.
Passende Module gibts oft beim Erscheinen der Chips noch nicht. Und die Listen werden wohl kaum je nachgeführt...
Undertaker
Damals, zu P4 Zeiten, hatte man zuwenige FPS... Heute reden wir sehr oft von so lustigen Sachen wie 100 FPS vs 200 FPS in Legografik.
Und ein FX frisst im Leerlauf auch nicht die Welt - ein P4 saugte auch im Leerlauf schon mal seine 50W als 90nm Version... egal ob Celeron oder P4.
Skysnake
Eben - und die grossen Intel CPUs kosten pro Sockel ein kleines Vermögen.
Exxtreme
Man braucht nicht nur RAM, sondern auch viele Kerne pro Sockel, wenns nicht Linux, sondern Windows sein soll. Die Datacenter Edition erlaubt Dir beliebige Mengen an Servern zu installieren, aber will pro Sockel Geld - und zwar viel Geld. Da musst mit den kleinen Kernzahlen gar nicht erst ankommen - da blechst Dich an den Lizenzen zu tode.
Skysnake
2013-12-27, 13:47:52
Kurz um, die Welt ist halt sehr bunt, und das ist auch gut so. ;)
Wäre ja auch langweilig, wenn für jeden genau das Gleiche am Besten wäre.
Exxtreme
2013-12-27, 14:39:43
Exxtreme
Man braucht nicht nur RAM, sondern auch viele Kerne pro Sockel, wenns nicht Linux, sondern Windows sein soll. Die Datacenter Edition erlaubt Dir beliebige Mengen an Servern zu installieren, aber will pro Sockel Geld - und zwar viel Geld. Da musst mit den kleinen Kernzahlen gar nicht erst ankommen - da blechst Dich an den Lizenzen zu tode.
Richtig. Deshalb virtualisiere ich auch mit KVM + Libvirt und nicht mit Windows Datacenter Edition. ;) Da habe ich solche Probleme schlicht nicht.
Lokadamus
2013-12-27, 15:40:47
Eventuell die max. Speichergröße. Da gabs doch mal den Hinweis, dass die Seamicrokunden auch gerne den Opteron nähmen, da der max. 64 GB ermöglicht. Der Intel nur 32, oder hat Haswell da mittlerweile nachgebessert? Die Info war noch Stand Ivy.Ähm, laut Datenblatt von den 10 Kernern erlauben die 4096GB (= 4TB). Ich glaube, dafür muss man das passende Mainboard noch finden ...
Haarmann
2013-12-27, 16:43:35
Exxtreme
Bei uns ist die DTC Version ca 1800€ pro Sockel - da ist natürlich die Frage, ob man ne 300€ 4 Kern CPU oder ne 500€ 16 Kern CPU nimmt sehr schnell beantwortet ;).
Da eine Alleine nicht geht fallen eben die AM3+ und 115x CPUs auch gleich weg.
Allerdings wunderte ich mich recht oft, weswegen die Leute teure RDS Lizenzen nutzen statt billiger OS Lizenzen...
Bei RDS musst ja immer die teuren Office nehmen...
y33H@
2013-12-27, 17:14:32
y33H@
Im 1P Bereich bietet AMD den FX an mit 8 Kernen und bis zu 4.7 GHz, der auch mit 32 GB ECC Speicher umgehen kann. Zusätzlich ist dessen IO Andbindung einiges mächtiger.Ein FX mit 4M/8C und 4,7 GHz ist lahmer als ein E3-1220 v3 bei ähnlichem Preis (davon ab ist ein FX kein Opteron, sondern DIY). Was soll das mächtigere I/O bitte sein? DDR3-1866 statt DDR3-1600?
Haarmann
2013-12-27, 18:37:41
Ein FX mit 4M/8C und 4,7 GHz ist lahmer als ein E3-1220 v3 bei ähnlichem Preis (davon ab ist ein FX kein Opteron, sondern DIY). Was soll das mächtigere I/O bitte sein? DDR3-1866 statt DDR3-1600?
Bin ja mal gespannt ob der schneller nen Cube hinbekommt denn ein FX8120... also mindestens mein Xeon 1230 ist da langsamer... wenn man dem noch so sagen darf...
Anwendung "SQL" - etwas, was Du als Bench so gut wie nie siehst... kein Wunder...
Und der passt auch nicht in 32 GB RAM...
IO ist nicht RAM Bandbreite... Aber häng mal paar Sachen wie 10 Gbit Adapter und PCIe SSDs rein ... da wird Dir ein Licht aufgehen mit dem IO.
Exxtreme
2013-12-27, 19:11:48
Was soll das mächtigere I/O bitte sein? DDR3-1866 statt DDR3-1600?
I/O ist der Durchsatz vom Datenträger zur CPU und wieder zurück. Sehr sehr wichtig bei Datenbanken.
y33H@
2013-12-27, 20:42:11
Und was genau macht ein FX auf AM3+ da bitte anders? Die HDD/SSD hängt an SATA-6GB/s. Lanes bietet ein Xeon E3 mit 3.0-Geschwindigkeit, also mehr als ein FX.
Bin ja mal gespannt ob der schneller nen Cube hinbekommt denn ein FX8120... also mindestens mein Xeon 1230 ist da langsamer... wenn man dem noch so sagen darf...Darfst du, ich kenne aber keine Messungen bei dem ein 8120 einen IVB 1230 schlägt. Außer mit FMA etc.
Skysnake
2013-12-27, 21:07:27
Und was genau macht ein FX auf AM3+ da bitte anders? Die HDD/SSD hängt an SATA-6GB/s. Lanes bietet ein Xeon E3 mit 3.0-Geschwindigkeit, also mehr als ein FX.
Darfst du, ich kenne aber keine Messungen bei dem ein 8120 einen IVB 1230 schlägt. Außer mit FMA etc.
AMD hat halt HT als gesharten Link zwischen CPU und Chipsatz.
Ist nen bischen wie Paket vs Leitungsvermittlung.
S2011 wirft halt mit Lanes um sich. Gerade wenn man aber nur 1-4X Karten hat, kann das schon nervig werden.
Das die Opterons noch kein PCI-E 3.0 haben über nen neuen Chipsatz ist jetzt auch noch nicht sooo das riesen Problem, weil es noch immer nicht sooo viel PCI-E 3.0 Devices gibt. 2014 wird sich das PRoblem aber durchaus verschlimmern.
Wenn man bei Intel halt nen gescheites System will, muss man zwigend S2011 nehmen, und da muss man halt teils schon ganz schön löhnen. Die AMD Systeme sind da auch nicht um Welten besser, aber teils eben gleich gut oder leicht besser zu einem besseren Preis. Man muss da aber mit spitzen Bleistift rechnen.
Haarmann
2013-12-27, 21:14:25
y33H@
Das ist eben einer der imo seltsamen Punkte - SQL Benches sind absolut gängig für riesige Serverkisten. SQL Software gibts auch inzwischen jede Menge für den Normaluser - und wenns nur ne einfache PHP/MySQL Webanwendung ist.
Aber irgendwie konvertiert die Welt offenbar lieber WAV Dateien von einer Festplatte in mp3 ...
Und denk ned an SATA3...
denk eher in der Richtung
http://geizhals.at/de/mushkin-scorpion-deluxe-480gb-mknp44sc480gb-dx-a990809.html
Und für nen RAID1 brauchts da schon 2 für ;)
Lokadamus
2013-12-27, 21:22:30
Und denk ned an SATA3...:umassa: Sata Express http://de.wikipedia.org/wiki/Serial_ATA#SATA_Express_8.C2.A0Gbit.2Fs_und_16.C2.A0Gbit.2Fs
http://www.golem.de/news/asus-erstes-mainboard-mit-sata-express-1312-103530.html
SQL hin oder her, in Spielen ist Bulldozer leider eine Luftpumpe. Das ändert sich nur durch massive Parallelisierung. Diese kommt zwar auch SMT-Prozessoren zu Gute, allerdings profitieren AMDs CMT-Chips prozentual etwas stärker – es wäre auch bitter, wenn dem nicht so wäre.
Hier scheinen ja einige Leute in der Materie zu stecken, daher blöd gefragt: Warum schmecken "professionelle" Geschichten der Bulldozer-Architektur? Und welche Anwendungsszenarien sind das konkret und erwiesenermaßen? Wen ich auch frage, der Tenor ist stets, dass Integer-Berechnungen zumindest in Spielen weit hinter Gleitkomma stehen. Das ist ja auch nicht erst seit gestern so, ich sage nur K6 und FPU-Schwäche ... man könnte also sagen, AMD hat schon lange einen Ganzzahlen-Fetisch (wobei natürlich immer Kompromisse dahinter stehen). :freak:
Oder, in die andere Richtung gefragt: Wieso ziehen moderne Spiele keinen Nutzen aus FMA, einem der "Killerfeatures" der BD-Architektur? Die gewonnene Präzision und Effizienz kann man doch gewiss für moderne Effekte nutzen ... oder doch nicht?
MfG,
Raff
Exxtreme
2013-12-27, 22:37:39
Und denk ned an SATA3...
denk eher in der Richtung
http://geizhals.at/de/mushkin-scorpion-deluxe-480gb-mknp44sc480gb-dx-a990809.html
Und für nen RAID1 brauchts da schon 2 für ;)
Wobei es derzeit recht hip ist die SSDs direkt an die MoBo-SATA-Anschlüsse zu hängen und dann das RAID-Array in Software zu machen. Und da hier sowieso Raid 10 oder gar Raid 100 implementiert wird juckt das die CPU recht wenig. ;)
Warum schmecken "professionelle" Geschichten der Bulldozer-Architektur? Und welche Anwendungsszenarien sind das konkret und erwiesenermaßen?
Ich bin jetzt auch nicht der Oberwisser aber soweit ich weiß, läuft's darauf hinaus, dass BD einen ordentlichen Durchsatz hat (der im professionellen Bereich wichtig ist, da hier sehr oft häufig wiederkehrende Sachen berechnet werden), diesen aber nicht auf die Straße bringt. Grund dafür ist wohl einfach die überlegene Cache-Struktur in Kombination mit guter Sprungvorhersage von Intel. Dadurch können Daten bereits frühzeitig aus dem RAM geholt werden und die Recheneinheiten laufen nicht leer. Geringe Latenzen helfen bei der Geschichte natürlich auch.
Ich hoffe mal, dass ich damit nicht total auf dem Holzweg gelandet bin aber ein Grund mehr es trotzdem zu posten, damit mich jemand berichtigen kann :)
StefanV
2013-12-28, 01:09:41
Der Punkt ist einfach:
a) nutzen viele Serveranwendungen schlicht kein Windows. Und Linux steht im Ruf besser/schneller auf neue Architekturen optimiert zu werden
b) optimiert man die entsprechende Software schneller/besser auf neue Architekturen.
Im Umkehrschluss: der Chode bei Games ist, von der Optimierung her, 2-3 Generationen zurück. Das liegt auch daran, dass man eben auch auf die CPUs 2-3 Generationen zurück Rücksicht nehmen muss - bei Serveranwendungen ist das oft nicht so. Da wird dann keine Rücksicht auf 'veraltete Hardware' genommen. Und es werden mehrere, stark optimierte Pfade verwendet.
Bei Games ist das eher nicht der Fall.
c) Probleme, die deutlich paralleler sind als bei Games.
Das dürften die Hauptgründe sein...
Sprich eine Mischung aus Betriebsystem und 'Faulheit'. (wobei das auch z.T. falsch ist, da die Proggies wohl vieles anders machen würden, wenn sie es dürften).
Schaffe89
2013-12-28, 02:06:39
Man sieht ja durch weiterschreitende Parallelisierung auch ein gewisses Aufholen der Bulldozer Prozessoren in den synthetischen tests einiger Seiten wie Computerbase oder andere.
Wo ein FX-8150 noch hinter einem i5 2500k in Anwendungen anno 2011 war, ist heutiger aktuell 10% in Front.
Haarmann
2013-12-28, 08:56:58
Raff
Momentan sind Spiele doch Steinzeitcode...
64 Bit ist nach wie vor selten zu sehen - wobei selten imo untertrieben ist. Anders ists halt mit Serveranwendungen und "Profianwendungen" etc. Da gewinnst ohne 64 Bit und viel Speicher keinen Blumentopf mehr.
Und als die G34 BDs kamen, da hatte Intel mal gerade 6 Kerne im DP Bereich zu bieten... die wurden selbst im SpecFP, was keine Domäne ist für die BDs, verrissen bei gleicher TDP. Wie das im Integer Bereich ausgesehen hat kann man sich denken.
Ich vergleiche halt immer Budget vs Budget - also man hat zB 2000€ und muss damit das Optimum herausholen. Ohne Budgetlimite machen für mich Vergleiche keinen Sinn.
Ich erreiche mit meiner normalen 8350 auf 4.6 GHz mit 32 GB DDR3 1600 und einer R290 auf R290X jedenfalls immer spielbare Ergebnisse auf meinem 1920*1200 Monitor (der Zweite wird nicht für Games genutzt).
Meisst entwickle ich jedoch VMs auf der Kiste und schicke die dann auf die entsprechenden Hosts - und da dominieren bei mir SQL Anwendungen. Ich kann sogar spielen und im Hintergrund ne VM mit SQL laufen lassen - das find ich praktisch - so kann ich die Wartezeit überbrücken.
Exxtreme
Diese Mushkin Teile sind auch etwa das Erste, was preiswert genug ist. Die extrem teuren Lösungen von anderen Herstellern werden lieber durch die von Dir genannten günstigen Gebilde ersetzt... wobei ich oft sah, dass die, die das dann implementieren, keine Ahnung von Allem hatten, aber davon genug, und sich dann wunderten, warums nicht so schnell war, wie die gedacht hätten.
Schöne Zahlen machen auch kein schnelleres System ;).
Und eine SSD schreibt das Log eines SQL auch ned schneller...
Schaffe89
Ist ja nicht neu - auch der ach so schnelle C2Q wird in heutigen Vergleichen von nem Phenom platt gemacht - Takt für Takt.
y33H@
2013-12-28, 12:44:32
Die letzten Messungen die ich kenne, sehen den C2Q pro Takt nicht nennenswert hinter einem X4 Deneb. Allerdings verstehe ich nach wie vor nicht, was der HT bei den FX gegenüber PCIe 3.0 bei einem Xeon E3 bringen soll - und bei allen SQL Werten die ich kenne, hat ein 8120 keine Chance gegen einen ähnlich teuren Xeon.
Skysnake
2013-12-28, 13:06:46
SQL hin oder her, in Spielen ist Bulldozer leider eine Luftpumpe. Das ändert sich nur durch massive Parallelisierung. Diese kommt zwar auch SMT-Prozessoren zu Gute, allerdings profitieren AMDs CMT-Chips prozentual etwas stärker – es wäre auch bitter, wenn dem nicht so wäre.
Spiele sind mehr oder weniger halt auch Steinzeitcode. Kein 64Bit, "nur" SSE der frühen Generationen usw. Zudem ist GameCode ziemlich umfangreich und man braucht wahrscheinlich recht viel davon. Klar gibt es Kernbereiche, die sich wirklich lohnen zu optimieren, aber im Vergleich zu Professioneller Software wird man wohl realtiv viel Code ständig durchlaufen.
Da ist dann halt auch die Frage, ob sich ne Optimierung lohnt. Die neuen Features der neusten CPUs werden da wohl praktisch nie verwendet. Die sind ja auch ohne die neuen Features eigentlich immer schneller als die alten, und man muss ja mindestens die Generation davor schon schnell genug machen. Ein weiteres optimieren für die neusten CPUs bringt also nicht wirklich was.
Hier scheinen ja einige Leute in der Materie zu stecken, daher blöd gefragt: Warum schmecken "professionelle" Geschichten der Bulldozer-Architektur?
Hohe Parallelität und halt auch die Nutzung der neuesten Features.
Manchmal sind es GANZ profane Dinge. Ich muss z.B. gerade was implementieren, wo ich ne Bitmaske setze entsprechend eines Int-Wertes, den ich übergebe. Auf Intel-CPUs geht das ab Nehalem mit einem Befehl. Davor muss man etwas tricksen. Für meinen Fall noch ok, aber man kann halt nur entweder Nullen reinziehen, oder man macht nen rotate. Das ist aber halt ziemlich bäh. AMD hat nen ziemlich coolen Befehl, mit dem ich ein zweites Register angeben kann, von dem ich die Werte dann links/rechts reinziehe. Bei Intel habe ich das selbst für Haswell nicht gefunden -.-
So was "cooles" bringt einem aber halt auch nur etwas, wenn man es auch wirklich nutzt. Da spielt dann auch noch mit rein, dass der Intel-Compiler z.B. halt einfach extrem mächtig ist. Da kann AMD halt nicht wirklich mitziehen, und Intel legt auf AMD halt klarerweise auch nicht den Wert. Man sollte NIE! unterschätzen, was nen Compiler alles rausholen kann...
Und welche Anwendungsszenarien sind das konkret und erwiesenermaßen? Wen ich auch frage, der Tenor ist stets, dass Integer-Berechnungen zumindest in Spielen weit hinter Gleitkomma stehen. Das ist ja auch nicht erst seit gestern so, ich sage nur K6 und FPU-Schwäche
Das lustige ist ja, die Phenoms inkl Opterons waren ja auch wegen ihrer sehr starken FPU so beliebt, und genau da hat AMD es etwas vergeigt mit BD :mad:
Für SSE Code ist BD stark, aber AVX schon weniger, wobei das halt auch wieder ganz davon abhängit was man macht, und da kommen wir eigentlich zum Kernproblem.
Intel ist einfach nirgendwo wirklich schlecht. Seit S2011 sind Sie vielleicht hier und dort mal etwas im NAchteil, aber eben nur etwas. Gleichzeitig sind Sie in manchen Bereichen aber auch klar vorne, wie z.B. PCI-E3.0 Support.
Man muss halt die Siege für AMD wirklich suchen. So Pauschal würde ich es mir nicht zutrauen zu sagen, wann es wirklich Sinn macht auf AMD aktuell zu setzen mit BD. Und da schlägt eben dann der zweite Punkt auf. Für alle Mittelständler usw usw ist Intel damit unterm Strich die bessere Wahl. Die haben 1. nicht die Leute, die sich das gescheit anschauen können 2. haben Sie nicht die Zeit und Geld dazu und 3. läuft zu viel unterschiedliches Zeug darauf. Was bringts mir, wenn eine Anwendung 10% besser performt, drei andere aber 20% schlechter? Eben nichts.
AMD kämpft da ein bischen mit den gleichen Problemen die ARM-Server haben werden oder auch Microserver. Man muss halt schon wirklich wissen, für was man Sie einsetzt und halt auch am Besten nur dafür. Dann kann man wirklich Geld sparen. Man verliert dafür aber auch Flexibilität.
Ich hoffe ja wirklich, das AMD mit der nächsten BD Gen die FPU verdoppelt, dann gibts wieder klare Einsatzbereich wie HPC usw.
Wobei es dafür eigentlich zu spät ist... Das hätten Sie direkt mit BD 1.0 machen sollen, dann hätte sich zumindest da BD gut verkauft, weil er echt ne Wuchtbrumme gewesen wäre! FMA, doppeltes AVX usw. Das wäre schon sehr geil geworden. :biggrin: Aber leider kams ja so nicht :(
... man könnte also sagen, AMD hat schon lange einen Ganzzahlen-Fetisch (wobei natürlich immer Kompromisse dahinter stehen). :freak:
Tja, AMD kann halt auch nicht zaubern und Intel hat mit S2011 halt schon echt auf die Kacke gehauen, und sich meiner Meinung nach daran sogar etwas verhoben! Man muss sich ja nur das PCI-E Gezedere anschauen, den Chipsatz, oder aber auch die Verspätungen. Leider konnte AMD daraus ABSOLUT! keinen Nutzen ziehen. Teilweise lag das wohl auch daran, das AMD einfach keine Chips liefern konnte, wobei ich da nicht mehr sicher bin ob das in den gleichen Zeitraum fällt.
Auf jeden Fall kann man nicht erwarten, das AMD in der aktuellen Lage da so einfach mit konkurrieren kann, wenn selbst Intel sich fast dran verhebt. S2011 ist halt schon eine kranke Platform an sich, wenn auch klar nur auf Dual-Sockel fokusiert.
Wenn man sich da die neuen Sparc- oder auch IBM-Systeme so anschaut, dann sieht man, wie Hoffnungslos unterlegen Intel in manchen Bereichen ist. Da haben Sie meiner Meinung nach komplett die Segel gestrichen und sich auf die "kleineren" Systeme mit S2011 halt voll konzentriert.
Intel hat das eigentlich ganz geschickt gemacht. Sparc und IBM sind harte Konkurrenten und haben auch im Markt ne breite Basis. Gleichzeitig ist der Markt an sich "nur" ne Niesche, wenn auch ne sehr lukrative! Da im normalen X86 und Servermarkt der 1P und 2P Systeme an zu treten ist deutlich einfacher. AMD kann man halt gegen die Wand drücken, wenn man sich voll reinhängt wie man sieht. Man hat halt einfach ne Masse, und wenn man die Gelder nicht in so extrem teure Bereiche wie den Sparc/Power Bereich steckt, kann man halt auch nochmal richtig viel reisen.
Das darf man ja auch nicht vergessen. Itanium hat mal ne ganze Zeit lang richtig viel Ressourcen bei Intel gebunden. Das war halt mal, und auch MIC lässt einiges für die normalen CPUs abfallen, einfach weil Sie ne ähnliche Basis haben.
Oder, in die andere Richtung gefragt: Wieso ziehen moderne Spiele keinen Nutzen aus FMA, einem der "Killerfeatures" der BD-Architektur? Die gewonnene Präzision und Effizienz kann man doch gewiss für moderne Effekte nutzen ... oder doch nicht?
MfG,
Raff
Präzission bzw numerische Stabilität und was man daraus gewinnt ist doch für Games völlig scheis egal. Ich glaub nicht mal, dass da überhaupt oder oft DP verwendet wird. SP tuts auch. Ist doch egal, ob da was nicht ganz passt. Zur not gibts halt nen Glitch oder sonst was, was man dann halt wieder korrigiert. Muss man doch eh machen.
Und ansonsten hab ich ja oben schon Gründe genannt. Man gibt sich den Aufwand halt nicht. Schau doch nur, wie alt manche Engines sind...
Das ist total lächerlich. Mit den neuen Consolen werden die Engines bald nen großen Sprung machen, aber Wunder sollte man halt auch nicht erwarten. Es muss halt "nur" laufen.
Haarmann
2013-12-29, 06:53:23
Die letzten Messungen die ich kenne, sehen den C2Q pro Takt nicht nennenswert hinter einem X4 Deneb. Allerdings verstehe ich nach wie vor nicht, was der HT bei den FX gegenüber PCIe 3.0 bei einem Xeon E3 bringen soll - und bei allen SQL Werten die ich kenne, hat ein 8120 keine Chance gegen einen ähnlich teuren Xeon.
30% Vorsprung und leicht langsamer ist immerhin eine Differenz von etwa einem Drittel...
Da fragt sich dann doch so Mancher wohl weswegen dem so ist - oder?
Skysnake
Guter Text von Dir - nebenher.
Aber ich denke AMD kann gerade mit den günstigen 16 Intkernen Chips durchaus noch was reissen - wenn auch nicht mit deren FPU. Boards kosten etwa allei gleichviel. RAM ist das Gleche usw. Für 500€ bist mit den kleinen 2.3 GHz 16ern dabei. Bei Intel gibts fürs gleiche Geld der 32 Integer Einheiten und 16 FPUs maue 300 MHz mehr und dafür nur 12 statt 32 Kerne.
Skysnake
2013-12-29, 09:18:03
Klar, die Nische in der Nische gibt es immer. Deswegen darf man auch nie leichtfertig jemanden als "dumm" hinstellen, der als Mensch, der sein Geld damit verdient sich nicht für das Mainstreamprodukt entscheidet. Er wird schon gute Gründe haben.
AMD macht eigentlich nicht sooo viel falsch. Im Prinzip sinds eigentlich nur drei Sachen.
1. zu schmale FPU
2. zu wenig Bandbreite onChip inkl zu schlechter Latenzen für die hohen Taktraten des Desktop
3. keine Weiterentwicklung von HT und nicht mal nen neuer Chipsatz mit PCI-E 3.0
Klar, das sind alles schon doofe Fehler, aber das Hauptproblem ist halt, das Intel mit S2011 die dicke Keule ausgepackt hat....
Das Ding ist einfach schon pervers, wenns auch gewisse Schwächen bei der Anbindung vom Chipsatz und eben nur maximal 2 QPI-Links hat. An sich kannste damit nur schöne 2P aber schon nicht mehr schöne 4P Systeme aufbauen, und über 8P musste eigentlich gar nicht mehr wirklich reden.
Da läuft es Intel halt auch voll rein, dass die 8P Systeme noch unwichtiger geworden sind, und selbst die 4P Systeme immer mehr nachlassen. 2P macht das überwältigende Geschäft und mit DDR4 und den steigenden Speichermengen könnte sich der Trend noch weiter fortsetzen.
So gesehen hat Intel halt mit der Ausrichtung der Platform auch extrem gut gelegen. Das ist halt wohl der Ausgleich zum total daneben mit Netburst.
Undertaker
2013-12-29, 12:21:30
30% Vorsprung und leicht langsamer ist immerhin eine Differenz von etwa einem Drittel...
Da fragt sich dann doch so Mancher wohl weswegen dem so ist - oder?
So überraschend ist das eigentlich nicht bzw. hat sich schon damals angedeutet: Pro Kern ist der Core 2 damals wie heute vor Deneb, allerdings bremst der FSB die Mehrkernskalierung drastisch aus. Die war damals durch schlechter parallelisierte Software nur unwichtiger als heute...
Haarmann
2013-12-29, 13:09:40
Skysnake
Ist auch die Frage wann die Leute jeweils zu rechnen beginnen - offenbar gehts den Firmen zu gut... offensichtlich wird oft erst gerechnet, wenns mies läuft ;).
Wenn ich Lizenzen nach Cores bezahle, dann will ich wenige Cores mit viel Takt und oft viel Speicher pro Sockel sehen.
Bezahle ich nach Sockel sind viele und schnelle Cores pro Sockel und oft viel Speicher interessant.
Bezahle ich pro System sind viele Sockel plötzlich auch interessant.
Das MS mit dem Streichen der Enterprise Version, gab halt zuwenig Knete rein wohl, die 4 und 8 Sockel Systeme etwas entwertet hat sollte imo nicht vergessen bleiben.
Ob ich nun die irgendwo 2000€ für eine 8P Kiste hinleg oder 4 mal 2000€ für 4 2P Kisten ist imo ne signifikante Differenz, die auch nem HSG BWL Trottel einleuchten sollte ;).
Undertaker
Für den Spieler mag das gelten, aber der Betrug mit dem Chess Povray Szenario, das nur einen Core auslastete, war damals schon bekannt.
Mit Absicht waren auch immer 32 Bit Benches drin - auch wenns die 64 Bit Version gab und diese auch schneller war.
Kaum jedoch musste man die Vorteile vom i7 mit HT gegenüber dem i5 ohne HT zeigen wurden die Benches sofort gewechselt...
Und es ist imo das Gleiche geblieben - es werden völlig Praxisirrelevante Benches auf die Welt losgelassen. Die Welt surft, schreibt Mails, schaut irgendwelche Videos oder nutzt Word, ... und nicht Cinema 4D, wo ne Lizenz nen Vermögen kostet.
Man teste bitte die Geräte unter Praxisnahen Bedingungen -> Virenschrott aktiv, weils die Mehrzahl auch hat und dann bitte normale Anwendungen für Hinz und Kunz.
Und bei Games - keine Timedemos mehr. Es interessiert keine Sau wie schnell etwas "abgespielt" wird, sondern wie gut und flüssig ein Spiel läuft.
Ich entsinne mich an meine GF9600 Mobile, getarnt als Profikarte, im EB 8530W - perfekte FPS im "Timedemo" - undspielbar im MP, weil immer, wenn der Gegner in den Raum kam, mal kurz nix passierte... und das nächste Frame ausser Deiner Leiche nix mehr zeigte ;).
Trat aber offenbar nur im MP Code auf das Problem...
Aber ganz am Rande sei die Frage erlaubt - warum empfahlen Leute einen E8400 oder Ähnlich gegenüber einer 940 Phenom?
y33H@
2013-12-29, 23:05:58
Mit Absicht waren auch immer 32 Bit Benches drin - auch wenns die 64 Bit Version gab und diese auch schneller war.
Kaum jedoch musste man die Vorteile vom i7 mit HT gegenüber dem i5 ohne HT zeigen wurden die Benches sofort gewechselt...
Und es ist imo das Gleiche geblieben - es werden völlig Praxisirrelevante Benches auf die Welt losgelassen. Die Welt surft, schreibt Mails, schaut irgendwelche Videos oder nutzt Word, ... und nicht Cinema 4D, wo ne Lizenz nen Vermögen kostet.
Man teste bitte die Geräte unter Praxisnahen Bedingungen -> Virenschrott aktiv, weils die Mehrzahl auch hat und dann bitte normale Anwendungen für Hinz und Kunz.
Und bei Games - keine Timedemos mehr. Es interessiert keine Sau wie schnell etwas "abgespielt" wird, sondern wie gut und flüssig ein Spiel läuft.
Ich entsinne mich an meine GF9600 Mobile, getarnt als Profikarte, im EB 8530W - perfekte FPS im "Timedemo" - undspielbar im MP, weil immer, wenn der Gegner in den Raum kam, mal kurz nix passierte... und das nächste Frame ausser Deiner Leiche nix mehr zeigte ;).
Trat aber offenbar nur im MP Code auf das Problem...
Aber ganz am Rande sei die Frage erlaubt - warum empfahlen Leute einen E8400 oder Ähnlich gegenüber einer 940 Phenom?Was für ein Unfug. 64 Bit wurde bereits sehr früh getestet und Multithreading schon lange vor den i7 mit SMT. Ein Virenscanner, der nicht gerade aktiv die Platte scannt, tut der CPU-Performance wenig bis gar nicht weh. Timedemos nutzt heute praktisch niemand mehr. Was sind "normale Anwendungen für Hinz und Kunz"?
Haarmann
2013-12-30, 08:51:02
y33H@
Es gab Früher so lustige Benches wo wirklich Dinge wie Word und Excel irgendwelche Aufgaben erledigten (nein keine Monstertabellen sortieren). Es gibt Spracherkennung, OCR, man kann PDFs generieren, Präsentationen erstellen, Datenabnken benutzen, Webseitenparcours machen, Diagramme erstellen, Kostenkontrolle für den Haushalt, Telebanking, Webseiten in nem CMS bearbeiten, Videos sich ansehen, Plunder auf Shitbook stellen oder herumtwittern und bloggen, ein Photobuch zusammenstellen, ne Grusskarte entwerfen für Neujahr ...
Von mir aus darf man auch mal nen Backup machen oder nen Archiv entpacken.
Alles Dinge, die ich jeweils sehe... Cinema4D hab ich im ganzen Leben nie gesehen...
Oder mal einfach gesagt - keine Software über 100€ einsetzen wär doch mal ein Anfang.
(del676)
2013-12-30, 10:05:35
Antivirus, Steam, Skype, Teamspeak oder MP3 Player/Radiostream, ein offener Browser mit ein paar offenen Seiten und ein Mailclient, und dann ein Game obendrauf.
Das waer ein realistischer Benchmark, weil das ist idR. die Minimallast. Problem dabei ist vielleicht die Reproduzierbarkeit, muesste man statt 2 halt 15 Runs durchlaufen.
Undertaker
2013-12-30, 10:24:57
All das erzeugt zusammen eine CPU-Belastung von unter 5 Prozent und wird das Ergebnis folglich kein Stückchen beeinflussen. Die Zeiten, als solche simplen Hintergrundanwendungen Einluss auf die Leistung hatten sind doch Jahre vorbei...
Skysnake
2013-12-30, 10:28:10
y33H@
Es gab Früher so lustige Benches wo wirklich Dinge wie Word und Excel irgendwelche Aufgaben erledigten (nein keine Monstertabellen sortieren). Es gibt Spracherkennung, OCR, man kann PDFs generieren, Präsentationen erstellen, Datenabnken benutzen, Webseitenparcours machen, Diagramme erstellen, Kostenkontrolle für den Haushalt, Telebanking, Webseiten in nem CMS bearbeiten, Videos sich ansehen, Plunder auf Shitbook stellen oder herumtwittern und bloggen, ein Photobuch zusammenstellen, ne Grusskarte entwerfen für Neujahr ...
Von mir aus darf man auch mal nen Backup machen oder nen Archiv entpacken.
Alles Dinge, die ich jeweils sehe... Cinema4D hab ich im ganzen Leben nie gesehen...
Oder mal einfach gesagt - keine Software über 100€ einsetzen wär doch mal ein Anfang.
Das Problem ist halt nur, für die 0815 Anwendungensfälle ist die heutige Hardware halt schon lange schnell genug. Was glaubste denn, warum noch so viele Firmen auf nem P4 sitzen? Der ist einfach schnell genug.
Und wenn was Neues kommt, dann halt nen sidegrade. Sprich billiger aber nicht mehr Leistung.
Heute haben doch schon Smartphones mehr Leistung als du brauchen kannst für die von dir genannten Aufgaben.
grobi
2013-12-30, 10:39:05
Ich hätte auch gern mal den Bulli ausprobiert aber es wäre ein Sidegrade und in einigen Anwedungen ein Undergrade.
(del676)
2013-12-30, 10:44:33
All das erzeugt zusammen eine CPU-Belastung von unter 5 Prozent und wird das Ergebnis folglich kein Stückchen beeinflussen. Die Zeiten, als solche simplen Hintergrundanwendungen Einluss auf die Leistung hatten sind doch Jahre vorbei...
Ach wirklich?
Bei einem Steam Download alleine, bricht der I3 schon um ueber 10% ein.
http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-04-pcgh.png
y33H@
2013-12-30, 11:48:48
Es gibt Spracherkennung, OCR, man kann PDFs generieren, Präsentationen erstellen, Datenabnken benutzen, Webseitenparcours machen, Diagramme erstellen, Kostenkontrolle für den Haushalt, Telebanking, Webseiten in nem CMS bearbeiten, Videos sich ansehen, Plunder auf Shitbook stellen oder herumtwittern und bloggen, ein Photobuch zusammenstellen, ne Grusskarte entwerfen für Neujahr ...
Von mir aus darf man auch mal nen Backup machen oder nen Archiv entpacken.Errrm, eine Powerpoint-Präsentation oder eine Grußkarte zusammen zu klicken, interessiert die CPU herzlich wenig. Ein Excel mit Kosten mit drei Dutzend Posten ebenso wenig und ein CMS wo man Text tippt und ein Bild hochlädt auch nicht.
Antivirus, Steam, Skype, Teamspeak oder MP3 Player/Radiostream, ein offener Browser mit ein paar offenen Seiten und ein Mailclient, und dann ein Game obendrauf.
Das waer ein realistischer Benchmark, weil das ist idR. die Minimallast. Problem dabei ist vielleicht die Reproduzierbarkeit, muesste man statt 2 halt 15 Runs durchlaufen.Der offene Browser alleine hat keine Last, selbst wenn Flash läuft - das wird gestoppt, sobald ein Spiel im Vollbild läuft. Und Skype etc hat keine nennenswerte Last.
Ach wirklich? Bei einem Steam Download alleine, bricht der I3 schon um ueber 10% ein. http://www.pcgameshardware.de/screenshots/original/2013/06/CPU-Multitasking-Test-04-pcgh.pngWeil das Rage ist und hier die Files gleich entpackt werden bzw multiple Verbindungen erstellt werden. Der i3 wird durch Crysis 3 bereits voll ausgelastet, daher kostet das logischerweise Leistung.
Undertaker
2013-12-30, 11:50:19
Vielleicht wenn die PCGH das in der Redaktion über eine Standleitung lädt, am heimischen 16.000er Anschluss habe ich mit einem vergleichbaren mobilen Core i5 nahezu keine zusätzliche Last. Zumal du oben auch nichts von einem Download erwähntest, aber selbst wenn – an der prinzipiellen Spielbarkeit ändert sich jedenfalls nichts.
Weil das Rage ist und hier die Files gleich entpackt werden bzw multiple Verbindungen erstellt werden. Der i3 wird durch Crysis 3 bereits voll ausgelastet, daher kostet das logischerweise Leistung.
Ah, dass erklärt zusätzlich auch einiges. Aber selbst das ist schon ein ziemlich konstruiertes Szenario, welches vielleicht gelegentlich, aber nicht beim tagtäglichen Spielen auftritt.
y33H@
2013-12-30, 11:54:28
Zudem geht ein DL mit 12MB/s ziemlich auf die Platte, das ist für Crysis 3 nicht so dolle, weil das viel streamt.
EDIT
Bei mir daheim laufen immer Antivir, Trillian, Winamp, Thunderbird, Firefox und Steam sowie Origin. Dennoch sind meine Werte mit dem 3770K im Rahmen der Messungenauigkeit nur etwa 3 Prozent unter Benches mit "sauberem" OS.
(del676)
2013-12-30, 12:36:06
Ja passt doch. Deshalb immer mit den Hintergrundprogrammen testen. Sonst haben schmale CPUs eine bessere Performance in Benchmarks, als in Realitaet. Waehrend es breite CPUs nicht juckt.
Ronny G.
2013-12-30, 12:38:44
Bei mir daheim laufen immer Antivir, Trillian, Winamp, Thunderbird, Firefox und Steam sowie Origin. Dennoch sind meine Werte mit dem 3770K im Rahmen der Messungenauigkeit nur etwa 3 Prozent unter Benches mit "sauberem" OS.
das ist bei mir auch so ...mit meinen q8300 zuvor tanzte die CPU Auslastung schon mehr hin und her, da waren je nach dem was gerade im Hintergrund läuft gerne mal 20% Auslastung im Dektop zu sehen.
Knuddelbearli
2013-12-30, 12:50:33
Antivirus, Steam, Skype, Teamspeak oder MP3 Player/Radiostream, ein offener Browser mit ein paar offenen Seiten und ein Mailclient, und dann ein Game obendrauf.
Das waer ein realistischer Benchmark, weil das ist idR. die Minimallast. Problem dabei ist vielleicht die Reproduzierbarkeit, muesste man statt 2 halt 15 Runs durchlaufen.
sowas hat PCGH mal fürs Heft gemacht und der FX ging da ganz gut ab
Ein sauberes OS ist eine klare Norm – so wie ein offener Teststand bei Grafikkarten. "Realitätsnah" definiert hingegen jeder anders: Nicht jeder hat 'nen Virentöter laufen, manche nutzen gar keine Messenger und andere haben gleich 100 Prozesse gleichzeitig laufen. Ich gehöre zu den Optimierern einer jeden Infrastruktur, bei mir laufen nur 35 bis 45 Prozesse und nur die wirklich genutzten Programme gleichzeitig. Das kommt am ehesten einem leeren Windows in Benchmarks nahe. Um das System eines "faulen" Nutzers zu simulieren (d.h. es ist immer alles an, nicht nach Bedarf), müsste man wieder übertreiben und alles laufen lassen, was irgendwie in Frage kommt – eine Umfrage wäre die Basis für die ... sagen wir 10 meistgenutzten Programme für Spieler. So und so bedeutet das den doppelten Testaufwand, es ist fehleranfälliger und nur bei ziemlich schwachen CPUs aussagekräftig.
PCGH hatte ja vor einiger Zeit 'nen Megatask-Test mit besagtem Download & Co. im Hintergrund. Auch das könnte man übertreiben: aktiver Virenscan, 50-MBit-Download, ein Multicore-Spiel, diverse Messenger inkl. Skype-Videochat und außerdem sieht sich der Nutzer auf einem zweiten oder gar dritten Display noch eine Blu-ray an. Die Videoumwandlung im Hintergrund nicht zu vergessen! :ugly: Mit sowas kriegt man jeden Vierkerner an die Kotzgrenze und Sechskerner zumindest in die Knie. Aber was bringt einem diese Info? :biggrin:
MfG,
Raff
(del676)
2013-12-30, 16:59:38
Uebertreiben (wie CB es gerne macht :P ) brauchen wir nicht.
Aber es macht schon Sinn zu wissen, ob der billige Dualcore mit HT nun in Game "XYZ" wirklich nur 20% hinter einem 4750k liegt, oder bei "Reallast" dann doch 30-40% dahinter.
Von einem Quad zu einem Octacore (egal ob HTT oder CMT oder sonstwas) kann mans ja ignorieren.
Und wer definiert, was Reallast ist? Ein sauberes System gibt als einziges 100%ig vergleichbare und reproduzierbare Ergebnisse.
Wer bestimmt denn, wieviele und welche Browsertabs offen sind, welche anderen Programme laufen. Das ist bei absolut jedem anders. Du könntest damit niemals jeden zufrieden stellen, also bleibt man einfach bei dem, was jeder nachvollziehen kann und das ist ein sauberes System.
(del676)
2013-12-30, 17:52:22
Das was wir aktuell haben, ist aber ebenfalls weitab von zufriedenstellend!
Ein Auto wird auch nicht rein auf dem Pruefstand unter Idealbedingungen getestet.
Ist im Prinzip diesselbe Diskussion wie GPU Reviews auf "offene Benchtables" vs "in Gehaeuse".
Ausserdem isses sowieso Scheissegal was ich hier vorschlage. Waere ja nicht so, als wuerde das 3DC noch irgendwas selber testen. X-D
y33H@
2013-12-30, 18:00:11
Wer legt fest, welche Hintergrundlast die "richtige" ist?
(del676)
2013-12-30, 18:03:34
Eine Umfrage unter den Lesern.
Durchschnitt wird genommen, fertig.
Alleine wer z.b.:
Acronis Trueimage installiert hat (nicht gestartet), hat schon 2 Hintergrundprozesse mehr
Bei gewissen Soundkarten sinds 4-6 Hintergrundprozesse
Mein Logitech Lenkrad Profiler rennt
Classic Shell
MSI Afterburner
Coretemp
Irgendso eine Druckerkacke von Canon
Steam
Foobar
DayZ
Auch wenns bei Quadcores 0.xxx% ausmacht ... wenns bei Dualcores 5% ausmacht, sinds immerhin 5% die man falsch misst. ;)
Wer hat denn bitteschoen ein nacktes System als Standard definiert? ;)
Uebertreiben (wie CB es gerne macht :P ) brauchen wir nicht.
Aber es macht schon Sinn zu wissen, ob der billige Dualcore mit HT nun in Game "XYZ" wirklich nur 20% hinter einem 4750k liegt, oder bei "Reallast" dann doch 30-40% dahinter.
Von einem Quad zu einem Octacore (egal ob HTT oder CMT oder sonstwas) kann mans ja ignorieren.
Dazu müsste es zunächst einmal entsprechende Tests geben. Alles unter i3 oder den größeren APUs wird ja nur einmal im Schaltjahr getestet. Ist ja auch verständlich, die übliche Zielgruppe der Hardwareseiten interessiert das Segment höchstens einmal wenn ein HTPC gebastelt werden soll und der normale Verbraucher weiß nichtmal was ein Benchmark ist.
(del676)
2013-12-30, 18:09:38
Und andere Seiten preisen den i3 als Spielewunder an, obwohl es bei vielen Usern vielleicht garnicht stimmt.
Gerade die, die sich wenigsten auskennen, haben am meisten Kacke nebenher laufen. :fresse:
Undertaker
2013-12-30, 18:24:13
Bis auf wenige Ausnahmen wie Downloads mit sehr hoher Bandbreite fressen diese ganzen Prozesse lediglich Arbeitsspeicher und keine CPU-Leistung. Sich jetzt darüber aufzuregen, ob das bei "CPU X" 1 Prozent mehr oder weniger als bei "CPU Y" ausmacht (insbesondere wenn beide in der gleichen Preis- und Leistungsklasse liegen), halte ich für übertrieben. Das wird in der Praxis nicht einmal die Messungenauigkeiten übertreffen.
y33H@
2013-12-30, 19:52:44
Acronis Trueimage installiert hat (nicht gestartet), hat schon 2 Hintergrundprozesse mehr
Bei gewissen Soundkarten sinds 4-6 Hintergrundprozesse
Mein Logitech Lenkrad Profiler rennt
Classic Shell
MSI Afterburner
Coretemp
Irgendso eine Druckerkacke von Canon
Steam
FoobarAll das interessiert eine heutige CPU nicht und das schließt selbst einen 2C-Silvermont ein.
Dawn on Titan
2013-12-30, 20:07:39
Und andere Seiten preisen den i3 als Spielewunder an, obwohl es bei vielen Usern vielleicht garnicht stimmt.
Gerade die, die sich wenigsten auskennen, haben am meisten Kacke nebenher laufen. :fresse:
Ich habe schon lange niemanden mehr einen i3 für einen Spielerechner empfehlen sehen.
Twodee
2013-12-30, 22:06:25
Ich habe schon lange niemanden mehr einen i3 für einen Spielerechner empfehlen sehen.
Ich finde es lustig, da immer mal wieder ein 2-Moduler FX (z.b. für FM2 Sockel Athlon II X2... + extra Graka) dafür empfohlen wird, obwohl dieser keinesfalls schneller als ein I3 mit >3Ghz wäre.... nur eben etwas günstiger
anddill
2013-12-30, 22:13:48
Vielleicht weil er eine durchaus spieletaugliche Grafik integriert hat? Die Graka ist meist nur als spätere Option gedacht.
Wie verhält es sich eigentlich mit der Bandbreite beim FX? Wieviel würde in meinem Fall ein Ram-Upgrade von 1600 auf 2400Mhz bringen?
Twodee
2013-12-30, 23:26:49
Vielleicht weil er eine durchaus spieletaugliche Grafik integriert hat? Die Graka ist meist nur als spätere Option gedacht.
Nope der Athlon II X2 hat eben keine aktive integrierte Grafik, daher schrieb ich auch extra "+extra Grak"
StefanV
2013-12-31, 00:10:15
Wie verhält es sich eigentlich mit der Bandbreite beim FX? Wieviel würde in meinem Fall ein Ram-Upgrade von 1600 auf 2400Mhz bringen?
Nix
Weil:
a) keine IGP
b) CPUs so konstruiert sind, dass sie wenig Speicherabhängig sind. Nur die integrierten Grafikeinheiten (die guten von AMD) fressen wirklich Bandbreite.
Sprich:
Bei 'nem AMD A10 würde es u.U. Sinn machen, wenn du die IGP nutzen würdest.
Bei 'nem AMD FX macht es einfach keinen Sinn.
Haarmann
2013-12-31, 07:43:08
Skysnake
Ich kenne ne Firma, da werkelte ein CPQ P2 als Client für RDP - mit sattem NT4 drauf. Auch der tat noch seinen Dienst. Erst die Standortschliessung hat die Kiste obsolet gemacht. Die Kiste geht somit Heute Abend in Rente.
Die Kiste hatte ihren 15en Geburtstag schon lange hinter sich.
Aber komme ich noch einmal zum wichtigen Punkt Lizenzen und Firmenpolitik der Softwarekonzerne zurück - wäre ein BD Modul ein Core und nicht zwei bei der Lizensierung, würde man den BD wohl auch anders sehen.
Andersrum - würde HT als 2 Cores gezählt würds dann nicht jeder gleich abschalten?
Die CPU kann allerdings kaum schuld sein an der Lizenzpolitik anderer Konzerne.
Undertaker
In der CPU werkelt mehr denn einige Recheneinheiten... und eine Plattform ist nicht nur eine CPU.
Und ja - es kann Einfluss auf den "Turbo" nehmen der Chips, wenn mehr läuft. Und auch die Caches haben eine andere Last zu tragen.
Ich lebe nicht in der BRD mit den lausigen Schrottleitungen... bei uns hat der normale Gamer eher 100MBit - und es gibt noch dickere Leitungen - im bezahlbaren Rahmen. Am alten Ort hätte ich selbst 1 Gbit down haben können.
y33H@
Und doch wirst Du dort durchaus Unterschiede messen können... auch der absolut dämliche Start eines Windows dauert nicht auf jeder Kiste gleich lang mit der gleichen Festplatte/SSD - natürlich mit F8 getriggert und somit ohne BIOS/EFI Einfluss.
Raff
Installiert sich denn Windows wirklich gleich auf allen Plattformen?
Spätestens seit dem Timerproblem von Windows 8 weiss wohl jeder - nein tuts nicht.
gedi
Ich hab von Corsair Value 1333 auf Venegance 1600 gewechselt - merkt man in Benches - in Real natürlich nicht.
(del676)
2013-12-31, 10:17:44
In unserer Serverfarm ist HTT sowieso abgeschalten. Allerdings nicht wegen Lizenzen, sondern wegen Performanceeinbruechen.
Bei den meisten Tools zahlen wir pro User und Zeiteinheit.
Undertaker
2013-12-31, 10:54:15
In der CPU werkelt mehr denn einige Recheneinheiten... und eine Plattform ist nicht nur eine CPU.
Und ja - es kann Einfluss auf den "Turbo" nehmen der Chips, wenn mehr läuft. Und auch die Caches haben eine andere Last zu tragen.
Kein Desktop-Zweikerner von Intel hat einen Turbo, vereinzelte Stromsparmodelle außen vor. Und das eine Hintergrundanwendung ohne nennenswerte CPU-Belastung die Caches verstopfen soll, kann ich mir auch kaum vorstellen. Warum sollte die CPU dort unnütze Daten vorhalten, wenn eine Vordergrundanwendung wie ein Spiel ganz andere Ansprüche stellt? Die Realität zeigt ohnehin das Gegenteil, ich kann auch bei meinem etwas angestaubten Notebook (Clarkdale-Zweikerner) keine fps-Differenzen durch Browser, Skype oder Office-Programme feststellen.
Ich lebe nicht in der BRD mit den lausigen Schrottleitungen... bei uns hat der normale Gamer eher 100MBit - und es gibt noch dickere Leitungen - im bezahlbaren Rahmen. Am alten Ort hätte ich selbst 1 Gbit down haben können.
Schon bei einer 100-Mbit-Leitung hast du ein 20GB-Spiel in 30min geladen. Wie oft machst du das pro Monat? Und wie oft spielst du dabei gleichzeitig? Wie hoch ist hier der fps-Verlust, 5% für die reine Netzwerkbelastung? Es ist doch sehr, sehr weit hergeholt, dass als übliches Szenario anzupreisen. Übrigens: Wenn du per Steam lädst und auf der gleichen Plattform ein anderes Spiel startest, wird der Download afaik ohnehin pausiert. ;)
y33H@
2013-12-31, 10:54:25
Und doch wirst Du dort durchaus Unterschiede messen können... auch der absolut dämliche Start eines Windows dauert nicht auf jeder Kiste gleich lang mit der gleichen Festplatte/SSD - natürlich mit F8 getriggert und somit ohne BIOS/EFI Einfluss.Die CPU ist nahezu egal für den Windows-Start, entscheidend sind Board und Controller.
Haarmann
2013-12-31, 12:39:35
In unserer Serverfarm ist HTT sowieso abgeschalten. Allerdings nicht wegen Lizenzen, sondern wegen Performanceeinbruechen.
Bei den meisten Tools zahlen wir pro User und Zeiteinheit.
Je nach je kann sich beim SQL auch die Kernlizenz lohnen. Kommt zB auch auf die Anzahl der Anwendungen an.
Undertaker
Also ich hab zB Steam und einige Offline gekaufte Spiele drin. Diese kriegen laufend Updates ... je mehr Spiele jemand drin hat, desto sicherer wird da auch was laufen. Spätestens bei nem nichtsteam Spiel wird das Auswirkungen haben.
Downloads unterbreche ich für sowas auch nie... solange es auch so geht?
y33H@
Da bin ich anderer Ansicht.
Es ist lange her, da hatten wir ein S7 SiS 5582 von GA Testboard und Windows 95 als OS. Da konnte man gemütlich die CPU wechseln und vergleichen - ein Cx6x86 166+ überflügelte dabei auch ne Tillamook 266 CPU resp. ne 233MMX locker.
Man konnte zB auch ne automatische Windows Setup CD/DVD verwenden und messen, wenn Windows installiert war. Die Differenzen waren da auch nie wirklich gering.
Lokadamus
2013-12-31, 13:03:38
y33H@
Da bin ich anderer Ansicht.
Es ist lange her, da hatten wir ein S7 SiS 5582 von GA Testboard und Windows 95 als OS.Heutzutage sollte die Installation, egal, was für ein System du benutzt, relativ zeitgleich sein. Da hat man eher externe USB- DVD- Laufwerke versus interne als Ursache.
Wenn heute größere Zeitdifferenden auftreten, würde ich im Bios die Einstellung für AHCI/ Sata überprüfen.
Ansonsten kann man noch überprüfen, ob die Systeme in der gleichen Klasse arbeiten. Ein Low- Budget- System gegen ein High- End System, da würde ich mich wundern, wenn der Kopiervorgang eine größere Differenz aufweist, er sollte entweder gleich sein oder das High End System schneller.
y33H@
2013-12-31, 14:28:03
Da bin ich anderer Ansicht.
Es ist lange her, da hatten wir ein S7 SiS 5582 von GA Testboard und Windows 95 als OS. Da konnte man gemütlich die CPU wechseln und vergleichen - ein Cx6x86 166+ überflügelte dabei auch ne Tillamook 266 CPU resp. ne 233MMX locker.
Man konnte zB auch ne automatische Windows Setup CD/DVD verwenden und messen, wenn Windows installiert war. Die Differenzen waren da auch nie wirklich gering.Vor 20 Jahren, ja. Heute nein. Die CPU ist egal, Board macht es aus.
Skysnake
2013-12-31, 16:00:36
Um genau zu sein eher das BIOS und wie paranoid die BIOS-Entwickler waren. Ne Kiste muss halt sicher hoch kommen. Da wird teils dann einfach zich mal was wiederholt, um ja 110% sicher zu sein das es auch wirklich geht.
Skysnake
Ich kenne ne Firma, da werkelte ein CPQ P2 als Client für RDP - mit sattem NT4 drauf. Auch der tat noch seinen Dienst. Erst die Standortschliessung hat die Kiste obsolet gemacht. Die Kiste geht somit Heute Abend in Rente.
Die Kiste hatte ihren 15en Geburtstag schon lange hinter sich.
Aber komme ich noch einmal zum wichtigen Punkt Lizenzen und Firmenpolitik der Softwarekonzerne zurück - wäre ein BD Modul ein Core und nicht zwei bei der Lizensierung, würde man den BD wohl auch anders sehen.
Andersrum - würde HT als 2 Cores gezählt würds dann nicht jeder gleich abschalten?
Die CPU kann allerdings kaum schuld sein an der Lizenzpolitik anderer Konzerne.
Jaein.
Solche Lizenzgeschichten können dich halt als Hardwarehersteller fest ins Knie ficken. Du bist dafür nicht direkt verantwortlich, aber musst eben damit leben. Und ja, das ein Modul als 2 Cores angesehen wird, aber SMT nicht als zusätzlicher Kern ist halt doof, aber es ist halt so. Friss oder stirb.
Da kann man nicht viel machen, außer halt versuchen Druck aus zu üben, die Hersteller sind da aber eben frei in ihren Lizenzbestimmungen. So ist die Welt.
So was hätte man auch durchas sehen können, oder wahrscheinlich sogar sehen müssen! von Seiten des CEO. Nen Techi, der den Chip entwickelt wird sich um so was aber sicherlich NIE gedanken machen.
Schon bei einer 100-Mbit-Leitung hast du ein 20GB-Spiel in 30min geladen. Wie oft machst du das pro Monat? Und wie oft spielst du dabei gleichzeitig? Wie hoch ist hier der fps-Verlust, 5% für die reine Netzwerkbelastung? Es ist doch sehr, sehr weit hergeholt, dass als übliches Szenario anzupreisen. Übrigens: Wenn du per Steam lädst und auf der gleichen Plattform ein anderes Spiel startest, wird der Download afaik ohnehin pausiert. ;)
Ethernet geht vor allem auf die RAM-Bandbreite und funkt auch der CPU halt immer und immer und immer wieder dazwischen.
Ist halt Ethernet. Wir kopieren alles zich mal hin und her bla blub. ZeroCopy ist da schon was feines im Vergleich :biggrin:
Twodee
2013-12-31, 21:30:51
Ethernet geht vor allem auf die RAM-Bandbreite und funkt auch der CPU halt immer und immer und immer wieder dazwischen.
Ist halt Ethernet. Wir kopieren alles zich mal hin und her bla blub. ZeroCopy ist da schon was feines im Vergleich :biggrin:
Pfff klar wenn man mit billig Realtek passiven NICs unterwegs ist vllt schon, aber nicht wenn man z.B. eine Intel Pro 1000 usw mit aktivem NIC hat.
Lokadamus
2013-12-31, 21:33:04
Pfff klar wenn man mit billig Realtek passiven NICs unterwegs ist vllt schon, aber nicht wenn man z.B. eine Intel Pro 1000 usw mit aktivem NIC hat.Seit wann sind in den normalen Desktop- PCs Intel Karten verbaut? :|
Bei Server brauchen wir nicht drüber reden. Fehlt diese und das System ist IO lastig, werden die paar Euros ausgegeben.
(del676)
2013-12-31, 22:28:32
Also auf meinem billigen und alten P8Z68V Gen3 ist eine Intel NIC Onboard.
Deshalb hab ich das Board auch ausgewaehlt (und weil man 3 Slots pro GPU Platz hat in CFX/SLI)
Lokadamus
2013-12-31, 22:32:08
Wie teuer war das Mobo? 100€? Dann können wir weiter diskutieren.
(del676)
2013-12-31, 22:40:07
Ja so 120€ duerfte es gekostet haben.
Twodee
2013-12-31, 22:40:21
Wie teuer war das Mobo? 100€? Dann können wir weiter diskutieren.
http://geizhals.de/asus-p8z68-v-gen3-90-mibgc5-g0eay00z-a685157.html :freak:
Lokadamus
2013-12-31, 22:44:14
Ja so 120€ duerfte es gekostet haben.Eher selten, dass dann schon die Intel dabei ist, würde ich sagen. Aber ein guter Kompromiss, wenn die anderen Sachen gut sind.http://geizhals.de/asus-p8z68-v-gen3-90-mibgc5-g0eay00z-a685157.html :freak:Das ist der heutige Preis und für einen Z68 Chipsatz würde ich ... das heute nicht mehr bezahlen wollen. Die Chipsätze sind 2 Generationen weiter.
Skysnake
2013-12-31, 22:53:58
Pfff klar wenn man mit billig Realtek passiven NICs unterwegs ist vllt schon, aber nicht wenn man z.B. eine Intel Pro 1000 usw mit aktivem NIC hat.
Da kannste egal welche Netzwerkkarte nehmen. Ethernet ist schnarch langsam...
Ehternet ist nur für den Durchsatz da, und das wars dann, wobei selbst da mit den großen HEadern nicht wirklich viel zu reisen ist.
Ethernet ist halt Ethernet. Funktioniert immer und überall, sowie zuverlässig, aber ist halt schnarchig.
Lokadamus
2013-12-31, 22:58:12
Ethernet ist halt Ethernet. Funktioniert immer und überall, sowie zuverlässig, aber ist halt schnarchig.Kommt auf Karte und CPU drauf an. Eine Realtek kostet nichts, geht aber über die CPU, Intel kümmert sich um Sachen wie Fehler selber.
Bei schnellen CPUs fällt es auf, wenn man unerwartete Einbrüche hat, egal an welcher Stelle.
Wenn die Systeme vor sich hindümpeln, ist es relativ.
Ich würde bei Servern immer eine Intel nehmen.
StefanV
2013-12-31, 23:26:02
Es kommt nicht auf die CPU an, wenn das Protokoll scheiße ist.
Und das ist hier halt der Punkt. Ethernet gibt es ja auch nicht seit gestern und nur in Sternförmiger Verteilung. Das gabs auch im Kreis über Koax Kabel. Oder dieses Thick Ethernet mit den 15poligen Steckern (die ich aber nie gesehen habe). Und es ist schon hunderte von Jahren alt. Also da würd ich nicht sagen wollen, dass Ethernet toll/gut/brauchbar ist.
Lokadamus
2013-12-31, 23:33:39
Es kommt nicht auf die CPU an, wenn das Protokoll scheiße ist.Soll heißen, dass es Leistungseinbrüche gibt?
(del676)
2013-12-31, 23:40:04
Die Chipsätze sind 2 Generationen weiter.
Aber was bringts?
PCI-E Lanes sind noch immer viel zuwenig.
Performancemaessig hat sich nix getan.
Irgendwie herrscht Stillstand.
Lokadamus
2013-12-31, 23:47:30
Einiges?
http://www.tomshardware.de/ssd-motherboard-chipsatz-performance,testberichte-241308-9.html
Die Samsung 840 Pro kommt auf dem Intel DZ87KLT-75K-Mainboard, das mit dem Z87-Chipsatz ausgestattet ist, bei den 4K Random Writes unter AS-SSD auf 101,1 MB/s. Läuft die gleiche SSD am MSI 790FX-GD70 angeschlossen, das den AMD-Chipsatz SB750 verwendet, halbiert sich die Schreibperformance mit 52 MB/s nahezu.
Zum Kopieren einer DVD (Win7 Image) sind beide schnell genug.
Der Unterschied ist, wir reden hier von 10 - 30%, wobei wir aber nicht mehr von 30 verus 33 Frames, sondern von 100 versus 133 Frames reden. Es ist auf der einen Seite schon genug Wumms vorhanden und die fehlen erst, wenn es kritisch wird.
StefanV
2014-01-01, 00:03:36
ähh, warum zitierst du etwas, das auf altem Mist basiert?!
Aktuell ist die SB850, auf AM3 Boards bzw A75/85 bzw A88X für FM2(+).
Das MSI dürfte ein uraltes AM2 oder AM3 Board sein, nicht mal Bulli kompatibel...
Das wäre in etwa damit vergleichbar als wenn ich 'nen FM2 System mit 'nem X48 System vergleichen würde.
Lokadamus
2014-01-01, 00:08:12
Weil das der Unterschied zwischen Z77 und Z87 ist. Einen Vergleich zwischen Z67/Z68 und Z87 hab ich nicht gefunden. :(
Je nach Einsatzgebiet dürfte der Unterschied schwanken, teilweise uninterssant, teilweise genau der Grund, warum man die neuesten Sachen haben will.
Und in ein paar Monaten kommt der 15 Kerner raus. Warum es kein 16 Kerner ist, weiß man bisher nicht. Einige tippen auf die Graka als verlorenen Core.
Twodee
2014-01-01, 11:31:27
Da kannste egal welche Netzwerkkarte nehmen. Ethernet ist schnarch langsam...
Weil....?
Ehternet ist nur für den Durchsatz da, und das wars dann, wobei selbst da mit den großen HEadern nicht wirklich viel zu reisen ist.
Wovon redest du eigentlich? Beispiel bitte.
Ethernet ist halt Ethernet. Funktioniert immer und überall, sowie zuverlässig, aber ist halt schnarchig.
War das das Thema?
Und in ein paar Monaten kommt der 15 Kerner raus. Warum es kein 16 Kerner ist, weiß man bisher nicht. Einige tippen auf die Graka als verlorenen Core.
Weil Intel die Kerne in Dreiergruppen anordnet. Wurde auf den einschlägigen Seiten in den Meldungen zum Zwölfkerner erklärt.
Skysnake
2014-01-01, 12:20:11
Weil....?
Guckst du da:
Ethernet hat schon ne minimale Paketgröße von 64 Byte. Der Nutzdatenanteil liegt bei 1-1500 Byte Nutzdaten (Bei 1 Byte wird der Rest halt mit Schrott aufgefüllt) zwischen 1,56 - 98,3%. Bei der hohen Effizienz haste aber halt gewaltige Latenzen. Wenn da dann Übertragungsfehler drin sind, dann gz. Das sind ja immerhin 1,46 kB! an Daten. 512ns nur rein für die Übertragung bei GBit Ethernet bei nem 64 Byte Paket. Bei nem 1526 Byte Paket sind es sogar 12208ns rein für die Übertragung eines einzigen Paketes. Und das ist jetzt NUR! Ethernet.
Mit nur Ethernet läuft aber nichts ;) Da kommt dann noch der TCP/IP bzw UDP Overhead dazu.
Ethernet an sich geht zwar noch, auch wenn der Overhead schon nicht ganz ohne ist, aber zusammen mit dem Übertragungsprotokoll dazu, reiste damit halt nichts mehr wirklich. Vor allem, du musst die ganzen Frames ja noch zusammensetzen, Kopien der Daten vorhalten falls nen Übertragungsfehler auftritt usw usw usw. Und die TCP/IP Packete hälst du nicht "mal eben" so vor im Netzwerkdevice. Also musste ne Kopie davon im RAM haben. usw usw usw.
guckst du einfach mal z.B. hier: http://www.informatik.uni-ulm.de/ni/Lehre/WS03/TechInf2/2003w-TI2-E2-2.pdf
Wenn du dagegen so was wie Infiniband nimmst, haste zwar auch ~60 Byte für nen Paket, aber damit kommste halt schon vom Start zum Ziel.
Twodee
2014-01-01, 16:53:28
Guckst du da:
Ethernet hat schon ne minimale Paketgröße von 64 Byte. Der Nutzdatenanteil liegt bei 1-1500 Byte Nutzdaten (Bei 1 Byte wird der Rest halt mit Schrott aufgefüllt) zwischen 1,56 - 98,3%. Bei der hohen Effizienz haste aber halt gewaltige Latenzen. Wenn da dann Übertragungsfehler drin sind, dann gz. Das sind ja immerhin 1,46 kB! an Daten. 512ns nur rein für die Übertragung bei GBit Ethernet bei nem 64 Byte Paket. Bei nem 1526 Byte Paket sind es sogar 12208ns rein für die Übertragung eines einzigen Paketes. Und das ist jetzt NUR! Ethernet.
Mit nur Ethernet läuft aber nichts ;) Da kommt dann noch der TCP/IP bzw UDP Overhead dazu.
Ethernet an sich geht zwar noch, auch wenn der Overhead schon nicht ganz ohne ist, aber zusammen mit dem Übertragungsprotokoll dazu, reiste damit halt nichts mehr wirklich. Vor allem, du musst die ganzen Frames ja noch zusammensetzen, Kopien der Daten vorhalten falls nen Übertragungsfehler auftritt usw usw usw. Und die TCP/IP Packete hälst du nicht "mal eben" so vor im Netzwerkdevice. Also musste ne Kopie davon im RAM haben. usw usw usw.
guckst du einfach mal z.B. hier: http://www.informatik.uni-ulm.de/ni/Lehre/WS03/TechInf2/2003w-TI2-E2-2.pdf
Wenn du dagegen so was wie Infiniband nimmst, haste zwar auch ~60 Byte für nen Paket, aber damit kommste halt schon vom Start zum Ziel.
Ist mir klar, ich wollte nur wissen worauf die hinaus wolltest.
Die TCP/IP und UDP Prüfsummen etc. werden z.B. vom Intel NIC behandelt, was wiederum CPU-Zeit spart.
StefanV
2014-01-01, 21:03:05
Mit anderen Worten:
Ethernet taugt für zeitunkritische Datentransfers ganz gut, zum Beispiel Fileserver/Dateiaustausch, nicht aber zur Verbindung von mehreren Rechnern, die dann zusammen etwas berechnen sollen.
Twodee
2014-01-01, 21:14:41
Mit anderen Worten:
Ethernet taugt für zeitunkritische Datentransfers ganz gut, zum Beispiel Fileserver/Dateiaustausch, nicht aber zur Verbindung von mehreren Rechnern, die dann zusammen etwas berechnen sollen.
hat das irgendwer in frage gestellt?
Lokadamus
2014-01-01, 23:59:17
Mit anderen Worten:
Ethernet taugt für zeitunkritische Datentransfers ganz gut, zum Beispiel Fileserver/Dateiaustausch, nicht aber zur Verbindung von mehreren Rechnern, die dann zusammen etwas berechnen sollen.Ich würde sagen, es kommt eher darauf an, was berechnet werden soll. Die meisten Cluster in kleinen/ mittleren Firmen werden wohl über TCP/IP bzw. UDP laufen.
http://de.wikipedia.org/wiki/Distcc zum Beispiel erledigt das Kompilieren übers Netzwerk.
(del676)
2014-01-02, 08:36:11
Sogar unsere Rechenfarm laeuft ueber Ethernet und das bei zirka 13-14.000 echten Cores :(
Haarmann
2014-01-02, 09:53:44
Lokadamus und y33H@
Bliebe die Frage...
Wann hast es zuletzt ausprobiert?
Ich denke die Mehrzahl der Leute kann das gar nicht so gut testen, weil ihnen die entsprechenden Systeme fehlen.
Detail am Rande... kann die AMD SB 750 SATA3? Nein?
Zufällig ist SATA2 halb so schnell wie SATA3?
Und nun ist tatsächlich die SSD am halb so schnellen Interface halb so schnell?
Na das verwundert mich ja wirklich ;).
Und wer Unten liest...
Intel Z77 & Z87 Intel RST 12.5.0.1066
All other Windows 8 integrated driver
Der weiss auch Bescheid.
Skysnake
Und Intel übte immer Druck auf Microsoft aus...
Es heisst nicht grundlos Wintel. Es ist auch auffallen wie gut die Windows Ratings von Intels Krüppelgrafik ausfallen.
Intels HT taug in vielen Bereichen einzig zum abschalten... Intels IME ist gemeingefährlich... Intels Grafikversuche erinnern mich an die Problematik - Habe Chipfläche und keine Ahnung was ich drauf tun soll ...
Dafür, dass AMD mit steinzeitlichen Fertigungsverfahren "gesegnet" ist, halten die sich sehr gut.
Vista haben die Leute meisst gehasst - nicht weils wirklich schlecht war, sondern weil die 32 Bit Krüppelkisten von Intel eben noch im Lager standen und "entsorgt" werden wollten. Vista x64 mit 8GB war keineswegs schleckt - nur sehr selten anzutreffen.
Und Intels erste DX9 Grafik konnte bekanntlich eben nichtmals den Bunten und Blinkenden Vista Look hinbekommen.
Auch wenns Viele nie hören wollten - in der Domäne war UAC ein Segen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.