PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - FX-Serie - Bulldozer - Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10]

robbitop
2015-12-16, 14:09:21
Wenn man die 1-2 Threads festpinnen könnte (bspw auf den letzten Core und seinen virtuellen zusätzlichen SMT Thread) wäre das eine gute Wahl. So könnten Core 1-3 (+ihre SMT Threads) genug Leistung für das jeweilige Spiel machen.

HOT
2015-12-16, 17:05:46
Das kann man auch andersrum betrachten: Kaum merkt jemand an, dass für Spiele ein i3 die bessere Wahl als ein FX6xxx ist (nach Messdaten!), kommt man gleich mit Fackeln und Mistgabeln.
Es gibt kaum ein Spiel, bei dem der FX nicht reichen würde. 6 oder 8 Kerne ist da noch fast egal. Es gibt aber Spiele die schlecht laufen, weil sie schlecht programmiert sind, z.B. WoT oder Diablo3. Sollte man nicht verschweigen. Und einen FX statt einen i3 zu nehmen ist aus energietechnischer Sicht sicherlich nicht mehr so richtig sinnvoll. Wenn man das aber dennoch machen will, weiss der Geier wieso, denn die Plattform sollte man nun echt nicht mehr kaufen, ist das jetzt auch kein Weltuntergang. Und es bleibt bashing, das ist wie ein Reflex, kaum wird irgendwas über FXen diskutiert kommt sofort die Bashingkeule. Es wissen doch eh alle was los ist, lasst es doch einfach mal gut sein, das nervt sowas von. Jedes mal:

Poster 1: Ich hab da was mit nem FX
Poster 2: Interessant
Posert 3: FX ist scheisse
Poster 4: So schlimm isses nicht
Poster 3: FX ist aber scheisse
Poster 5: Jo FX ist total scheisse

das sind 4 total überflüssige Müllpostings.

aufkrawall
2015-12-16, 17:28:57
Es gibt kaum ein Spiel, bei dem der FX nicht reichen würde.

Ich habe oben eines genannt. Märchenstunde ala HOT...
Soll ich noch mehr nennen? Kann ich machen.


6 oder 8 Kerne ist da noch fast egal.

Ist es nicht, wenn man konkrete Produkte mit konkreten Preisen miteinander vergleicht.


Es gibt aber Spiele die schlecht laufen, weil sie schlecht programmiert sind, z.B. WoT oder Diablo3. Sollte man nicht verschweigen.

Weil es mies programmierte Anwendungen gibt, ist die CPU-Performance egal?
Was ein BS-Argument.

Und einen FX statt einen i3 zu nehmen ist aus energietechnischer Sicht sicherlich nicht mehr so richtig sinnvoll.

Die Effizienz hatte jetzt sogar keinen interessiert. Es ging um bang for bucks.


Und es bleibt bashing, das ist wie ein Reflex, kaum wird irgendwas über FXen diskutiert kommt sofort die Bashingkeule.

Nenn es Reflex oder Bashingkeule, es bleibt trotzdem Kritik an einer unvernünftigen Hardwareempfehlung.

Es kommt hier doch immer die gleiche Schönfärberei:
-eigentlich sei die Performance "überall" ausreichend mit einem FX
-man könne ganz viel gleichzeitig machen
-für den Preis sei das Gebotene nicht schlecht
-ein i3 hat nur zwei physikalische Kerne

Das ist alles substanzloses Blah. Konkrete Performance-Messungen werden gescheut wie der Teufel das Weihwasser.

Schnoesel
2015-12-16, 17:46:31
Euch fehlt die differenzierte Betrachtung ganz einfach. Der FX ist weder pauschal scheiße noch pauschal "ausreichend". Es kommt wie immer auf Anwendung und Settings an. Ich habe meine FX auch nur noch weil er bei WHQD und UHD nicht so sehr abkackt. Jedenfalls ist das nicht mit 720p zu vergleichen wie in deinem Link, es sei denn man steht auf unrealistische Benchmarks.

Empfehlen würde ich ihn allerdings auch nicht. Dann lieber auf ZEN warten.

aufkrawall
2015-12-16, 18:10:09
Jedenfalls ist das nicht mit 720p zu vergleichen wie in deinem Link, es sei denn man steht auf unrealistische Benchmarks.

So bencht man CPUs nicht. Das verstehen leider viele nicht.

HOT
2015-12-16, 18:17:27
Ich habe oben eines genannt. Märchenstunde ala HOT...
Soll ich noch mehr nennen? Kann ich machen.

Na da bin ich ja mal so richtig gespannt. Ich hab nämlich echte Zweifel, dass du hier aus Erfahrung mit dem FX sprichst. Ich hab zufällig nen 8350 zur Verfügung und hab darauf schon so alles getestet, performanceprobleme sind mit bisher nicht bekannt. Ich hab in meinem Externrechner erst vor Kurzem den FX durch einen 5675C getauscht, aufgrund des 200€ Deals, nicht weil es notwendig war. Und der Rechner ist oft im Spieleeinsatz.

Ist es nicht, wenn man konkrete Produkte mit konkreten Preisen miteinander vergleicht.

Es ging hier einzig und allein um die Spieletauglichkeit, Preise waren mir jetzt egal.

Weil es mies programmierte Anwendungen gibt, ist die CPU-Performance egal?
Was ein BS-Argument.

Egal ist es nicht, es ist ein Nachteil. Ich hab das ja auch nicht verschwiegen. Es läuft ja nicht toll aber es läuft.

[...]
Nenn es Reflex oder Bashingkeule, es bleibt trotzdem Kritik an einer unvernünftigen Hardwareempfehlung.

Es kommt hier doch immer die gleiche Schönfärberei:
-eigentlich sei die Performance "überall" ausreichend mit einem FX
-man könne ganz viel gleichzeitig machen
-für den Preis sei das Gebotene nicht schlecht
-ein i3 hat nur zwei physikalische Kerne

Das ist alles substanzloses Blah. Konkrete Performance-Messungen werden gescheut wie der Teufel das Weihwasser.
Kritik hat an diesem Punkt ganz einfach nichts verloren, das ist hier schlicht und ergreifend OT und es artet offensichtlich jedes mal aus, also warum?

dildo4u
2015-12-16, 18:25:00
Gibt ständig neue Beispiele wie z.b Just Cause 3 und Dirt Rally.Der 8370 ist mit einer AMD Karte nicht mal in der Lage 60fps zu liefern das mit einem Auto auf der Strecke.

http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

Just Cause 3 mit einem 8350 erzeugt miese Frametimes.

https://youtu.be/pBBw5nssai0?t=2m12s

aufkrawall
2015-12-16, 18:40:20
Na da bin ich ja mal so richtig gespannt. Ich hab nämlich echte Zweifel, dass du hier aus Erfahrung mit dem FX sprichst. Ich hab zufällig nen 8350 zur Verfügung und hab darauf schon so alles getestet, performanceprobleme sind mit bisher nicht bekannt.
Warum sind mir von dir keine brauchbaren Benchmarks bekannt?
Benche doch mal das:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10793757&postcount=2
Die min-fps möchte ich mal sehen. Und das ist für die CPU übrigens noch nicht mal ein Worst Case in dem Spiel.
Oder das hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10658611#post10658611
Oder das:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10874483&postcount=43

Außerdem ist die IPC in etwa vergleichbar zum Phenom 2, es gibt kein AVX 2, kein PCIe 3. Da kann man sich die Performance ziemlich gut ausrechnen.

anddill
2015-12-16, 19:43:57
Gähn...

Meine Güte, geht Dir einer ab wenn Du irgendwas sinnlos bashen kannst? Du schlägst doch schon lange auf ein totes Pferd ein.
Jaja, Der FX ist scheiße, AMD-Grafikkarten haben keine nutzbaren Treiber und überhaupt wäre die Welt ein besserer Ort wenn es AMD nicht gäbe...blubber...blubber...blubber...

tdon
2015-12-16, 20:08:13
Und was willst du mit dem substanzlosen Beitrag jetzt erreichen? Genau das ist wieder so ein typisches Beispiel. Wenn jemand etwas (unschönes) aufzeigt, werden die Fakten lieber ignoriert und ins Lächerliche gezogen. Oder das böse Spiel ist Schuld. Es müsste nicht immer alles wiederholt werden, wenn ihr es endlich mal einsehen könntet, dass der FX in Spielen total unterlegen ist. Und dass die Kombination mit einer AMD GPU noch früher ans CPU Limit stößt, ist eben nunmal so.

aufkrawall
2015-12-16, 20:16:03
Du schlägst doch schon lange auf ein totes Pferd ein.
Warum nimmst du daran Anstoß, aber nicht an den Reanimierungsversuchen einiger hier für das verwesende Tier?
Du solltest mal dringend deine Objektivität hinterfragen (und ob ein Moderator solche Umgangsformen an den Tag legen sollte).

Pirx
2015-12-16, 20:37:51
Warum nimmst du daran Anstoß, aber nicht an den Reanimierungsversuchen einiger hier für das verwesende Tier?
Du solltest mal dringend deine Objektivität hinterfragen (und ob ein Moderator solche Umgangsformen an den Tag legen sollte).
Eine differenzierte Betrachtung mit Penetranz zu verweigern ist auch keine gute Umgangsform.

Isen
2015-12-16, 20:53:51
Gleich wiederholt löschen lassen und ganz fern bleiben.
Diese Tendenziösen miss-Interpretationen aus Aussagen sind echt zum kotzen.

@Pirx,

mit Absicht derart kaputt falsch zu verstehen und interpretieren, um seinen Bullshit los zu werden, ist die erbärmlichste Umgangsform überhaupt. Genau diese ist es, die einen jedesmal so richtig schön auf die Eier geht. Reanimiert wird hier gar nichts. Das glaubt man nur selbst, damit man wieder ne Runde durch die Foren kotzen kann und die Leute auf die Eier gehen kann.

aufkrawall
2015-12-16, 21:03:21
Ich habe dir lediglich widersprochen, dass der FX-6330 für den besagten Preis von 110$ (also etwa auch 110€) ein guter Deal für einen günstigen Spielerechner wäre (in Anbetracht des i3-6100).
Damit ist man in den Augen wohl schon der hinterletzte Wortverdreher, ok.
Wird schon jeder wissen, wir er/sie das einzusortieren hat.

Menace
2015-12-16, 21:36:22
Und was willst du mit dem substanzlosen Beitrag jetzt erreichen? Genau das ist wieder so ein typisches Beispiel. Wenn jemand etwas (unschönes) aufzeigt, werden die Fakten lieber ignoriert und ins Lächerliche gezogen. Oder das böse Spiel ist Schuld. Es müsste nicht immer alles wiederholt werden, wenn ihr es endlich mal einsehen könntet, dass der FX in Spielen total unterlegen ist. Und dass die Kombination mit einer AMD GPU noch früher ans CPU Limit stößt, ist eben nunmal so.

Die AMDler sagen doch großteils schon differenziert, wo die Leistung eines FX-Prozessors liegt und wo nicht. Sie kennen die Stärken (ja, hat er, wenn auch für einen hohen Strompreis) und die Schwächen wahrscheinlich live und besser als die gesamte Anti-AMD-Fraktion hier. Darauf weißen sie hin und das wollen sie so auch sehen.

Kann man mit einem FX8370 glücklich werden? klar kann man (je nach Anwendungsprofil!) das (gerade bei hoher Auflösung).

Ist in den meisten Fällen momentan intel die weitaus bessere Wahl? Klar doch, da widerspricht keiner.

Die Kunst der Differenzierung (die wohl auch etwas "Kompetenz" voraussetzt) muss halt beherrscht werden. Kann leider gerade hier und in vielen AMD-Threads nicht jeder (komischerweise eher Anhänger von der Gegenseite). :wink:

Was ich aber immer wieder an Dildos Lieblingslink bewundere ist, wie dicht meine 570 € (letzte Woche sogar 490) Nano an eine teurere GTX 980 Ti kommt. :biggrin:

anddill
2015-12-16, 21:37:38
Wie hasszerfressen muss man eigentlich sein, um als erwachsener Mensch zu dem Thema PC-Hardware so etwas zusammenzudichten?
Ich hab deinen Beitrag gemeldet.

Wie hasszerfressen muss man sein, um direkt nach einem Beitrag: "Ohh, guck mal, AMD hat noch ein Binning in der Grabbelkiste gefunden. Süüß" zum 100stem Male mit immer dem selben Kram über die AMD-Threads herzufallen?
Wer sich heute einen AMD FX in den PC baut weiß im allgemeinen sehr genau warum er das tut. Niemand braucht hier die X-te Errettung der Welt per Intel-Kaufberatung. Du kannst Deinen Kram gerne beim Imperium kaufen, aber leg einfach mal eine andere Platte auf, Deine hat nämlich nen riesen Sprung.

Schnoesel
2015-12-16, 23:26:16
So bencht man CPUs nicht. Das verstehen leider viele nicht.

Dann muss es noch lange nicht sinnvoll sein. Umgekehrt könnte man sagen wir testen ab jetzt alle GPUs auf 4k oder besser noch 5K auch die kleinen Karten, denn nur so sieht man die wahre Leistung der Karten. Wie? Das ist nicht sinnvoll und realitätsfern? Genauso wie Tests auf Mikroauflösungen die so keiner spielt.

Schön in der Theorie aber in der Praxis eben nicht vorhanden. Und genau da fängt es eben an zu differenzieren. Je kleiner die Auflösung desto eher wird der FX limitieren. Das ist Fakt und daher auch solche Tests nötig. Wenn es um die Praxis geht darf man dabei ruhig auch mal höhere Auflösungen bis zu 4K einem CPU Test unterziehen. Macht nur kein Mensch, warum weiß eigentlich keiner. Vielleicht würde man dann ja zu einem Schluss kommen dass für WQHD und 4K gar kein 400€ Prozessor nötig ist... wer weiß.

PS: Der Ton hier ist im Übrigen wieder mal unter aller Kanone. Hüben wie drüben.

aufkrawall
2015-12-17, 00:23:20
Die Aufgabe der CPU ist es, die GPU schnell genug zu füttern. Wenn man wissen will, wie gut sie das kann, lässt man die Ergebnisse nicht durch GPU-Limitierung verzerren.
Nur ein Test im möglichst vollständigen CPU-Limit (also 720p oder kleinere Auflösungen, am besten 16:9) lässt Rückschlüsse darüber, welche min-fps man mit einer bestimmten CPU halten kann. Und das ist dann die eigentliche Information, die interessiert, will man die Spiele-Performance einer CPU einordnen.
Hier spielen viele einfach nicht anspruchsvolle MP-Titel, wo fps-Einbrüche derbe nerven, maßen sich dann aber ein Urteil an, was "allgemein reicht".

anddill
2015-12-17, 00:35:45
Ja, und, wo ist jetzt die Neuheit dabei? Ist doch alles bekannt. Ein FX rennt schneller ins CPU-Limit als ein i5 oder ein i7, beim i3 sieht es bei vielen Spieleengines aber schon grenzwertig aus. Und genau da muss jeder für sich entscheiden ob er eine breite oder schmalere und schnellere CPU für sein begrenztes Budget und seinen Anwendungsfall kaufen will. Mancher bearbeitet auf seinem PC zum Beispiel auch Videos, und kann oder will sich keinen 400€ Intel-Prozessor leisten. Und spielt nicht den ganzen Tag "anspruchvolle MP-Titel" auf Wettkampfniveau in 800x600.

Oder viele haben aktuell einfach einen FX, wollen keinen Intel und warten halt auf Zen. Und vermissen dabei absolut nichts, weil das alte Eisen im Alltag immer noch gut was wegschleppt.

Was meinst Du was da draußen so an PCs rumschwirrt. Ein gut konfigurierter AMD-PC schlägt immer noch alles was so für 500-700€ auf den üblichen Marktplätzen als Spiele-PC verramscht wird. Und statt für 500€ eine Rappelkiste bei eBay zu kaufen ist es bei kleinem Budget manchmal erstaunlicherweise immer noch sinnvoll auf einen neuen FX zu setzen, auch wenn ich das aktuell nicht mal mehr empfehle. Dann lieber die paar extra-€ locker machen für einen i5, wenns wirklich auf die CPU-Leistung ankommt. Aber den i3 lass als Spiele-Prozessor bitte stecken, dem geht ab 3 Threads einfach die Puste aus. Und Nein, Joe Sixpack rüstet seine CPU nicht in einem halben Jahr auf.

aufkrawall
2015-12-17, 00:49:18
beim i3 sieht es bei vielen Spieleengines aber schon grenzwertig aus.

Einfach nur falsch.
FX8350 4-4,2Ghz: 58 Punkte
Core i3 6100 3,7GHz: 75,1 Punkte
http://www.pcgameshardware.de/CPU-Hardware-154106/Tests/CPU-Test-Benchmark-AMD-Intel-675663/

Und nur nochmal zu Erinnerung: Es ging um einen FX-6330, der hier in der Preisklasse als günstige Gaming-CPU dargestellt wurde.
Get ur facts straight! AMD-CPUs sind kein günstiger Geheimtipp für Spiele. Sieh es einfach ein, auch wenn das Herz dabei blutet (warum auch immer).
Ich für meinen Teil habe fertig.


Und spielt nicht den ganzen Tag "anspruchvolle MP-Titel" auf Wettkampfniveau in 800x600.

Solltest du mal wieder machen. Dann würde dir z.B. auffallen, dass man Grafik-Details locker reduzieren kann für gut spielbare fps. Die CPU kann man durch Detailreduktion aber kaum entlasten.

anddill
2015-12-17, 00:58:08
Wenn ich auf Deinen Link klicke kommt eine Tabelle, in der der FX mit 60,8 Punkten und der i3 mit 63,1 Punkten steht. Da liegen ja Welten dazwischen!! :D

N0Thing
2015-12-17, 08:50:11
Wenn ich auf Deinen Link klicke kommt eine Tabelle, in der der FX mit 60,8 Punkten und der i3 mit 63,1 Punkten steht. Da liegen ja Welten dazwischen!! :D

Es ging doch um die Leistung bei Spielen und nicht um die allgemeine Performance, wenn auch Anwendungen wie 7-Zip, Adobe Lightroom 5.3, Luxmark 2.0 und x264 mit eingerechnet werden.
Aber eigentlich ist das auch schon nicht sehr schmeichelhaft für den FX, wenn der 50€ günstigere i3 dann immer noch knapp vorne liegt.

Cyphermaster
2015-12-17, 09:07:14
Get ur facts straight! AMD-CPUs sind kein günstiger Geheimtipp für Spiele. Sieh es einfach ein, auch wenn das Herz dabei blutet (warum auch immer).Kommt halt auf das Spiel- und PC-Szenario an. Daß du es irgendwie nicht ertragen kannst, daß jemand keinen Intel-Prozessor kauft (oder deiner Argumentation nicht folgt?), ist wohl kaum von Relevanz. Für viele Leute ist das "Limit" eines hoch getakteten FX noch lange kein Problem, genau wie für nicht wenige Leute zwischen dem Intel i3 und dem FX zusätzlich noch die Kosten für ein neues Motherboard stehen, weil bisher ein X4/X6 benutzt wird. Oder ein i3 einfach auch deshalb abkackt, weil ihn real sehr oft neben dem Game parallel laufende VOIP-Kommunikation mit Mitspielern, Twitch etc. (frage mich schon lange, wann sowas mal mitgebencht wird) deutlich anders aussehen lassen, als in den verlinkten Tests.
Solltest du mal wieder machen. Dann würde dir z.B. auffallen, dass man Grafik-Details locker reduzieren kann für gut spielbare fps. Die CPU kann man durch Detailreduktion aber kaum entlasten.Die in der Realität häufigste Auflösung ist HD. Gepaart mit maximal einer Mittelklasse-GPU. Und dann schau dir an, wie in den Tests die Engines limitieren, bzw. welche CPUs in den Titeln dann ein echtes fps-Problem werden.

Schnoesel
2015-12-17, 10:35:04
Hier spielen viele einfach nicht anspruchsvolle MP-Titel, wo fps-Einbrüche derbe nerven, maßen sich dann aber ein Urteil an, was "allgemein reicht".

Ich kann jetzt nur von meinem System berichten und ich habe keine Probleme mit Battlefront oder BF4. Gut ich zocke auf WHQD und Ultra Einstellungen und mein Target FPS sind nicht 144 aber das brauche ich auch gar nicht. Es kommt eben auf den Anwendungsfall an.

Ob mans nun glaubt oder nicht auch mit einem FX kann man Spass haben und es ist bei weitem nicht so dass man damit nicht MP zocken könnte, was nicht bedeutet dass ich ihn heute noch empfehlen würde. Habe meinem Kumpel kürzlich einen I5 4960 verbaut den ich hier im Forum gebraucht gekauft hatte. Ein I3 wäre mir gar nicht eingefallen ebensowenig ein FX. Für das Geld was mein FX damals gekostet hat (180€) schlägt er sich immer noch recht gut.

Menace
2015-12-17, 10:45:59
@Krawall: Ich kaufe meine CPU nach den Anwendungen, die ich zum Arbeiten benötige und in der Zwischenzeit meine Grafikkarte auch. Wenn dieses Szenario so gar nicht zu Deinem Erfahrungsbereich gehört, gibt es doch Menschen, die mit ihrem PC nicht nur zocken. Und ganz ehrlich, das einzige, was momentan meine Arbeit limitiert ist, dass ich meine 3 TB Arbeitsdateien aller möglichen Formate noch nicht komplett auf SSD unterbringen kann. Alles mit einem FX-Prozessor.

Erst Ashes of Singularity könnte meinen FX-Prozessor in die Enge treiben.

Schnoesel
2015-12-17, 10:53:29
Nun wenige Ausfälle in der ein FX abkackt gibt es sicherlich, wahrscheinlich sogar in hohen Auflösungen. Spontan fällt mir da sowas wie Starcraft oder Total War ein.

N0Thing
2015-12-17, 10:56:49
Die Diskussion hat doch mit dem AMD FX-6330 begonnen und ob dieser eine gute Wahl für eine Spiele-PC sei. Nicht damit, dass alle FX-Besitzer doch bitte ihre CPUs gegen einen Intel i3 austauschen sollen.
Es ging nicht um Videobearbeitung, Photobearbeitung oder Datenbanken, sondern um eine Daddelkiste. Dass jeder für sich selbst am besten wissen sollte was er braucht und dann selber entscheiden kann und darf, zu welchem Produkt er greift, hat doch niemand bestritten, oder?

Schnoesel
2015-12-17, 10:59:44
Die Diskussion hat doch mit dem AMD FX-6330 begonnen und ob dieser eine gute Wahl für eine Spiele-PC sei.

Ich persönlich würde sagen Nein das ist er nicht (mehr) aber einen I3 würde ich ebensowenig verbauen. Auch der taugt imo nicht (mehr). Dann lieber einen gebrauchten I5.

Passend dazu:

http://www.computerbase.de/thema/prozessor/rangliste/

Pirx
2016-02-02, 20:05:22
Tjo hier siehts doch mal wieder ganz gut aus für den FX, selbst FX4.

http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/#a4

aufkrawall
2016-02-02, 20:11:22
Wie soll ein 4Ghz Bdz mit 2 Modulen 58fps Minimum erreichen, wenn mein 4,6Ghz 2500k auf der gleichen Map auf bis zu 55fps einbrechen kann?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10931143&postcount=440

Kann ja sein, dass das Spiel Bdz gut liegt. Trotzdem erscheint mir der PCGH-Benchrun völlig banane für Aussagen über das tiefste CPU-Limit.
Ich teste nochmal eben ohne prerenderlimit 1, aber das hat bisher in keinem DX11 Spiel bei mir einen erwähnenswerten Unterschied bei der Performance gemacht.

Edit: Kein Prerenderlimit 1 macht keinen großen Unterschied. Einige Szenen laufen mit seltsamerweise sogar etwas schneller, andere etwas langsamer. Ich kam jetzt ohne auf ~59fps Minimum statt 55.

tdon
2016-02-02, 20:42:52
Tjo hier siehts doch mal wieder ganz gut aus für den FX, selbst FX4.

http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/#a4


Ziemlich GPU limitiert sieht das aus. Eine Aussage über die absolute Performance ist nicht möglich. Davon abgesehen wäre da ein alter 3 Ghz 4/4 Haswell schneller als ein 5 Ghz 8 Kern Bulldozer mit stark übertakteter NB. Ich finde das nicht berauschend.

Pirx
2016-02-02, 20:47:04
Weiß der Geier... tw. komische Resultate: http://www.techspot.com/review/1128-rise-of-the-tomb-raider-benchmarks/page5.html

Ein paar halbwegs echte Kerne sollte man wohl haben.

aufkrawall
2016-02-02, 20:51:43
Warum in aller Welt testet man mit zwei ziemlich verschieden schnellen GPUs, wenn man das CPU-Limit benchen will? :facepalm:@ PCGH
Teststelle nicht optimal für CPU-Limit, verschiedene GPUs, zu einem guten Teil offenbar im GPU-Limit getestet...

tdon
2016-02-02, 20:53:50
Weil sie das GPU Limit beim Intel mindern wollten nehme ich an, aber das ist immer noch deutlich GPU limitiert erscheint mir. Das bisschen GPU OC reicht da längst nicht aus.

dildo4u
2016-02-02, 20:59:34
Ich komm schon in 1080p locker ins CPU Limit,der FX muss hier mein AMDX6 komplett davon rennen oder PCGH testet keine besonders Harte Stelle.


https://mega.nz/#!ABMTFCjJ!H5NYomcDMtwa30cuGHg47znX3AtB6DDDGRRjAAtfBE0

aufkrawall
2016-02-02, 21:45:53
Weil sie das GPU Limit beim Intel mindern wollten nehme ich an
Das ist klar. Idealerweise sollte man aber auch mit dem Bdz eine GPU nehmen, die garantiert so wenig wie möglich bremst, und nicht stattdessen eine ~40% langsamere.
Wenn man schon die Titan X da hat und sie eben in den offenen Aufbau stecken kann...
Selbst wenn die gerade anderweitig im Einsatz war, kann man doch wohl dafür ein paar Stunden warten bzw. in der Zeit etwas anderes machen?

Video zur CPU-Testszene gibts auch keins?

Raff
2016-02-03, 08:48:50
Moin!

Vorweg: Es gibt bei PCGH keine "GPU-Szene" und "CPU-Szene", sondern einfach eine neue Szene: Soviet Worstbase. Das ist die im Video gezeigte Stelle (http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Videos/Rise-of-the-Tomb-Raider-Benchmark-Review-1185046/) auf einem Platz, mit KI, mit Partikeln, mit Speicherlast. Kurz: Da ist alles drin, was man so braucht, und somit eine Universalszene, ohne es gezielt auf eine Last angelegt zu haben. Laut Nutzerkommentaren gibt es aber noch schlimmere Szenen, Geothermale Quellen oder so. Dazu kann ich nichts sagen, da hier noch keiner so weit gespielt hat.

Warum in aller Welt testet man mit zwei ziemlich verschieden schnellen GPUs, wenn man das CPU-Limit benchen will? :facepalm:@ PCGH
Teststelle nicht optimal für CPU-Limit, verschiedene GPUs, zu einem guten Teil offenbar im GPU-Limit getestet...

Bei dem CPU-Test geht es in erster Linie darum, die Kernskalierung herauszuarbeiten, das steht ja auch drüber. ;) Der Quervergleich beider CPUs klappt zwar, wegen der unterschiedlichen GPUs (und PP-Details) aber nur eingeschränkt. Warum nicht in jedem PC eine Titan X OC steckt? Nun, ich fertige diese Skalierungen immer an meinen Privatrechnern an, das sind von mir gekaufte Teile – daher kann ich da nicht nach Belieben umbauen. Und will es auch nicht, die Kisten sollen nicht ständig zerpflückt werden. :)

MfG,
Raff

Deathcrush
2016-03-09, 11:02:05
The Division scheint wohl eines der ersten Spiele zu sein, die mit einem I3/Dualcore nicht laufen bzw sehr schlecht ;) So viel dazu das man dem Corei3 dem FX6xxx/FX8xxx vorziehen sollte.

Der FX mit 8 Kernen schlägt sich sehr gut

http://abload.de/thumb/1592tvewudm.jpg (http://abload.de/image.php?img=1592tvewudm.jpg)

http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Nutzer älterer und schmächtiger Prozessoren vom Schlage Core i3 müssen in The Division auf mittlere bis schwere Probleme gefasst sein. Mit vier CPU-Threads meldet das Spiel beim Start die Unterschreitung seiner Mindestanforderungen, läuft dann jedoch mehr oder minder - sofern Sie minutenlange Ladezeiten und ruckliges Streaming ertragen können. Mit nur zwei Kernen/Threads startete die Open Beta gar nicht erst - die Finalversion schon, wie wir im Nachtest überrascht feststellten. Was wir danach zu sehen bekamen, ist bislang einzigartig. Erwartet haben wir endlose Ladezeiten und niedrige Bildraten. Die haben wir auch bekommen, allerdings mit einem kuriosen Extra: Als wir uns durch die erste Messung geruckelt haben, rannte unser Alter Ego an eine unsichtbare Wand (siehe Bild). Ein echter Showstopper - das Spiel ist mit zwei Kernen auf einzigartige Weise unspielbar.

anddill
2016-03-09, 11:22:49
Jetzt wo der Ruf ruiniert ist kommt langsam die Software für die Bulldozer gemacht wurde. Und alle AMD-Besitzer brauchen den neuen Zen gar nicht mehr, weil die alte CPU endlich von der Leine gelassen wird.

iuno
2016-03-09, 11:28:41
Dass jemand der einen 3 oder 4-Moduler hat weniger Wechseldrang hat als ein i3-Nutzer ist klar. Trotzdem braucht ein hoch taktender 4 Moduler Unmengen an Strom und hat heute klare Limits, auch in Multithread-Anwendungen.
Ich denke man wird schon mit ordentlichem Zuwachs von BD auf Zen upgraden koennen. Es ist ja nicht so, dass 4-Moduler ersatzlos durch 4-Kerner ersetzt werden. Intel CPUs werden auch jedes jahr mit ein paar % Mehrleistung verkauft

Cyphermaster
2016-03-09, 11:50:39
Trotzdem braucht ein hoch taktender 4 Moduler Unmengen an StromDabei liegt aber auch ein deutlicher Fertigungs-Unterschied dazwischen, nicht nur Kernarchitektur.

iuno
2016-03-09, 12:40:44
Mir ist das klar, das aendert aber nichts daran und das hilft BD auch nicht mehr, weil das Design weggeschmissen wurde und keinen Weg in die FinFET Aera findet.

Menace
2016-03-09, 13:08:21
Ich wusste doch, dass sich mein Vishera nicht nur zum Rendern auszahlt. :biggrin: :wink:

Aber trotzdem wird eine wesentlich höhere Effizienz wichtig. Boinc liegt nämlich seit dem FX8350 etwas auf Eis. :(

dildo4u
2016-03-09, 13:56:00
Jetzt wo der Ruf ruiniert ist kommt langsam die Software für die Bulldozer gemacht wurde. Und alle AMD-Besitzer brauchen den neuen Zen gar nicht mehr, weil die alte CPU endlich von der Leine gelassen wird.
DX12 hilft zwar AMD aber es bleibt bei i3 = 8350.

http://www.computerbase.de/2016-02/ashes-of-the-singularity-directx-12-amd-nvidia/5/

Das ist schon extrem verschwenderisch was Strom angeht und was man dadurch wegkühlen muss kein Plan wie viel braucht ein skylake i3 50 Watt?

iuno
2016-03-09, 14:00:18
50 Watt? der i7-6700k hat eine TDP von 65 W, also glaube ich das eher nicht. Ist ja quasi ein "doppelter i3" mit hoeherem Takt

deekey777
2016-03-09, 15:47:10
The Division scheint wohl eines der ersten Spiele zu sein, die mit einem I3/Dualcore nicht laufen bzw sehr schlecht ;) So viel dazu das man dem Corei3 dem FX6xxx/FX8xxx vorziehen sollte.

Der FX mit 8 Kernen schlägt sich sehr gut

http://abload.de/thumb/1592tvewudm.jpg (http://abload.de/image.php?img=1592tvewudm.jpg)

http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Nutzer älterer und schmächtiger Prozessoren vom Schlage Core i3 müssen in The Division auf mittlere bis schwere Probleme gefasst sein. Mit vier CPU-Threads meldet das Spiel beim Start die Unterschreitung seiner Mindestanforderungen, läuft dann jedoch mehr oder minder - sofern Sie minutenlange Ladezeiten und ruckliges Streaming ertragen können. Mit nur zwei Kernen/Threads startete die Open Beta gar nicht erst - die Finalversion schon, wie wir im Nachtest überrascht feststellten. Was wir danach zu sehen bekamen, ist bislang einzigartig. Erwartet haben wir endlose Ladezeiten und niedrige Bildraten. Die haben wir auch bekommen, allerdings mit einem kuriosen Extra: Als wir uns durch die erste Messung geruckelt haben, rannte unser Alter Ego an eine unsichtbare Wand (siehe Bild). Ein echter Showstopper - das Spiel ist mit zwei Kernen auf einzigartige Weise unspielbar.

Die Mindestvoraussetzungen für das Spiel sind Intel Core i5-2400 oder AMD FX-6100. Wie kommen die auf i3 oder FX-4100?

Wie es aussieht, sollte man echten Vierkerner für das Spiel haben.

Gorkon
2016-03-11, 20:21:04
Ja ja, "AotS war nur ein Ausrutscher"...not :ugly:

http://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/#abschnitt_directx_12_auf_einem_amd_fx8370

Es riecht immer mehr nach 2. Frühling für AMD. Aber besser spät als nie.

Knuddelbearli
2016-03-11, 20:30:31
Naja nur wird ja der Bulldozer dadurch nicht besser sondern eine langsamere CPU allgemein eicht. Außerdem wie immer bei AMD leider viel zu spät. Wäre DX12 vor 2-3 Jahren gekommen wow ...
Und noch bereitet mir Dx12 sorgen wie man aktuelle dx12 spiele in 4-5 Jahren Spielen können wird. bereits heute patcht amd und nv auch ältere spiele immer mal wieder in ihre Treiber rein. Die Entwickler kümmert das aber nicht.

S940
2016-03-12, 12:26:08
Naja nur wird ja der Bulldozer dadurch nicht besser sondern eine langsamere CPU allgemein eicht. Außerdem wie immer bei AMD leider viel zu spät. Wäre DX12 vor 2-3 Jahren gekommen wow ...
Und noch bereitet mir Dx12 sorgen wie man aktuelle dx12 spiele in 4-5 Jahren Spielen können wird. bereits heute patcht amd und nv auch ältere spiele immer mal wieder in ihre Treiber rein. Die Entwickler kümmert das aber nicht.

Ja der BD-Dampfer ist abgefahren. Interessant wird es dann, wie die Spiele mit 8 Zen Kernen skalieren. Ob es dann vielleicht reicht vor nem 6700k zu sein?

Schlechter als BD kanns auf alle Fälle nicht werden ;)

dildo4u
2016-03-12, 12:41:20
Ja der BD-Dampfer ist abgefahren. Interessant wird es dann, wie die Spiele mit 8 Zen Kernen skalieren. Ob es dann vielleicht reicht vor nem 6700k zu sein?

Schlechter als BD kanns auf alle Fälle nicht werden ;)
Die CPU's sind so schnell das vorallem mit DX12 die GPU's limitieren werden.
So lange es keine neuen Konsolen gibt wird sich daran nicht viel ändern.

Raff
2016-04-10, 17:16:21
AMD Athlon X 845 mit Excavator-Kern im Test: Messlatte für Zen (http://www.pcgameshardware.de/Athlon-X4-845-CPU-261962/Tests/Excavator-Benchmarks-Test-1191570/)

Wenn man sich die durchaus beachtliche Leistung des verkrüppelten Excavators ansieht, ist es wirklich schade, dass es keinen Viermoduler für AM3+ geben wird. Ein CPU-Design hätte ja genügt, um das komplette Portfolio zu renovieren.

MfG,
Raff

Raff
2016-04-29, 12:57:57
Neue Hitman-Werte: http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Episode-2-Test-Benchmarks-DirectX-12-1193618/#a4

FX-8350 mit Nano (= schlechteste denkbare DX11-Leistung) legt unter DX12 im fiesen CPU-Limit um satte 60 Prozent zu. :up:

MfG,
Raff

dildo4u
2016-04-29, 13:11:29
Jup da wird einem richtig bewusst wie weit Intel eigentlich vorne ist wenn man sieht was der Skylake unter DX11 für FPS aus der Fury X holt.

Pirx
2016-05-26, 12:29:01
mittlerweile kann sich der FX schon mit Skylake anlegen:D (http://wccftech.com/fx-8370-i5-6400-gaming-comparison/)

dildo4u
2016-05-26, 13:27:15
CPU Test in 1440p,ich wette ein skylake i3 kommt da auch noch gut mit.

Selbst mit Games die gut skalieren wie Witcher 3,F1 2015 und AC Unity siehts düster aus FX 8370 hinter 2500k.

http://www.computerbase.de/2016-05/amd-a10-7860k-7890k-athlon-x4-880k-test/3/#abschnitt_spiele_720p

foenfrisur
2016-05-26, 14:16:32
sieh mal lieber genauer hin.
im gesamt-rating fehlt der i5-6500 komischerweise.
in den einzeltest ist selbst er auch hinter dem AMD zurück, wie bei wccftech ;)
dennoch ist der i5 auch nicht der bringer offenbar.

min-FPS ACU:
Intel Core i7-6700K
132%
Intel Core i7-4790K
132%
Intel Core i5-5675C
131%
Intel Xeon E3-1231 v3
127%
Intel Core i7-5820K
126%
Intel Core i7-2600K
126%
Intel Core i7-3770K
126%
Intel Core i5-4690K
123%
Intel Xeon E3-1230 v5
123%
Intel Core i5-6600K
119%
Intel Core i7-5930K
115%
AMD FX-8370
108%
Intel Core i5-2500K
104%
AMD FX-8350
104%
Intel Core i5-6500
100%

mfg

maximus_hertus
2016-05-26, 14:19:34
Gibt es eigentlich einen (aktuellen) Test der Fury (X) gegen die GTX 980 (Ti) auf einem FX Prozessor? Möglichst mit vielen unterschiedlichen Games, gerne auch aktuelle ;)

tdon
2016-05-26, 16:21:02
mittlerweile kann sich der FX schon mit Skylake anlegen:D (http://wccftech.com/fx-8370-i5-6400-gaming-comparison/)


Beim Testsystem steht i5-6500, ansonsten reden die vom i5-6400. Wie ernst kann man einen Test nehmen, der nichtmal eine klare Systembeschreibung hinbekommt. Des Weiteren frage ich mich, wie die einen gelockten i5 auf 4.6 Ghz übertaktet haben. Wenn sie es über BCLK OC erreicht haben, gehört das in den Test. Und dann machen einige Benchmarks kaum Sinn. Der i5 von Stock auf 4.6 Ghz gewinnt nur 2 fps von 57 auf 59 fps in GTA V. Jetzt könnte man meinen ok das ist GPU limitiert. Weit gefehlt, der FX-8370 schafft schon mit default Takt 68 fps. Und ganz allgemein taktet der i5-6400 nur mit 2.7-3.3 Ghz. Im OC Test ist der große Taktnachteil nicht vorhanden, trotzdem sieht der i5 nicht besser aus. Meiner Meinung nach sind die entweder völlig inkompetent, oder es ist ganz einfach ein Fake Test, um AMD besser aussehen zu lassen.

YfOrU
2016-05-26, 16:48:29
Ist auf jeden Fall BCLK OC mit einem i5-6400 da:

16GB G.SKILL TridentZ DDR4 3200Mhz
(When CPU is at 4.6Ghz Memory is at 2800Mhz)


Das bei den Benchmarks etwas überhaupt nicht passt hätte dem Autor auffallen müssen. Der i5-6400 @ Stock hat zwar eine vergleichsweise niedrige Taktfrequenz aber nie und nimmer erreicht ein FX-8370 die doppelten Minimum FPS. Nichtmal mit OC.

Ex3cut3r
2016-05-26, 17:24:15
mittlerweile kann sich der FX schon mit Skylake anlegen:D (http://wccftech.com/fx-8370-i5-6400-gaming-comparison/)

:biggrin:

Der Test ist genial, ein FX schlägt einen Syklake in den min FPS teilweise doppelt und das mit dem miserablen AMD DX11 der Fury ;D

http://cdn.wccftech.com/wp-content/uploads/2016/05/Star-Wars-Battlefront-1440p-Stock-Clocks-635x423.png

iuno
2016-05-26, 17:36:40
Das trifft halt nur auf ganz wenige Spiele zu. Es gibt ja da genausoviele Spiele, wo das eben nicht der Fall ist. Und der Verbrauch ist auch immer noch einfach mal doppelt so hoch.
Dass die alten FX durch vermehrtes Multithreading "langsamer altern" war ja absehbar. Eine Empfehlung kann man dafuer aber heute trotdzem keinesfalls mehr aussprechen.
Wen bei SR aber die versprochenen +40% IPC annaehernd rueberkommen und die Taktraten auch passen, wird das Ding richtig stark.

y33H@
2016-05-26, 17:45:36
Der sogenannte Test ist hinten wie vorne Murks und intransparent.

illidan
2016-05-26, 17:47:36
Wie erreicht man denn 42fps Minimum in Battlefront?
Die haben bei dem Intel wohl am Anfang die 1 vor den Werten weggelassen. :freak:

YfOrU
2016-05-26, 17:49:45
Zum Beispiel Star Wars Battlefront:
http://www.techspot.com/review/1096-star-wars-battlefront-benchmarks/page3.html
http://www.gamersnexus.net/game-bench/2199-star-wars-battlefront-cpu-benchmark-bottlenecks

Die Relation passt einfach nicht auch wenn der FX-8370 hier grundsätzlich eine ganz ordentliche Performance zeigt.

samm
2016-05-26, 18:28:27
miserablen AMD DX11 der FuryIch weine mich täglich in den Schlaf, es ist soo miserabel dieses AMD DX11 der Fury! :freak:

[edit]Der Test ist aber allerdings ähnlicher Quark wie das zitierte Posting.

Menace
2016-05-26, 18:50:33
Der sogenannte Test ist hinten wie vorne Murks und intransparent.

Wäre der FX nicht einfach zu alt, würde ich ja sagen, man kann es -wie es die Naturwissenschaften aufzeigen- gegentesten.

Ich lehne mich trotzdem nach wie entspannt mit meinem FX zurück. Noch war jedes Spiel, das ich spielen wollte und 1440er Auflösung spielbar.

Ex3cut3r
2016-05-26, 21:22:54
Der Test ist aber allerdings ähnlicher Quark wie das zitierte Posting.

Warum? Noch nie was vom abscheuchlichen DX11 von AMD im Vergleich zu Nvidia gehört? Was denkst du warum AMD plötzlich mit DX12 nach oben schießt? :rolleyes:

tdon
2016-05-26, 21:50:15
Das hat mit dem blödsinnigen Test überhaupt nichts zu tun, vergiss das schnell wieder.

Hacki_P3D
2019-01-23, 14:53:35
Sammelklage gegen AMD - Haben Bulldozer-CPUs acht Kerne oder nicht?

https://www.golem.de/news/sammelklage-gegen-amd-haben-bulldozer-cpus-acht-kerne-oder-nicht-1901-138920.html

Leonidas
2019-01-23, 17:04:28
Wenn die Verteidigung es richtig aufzieht, faktisch nicht zu verlieren. Die Software erkennt es als Achtkerner, insbesondere alle Windows- und Linux-Versionen. Das sollte man als entscheidendes Argument bringen.

unl34shed
2019-01-23, 17:33:43
Das wurde irgendwann in Win10 geändert, da taucht es mit 4 Kernen und 8 logischen Prozessoren auf.

Das steht und fällt damit wie technikaffin die Laien sind...

BlackArchon
2019-01-23, 18:15:16
1. Wenn ich ein AMD-Anwalt wäre, würde ich dieses Umschwenken von Microsoft, plötzlich nur noch 4 Kerne/8 Threads anzuzeigen, als weiteres Indiz dafür werten, dass es keine allgemein anerkannte Definition gibt, was ein "Kern" genau ist.
2. Der Kern- und Thread-Anzeige in Windows 10 bei den Bulldozer-CPUs scheint sowieso ein Algorithmus zugrunde zu liegen, den ich nicht verstehe. FM2+-CPUs werden bei mir als 4 Kerne/4 Threads angezeigt, dabei haben die 2 Module. Ebenso ist die angezeigte Größe des L2-Caches auch kein von der CPU ermittelter Wert, sondern wohl ein Wert aus einer Windows-internen Datenbank. Anders kann ich mir nicht erklären, warum bei manchen meiner Richland- und Carrizo-basierten CPUs dort falsche Größen angezeigt werden. Von daher ist die Anzeige der CPU-Parameter unter Windows 10 ziemlich phantasievoll.

Pirx
2019-01-23, 18:42:14
tjo dann soll ein 386er wohl ein 0,5-Kerner sein?

SKYNET
2019-01-23, 18:46:35
1. Wenn ich ein AMD-Anwalt wäre, würde ich dieses Umschwenken von Microsoft, plötzlich nur noch 4 Kerne/8 Threads anzuzeigen, als weiteres Indiz dafür werten, dass es keine allgemein anerkannte Definition gibt, was ein "Kern" genau ist.
2. Der Kern- und Thread-Anzeige in Windows 10 bei den Bulldozer-CPUs scheint sowieso ein Algorithmus zugrunde zu liegen, den ich nicht verstehe. FM2+-CPUs werden bei mir als 4 Kerne/4 Threads angezeigt, dabei haben die 2 Module. Ebenso ist die angezeigte Größe des L2-Caches auch kein von der CPU ermittelter Wert, sondern wohl ein Wert aus einer Windows-internen Datenbank. Anders kann ich mir nicht erklären, warum bei manchen meiner Richland- und Carrizo-basierten CPUs dort falsche Größen angezeigt werden. Von daher ist die Anzeige der CPU-Parameter unter Windows 10 ziemlich phantasievoll.


ich würde einfach sagen "zu dem zeitpunkt des erscheinens(also win 7) waren die CPUs physikalische wie logische octacore CPUs" punkt.

Rooter
2019-01-23, 18:47:12
Helft mir mal bitte kurz auf die Sprünge, ich habe das mit dem Bulldozer nicht mehr so auf dem Schirm... Die Kerne sind vollständig bis auf die FPU und es teilen sich je zwei Kerne eine FPU. Richtig so?

MfG
Rooter

unl34shed
2019-01-23, 19:10:09
FPU, L1D, L2 und Decoder werden geteilt.

BlackArchon
2019-01-23, 19:15:10
Solange es keine anerkannte klare Definition gibt, was ein "Kern" genau ist, können alle Parteien wunderbar herumeiern. Was für eine Verschwendung von Zeit und Geld, diese Klage...

mczak
2019-01-23, 20:59:23
FPU, L1D, L2 und Decoder werden geteilt.
Nicht der L1D, aber der L1I (samt den TLBs). Ab Steamroller ist auch der Decoder nicht geteilt (Fetch aber schon). Branch Predictor (und BTB) ist auch geshart.

Skysnake
2019-01-23, 22:14:30
Es gibt eine Definition! Sollte jeder Informatiker direkt am Anfang lernen.

Z.b. auf Wikipedia https://de.m.wikipedia.org/wiki/Prozessorkern

=Floi=
2019-01-24, 00:43:03
Solange es keine anerkannte klare Definition gibt, was ein "Kern" genau ist, können alle Parteien wunderbar herumeiern. Was für eine Verschwendung von Zeit und Geld, diese Klage...

ich finde sie gut und richtig!
Es kam in den seltensten fällen auch 8 core leistung zustande und unterm strich hätte man gleich mehr ganze kerne verbauen können.
Fängt einer damit an, haben wir bald nur noch fake werte. Das könnte intel doch genau so machen.


Es gibt eine Definition! Sollte jeder Informatiker direkt am Anfang lernen.

Z.b. auf Wikipedia https://de.m.wikipedia.org/wiki/Prozessorkern

und deine persönliche meinung dazu?

unl34shed
2019-01-24, 07:43:26
Was soll denn 8 core Leistung sein?
Wo sind die klagen gegen Intel, deren Quad core atom ist auch langsamer als ein dual core i3... Nur weil es mehr Kerne hat muss es nicht schneller sein.

Gipsel
2019-01-24, 08:37:52
und deine persönliche meinung dazu?Nach der dort gegebenen Definition enthält ein Bulldozer-Modul natürlich 2 Kerne. Im klassischen Sinne sind es auch einfach zwei Kerne. Die Klage sollte eigentlich schon nach Anhören des allerersten Sachverständigen vor Gericht erledigt sein. Aber es gibt ja viele Beispiele, in denen Gerichte schlicht sachlich falsche Entscheidungen getroffen haben, weswegen man die Klage vielleicht nicht auf die ganz leichte Schulter nehmen sollte.

deekey777
2019-01-24, 09:08:17
Es gibt eine Definition! Sollte jeder Informatiker direkt am Anfang lernen.

Z.b. auf Wikipedia https://de.m.wikipedia.org/wiki/Prozessorkern
Ist es wirklich eine anerkannte allgemeine Definition, nur weil es auf Wikipedia steht? Und galt sie noch zum Zeitpunkt der Veröffentlichung der Bulldozer-Generation im Herbst 2011? Ich meine mich zu erinnern, dass in vielen Tests dem 8100er Bulldozer der Status eines Achtkernprozessors nicht zugesprochen wurde.
https://www.golem.de/1110/86974-2.html

Je zwei dieser Integer-Einheiten fasst AMD zu einem sogenannten "Modul" zusammen. Gegenüber dem Betriebssystem melden sich die Integer-Einheiten wie ein herkömmlicher Kern - die größten Bulldozer verhalten sich also wie eine Achtkern-CPU, die es bisher für Desktop-PCs nicht gab.

Gemessen an anderen Prozessoren sind die Bulldozer aber keine Octo-Cores. Pro Modul gibt es nur einen Scheduler für Gleitkommaberechnungen, der die Arbeit auf zwei entsprechende Einheiten verteilt - sie bilden gemeinsam die FPU. Diese kann zwar 128 Bit breite Befehle und Daten verarbeiten, ist jedoch in zwei 128-Bit-Teilen ausgeführt. Daher gibt es pro Modul effektiv nur eine 256-Bit-Einheit.

Rooter
2019-01-24, 10:13:11
Fängt einer damit an, haben wir bald nur noch fake werte. Das könnte intel doch genau so machen.Stimmt, das wurde echt epidemisch in den letzten 7 Jahren, seit AMD damit angefangen hat...
:|

Was soll denn 8 core Leistung sein?
Wo sind die klagen gegen Intel, deren Quad core atom ist auch langsamer als ein dual core i3... Nur weil es mehr Kerne hat muss es nicht schneller sein.+1

MfG
Rooter

Gipsel
2019-01-24, 10:17:01
Ist es wirklich eine anerkannte allgemeine Definition, [..]Was Golem schreibt, ist doch völlig irrelevant (und bezüglich der FPU auch etwas irreführend). Man schaue in ein Lehrbuch für Rechnerarchitektur und die Diskussion ist vorbei. Sollte zumindest so sein.

][immy
2019-01-24, 10:23:33
Was Golem schreibt, ist doch völlig irrelevant (und bezüglich der FPU auch etwas irreführend). Man schaue in ein Lehrbuch für Rechnerarchitektur und die Diskussion ist vorbei. Sollte zumindest so sein.
bei Golem hatte auch jemand passend angemerkt, was dann mit den ARM Octa-Cores ist die man überall findet.
Es sind zwar 8 Kerne verbaut, allerdings immer nur 4 aktiv, je nach Energieprofil.

Aber nunja, es gibt wie immer in den USA klagen, da kann man nur mit dem Kopf schütteln. Vor einem Geschworenen-Gericht wird das vermutlich auch noch zur Verurteilung kommen, da die "böse böse Firma" in der Vergangenheit es gewagt hat, sei Produkt vielleicht etwas besser zu bewerben, als es im Verhältnis zur Konkurrenz angemessen gewesen wäre. Das Land der unbegrenzten Möglichkeiten halt.

SKYNET
2019-01-24, 11:24:50
ich finde sie gut und richtig!
Es kam in den seltensten fällen auch 8 core leistung zustande und unterm strich hätte man gleich mehr ganze kerne verbauen können.
Fängt einer damit an, haben wir bald nur noch fake werte. Das könnte intel doch genau so machen.




und deine persönliche meinung dazu?

was hat die anzahl der kerne mit leistung zutun? nen 2700X mit 1GHz wird in jeder lebenslage langsamer sein, als nen 1500X mit 4GHz... genau so wie nen 3770k langsamer ist als nen 1500X, obwohl beide 3900MHz boost haben, bedingt durch unterschiedliche architekturen.

unl34shed
2019-01-24, 11:32:38
[immy;11908686']bei Golem hatte auch jemand passend angemerkt, was dann mit den ARM Octa-Cores ist die man überall findet.
Es sind zwar 8 Kerne verbaut, allerdings immer nur 4 aktiv, je nach Energieprofil.

Klingt komisch, hast du einen Link?

bnoob
2019-01-24, 11:53:14
https://en.wikipedia.org/wiki/ARM_big.LITTLE

deekey777
2019-01-24, 12:21:31
Was Golem schreibt, ist doch völlig irrelevant (und bezüglich der FPU auch etwas irreführend). Man schaue in ein Lehrbuch für Rechnerarchitektur und die Diskussion ist vorbei. Sollte zumindest so sein.
Lehrbuch von wann?

Irgendwie scheint ihr das Problem nicht zu verstehen: In der Klage geht es nicht darum, ob ein Modul = 2 Kerne ist, sondern darum, dass sich Käufer von AMD getäuscht fühlen, sie hätten ihrer Vorstellung nach "echte" Achtkerner erworben, wie es von AMD ausdrücklich beworben worden ist.

Der Artikel von Golem ist nur ein Beispiel (und sie sind nicht die einzigen), in dem sie dem FX das Prädikat eines echten Achtkerners absprechen. Die Argumentation, ein Blick in ein Lehrbuch reicht aus, zu beweisen, dass die Kläger Vollpfosten sind und der Richter sowieso, ist Überheblichkeit pur und zeugt vom Unverstädnis.

Man kann genauso argumentieren, dass AMD die techsnische Unkenntnis ihrer potentiellen Kunden ausnutzte und den FX-8100 als Achtkerner verkauft, weil in jedem Modul mindestens 2 X-Einheiten sind, und jede dieser X-Einheiten als Prozessorkern nach irgendeiner Definition zu betrachten sind, obwohl von der wichtigen Y-Einheit nur eine pro Modul verbaut ist.

Savay
2019-01-24, 12:29:11
Die Argumentation, ein Blick in ein Lehrbuch reicht aus, zu beweisen, dass die Kläger Vollpfosten sind und der Richter sowieso, ist Überheblichkeit pur und zeugt vom Unverstädnis.

Unverständnis dafür das diese Klage primär auf einer emotionalen anstelle einer technischen Einschätzung beruht?

Auf Grundlage einer gefühlten Eigenschaft/art lässt sich nur ehrlich gesagt schlecht sachlich Argumentieren!
Das hat am Ende auch nichts mit Überheblichkeit zu tun, sondern mit purer Logik.

Die Frage ist aber am Ende eh ob vor Laien sachliche Argumente überhaupt verfangen!

unl34shed
2019-01-24, 13:21:07
Man kann genauso argumentieren, dass AMD die techsnische Unkenntnis ihrer potentiellen Kunden ausnutzte und den FX-8100 als Achtkerner verkauft, weil in jedem Modul mindestens 2 X-Einheiten sind, und jede dieser X-Einheiten als Prozessorkern nach irgendeiner Definition zu betrachten sind, obwohl von der wichtigen Y-Einheit nur eine pro Modul verbaut ist.

Die Y-Einheit ist in dem Fall die FPU und diese ist ein co-Prozessor der float Berechnungen beschleunigt. Diese Berechnungen kann man auch auf den int Kernen ausführen, dauert nur Faktor x länger. Es gibt vermutlich sogar mehr Prozessoren, die gar keine FPU besitzen, halt im embedded Bereich und nicht im PC. Haben die dann keine Kerne?

Der_Korken
2019-01-24, 13:56:49
Blöde Situation. Ich stelle mir gerade vor, wie demnächst ein Core mit SMT als zwei Cores durchgehen, weil man es als ein Modul definiert, wo 95% der Ressourcen zwischen beiden "Kernen" shared sind. Auf der anderen Seite will AMD sicherlich auch den Vergleich scheuen, denn sonst kommt irgendwann jeder Bulldozer-Besitzer an und will Geld von AMD. Oder die suchen sich irgendwelche anderen Spitzfindigkeiten raus und machen da weiter.

unl34shed
2019-01-24, 14:04:19
Es geht um physikalisch vorhandene Kerne und davon hast du bei SMT genau einen.

Gipsel
2019-01-24, 14:18:31
Lehrbuch von wann?Das steht so oder ähnlich in so ziemlich Allen seit Anbeginn der Zeit bis jetzt.
In der vierten Edition des praktischen Standardwerks zu dem Thema (Hennessy, "Computer Architecture: A quantitative Approach") wird z.B. sogar der Sun T1 im Detail betrachtet. Und dort gibt es 8 Integer-Kerne, die sich alle den L2 und eine einzige FPU teilen.
Also sachlich gesehen besteht überhaupt kein Zweifel, daß die Bulldozer-Kerne wirklich im klassischen Sinne Kerne sind. Die geteilten Resourcen sind nicht wirklich wesentlich für einen Kern. Ein Kern funktioniert im Zweifelsfall auch ohne Branch Prediction oder L1-I oder auch ohne FPU (der schon als Beispiel gebrachte 386er hatte nichts davon; der P4 hatte übrigens auch keinen normalen L1-I, der Decoder war direkt mit dem L2 verbunden). Und bei jedem Multicore-Chip gibt es geteilte Resourcen. Sei es der L2 oder L3 (früher gab es ja geteilten L2), Speichercontroller oder sonstwas. Das sind aber Alles keine integralen Bestandteile eines Kerns. Die FPU hatte bei AMD schon immer einen eigenen Scheduler und funktionierte praktisch wie ein Coprozessor (auch wenn es eine pro Kern gibt). Das daran festzumachen, wäre auch totaler Blödsinn.
Irgendwie scheint ihr das Problem nicht zu verstehen: In der Klage geht es nicht darum, ob ein Modul = 2 Kerne ist, sondern darum, dass sich Käufer von AMD getäuscht fühlen, sie hätten ihrer Vorstellung nach "echte" Achtkerner erworben, wie es von AMD ausdrücklich beworben worden ist.AMD hat das Funktionsprinzip der Module schon vor der Veröffentlichung mehrfach präsentiert. Wenn jemand argumentiert, daß die (sachlich richtige!) Präsentation als 8-Kerner irreführend sei und sie sich was Anderes erwartet hätten, dann müßten die maximal wegen Blödheit davongejagt werden.
Wie schon jemand schrieb, hat die Klage keine sachliche Basis. Und nur aufgrund von "gefühlten Fakten" Prozesse anzustrengen ist halt nicht mein Ding (aber wir sind ja im "post truth" Zeitalter :rolleyes:). Daß das zuweilen anders läuft (übrigens nicht nur in den USA, aber da ist das vielleicht noch etwas ausgeprägter), habe ich ja bereits zu bedenken gegeben.
Der Artikel von Golem ist nur ein Beispiel (und sie sind nicht die einzigen), in dem sie dem FX das Prädikat eines echten Achtkerners absprechen. Die Argumentation, ein Blick in ein Lehrbuch reicht aus, zu beweisen, dass die Kläger Vollpfosten sind und der Richter sowieso, ist Überheblichkeit pur und zeugt vom Unverstädnis.Der Richter hat überhaupt nichts, wirklich rein gar nichts über die eigentlichen Fakten gesagt. Es wurde lediglich die Definition der eventuell anspruchsberechtigten Klasse für die Sammelklage (engl. "class action lawsuit"), also die Definition der Gruppe der vertretenen Personen vom Gericht abgenickt. Damit ist über die Argumentation in der Sache noch gar nichts entschieden. Wie auch, die entsprechenden Argumente wurden von den beiden Seiten ja noch nicht einmal präsentiert. :rolleyes:
Insofern solltest Du vielleicht noch einmal überdenken, auf welcher Seite hier das Unverständnis liegt. ;)
Man kann genauso argumentieren, dass AMD die techsnische Unkenntnis ihrer potentiellen Kunden ausnutzte und den FX-8100 als Achtkerner verkauft, weil in jedem Modul mindestens 2 X-Einheiten sind, und jede dieser X-Einheiten als Prozessorkern nach irgendeiner Definition zu betrachten sind, obwohl von der wichtigen Y-Einheit nur eine pro Modul verbaut ist.Wenn das Vorhandensein einer Einheit Y (FPU) nach allgemeinem Verständnis der Fachkundigen (da werden sicher Sachverständige zu gehört) für einen Kern nicht zwingend erforderlich ist, dann gibt es immer noch keinen wirklichen Aussicht auf Erfolg. Sie haben die Eigenschaften des Prozessors nicht falsch repräsentiert. Die Kläger haben die maximal aus Unkenntnis falsch interpretiert. Aber wenn jeder Idiot Geld von Firmen mit der Begründung: "Ich habe das nicht überblickt, was die gesagt haben" fordern kann, na dann gute Nacht. Es gibt schon genügend Blödsinn (vor Allem in den USA [Kaffee ist heiß? Habe ich nicht gewußt!]), aber irgendwo sollte man auch mal eine Grenze ziehen. Es verklagt ja auch keiner die Autohersteller wegen irreführender Angaben, weil irgendwo 150 PS dran steht, aber ein Pferd (zumindest kurzfristig) erheblich mehr als 1 PS leisten kann (ein gut trainierter Mensch kommt sehr kurzfristig schon auf über 2 PS).

SKYNET
2019-01-24, 14:40:30
achmei, die verhandlung wird sich eh über mindestens nen jahr hinziehen...

wenn AMD schlau ist, gibt sie jedem aus der sammelklage nen TR2950X samt mobo und dann freuen die sich nen loch...

y33H@
2019-01-24, 15:34:36
Der Artikel von Golem ist nur ein Beispiel (und sie sind nicht die einzigen), in dem sie dem FX das Prädikat eines echten Achtkerners absprechen.Eine FPU war früher nicht notwendig, heute für angemessene Performance schon und Gleitkomma-Einheiten sind seit Jahrzehnten vorhanden. Insofern verstehe ich Leute, die sagen, es sei kein Achtkerner, ich persönlich sehe ihn als solchen.

Rooter
2019-01-24, 16:08:57
Eine FPU war früher nicht notwendig, heute für angemessene Performance schon und Gleitkomma-Einheiten sind seit Jahrzehnten vorhanden. Insofern verstehe ich Leute, die sagen, es sei kein Achtkerner, ich persönlich sehe ihn als solchen.Genauso sehe ich es auch. Zumal AMD lange vor Marktstart kommuniziert hat wie der Bulldozer aufgebaut ist und ich dachte mir damals noch: "Interessante Idee, mal sehen ob das Sinn macht."
Machte es nicht, wie wir inzwischen wissen... X-D

MfG
Rooter

Benutzername
2019-01-24, 19:36:34
Genauso sehe ich es auch. Zumal AMD lange vor Marktstart kommuniziert hat wie der Bulldozer aufgebaut ist und ich dachte mir damals noch: "Interessante Idee, mal sehen ob das Sinn macht."
Machte es nicht, wie wir inzwischen wissen... X-D

MfG
Rooter

Kommt ganz auf die Anwendung an. Wenn man mehr Festkomma braucht, ist das toll. Dumm nur, daß Gleitkomma wichtiger für die meisten Spiele ist.

Benutzername
2019-01-24, 19:38:21
Eine FPU war früher nicht notwendig, heute für angemessene Performance schon und Gleitkomma-Einheiten sind seit Jahrzehnten vorhanden. Insofern verstehe ich Leute, die sagen, es sei kein Achtkerner, ich persönlich sehe ihn als solchen.

FPU war einfach zu teuer, weswegen sie weggelassen wurde. Ein intel 80287 oder einer der kompatiblen Alternativen von TI und anderen, haben manchmal fast mehr gekostet als der restliche Computer. Benutzt hätte man die shcon gerne, war aber einfach zu teuer.

Skysnake
2019-01-24, 22:42:53
@Gipsel
Die FPU ist völlig egal, genau wie branchprediktion etc.

Was aber durchaus fragwürdig ist ist der gesharte decoder.

Das ist aber was total anderes was sonst hier angeführt wird....

gravitationsfeld
2019-01-24, 23:37:25
Kommt ganz auf die Anwendung an. Wenn man mehr Festkomma braucht, ist das toll. Dumm nur, daß Gleitkomma wichtiger für die meisten Spiele ist.
Keins der beiden ist wichtiger. CPU-Game-Code hat jede Menge int.

Rooter
2019-01-24, 23:48:05
Kommt ganz auf die Anwendung an. Wenn man mehr Festkomma braucht, ist das toll.Klar, aber welche Zeitaufwändige Anwendung nutzt schon wenig bis gar kein Fließkomma?
- Spiele nicht.
- A/V-Encoder auch nicht.
- Packer vielleicht!? :uponder:

MfG
Rooter

gravitationsfeld
2019-01-25, 04:04:58
Ich glaube kaum, dass der FP-Durchsatz das Problem bei Bulldozer war wenn es um Spiele geht.

BlackBirdSR
2019-01-25, 07:31:52
@Gipsel
Die FPU ist völlig egal, genau wie branchprediktion etc.

Was aber durchaus fragwürdig ist ist der gesharte decoder.

Das ist aber was total anderes was sonst hier angeführt wird....


Ist es das? Wie schon bei SMT kann der Decoder entweder für einen Core oder den anderen Arbeiten.
Dadurch ist es eine völlig legitim geteilte Einheit, die zeitlich abhängig Zugehörigkeit wechselt.
Auch hier hast Du zwei unabhängig arbeitende Kerne.

Gipsel
2019-01-25, 11:08:21
@Gipsel
Die FPU ist völlig egal, genau wie branchprediktion etc.

Was aber durchaus fragwürdig ist ist der gesharte decoder.Das ist insofern richtig, als daß die Argumentation etwas komplizierter wird. Aber Decoder sind ebenfalls nicht wirklich für einen Kern nötig. Es gibt z.B. Prozessoren, die nichts besitzen, was man als Decoder bezeichnen könnte. Die Befehle werden dort direkt ausgeführt.
Weiterhin übersetzen die Decoder der heutigen x86er-CPUs im Prinzip den x86/x64-Befehlssatz in einen hersteller- und modellspezifischen "internen" Befehlssatz (die berühmten µOps). Die eigentlichen Kerne, führen diesen Befehlssatz aus. Die µOp-Caches der neueren CPUs entkoppeln ja sogar die Decoder-Stage mit dem zwischengeschaltenen Cache (der die Instruktionen im nativen Format für die Kerne enthält) möglichst weitgehend von den dahinterliegenden CPU-Kernen (Extremfall war wohl der P4). Die Decoder sind praktisch dazu da, die Kompatibilität zum x86er-Befehlssatz zu sichern (ohne die Decoder sind es immer noch Kerne, aber vielleicht keine x86er-Kerne mehr ;)).

Bully
2019-01-26, 23:12:30
BTW: Ich habe mir aus Spaß an der Freud letzte Woche nen FX-8350 für kleines Geld gekauft. So schlecht ist der gar nicht muss ich sagen. Forza 7 läuft mit 60FPS und die Response des PCs ist sehr gut.

bnoob
2019-01-27, 03:24:03
VMs haben auf meinem 8350 auch mehr Spaß gemacht als auf meinem Ryzen 1600 danach. Rendering hat Spaß gemacht. Packing hat Spaß gemacht.

Und Frostbite Spiele sind durchgehend besser als auf Intel 4C4T gelaufen.

Der FX hatte durchaus seine Usecases, aber hier wird mal wieder so getan, als hätte es schon zu Release keinen Grund gegeben, ihn zu kaufen...

Bully
2019-01-27, 10:25:52
Hitzeprobleme sind mir jetzt auch nicht aufgefallen. Der Phenom X6 wurde heißer. Wohl auch weil der X6 eine höhere Prozessorauslastung hat.

y33H@
2019-01-27, 11:19:10
Die Sensoren-Werte sind nicht vergleichbar.

Bully
2019-01-27, 11:44:36
Weshalb?

y33H@
2019-01-27, 12:41:21
Weil du nicht weißt, wo welche Sensoren was auslesen, ggf Offset usw.

Bully
2019-01-27, 13:25:56
Naja..aufs Grad genau ist ja auch nicht notwendig

bnoob
2019-01-28, 09:02:11
Da geht es dann auch mal um 15-20 Grad

Hacki_P3D
2020-04-23, 14:09:44
News:

AMD entschädigt Bulldozer-Käufer mit 30-US-Dollar
https://www.golem.de/news/cpu-sammelklage-amd-entschaedigt-bulldozer-kaeufer-mit-30-us-dollar-2004-148046.html

Raff
2020-04-23, 14:59:14
Passend dazu: der8auer taktet AMD FX-8350 auf über 8 GHz (https://www.pcgameshardware.de/Overclocking-Thema-98540/News/AMD-FX-8350-auf-ueber-8-GHz-gebracht-1348569/)

... falls die CPU beim Rekord-OC in Flammen aufgeht, kann man ja bei AMD noch klagen und 30 Dollar einsacken. :ulol: Verrückte Welt. Selbst schuld, wer keine gescheiten Tests liest und einfach irgendwas kauft.

MfG
Raff

Benutzername
2020-04-24, 00:23:02
Passend dazu: der8auer taktet AMD FX-8350 auf über 8 GHz (https://www.pcgameshardware.de/Overclocking-Thema-98540/News/AMD-FX-8350-auf-ueber-8-GHz-gebracht-1348569/)


Ist auch das einzige was der FX wirklich gut kann. Hoch takten. Und Tee mit dem Kühlwasser machen. :biggrin:


... falls die CPU beim Rekord-OC in Flammen aufgeht, kann man ja bei AMD noch klagen und 30 Dollar einsacken. :ulol: Verrückte Welt. Selbst schuld, wer keine gescheiten Tests liest und einfach irgendwas kauft.

MfG
Raff


Das ist ein einzelner Gerichtsprozess, in einer kleinen Jurisdiktion in Kalifornien. Das jetzt aufzublasen es wäre gerichtlich erwiesen AMD hätte gelogen übertreibt maßlos. dienkläger hatten einfach einen guten Anwalt der den Richter und Jury überzeugt hat. nach der Logik könnte man für eine Menge Prozessoren Geld zurückbekommen. so mancher Dualcore war auch nicht so dual (Pentium D zB), oder hatten auch weniger FPUs (diverse Xeons über die Jahre). Und naja, Technik und Richter sind sowieso zwei Welten. Siehe Berliner Amtsgericht als denen da letztens alles um die Ohren geflogen ist. Und zt immernoch Win95 Rechner liefen...

RavenTS
2020-04-24, 09:09:41
Ist auch das einzige was der FX wirklich gut kann. Hoch takten. Und Tee mit dem Kühlwasser machen. :biggrin:
...


Leider ja eher nicht: wäre er nicht bei rund 4 GHz stecken geblieben bzw. hätte alles darüber hinaus nicht soviel Leistung verschlungen (siehe Centurion) wären die FXe (5-6 GHz) sicherlich nicht ganz so schlecht dagestanden...

Benutzername
2020-04-25, 00:27:25
Leider ja eher nicht: wäre er nicht bei rund 4 GHz stecken geblieben bzw. hätte alles darüber hinaus nicht soviel Leistung verschlungen (siehe Centurion) wären die FXe (5-6 GHz) sicherlich nicht ganz so schlecht dagestanden...

Ja, dafür war Netburst auch gedacht gewesen. Schon ironisch wie sowohl AMD als auch Intel beide mal aufs falsche Pferd gesetzt haben und die Hoffnungen auf hohe Takte sich nicht einstellen wollten. :biggrin:

y33H@
2021-09-10, 18:44:37
Ich hab was ausgegraben für den 14 Oktober :ulol:

76704 76701 76702

Freestaler
2021-09-10, 18:50:25
14.10, 5950 vs 9590? Oder was geht am 14.10?

y33H@
2021-09-10, 18:53:15
Da wird Bulldozer ein Jahrzehnt alt, ergo hab ich FX-8150 / FX-8370 / FX-9590 wieder aus dem Archiv geholt =)

Freestaler
2021-09-10, 18:57:14
Cool, freu ich drauf. Teaser at golem gibts aber nicht. Wäre das was, also Teaser zu tests? Zumindest diesesmal wirds ja keine NDA geben ;-)

y33H@
2021-09-10, 18:58:53
Teaser in dem Sinne gab's bisher nur im Rahmen von Unboxing, aber via Social Media machen wir das - ist allerdings noch Zeit paar Wochen ^^

Freestaler
2021-09-10, 19:10:23
Sorry bin nur PUR und kein sozialmedia ;-).

konkretor
2021-09-13, 11:57:51
Ich hab was ausgegraben für den 14 Oktober :ulol:

76704 76701 76702


Nicht auspacken!!!!!111

Da blutet mir das Sammler Herz

y33H@
2021-09-13, 13:08:47
Was zahlst du? =)

konkretor
2021-09-13, 17:11:52
Nen fuffi wärs mir wert mehr aber nicht

Bei Buldozer schwingt halt nichts gutes mit oder ist was besonderes außer beim Strom raus hauen

Ex3cut3r
2021-09-13, 21:20:58
Seh ich genau so, wie heftig Buldozer gegen Ivy oder Haswell heut zu tage in Spielen abkackt, ist schon wirklich heftig, wars damals auch schon. Aber heute ist es IMO nochmal extremer.

y33H@
2021-09-14, 19:17:54
Also die bisherigen Werte hier sehen eher eine verkürzte Distanz, dennoch kein Hit.

bnoob
2021-09-15, 12:20:53
Einfach ausschließlich Frostbyte Spiele testen :D

y33H@
2021-10-12, 12:46:17
Soa, da wären wir:

https://www.golem.de/news/fx-8150-8370-9590-im-retro-test-so-schnell-ist-amds-bulldozer-heute-2110-159505.html

https://www.golem.de/2110/159505-295479-295476.jpg

Ex3cut3r
2021-10-12, 19:37:24
Danke für deine Mühe. Bestätigt mich aber, dass Bulldozer und auch Vishera, absoluter Mist waren. Sandy mit 5Ghz und DDR3 Subtiming Tuning hat Kreise in Spielen um die gemacht.

Bei Ivy und Haswell speziell war der Unterschied nochmal größer. Kein Wunder das AMD fast einpacken musste mit diesem Produkt. Gott sei dank, hat Ryzen nochmal das Ruder rumgerissen, aber es war Haarknapp, zumindest für die CPU Sparte.

gedi
2021-10-12, 20:00:45
Danke für deine Mühe. Bestätigt mich aber, dass Bulldozer und auch Vishera, absoluter Mist waren. Sandy mit 5Ghz und DDR3 Subtiming Tuning hat Kreise in Spielen um die gemacht.

Bei Ivy und Haswell speziell war der Unterschied nochmal größer. Kein Wunder das AMD fast einpacken musste mit diesem Produkt. Gott sei dank, hat Ryzen nochmal das Ruder rumgerissen, aber es war Haarknapp, zumindest für die CPU Sparte.

Ich denke hier hätte es auch P4 mit Sram getan um dem Bulli Beine zu machen. Mich würde mehr die Skalierung zwischen Fx-CPUs und dem Bulli-Crab interessieren…

Trotzdem haben sie das Problem mit Ryzen gefixt und da wir uns spätestens ab 1440p im GPU-Limit bewegen … Kann mich aufgrund der Mehrkosten an CPU, Mobo und Ram nicht begeistern. Weder AL noch RZ5 sind hier annähernd eine Option

Dino-Fossil
2021-10-12, 23:41:24
Ach ja, Bulldozer...
Ein Vergleich des relativen Performance-Abstands Bulldozer vs Sandy Bridge damals vs heute wäre im Artikel noch interessant gewesen.

So rein interessehalber hätte ich ja schon auch gerne mal gesehen, wie ein echter Desktop-Ableger von Excavator im Vergleich zu Bulldozer und Piledriver abgeschnitten hätte. Aber vermutlich wusste AMD warum sie nie einen gebracht haben...

Denniss
2021-10-13, 08:52:07
testen könnte man die letzte APU-Generation auf AM4 gegen einen vergleichbaren Pentium

Freestaler
2021-10-13, 08:56:05
Bulli war und bleibt ein Trauerspiel. Danke für den Test!

pilzsammler2002
2021-10-13, 09:28:30
Also die APUs waren schon ok, wenn man von der GPU Power als iGPU ausgeht :)

Shink
2021-10-13, 10:31:05
Danke für deine Mühe. Bestätigt mich aber, dass Bulldozer und auch Vishera, absoluter Mist waren.
Ich mag solche in Silikon gegossene Fehlentscheidungen und trauere Transmeta nach. Vielleicht kauf ich mir mal nen Itanium für zu Hause.:biggrin:

Der_Korken
2021-10-13, 12:16:08
Danke @y33H@ für die Benches. Man kann also festhalten, dass die 4M/8T-Modelle langfristig den 2500K einkassiert haben (afaik hat man das auch schon beim Zen 1 Launch gesehen, wo man den alten Bulldozer mitgebencht hat und teilweise dann auch die damaligen Gegenspieler), aber gegen den 2600K kommen sie auch heute nicht an bzw. werden es auch nie. Man könnte sagen, ein Bulldozer-Modul entspricht performance-mäßig einem Sandy-Bridge-Kern, wo man aber die Integer-Einheiten statisch in zwei Hälften aufgeteilt hat, sodass im MT die Performance gleich bleibt, aber in ST massiv runtergeht.

Irgendwie verstehe ich auch nicht, was AMD damals mit diesem Design vorhatte. Die erste Iteration hatte ja grob gesagt ein shared Frontend, shared FPU, shared L2 und shared L1I. Nur der L1D und die Integer-Execution war getrennt. AMD hat zwar gesagt, dass das Verdoppeln der Integer-Blöcke nur 12% mehr Fläche kostet und dabei 80% der Leistung von zwei Kernen erreichen soll, aber irgendwie schien ein Modul schon fast so fett wie zwei Sandy-Bridge-Kerne gewesen zu sein (und auch so viel zu verbrauchen). Wenn Bulldozer also wenigstens ein sehr kleiner Die gewesen wäre mit 65W statt 125W, dann hätte AMD damit zumindest in Anwendungen sehr gut dagestanden. Vielleicht war das AMDs Intention, aber sie haben sich mit der Taktbarkeit komplett verschätzt und mussten das Design massiv aufblasen, um auf hohe Taktraten zu kommen und sind am Ende trotzdem sehr ineffizient geblieben. Für mich hat das schon gewisse Parallelen zu Vega, wo immer gesagt wurde: Mit Low-Level-APIs zieht Vega dann Kreise um Pascal, wartet's nur ab. Bis auf ein paar Ausnahme-Titel ist es aber nie so gekommen, weil der Chip einfach per Design eine Luftpumpe war.

Shink
2021-10-13, 12:38:56
Vielleicht war das AMDs Intention, aber sie haben sich mit der Taktbarkeit komplett verschätzt und mussten das Design massiv aufblasen, um auf hohe Taktraten zu kommen und sind am Ende trotzdem sehr ineffizient geblieben. Für mich hat das schon gewisse Parallelen zu Vega, wo immer gesagt wurde: Mit Low-Level-APIs zieht Vega dann Kreise um Pascal, wartet's nur ab. Bis auf ein paar Ausnahme-Titel ist es aber nie so gekommen, weil der Chip einfach per Design eine Luftpumpe war.
Anders gesagt haben sie mehr oder weniger exakt den Pentium 4-Fehler wiederholt. Mit dem Unterschied, dass Intel zu Bulldozer-Zeiten weit voraus war in Sachen Fertigung.

Dino-Fossil
2021-10-13, 13:00:05
testen könnte man die letzte APU-Generation auf AM4 gegen einen vergleichbaren Pentium

Ja, das stimmt wohl, aber ein echter Desktop Excavator hätte vermutlich mehr Takt und vor allem einen L3 Cache mitgebracht. Naja - letztlich ist es Wurscht, AMDs Entscheidung voll auf Zen zu setzen war rückblickend sicherlich sinnvoll.

Geldmann3
2021-10-13, 17:41:10
Bulldozer hat viele Fehler gemacht, im Nachhinein kann man das natürlich einfach dahinsagen.

Ich denke die zwei Grundsätzlichsten waren.

1. AMD hat scheinbar massiv die Entwicklung der Software für die Ausnutzung vieler Threads überschätzt.
Die haben wohl in 3 Jahren so viel erwartet, wie es jedoch in 10 Jahren nicht der Fall war.
Ich weiß noch, dass damals dauernd gesagt wurde, dass die CPUs erst in der Zukunft ihre volle Stärke ausspielen können werden. :freak:
Wie das bei so vielem gesagt wird.
Diese Zukunft kam jedoch nie.

2. Die haben wohl mit Taktraten von 10 Ghz gegen Ende der Lebenszeit von Bulldozer gerechnet. Weit daneben...
(Ich frage mich, ob wir das dank neuer Innovationen bis 2030 nicht doch noch sehen könnten, so unmöglich es gerade auch klingt.)

Und irgendwie haben sie Bulldozer auf dem Desktop nie weiterentwickelt, was mir heute noch große Fragezeichen im Gesicht hinterlässt?
Also es wurde irgendwie nicht einmal darauf iteriert, was auch immer da los war.
Ob man es direkt als Totgeburt betrachtet hat?
Ich meine, da war offensichtlich viel Luft nach oben, nehmen wir mal an, sie hätten prozentual ansatzweise die Fortschritte von Zen gemacht, Intel hätte mit der Zeit große Probleme bekommen.
Doch es kam gar nichts mehr, für viele Jahre, außer mehr Takt und Stromverbrauch.
Im Mobilbereich hat man vielleicht noch ein paar Schatten von dem gesehen, was für Bulldozer einst geplant war.
Nicht einmal die Mühe die Fertigung umzustellen, hat man sich gemacht.

Eventuell hat auch eine andere Gruppe gleichzeitig an den Zen-Konzepten gearbeitet und als man dann das Potenzial davon und die Niederlage Bulldozers vor Augen hatte, hat man Bulldozer einfach weggeworfen und recht früh alles auf diese Karte gesetzt.

Der_Korken
2021-10-13, 18:05:44
Und irgendwie haben sie Bulldozer auf dem Desktop nie weiterentwickelt, was mir heute noch große Fragezeichen im Gesicht hinterlässt?
Also es wurde irgendwie nicht einmal darauf iteriert, was auch immer da los war.
Ob man es direkt als Totgeburt betrachtet hat?
Ich meine, da war offensichtlich viel Luft nach oben, nehmen wir mal an, sie hätten prozentual ansatzweise die Fortschritte von Zen gemacht, Intel hätte mit der Zeit große Probleme bekommen.
Doch es kam gar nichts mehr, für viele Jahre, außer mehr Takt und Stromverbrauch.
Im Mobilbereich hat man vielleicht noch ein paar Schatten von dem gesehen, was für Bulldozer einst geplant war.

Eventuell hat auch eine andere Gruppe gleichzeitig an den Zen-Konzepten gearbeitet und als man dann das Potenzial davon und die Niederlage Bulldozers vor Augen hatte, hat man Bulldozer einfach weggeworfen und recht früh alles auf diese Karte gesetzt.

Ich glaube, dass diese Fragen zum Teil in einem Interview von Anandtech mit Jim Keller beantwortet wurden. Ist teilweise sehr interessant zu lesen:

https://www.anandtech.com/show/16709/an-interview-with-tenstorrent-ceo-ljubisa-bajic-and-cto-jim-keller
https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla

Man hatte wohl eingesehen, dass man mit kleinen inkrementellen Schritten keinen Stich holen wird, sondern dass die Struktur des Chips einfach nicht stimmig war. Excavator hatte ja durchaus 20-25% mehr IPC als Bulldozer und kam aber erst irgendwann 2015/2016 raus. In der Zeit hat Intel ja auch immer wieder kleine Verbesserungen nachgelegt, sodass AMD hier effektiv gar nicht aufgeholt hätte. Oder wie Keller es formuliert hat:

There were a few people who said ‘you don’t understand Jim, we have an opportunity to make 5%’. But we were off by 2X, and we couldn’t catch up [going down that route]. So I made this chart that summarised that our plan was to ‘fall a little further behind Intel every year until we died’.

Und Zen 1 hat ja auf die aufgebohrte Excavator-Architektur aus dem Stand direkt 50% geholt. Das aus dem Bulldozer-Ansatz rauszuquetschen wäre wohl eine Sackgasse gewesen und hätte Zen nur unnötig verzögert (und sie wussten, dass Zen notwendig war). Die APUs mit verbesserten Bulldozer-Iterationen hat man wohl nur gebaut, weil die Ideen dafür schon fertig waren und man in dem Bereich noch am ehesten was draus schnitzen konnte. Für Desktop- und Servervarianten hatte man keine Leute mehr übrig.

Benutzername
2021-10-13, 18:58:31
Also die APUs waren schon ok, wenn man von der GPU Power als iGPU ausgeht :)

Wäre damals als lowspec auch besser gewesen als ein Intel mit integrierter Grafik.
Ist ja heute noch so im Vergleich intel mit iGPU gegen AMD Ryzen-G.

Geldmann3
2021-10-13, 22:40:21
Ich glaube, dass diese Fragen zum Teil in einem Interview von Anandtech mit Jim Keller beantwortet wurden. Ist teilweise sehr interessant zu lesen:

https://www.anandtech.com/show/16709/an-interview-with-tenstorrent-ceo-ljubisa-bajic-and-cto-jim-keller
https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla

Man hatte wohl eingesehen, dass man mit kleinen inkrementellen Schritten keinen Stich holen wird, sondern dass die Struktur des Chips einfach nicht stimmig war. Excavator hatte ja durchaus 20-25% mehr IPC als Bulldozer und kam aber erst irgendwann 2015/2016 raus. In der Zeit hat Intel ja auch immer wieder kleine Verbesserungen nachgelegt, sodass AMD hier effektiv gar nicht aufgeholt hätte. Oder wie Keller es formuliert hat:



Und Zen 1 hat ja auf die aufgebohrte Excavator-Architektur aus dem Stand direkt 50% geholt. Das aus dem Bulldozer-Ansatz rauszuquetschen wäre wohl eine Sackgasse gewesen und hätte Zen nur unnötig verzögert (und sie wussten, dass Zen notwendig war). Die APUs mit verbesserten Bulldozer-Iterationen hat man wohl nur gebaut, weil die Ideen dafür schon fertig waren und man in dem Bereich noch am ehesten was draus schnitzen konnte. Für Desktop- und Servervarianten hatte man keine Leute mehr übrig.

Wow, kam jetzt nicht dazu alles zu lesen, aber suuper interessant und super viel zu lernen, aus Jim Kellers Erfahrungen.