PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN (Summit Ridge): Review Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

fondness
2017-03-31, 20:00:26
Jetzt haben wir auch schon Software die Details bei weniger Cores der CPU automatisch reduziert.

Das ist jedenfalls ein weiterer Grund für mehr Cores^^. :)

Menace
2017-03-31, 20:05:38
Auf der einen Seite habt ihr Recht, das man (pcgh) das nicht wissen konnte.
Auf der anderen Seite war nach einem Blick auf die Werte klar, das da was nicht passen konnte.

Und sie haben alles getan, um das Aufzuklären (Bench zur Verfügung gestellt, bei Oxide und AMD nachgefragt, ...). Vielleicht etwas vorschnell mit dem Fazit gewesen, aber da sind wir selber Schuld, wenn wir uns nicht die Zeit für Printmedien nehmen. Wobei von diesem Forum natürlich auch Hinweise kamen.

TGKlaus
2017-03-31, 20:08:56
Und sie haben alles getan, um das Aufzuklären (Bench zur Verfügung gestellt, bei Oxide und AMD nachgefragt, ...). .

Ich gebe dir hier vollkommen Recht. Sehr gute Arbeit von pcgh.
(Auch wenn ich glaube das etwas Druck hier aus dem Forum die sauber Aufklärung begünstigt hat.)

fondness
2017-03-31, 20:11:23
Genau das wird da doch nicht gemacht sondern einfach eiskalt nach Kernen an und abgeschaltet. Ein I7 8 Kerner mit 2 Ghz bekommt volle Details, während ein 4 Kerner mit 4GHz, der die selbe Leistung hat, nur abgespeckte Details berechnen muss.
Wenn dann hätte das ein Menüpunkt sein müssen den man bei 4 Kerner maximal auf hoch stellen kann und nur bei 6+ Kernen auf Ultra. Oder noch besser man kann ihn immer auf Ultra stellen, aber mit Warnung das die CPU dafür nicht geeignet ist.

Naja, es gibt keine 8 Kerner mit 2Ghz. Man kann also schon davon ausgehen, dass eine CPU mit 6 oder mehr Kerne auch ausreichend potent ist pro Core.

Bei 4 Kerner würde man sich da schon wesentlich schwerer tun, denn da gibt es auch Krücken.

TRX
2017-03-31, 20:15:41
Willkommen in Absurdistan.

Ich melde mich hier nur deswegen zu Wort um die Sicht eines normal denkenden Menschen darzustellen, der eigentlich mit Computertechnik nicht viel zu tun hat.

Nach zig Jahren kommt ein neue CPU- Architektur auf den Markt, die bereits von AMD absichtlich ähnlich gestaltet wurde, wie die bisherige Intel Architektur, damit ein Desaster wie beim dem Bulldozer nicht noch mal passiert und versammelte Presse hat nicht anders im Sinn als dieser völlig neuen Architektur eine Spieleschwäche zu attestieren. Wohlwissend das diese Aussage eigentlich ziemlicher Bullshit ist, da aufgrund der Ergebnisse der synthetischen Benchmarks und anderer Anwendungssoftware Leistung genug vorhanden ist.

Da die CPU aber halt keine Intel CPU ist sondern einige signifikante Abweichungen von den Intel Produkten aufweist, muss doch jeden normal begabten Menschen völlig klar sein, das Software die jahrelang nur für Intel optimiert wurde nicht auf einer völlig neuen Architektur genauso funktioniert.
Nein, es wird so getan, als ob AMD aus dem Stand -ohne das irgendjemand die Spielsoftware angepasst hat- dieselben Frameraten bringen muss.

Aber das Beste kommt noch: Jetzt erscheinen Patches zu Spielen, die nachweislich eine erhebliche Verbesserung in den Frameraten bringen, also der Nachweis ist erbracht, dass entsprechende Software Updates einen wesentlichen Einfluss auf die Performance haben, wie übrigens von AMD behauptet, aber es wird weiter relativiert und so getan als ob nicht etwa eine unangepasste Software schuld ist sondern die CPU eine Spielschwäche hat.

Willkommen in Absurdistan. Schöne neue Welt.

dargo
2017-03-31, 20:21:26
Willkommen @TRX.

Du bringst es vollkommen richtig auf den Punkt. (y)

IchoTolot
2017-03-31, 20:24:05
Nur, wieso wird sowas von Oxide nicht mitgeteilt?!?

Genau DAS würde mich auch total nerven! Sowas muss dann schon mitgeteilt werden.

dargo
2017-03-31, 20:25:48
Vielleicht hatte einfach noch niemand danach gefragt?

Sumpfeule
2017-03-31, 20:31:01
Ryzen wird unter DX12 mit ner Nvidia Karte krass kastriert:

QBf2lvfKkxA

IchoTolot
2017-03-31, 20:33:00
Das ist schon krass.. :O Auch wenn wir bei der Menge an Frames auf sehr hohem FirstWorld Niveau jammern. :D

Megamember
2017-03-31, 20:37:29
Ryzen wird unter DX12 mit ner Nvidia Karte krass kastriert:

http://youtu.be/QBf2lvfKkxA

Und mit Intel CPU ist die DX12 Leistung im Verhältnis besser oder wie?

Kriegsgeier
2017-03-31, 20:38:41
Experten unter uns:

Warum zum Teufel muss ein höherer FPS Durchsatz automatisch eine leistungsstärkere CPU bedeuten???

Ich finde muss es nicht!

dargo
2017-03-31, 20:43:17
Ryzen wird unter DX12 mit ner Nvidia Karte krass kastriert:

http://youtu.be/QBf2lvfKkxA
Also wenn sich das wirklich durch alle DX12 Games so durchzieht (jetzt haben wir schon RotTR und The Division) hat meiner Meinung nach die deutsche Presse versagt. Sorry, wenn ich das so sagen muss. Aber den Hinweis mit NV Treiber gab es schon öfter. Allerdings bin ich bei diesem Video noch etwas vorsichtig. Es wurde eine GTX1060 mit nur 3GB verwendet. Wird die nicht langsam zum Problem bei DX12? Ändert natürlich nichts an dem Ergebnis mit der RX470. 48% mehr avgs. sind ja nicht ohne. Und soweit ich weiß ist die CPU-Last Ingame noch einiges höher als im Benchmark.

Edit:
Ok... es ist bloß 1024x720 und zumindest keine max. Details. Ich hätte das Video zum Schluss schauen sollen. :redface: Somit sollten die 3GB Speicher kein Problem darstellen.

aufkrawall
2017-03-31, 20:47:06
War ja nur 720p und The Division reduziert Details, wenn der VRAM knapp ist. Sollte also nicht ausgebremst worden sein.

dildo4u
2017-03-31, 20:51:19
The Division wurde mit 1.6 kaputt gepatcht was DX12 auf NV anging lief vorher ok.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11312561&postcount=5829

Isen
2017-03-31, 20:54:38
Wohl eher ist der NV Treiber ne Spur zurückgeblieben ;)

Machen wir es doch mal einfach wie die Presse. Nvidia hat eine DX12 Schwäche. :)

dargo
2017-03-31, 20:55:53
The Division wurde mit 1.6 kaputt gepatcht was DX12 auf NV anging lief vorher ok.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11312561&postcount=5829
Du hast echt schon besser getrollt. Die Frametimes sind genauso bei Radeon mit dem letzten DX12 Patch kaputt. Was hat das jetzt mit dem Thema zu tun?

War ja nur 720p und The Division reduziert Details, wenn der VRAM knapp ist. Sollte also nicht ausgebremst worden sein.
Das witzige an dem Video ist auch, dass grob im Bereich von 180-200+fps die RX470 @DX12 bei der Auslastung schon öfter mal im hohen 90-er Bereich ist. Was wiederum für kleine GPU-Limitierung spricht. Mit einer schnelleren Radeon sollten da paar Prozentchen mehr gegenüber DX11 bei rumkommen.

dildo4u
2017-03-31, 20:59:03
Das man damit jetzt nicht testen sollte wenn man Aussagekräftige Werte haben will.

aufkrawall
2017-03-31, 21:01:46
Das man damit jetzt nicht testen sollte wenn man Aussagekräftige Werte haben will.
Es scheint aber eine verblüffende Parallele Zu RoTR zu geben.
Und wenn durch das Schrott-Update die fps gleich sind und nur die Frametimes problematisch, sind die Werte ohnehin als Beleg für die Theorie zu gebrauchen.

dargo
2017-03-31, 21:03:21
Und wenn durch das Schrott-Update die fps gleich sind und nur die Frametimes problematisch, sind die Werte ohnehin als Beleg für die Theorie zu gebrauchen.
Dem ist so, es stottert halt nur.

maximus_hertus
2017-03-31, 21:05:14
Heftig, das werden noch richtig spannende Wochen. Ich bin mal gespannt, wann wir (nahezu) alle Facetten der Gaming Performance sehen werden. Jetzt bin ich noch gespannter auf Vega ;)

TGKlaus
2017-03-31, 21:06:02
Also wenn ich raten müsste, würde ich sagen, beide nutzen NV Gameworks. :D

mczak
2017-03-31, 21:07:49
Naja, es gibt keine 8 Kerner mit 2Ghz.

Natürlich gibt es die. Wie wärs denn z.B. mit dem da, der ist sogar noch ziemlich deutlich unter 2 GHz: http://ark.intel.com/products/92988
Gibt sogar noch langsamere 6-Kerner, z.B: http://ark.intel.com/products/92993
Klar das sind jetzt keine typischen CPUs die man für Gaming verwendet :biggrin:
Aber z.B. eine 8-Kern Baumaschine dürfte auch nicht wirklich schneller sein (sind dann natürlich mehr als 2 GHz, aber darauf kommt's ja nicht an). Wenn ich mal davon ausgehe dass die als 8-Kerner behandelt wird...
Auch ein Ryzen R5 1600 dürfte z.B. kaum schneller sein als ein i7-7700k, auch wenn die Last toll skaliert.

y33H@
2017-03-31, 21:08:12
Ich weiß, warum ich alle Titel mit D3D11 getestet habe ^^

Ätznatron
2017-03-31, 21:09:42
Ich weiß, warum ich alle Titel mit D3D11 getestet habe ^^

Keine W10 Lizenz?

dargo
2017-03-31, 21:09:46
Und mit Intel CPU ist die DX12 Leistung im Verhältnis besser oder wie?
Ich habe auf die Schnelle nichts aktuelleres gefunden.
https://www.youtube.com/watch?v=6mvOfJdDg0M

Edit:
Etwas frischer.
https://www.youtube.com/watch?v=6H67pyiS9qg

dildo4u
2017-03-31, 21:12:12
Keine W10 Lizenz?
Der Entwickler kann die Performance per Patch verkacken und man kann nich mehr vernünftig testen.Das kommt mit DX11 kaum vor.

Ätznatron
2017-03-31, 21:24:48
Beim Testen interessiert doch der Ist-Zustand, und nicht die Prognose:

Der Entwickler sollte gefordert bleiben.

TRX
2017-03-31, 21:27:33
Danke! @ Dargo

Ein weitere Sache die mir aufgefallen ist, das praktisch in jeder Publikation zum Rzyen R7 ein Intel I7 7700 K gegenübergestellt wird und zwar weswegen........ ??????

In den Foren wird gerne das Argument angeführt, wegen der preislichen Vergleichbarkeit zum R7 1700.

Eingedenk der Tatsache, dass der Rzyen eine CPU ist, die eigentlich für Workstation gedacht ist, ist der eigentliche Gegenstück mitnichten der I 7 von Intel sondern die jeweiligen Intel Pendants.

Das mit preislichen Vergleichbarkeit ist natürlich totaler Quatsch.

Man stelle sich mal ein Autotest zwischen einen Sportwagen und einen Geländewagen wie z.B. ein großen Range Rover vor, die preislich vergleichbar sind, wobei der Test u.a ein Fahrt durch unwegsames Gelände beinhaltet und der Sportwagen nach 5 Metern eine Grätsche macht, weil er stecken bleibt und das Testfazit lautet dann Fahrschwäche.:biggrin:

Jeder normal denkende Mensch würde trotz der preislichen Vergleichbarkeit sich sagen, was soll der Quatsch. Nur bei CPU´s- Test scheint dieses nur Wenige zu stören.

Es gab da ja mal Gerüchte über eine Bitte von Intel.......:rolleyes:

fondness
2017-03-31, 21:27:40
Ryzen wird unter DX12 mit ner Nvidia Karte krass kastriert:

http://youtu.be/QBf2lvfKkxA

Das ist auf jeden Fall eine interessante Beobachtung und stellt ein weiteres Mal die Frage, was Nvidia da genau macht.

dargo
2017-03-31, 21:28:53
Auch ein Ryzen R5 1600 dürfte z.B. kaum schneller sein als ein i7-7700k, auch wenn die Last toll skaliert.
Muss er das bei 219$? Bei Intel kriegst du sowas dafür.
https://geizhals.de/intel-core-i5-7600-bx80677i57600-a1554196.html?hloc=de

Und einen 4 Threader würde ich in der Preisklasse ab dem 11.04 niemandem mehr empfehlen. ;)

Ätznatron
2017-03-31, 21:33:10
Muss er das bei 219$?

Billig und spieleschwach: AMD-CPUs 2017.

Not?

Aldaric
2017-03-31, 21:33:50
Muss er das bei 219$?

Er macht ja den i7 über den Preis schon absolut obsolet.

Zum Video:

Es gibt mittlerweile auf YouTube ein Video das diese Problematik in Division auch zeigt. Nvidia bricht mit Ryzen unter DX12 deutlich ein. Ich hoffe das findet auch mehr Beachtung bei den ganzen Technikseiten die sich damit befassen.

dargo
2017-03-31, 21:34:04
Billig und spieleschwach: AMD-CPUs 2017.

Du sagst es. :uup:

Aldaric
2017-03-31, 21:35:14
Billig und spieleschwach: AMD-CPUs 2017.

Not?
Spieleschwach?

Wenn momentan ein simulierter 1600 OC / 1600x mit dem 7700k verglichen werden, bringt er exakt die gleiche Spieleleistung wie der 1800x. Er ist also nahezu ebenbürtig mit dem 7700k und kostet deutlich weniger.

Also absolut nicht zu gebrauchen ? ;D

dargo
2017-03-31, 21:38:11
Das war Sarkasmus. ;)

Aldaric
2017-03-31, 21:42:25
Huch, sorry. :D

Mich würde interessieren ob man sich der Problematik bei nVidia schon bewusst ist, oder ob gar schon daran gearbeitet wird.

mczak
2017-03-31, 21:51:13
Muss er das bei 219$? Bei Intel kriegst du sowas dafür.

Nein das muss er nicht. Es geht ja nur darum dass eben in AoTS der arme Ryzen dann alles berechnen muss wegen seiner 6 Kerne und der i7-7700k nur die Hälfte...

dargo
2017-03-31, 21:53:43
Na dann gibts ja sogar mehr Bildqualität für weniger Geld.

dildo4u
2017-03-31, 21:57:28
Das mit Ashes ist echt der Hammer und ich hab mich die ganze Zeit gefragt warum mein FX so kacke gegenüber den alten i5 lief,obwohl die Engine ja eigentlich gut mit Cores skalieren sollte.

Menace
2017-03-31, 22:35:53
Ich weiß, warum ich alle Titel mit D3D11 getestet habe ^^

Wenn Spiele aber unter D3D12 und Radeon zulegen, warum nicht testen? :biggrin:

Schaffe89
2017-03-31, 22:44:08
This!
Das Wort Spielschwäche suggeriert nunmal, dass Ryzen für Spiele ungeeignet ist, oder eben nicht die erste Wahl.

Er ist definitiv nicht ungeeignet, aber laut weltweiten Tests eben besonders für den Preis Ryzen 1700 vs 7700k eben keine Empfehlung wenn letzterer 30% schneller arbeitet, siehe HT4U Nachtest, siehe 3D Center Index.

Das wird sich mit den Updates etwas korrigieren lassen und besonders dann wenn der 1600x für einen deutlich niedrigeren Preis erhältlich ist.
Beim 1600x vs 7600k wird sicher keiner von einer "Spieleschwäche" schreiben da Ryzen es dort schaffen sollte den 7600k in Games zu schlagen.

Als Gamer will man nur das beste => Ergo Ryzen scheiße. Noch unglücklicher kann man einen Titel nicht wählen.

Es ist mittlerweile einfach nurnoch ein Volksport hier im Netz nicht erfüllte Erwartungen einer CPU an den Testern auszulassen und diese zu beschuldigen und zu diffamieren.
Ihr hängt euch an dem Begriff Spieleschwäche auf. Genauso könnte man sagen, Ryzen ist in Spielen langsamer, das hört sich genauso beschissen an.
Langsamer... Man hat das Gefühl man darf gar nix schreiben, ohne auf den Deckel zu bekommen, denn es ist ja das heilige AMD.

IPC auf Broadwell-Niveau -> Check
Takt auf ähnlichem Niveau -> Check

Was auf Spiele nicht zutrifft. Das sieht man alleine schon wenn man einen Ryzen 1700x mit einem 6900k vergleicht.
Du kannst nicht die Anwendungsleistung in Cinebench nehmen und auf Spiele übertragen. Dafür gibt es gesonderte Spiele-Messungen.

Leistung in manchen spielen mit extrem großen Ausreißern. -> mhhh komisch
Leistung in gleichen Titeln mit unterschiedlichen APIs extrem unterschiedlich -> WTF? Nein, lass uns das mal nicht überprüfen. Ryzen hat eine "Spieleschwäche"

Jetzt wird also die Leistung die in x Games schlechter ist (egal ob Directx11 oder Directx12) auf einige wenige heruntergebrochen (wo es Optimierungen geben könnte und ein AMD Treiber unter Tomb Raider besser abschneidet) und damit fängst auch du wieder an die Fakten zu verdrehen.

Warum wird da nicht mal mit einer AMD Karte gegengetestet, wenn die Ergebnisse selbst im gleichen Titel so extrem abweichen?

Weil du es als Tester nicht jedem rechtmachen kannst, ganz einfach.
Tombraider wird auch hier wieder eine Außnahme sein, aber trotzdem nett das zu wissen. Da muss definitiv ein weiterer Test mit AMD Grafik her.

Ryzen hat keine Spieleschwäche sondern die Andwendungen sind schlicht nicht optimiert und könnten mit der Architektur nicht umgehen.

Das mag auf ein paar Spiele zutreffen, aber du tust schon wieder so als ob das jetzt überall der Fall sein würde und das ist einfach nur mal wieder weit weg von den Fakten.

@Wolfgang: Wenn du noch einen Titel für die kommenden Ryzen suchst: "In Anwendungen ein König, in Spielen bald auch!"

Das wär doch mal was. Bitte nicht persönlich nehmen. ;)

Dann müsste man dem Tester wie dir Befangenheit vorwerfen, weil er sich seine Fakten klein-klein zusammensucht und sie dann pauschal verallgemeinert und alles andere ignoriert.

IchoTolot
2017-03-31, 22:52:43
Danke! @ Dargo

Ein weitere Sache die mir aufgefallen ist, das praktisch in jeder Publikation zum Rzyen R7 ein Intel I7 7700 K gegenübergestellt wird und zwar weswegen........ ??????

In den Foren wird gerne das Argument angeführt, wegen der preislichen Vergleichbarkeit zum R7 1700.

Eingedenk der Tatsache, dass der Rzyen eine CPU ist, die eigentlich für Workstation gedacht ist, ist der eigentliche Gegenstück mitnichten der I 7 von Intel sondern die jeweiligen Intel Pendants.

Das halte ich für Quark. Beide CPUs liegen ungefähr in der selben Preisrange und außerdem will man das jeweils beste a von beiden Familien testen. Das sind ohne Frage der 1800x und die kleineren CPUs, die aber ja eh alle auf der selben Basis fundieren und eben der i7 7700K.

Wo steht denn das Ryzen für Workstations gedacht ist. Grade da würde ich aktuell keinen Ryzen verbauen, weil da Stabilität zählt. Da will man ganz sicher kein Theater mit Bios und RAM haben. Da wird man in der IT in Unternehmen auch derzeit ganz klar weiterhin Intel nehmen.

Spieleschwach?

Wenn momentan ein simulierter 1600 OC / 1600x mit dem 7700k verglichen werden, bringt er exakt die gleiche Spieleleistung wie der 1800x. Er ist also nahezu ebenbürtig mit dem 7700k und kostet deutlich weniger.


Das zeigt eigentlich nur auf, dass in den getesteten Spielen offensichtlich nicht mehr als 4 Kerne oder 8 Threads genutzt werden. Sonst wäre der 1800x ja definitiv schneller.

Schaffe89
2017-03-31, 23:03:16
Ein weitere Sache die mir aufgefallen ist, das praktisch in jeder Publikation zum Rzyen R7 ein Intel I7 7700 K gegenübergestellt wird und zwar weswegen........ ??????

Eingedenk der Tatsache, dass der Rzyen eine CPU ist, die eigentlich für Workstation gedacht ist, ist der eigentliche Gegenstück mitnichten der I 7 von Intel sondern die jeweiligen Intel Pendants.

Nur interessiert das halt einfach niemanden, verglichen wird immer das was man an Leistung für den Preis bekommt in verschiedenen Testkategorieren. Spiele und Anwendungen.

Man stelle sich mal ein Autotest zwischen einen Sportwagen und einen Geländewagen wie z.B. ein großen Range Rover vor, die preislich vergleichbar sind,

Das Argument ist aber überhaupt nicht schlüssig, das kommt doch schon wieder nur aus der einseitigen Motiviation heraus AMD zu bevorteilen. Eben wichtige Preisleistungsvergleiche wegzulassen.

Wenn du Budget xY hast und dein Auto von oben auswählst musst du dich halt für ein Spezialgebiet entscheiden und die Nachteile in anderen Disziplinen in Kauf nehmen. Offroad (Ryzen Multitaksing) oder Straße(Intels hohe pro Thread Leistung)

Jeder normal denkende Mensch würde trotz der preislichen Vergleichbarkeit sich sagen, was soll der Quatsch. Nur bei CPU´s- Test scheint dieses nur Wenige zu stören.

Nein, das ist schlicht rational, denn entscheidend ist nicht wieviele Kerne eine CPU bietet, sondern weiviel Leistung am Ende hinten raus kommt.
Ob ich die Leistung mit 12 oder 16 Kernen/Threads erreiche, ist erstmal völlig wurscht.

Rincewind
2017-03-31, 23:05:18
...
denn es ist ja das heilige AMD.



na endlich hast Du es kapiert. :biggrin:

TRX
2017-03-31, 23:20:37
Schaffe 89 und imaginez. Nö!

Also, wenn eine 32 Kern Server CPU sagen wir mal 350 Euro kosten würde, würdest Du den ernsthaft gegen einen I7 testen. Das ist lächerlich und Du weißt, dass auch.

Natürlich ist der Ryzen ein Workstation CPU, was denn sonst?????

Instabilitäten werden mit der Zeit beseitigt, das ist kein Grund diese CPU nicht entsprechend zu klassifizieren.

Und wie gesagt, nicht die CPU hat ne Schwäche sondern die Spiele haben keine vernüftige Anpassung an die CPU. Ich weiß nicht, warum das nicht in Deinen Schädel geht aber seis drum.

Übrigens ich hab hier zu Hause nur Intel Krempel stehen.

IchoTolot
2017-03-31, 23:30:36
Du willst es offensichtlich nicht verstehen und drehst mit die Worte im Mund herum. Dein 32 Kern CPU Fall ist doch völlig an den Haaren herbeigezogen und was soll ich dazu sagen. Du weißt wie es gemeint ist.

Wegen der Schwäche die keine sei und die Spiele Schuld seien, das kann man sehen wie man will. Alle Games nutzen die gleiche Basis, die gleichen Grafikschnittstellen. Natürlich kann man da erwarten, dass eine gewisse konsistente Leistung vorhanden ist, was bei Ryzen ja so lala der Fall ist. Wenn es tatsächlich noch Möglichkeiten zur Optimierung in Spielen gibt, dann ist das doch gut. Aber hier einfach die komplette Last von AMD abzuwälzen auf Spiele und Entwickler ist ein bisschen zu einfach. Es sind immer zwei Seiten vorhanden. AMD hat doch ein neues Produkt auf den Markt gebracht? Also liegt es natürlich auch in deren Interesse und Verantwortung mit anderen Spielestudios und Microsoft zusammenzuarbeiten, wenn man das Produkt an den Mann bringen will. Dass der Start nun etwas holprig ist, das muss man einfach mal als Fakt anerkennen, egal wer Schuld hat.

Was ist denn für dich eine Workstation CPU genau?

maximus_hertus
2017-03-31, 23:51:19
Bevor man sich weiter die Köpfe einchlägt finde ich die AotS Story extrem krass. AotS ist jetzt kein extrem wichtiges Game, es hat ja auch nicht so viele Spieler. Aber es zeigt sich - fps sind schön und toll, aber 4C/8T CPUs können keine hohe Details darstellen?!

Solange es nur in AotS der Fall ist, gilt ein wenig "einmal ist kein mal". Sobald es aber ein zweites oder drittes mal passiert, ist die 7700K eine ungeeignete Gaming CPU und dürfte DANN nicht mehr empfohlen werden. Die Frage der Fragen lautet daher - wird es wieder passiren und vor allem, wann?

Der 7700K erinnert mich immer mehr an die Fury X. Tolle (4K) Performance aber durch die 4 GiB war schnell klar, dass sie eher schnell den VRAM-Tod stirbt.

Der häutige Tag könnte alles ändern, wie CPUs empfohlen bzw. getestet werden. Es wird bzw. bleibt spannend.

maximus_hertus
2017-03-31, 23:57:32
Was ist denn für dich eine Workstation CPU genau?

Auch wenn ich nicht gemeint war:

- Viele Kerne
- noch mehr Kerne
- viel mehr Threads
- überragende Performance per W pro Core / Thread
- Langlebigkeit bzgl. Ersatzteile
- Langlebigkeit der Plattform (also genau das Gegenteil der Intel Consumersockel).
- ECC support - dazu Zitat Intel:"Intel® Core™ i7 Desktop-Prozessoren unterstützen ECC-Speicher in der Regel nicht. ECC-Speicher wird in der Regel auf Servern und Workstations und nicht auf desktop-Plattformen verwendet."

TRX
2017-04-01, 00:14:01
Workstations CPU´s sind für mich alle CPU`s die vergleichbar sind mit den Broadwell-E Intel Modellen. Also Multikern CPU`s die mehr als 4 orignäre Kerne haben und keine eigne interne GPU, wobei eine excellente Anwendungsperformance besteht.

Sicher kann man das auch anders sehen, vor allem was die zukünftigen R5 Modelle betrifft, aber ich denke, dass dieses eine Besonderheit von AMD ist.

Ich denke nicht, dass Intel in der nächsten Zeit eine Consumer CPU für unter 300 Euro mit 6C/12 T bringt.

Ich will hier keinewegs einen Streit vom Zaun brechen aber anegnommen in einen Jahr hat der R7 durch Software Patches den I7 um 30 Prozent überholt, was Gott verhüten möge:biggrin:, dann ist "euer" Standpunkt hinsichtlich der angeblichen CPU Spieleschwäche extrem obsolet und da hilf auch kein hab ich so gemeint usw. Also erstmal abwarten und dann beurteilen und nicht sofort verurteilen.

Denn unter gleichen Bedingungen wird eben derzeit nicht getestet. Das ist eben der Punkt, die Spielesoftware ist Intel optimiert, weil Intel bisher praktisch Monopolist ist. Also nix mit gleichen Bedingungen, gelle.

Ich würde heute niemand empfehlen eine Ryzen zu kaufen der sagen wir mal einen I7 6700/5700/4700 oder noch einen schnellen I5 werkeln hat und der sein Hauptaugenmerk auf das spielen hat, aber ebensoweinig würde ich diesen empfehlen, einen I 7 7700 K zu kaufen, weils genauso blödsinnig ist.

Birdman
2017-04-01, 00:18:46
Aber das Beste kommt noch: Jetzt erscheinen Patches zu Spielen, die nachweislich eine erhebliche Verbesserung in den Frameraten bringen, also der Nachweis ist erbracht, dass entsprechende Software Updates einen wesentlichen Einfluss auf die Performance haben, wie übrigens von AMD behauptet, aber es wird weiter relativiert und so getan als ob nicht etwa eine unangepasste Software schuld ist sondern die CPU eine Spielschwäche hat.
Absurdistan ist eher dass Du "keine Spieleschwäche" (Achtung, diese Aussage wurde zum Review-Zeitpunkt von vor einem Monat getroffen!) und "Patches, die erhebliche Verbesserung in den Frameraten bringen" in einem Satz bringst.
Weil entweder hat/hatte die CPU eine Spieleschwäche, oder die Patches für DotA und AotS sind nur Placebo - such es dir aus, weil beides zusammen geht nicht.

Ach ja, DotA und AotS sind Spiele, bei denen Ryzen Anfang März 50% hinter den Intel CPUs zurückgelegen hat.
Generell gesehen hat Broadwell/KabyLake immer noch die höhere Spiele IPC, nur der durchschnittliche Abstand zum Ryzen wird jetzt verkürzt, da diese Patches (und das Win10 Update) die grossen Ausreisser nach unten ausmerzen.

Armaq
2017-04-01, 00:21:48
AotS hab ich jetzt erst gesehen. Gute Recherche-Arbeit@pcgh.
Allerdings eine echte Seuche für den Test an sich. Warum sagt das beim Hersteller keiner?

G3cko
2017-04-01, 00:42:56
Er ist definitiv nicht ungeeignet, aber laut weltweiten Tests ...

Die weltweiten Tests haben 1 Monat gebraucht um herauszufinden, dass die Anomalien an dem Nvidia Treiber liegen und nicht an Ryzen. :freak: Dazu das CoreParking. Der 3D Center Index zeigt vor allem eines => großen Abweichungen der Testseiten, die Performance ist also bisher nicht korrekt erfasst. :freak:

Klar ist aktuell nur eines, dass
a) die Software nicht an Ryzen angepasst ist
b) der (Nvidia-)Treiber nicht korrekt mit Ryzen arbeitet (Komisch hat den keiner bei AMD Nvidia ein Ryzen Sample vorab zurverfügung gestellt. :eek: Oder vielleicht hat auch Nvidia keinen Bock das anständig zu supporten (Propritärer Nvidia-Ansatz und Konkurenzdenken und so))
c) ist Windows noch nicht perfakt an Ryzen angepasst

Und ich sag dir eins, Ende diesen Jahre ist ein QuadCore, egal mit welchem Takt Entry-Gaming. Da gehört er meiner Meinung nach auch schon lange hin. Mein Q6600 hat 230€ gekostet - vor bald 10 Jahren. ;)

TRX
2017-04-01, 01:01:26
Absurdistan ist eher dass Du "keine Spieleschwäche" (Achtung, diese Aussage wurde zum Review-Zeitpunkt von vor einem Monat getroffen!) und "Patches, die erhebliche Verbesserung in den Frameraten bringen" in einem Satz bringst.
Weil entweder hat/hatte die CPU eine Spieleschwäche, oder die Patches für DotA und AotS sind nur Placebo - such es dir aus, weil beides zusammen geht nicht.

Ach ja, DotA und AotS sind Spiele, bei denen Ryzen Anfang März 50% hinter den Intel CPUs zurückgelegen hat.
Generell gesehen hat Broadwell/KabyLake immer noch die höhere Spiele IPC, nur der durchschnittliche Abstand zum Ryzen wird jetzt verkürzt, da diese Patches (und das Win10 Update) die grossen Ausreisser nach unten ausmerzen.

Ich glaube du hast meinen Kontext nicht verstanden oder ich verstehe nicht was Du mir sagen willst.

Wenn jemand schreibt, die CPU hat einen schwache/ schwächere Spieleperformance als CPU soundso, versteht der Otto-Normale, das die CPU von der Hardware Konstruktion her die Leistung nicht bringt. Die CPU ist schwächer, dass wars, Ende des Gedankengangs.

Der Punkt ist, das diese Schwäche wahrscheinlich nicht auf die allgemeine Unfähigkeit der CPU beruht, das Spiel in ähnlichen Frameraten darzustellen sondern durch die mangelnde Softwareoptimierung darin gehindert wird. Das wird aber nicht so kolportiert.

Wenn du in einen Dieselfahrzeug Benzin tankst können sehr interessante Dinge passieren, auch wenn das selbe Bezin in einem anderen Auto nicht so eine destruktive Wirkung zeigt.;D

Zunächst heißt es mal die selben Basisbedingungen herstellen. Wenn bei neuen Spielen(sagen wir mal in einem Jahr) sich nix getan hat, kann man immer noch sagen okay Ryzen ist schwächer in Spielen aber zur Zeit ist das m.E viel zu früh.

vinacis_vivids
2017-04-01, 01:28:30
Huang hat doch n faules Ei gelegt wie ich es schon vor einiger Zeit gesagt habe?

GSXR-1000
2017-04-01, 01:33:24
Wenn du Budget xY hast und dein Auto von oben auswählst musst du dich halt für ein Spezialgebiet entscheiden und die Nachteile in anderen Disziplinen in Kauf nehmen. Offroad (Ryzen Multitaksing) oder Straße(Intels hohe pro Thread Leistung)


Das du es nach wochen und Monaten immer noch nicht verstehst.
Intel hat keine per se bessere "pro thread" Leistung. Das siehst du bei vielen Anwendungsbenchmarks und auch bei synthetischen Benchmarks die nebenbei den grossen Vorteil haben, das sie wenig speziell compilierten Code besitzen (also eben genau nicht richtung intel/amd compiliert sind), weil sie eben genau zur vergleichbarkeit und leistungsmessung dienen. Wo sich optimierter Code verbietet.
Schaust du dir diese Werte an, ist Intel und AMD im Rahmen der Messgenauigkeit gleichwertig, solange Kernzahl und Takt auf gleichem Niveau sind. Im gegenteil verwundert es da, das es sogar ausreisser gibt, wo AMD mit niedrigerem Takt (vor allem auch speichertakt) bei reiner leistungsmessung vorn liegt. Aber grundsätzlich ist es eine vergleichbare Leistung.

Den einzigen Vorteil von Intel siehst du im Spielebereich, was eine absolute momentaufnahme ist. Und man muss weder ein mathematisches Genie sein noch Logikexperte um den Schluss eindeutig ziehen zu können, das dieser effekt nur auf der Softwareseite (compilierter Code) liegen kann.
Das ist wirklich simpelste Logik.

Die reinen Leistungstests beweisen, das die Architektur selber mindestens mit der Intelarchitektur gleichwertig ist, da wir hier auch noch die erste Stufe dieser Architektur haben duerfen wir auch wohl von mehr Potential für die nächsten Stufen ausgehen, während die Corearchitektur langsam an das ende der Skalierbarkeit kommt.

Wir haben also ausschliesslich bei !gegenwärtigen! spielen einen "nachteil" der AMD CPUs. Rein objektiv betrachtet ist dieser allerdings philosophischer und rein theoretischer Natur da die CPU Leistung unter nahezu allen aktuellen Spielen und konstellationen vollkommen ausreicht um das spiel in nahezu jeder gewünschten Auflösung zu befeuern, zumindest dann, wenn eine Intel CPU das auch kann. Praktisch ergibt sich also kein Nachteil, weil hier momentan die Grenzen eher GPU seitig als CPU seitig gesetzt sind.
Es gibt also auch keine "Spieleschwäche", denn flüssiger als flüssig ist eben überflüssig.
Du gehst ständig den absolut unsinnigen weg und interpolierst die softwareschwäche bezogen auf die Ryzenarchitektur älterer und gegenwärtiger spiele auf die Zukunft.
Das das unsinn ist und extrem unwahrscheinlich, duerfte dir selber klar sein, passt dir aber wegen wegen des AMD Bashings nicht.
Wie sehr softwareseitig die Bremse zu suchen ist, zeigen schon die allerersten quick and dirty patches in software, bios und OS.
Und es ist absurd anzunehmen, das diese optimierungen nicht auch zukünftig in jedes neu erscheinende Spiel einfliessen werden.
Genauso wie ständig optimierungen für neue GPU generationen einfliessen. Auch optimierungen für Intels CORE Architektur fanden sukzessive statt nach deren erscheinung, welche massive verbesserungen für Intel prozessoren brachten. Kannst dir die berichte dazu ja selbst mal anschauen. Auch die sind nicht gottgegeben da gewesen sondern wurden auf die Architektur hin entwickelt. Und auch in alle danach erscheinenden Spiele und Engines implimentiert. Wieso unterstellst du absurderweise staendig, das das bei Ryzen zum ersten mal in der PC Geschichte nicht stattfinden wird?
Sorry, aber man kann deine Argumentation einfach nicht ernst nehmen.

Kriegsgeier
2017-04-01, 07:59:20
Wie jetzt?

4C CPU zeichnet/berechnet weniger Details als eine 8C CPU?
Und daher ist 7700K "schneller" als 1800X???

Waaaaasss?

Digidi
2017-04-01, 08:11:24
Wie jetzt?

4C CPU zeichnet/berechnet weniger Details als eine 8C CPU?
Und daher ist 7700K "schneller" als 1800X???

Waaaaasss?

Das ist ausnahmsweise kein April Scherz :D

Kriegsgeier
2017-04-01, 08:18:49
Und wenn es keine Ausnahme wäre, was dann?

dargo
2017-04-01, 08:45:38
Ach ja, DotA und AotS sind Spiele, bei denen Ryzen Anfang März 50% hinter den Intel CPUs zurückgelegen hat.
Generell gesehen hat Broadwell/KabyLake immer noch die höhere Spiele IPC, nur der durchschnittliche Abstand zum Ryzen wird jetzt verkürzt, da diese Patches (und das Win10 Update) die grossen Ausreisser nach unten ausmerzen.
Das sehe ich etwas anders. Im intergrierten CPU-Benchmark (Berechnung von gleichen Details) von AotS ist der i7-7700K 12% schneller als der simulierte R5 1500X mit 3,6/4,1Ghz. Wenn der Allcoreturbo bei AMD bei 3,8Ghz lag (ich kann mit den Angaben von 3,6-4,1Ghz nicht so viel anfangen) und bei Intel 4,3Ghz (auch hier weiß ich nicht wie hoch der Turbo in der Testszene war) haben wir hier praktisch Gleichstand was IPC angeht. Und das obwohl Oxide 400 Manstunden für den Ryzen Patch investiert hatte wo bei Intel um die 1000 Manstunden investiert wurden. Ich habe den Eindruck viel zu viele unterschätzen gewaltig die Softwareoptimierung. Wie kannst du also überhaupt jetzt schon die IPC in Spielen zwischen Ryzen und Kaby Lake vergleichen wenn 99,xx% der Spiele für diese CPU noch gar nicht optimiert ist? Denk einfach darüber nach.


b) der (Nvidia-)Treiber nicht korrekt mit Ryzen arbeitet (Komisch hat den keiner bei AMD Nvidia ein Ryzen Sample vorab zurverfügung gestellt. :eek: Oder vielleicht hat auch Nvidia keinen Bock das anständig zu supporten (Propritärer Nvidia-Ansatz und Konkurenzdenken und so))

Naja... soweit würde ich jetzt nicht gehen. Wenn ich mir anschaue auf welchen Stand die AM4 Bretter immer noch aktuell sind (das ist alles noch ziemlich Betastadium) dann würde ich auf ersteres tippen.

G3cko
2017-04-01, 09:02:49
Ich muss sagen ich bin immer noch baff. Es wurde mehrfach auf die skurielen Ergebnisse hingewiesen. Nach 1 Tag hab ich in diversen Foren geschrieben, dass man Mal die DX12 Ergebnisse ausklammern sollte. Gerade bf1 extrem paradox ist (dx11 vs dx12)

https://www.hardwareluxx.de/community/f11/weshalb-ryzen-eine-hervorragende-gaming-cpu-2017-ist-1156006-12.html#post25369806

Hier im 3DC wurde sogar gefragt ob mit einer AMD Karte gegengetestet wurde. Und man kommt einen Monat nicht auf die Idee Mal mit einem anderen Treiber die Ausreißer zu überprüfen? Am ersten April scheint dies der größte Joke überhaupt zu sein. Es mag hart klingen, aber das sieht ja schon fast nach Vorsatz aus.

Troyan
2017-04-01, 09:06:01
Es steht schon seit Fall des NDAs fest, dass Ryzen mit nVidia-Karten unter DX12 deutlich mehr Leistung verlieren als mit Intel-CPUs.

Warum man das jetzt nach dem ersten Monat als Überraschung empfindet, ist irgendwie putzig.

Isen
2017-04-01, 09:08:22
Also Absichtlicher Vorsatz, wenn es nach dir geht. Alles klar :-)

dargo
2017-04-01, 09:10:31
Es steht schon seit Fall des NDAs fest, dass Ryzen mit nVidia-Karten unter DX12 deutlich mehr Leistung verlieren als mit Intel-CPUs.

Was ist das denn für eine blödsinnige Aussage? Wo verliert NV hier @DX12 mit Intel an Leistung?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11337063&postcount=3776

Ingame macht sich DX12 dann noch stärker bemerkbar.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11207459&postcount=4520

Hängt natürlich auch von der Kombination CPU/GPU ab. Bei starker CPU und schwachen GPU wird man sicherlich nicht so viel wenig bis gar nichts merken.

Troyan
2017-04-01, 09:12:18
Nö, vielleicht einfach kaputte CPUs. :lol:

Hier ist mein Posting vor exakt 31 Tagen: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11307322&postcount=107

Man sah damals schon, dass Ryzen einfach mehr Leistung verliert. Das hat aber irgendwie kaum einen interessiert. Siehe Computerbase und Tomb Raider: https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-rise-of-the-tomb-raider-dx11-fps

dargo
2017-04-01, 09:18:19
Nö, vielleicht einfach kaputte CPUs. :lol:

Ja... das wird es wohl sein. :comfort2:


Hier ist mein Posting vor exakt 31 Tagen: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11307322&postcount=107

Eher sind die DX12 NV-Treiber momentan ein Schuss in den Ofen. ;)

fondness
2017-04-01, 09:20:12
Absurdistan ist eher dass Du "keine Spieleschwäche" (Achtung, diese Aussage wurde zum Review-Zeitpunkt von vor einem Monat getroffen!) und "Patches, die erhebliche Verbesserung in den Frameraten bringen" in einem Satz bringst.
Weil entweder hat/hatte die CPU eine Spieleschwäche, oder die Patches für DotA und AotS sind nur Placebo - such es dir aus, weil beides zusammen geht nicht.

Ach ja, DotA und AotS sind Spiele, bei denen Ryzen Anfang März 50% hinter den Intel CPUs zurückgelegen hat.
Generell gesehen hat Broadwell/KabyLake immer noch die höhere Spiele IPC, nur der durchschnittliche Abstand zum Ryzen wird jetzt verkürzt, da diese Patches (und das Win10 Update) die grossen Ausreisser nach unten ausmerzen.

Also im Spielebench von PCGH liegt der 1800K vor dem 6900K. Das ist für mich deutlich mehr als nur "Abstand verkürzt".

Was die DX12 Probleme mit NV-Karten betrifft: Ganz unrecht hat Troyan ja nicht, man hätte das schon deutlich früher untersuchen können, Tendenzen waren definitiv da. Ich hoffe da kommt etwas von Nvidia, denn irgendwas ist da gewaltig im argen. Bis das nicht geklärt ist, kann man DX12 Benchmarks mit NV-Karten vergessen. Vor allem, dass das keine Redakteur auffällt ist natürlich nicht gerade ein Ruhmesblatt.

G3cko
2017-04-01, 09:43:42
Ich hätte da auch noch einen Titelvorschlag:

RYZEN: In Spielen doch ein König, Nvidias DX12-Treiber leider nur ein Prinz.

;)

dargo
2017-04-01, 09:48:27
Jo... vielleicht hilft es dann den Höchststand wieder zu erreichen bzw. zu überbieten. Viel fehlt da nicht mehr.
59393

PS: nur Spaß. ;) Spätestens am 11.04 sind die 14,75$ geknackt, sagt zumindest meine Glaskugel.

DerKleineCrisu
2017-04-01, 09:56:41
Es steht schon seit Fall des NDAs fest, dass Ryzen mit nVidia-Karten unter DX12 deutlich mehr Leistung verlieren als mit Intel-CPUs.



Genau AMD hat eine Hardware Erkennung in ihre CPU eingebaut wenn
eine nvidia Graka drin ist wird sie Hardwareseitig von ihnen ausgebremst.

Dino-Fossil
2017-04-01, 10:01:11
Hier im 3DC wurde sogar gefragt ob mit einer AMD Karte gegengetestet wurde. Und man kommt einen Monat nicht auf die Idee Mal mit einem anderen Treiber die Ausreißer zu überprüfen? Am ersten April scheint dies der größte Joke überhaupt zu sein. Es mag hart klingen, aber das sieht ja schon fast nach Vorsatz aus.

Es läuft gern ein wenig so, wie beim jüngsten PCGH Test zum Ashes Patch.
Hat man eigenartige Ausreißer, in denen Ryzen uncharakteristisch schlecht abschneidet*, wird das sehr willig hingenommen, man bastelt sich eine fragwürdige Erklärung zusammen, wie das kommen kann ("Das Savegame fordert die CPU eben mehr als der interne Bench" - Obwohl der 4-Kerner plötzlich trotz angeblich mehr Last viel schneller ist :freak:) und geht wieder zur Tagesordnung über.
Erst wenn man die Tester mit der Nase darauf stößt, wird nachgeforscht (nicht falsch verstehen, Ashes' Detailreduktion bei <6 Kernen ist schon ne Hausnummer und ich finde es toll, dass die Sache von PCGH dann zügig geklärt wurde - danke dafür; wäre nur schön, wenn man die Bereitschaft dazu auch ohne Nachfragen der Leser gezeigt hätte).

Wie das kommt? Ich glaub' nicht daran, dass Intel alle gekauft hat.
Aber ich denke, dass ein gewisser unbewusster Bias vorliegt und nicht alle so neutral sind, wie sie selbst von sich denken (hey, ich nehm mich da selbst nicht aus, wir sind alle Menschen).
AMD war eben so lange in vielen Bereichen zurückgelegen, dass offenbar viele automatisch davon ausgehen, dass es normal ist, wenn auch Ryzen solche Schwächen zeigt.
Das scheint leider den gebotenen journalistischen Spürsinn zu beeinträchtigen, wenn es um solche Dinge geht, wie eben in Ashes gesehen, oder seltsames Verhalten bei bestimmten Treibern/Hardwarekonfigurationen.

*Nur zur Feststellung: ich erwarte nicht, dass Ryzen einen hochgetakteten Kaby Lake unter allen Bedingungen in Spielen regelmäßig abzieht, mir geht's eher um die Ausreißer

dargo
2017-04-01, 10:06:49
Weiß einer ob der kommende R5 1600(X) einen boxed Kühler dabei haben wird? Afaik hat bisher nur der R7 1700 boxed einen Kühler dabei oder?

scully1234
2017-04-01, 10:11:13
. Ich hoffe da kommt etwas von Nvidia, denn irgendwas ist da gewaltig im argen.

So langsam kommt man bei AMD mit dem Arbeit weiter schieben auf andere Lager wohl nicht mehr hinterher ,erst ist Microsoft der Buhman der Windows nicht hinbekommt für diese CPU ,jetzt ists Nvidias Treiber ec pp

Wer baut denn diese CPU bitteschön:freak:

Immer die anderen vor das Loch schieben ,wenn es irgendwo hackt ist ja so praktisch...

Hoffe mal lieber nicht so viel das andere ihnen die Arbeit abnehmen die sie gefälligst zu stemmen haben

Menace
2017-04-01, 10:14:41
Wer baut denn diese CPU bitteschön:freak:

Immer die anderen vor das Loch schieben ,wenn es irgendwo hackt ist ja so praktisch...

Immer diese Kausalitäten. AMD sollte schleunigst den nvidia-Treiber verbessern bzw. ihre CPU nach den Wünschen der nvidia-Treiber-Kompatibilität bauen. :rolleyes:

Ach scully, Logik ist schon so eine Sache. :freak: Oder war das als Aprilscherz gemeint?

scully1234
2017-04-01, 10:19:13
Ja AMD baut diese CPU ,und die Schuldzuweisungen sind die gleichen wie damals zu Bulldozer Zeiten, immer waren die anderen Schuld am schlechten Abschneiden...

Ja nur nicht das neue Produkt

fondness
2017-04-01, 10:19:48
So langsam kommt man bei AMD mit dem Arbeit weiter schieben auf andere Lager wohl nicht mehr hinterher ,erst ist Microsoft der Buhman der Windows nicht hinbekommt für diese CPU ,jetzt ists Nvidias Treiber ec pp

Wer baut denn diese CPU bitteschön:freak:

Immer die anderen vor das Loch schieben ,wenn es irgendwo hackt ist ja so praktisch...

Hoffe mal lieber nicht so viel das andere ihnen die Arbeit abnehmen die sie gefälligst zu stemmen haben

Entschuldigung, aber wenn es bei AMD-Karten diesen Einbruch nicht gibt, bleiben relativ wenige andere Optionen als das Problem bei NV zu sehen.

dargo
2017-04-01, 10:19:49
So langsam kommt man bei AMD mit dem Arbeit weiter schieben auf andere Lager wohl nicht mehr hinterher ,erst ist Microsoft der Buhman der Windows nicht hinbekommt für diese CPU ,jetzt ists Nvidias Treiber ec pp

Troll bitte wo anders.

Ich habe nirgendwo gelesen AMD würde persönlich irgendwem die Schuld für die aktuell vereinzelt suboptimale Spieleperformance in die Schuhe schieben. AMD sagte sogar selbst, dass es nicht am Windowsscheduling liegt. Ansonsten Link für deine fragwürdige Behauptung bitte. AMD könnte genauso behaupten der DX12 Nvidia Treiber ist in Verbindung mit Ryzen aktuell Schrott, tun sie aber nicht. Nicht irgendwelche Grabenkämpfe in den Foren mit der Realität verwechseln!

Edit:
Das mit der "Arbeit weiter schieben" ist ebenfalls an Peinlichkeit kaum zu überbieten. Optimieren die Developer die Spiele oder AMD plötzlich? Der gleiche Schwachsinn kam schon von dir bzw. deinen Gleichgesinnten in Bezug auf low level. Dabei war mehr Kontrolle am PC der Wunsch schlechthin vieler Spieleentwickler. Nichts anders hat man schon seit Jahren auf Konsolen.

Pirx
2017-04-01, 10:21:12
Ich muss sagen ich bin immer noch baff. Es wurde mehrfach auf die skurielen Ergebnisse hingewiesen. Nach 1 Tag hab ich in diversen Foren geschrieben, dass man Mal die DX12 Ergebnisse ausklammern sollte. Gerade bf1 extrem paradox ist (dx11 vs dx12)

https://www.hardwareluxx.de/community/f11/weshalb-ryzen-eine-hervorragende-gaming-cpu-2017-ist-1156006-12.html#post25369806

Hier im 3DC wurde sogar gefragt ob mit einer AMD Karte gegengetestet wurde. Und man kommt einen Monat nicht auf die Idee Mal mit einem anderen Treiber die Ausreißer zu überprüfen? Am ersten April scheint dies der größte Joke überhaupt zu sein. Es mag hart klingen, aber das sieht ja schon fast nach Vorsatz aus.
Ack, ein Armutszeugnis für alle Beteiligten.
Allerdings hat auch AMD mit dem noch nicht optimalen AGESA seinen Anteil daran.
Es wird außerdem Zeit, daß Vega rauskommt, damit nV mal ein wenig Anreiz für Treiberarbeit bekommt. Auch hier sieht man wieder, wie dringend Konkurrenz benötigt wird.

scully1234
2017-04-01, 10:23:18
Entschuldigung, aber wenn es bei AMD-Karten diesen Einbruch nicht gibt, bleiben relativ wenige andere Optionen als das Problem bei NV zu sehen.

Oder bei der CPU und deren Zusammenarbeit mit anderen Produkten selber, aber nein das ja völlig unmöglich ,denn nur AMD macht seine Hausaufgaben so sorgfälltig wie kein anderer.

Das muss an Produkten und Software liegen die seit Jahren durchaus problemlos liefen , mit jeglichem anderen Hardwaresetup

Darum lieber Microsoft oder Nvidia wahlweisse auch Intel kritisieren, ist ja einfacher wie die Sache mal aufs eigentliche Produkt einzugrenzen

Troyan
2017-04-01, 10:28:58
AMD steht in direkter Konkurrenz zu nVidia. Denen ist es natürlich gelegen, wenn die eigenen GPUs besser abschneiden. Das künstliche Limitieren ist daher genauso möglich wie ein unoptimales Ansprechen des DX12 Treibers bei nVidia.

Mit Bulldozer gibt es absolut keine Probleme. Auch unter Linux mit Vulkan sieht soweit alles in Ordnung aus: http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-madmax&num=2

dargo
2017-04-01, 10:29:27
Darum lieber Microsoft oder Nvidia kritisieren, ist ja einfacher wie die Sache mal aufs eigentliche Produkt einzugrenzen
Nochmal... Quellen für deine absurden Behauptungen! Ansonsten lass es.

Menace
2017-04-01, 10:29:28
Das muss an Produkten und Software liegen die seit Jahren durchaus problemlos liefen , mit jeglichem anderen Hardwaresetup

Ah, ok. Trolllogik erkannt. AMD hat nividas Treiber zu schreiben und AMD ist Schuld, dass sie eine neue Architektur auf den Markt bringen. Intels jahrelange alte Architektur reicht doch völlig. ;D

Edit: Warum editierst Du Deine Postings 5 mal? Angst, dass man Dir sonst jeden Satz auseinander nimmt?

fondness
2017-04-01, 10:30:17
AMD steht in direkter Konkurrenz zu nVidia. Denen ist es natürlich gelegen, wenn die eigenen GPUs besser abschneiden. Das künstliche Limitieren ist daher genauso möglich wie ein unoptimales Ansprechen des DX12 Treibers bei nVidia.

Mit Bulldozer gibt es absolut keine Probleme. Auch unter Linux mit Vulkan sieht soweit alles in Ordnung aus: http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-madmax&num=2

Bei einer künstlichen Limitierung würde sich AMD massiv ins eigenen Fleisch schneiden, immerhin testet praktisch jeder mit einer NV-Karte. Das halte ich für höchst unrealistisch. Zumal dieses Problem bis jetzt noch nicht mal wirklich aufgefallen ist.

Zergra
2017-04-01, 10:31:36
Weiß einer ob der kommende R5 1600(X) einen boxed Kühler dabei haben wird? Afaik hat bisher nur der R7 1700 boxed einen Kühler dabei oder?

https://pics.computerbase.de/7/7/2/5/2/14-1080.4219730851.jpg

scully1234
2017-04-01, 10:33:41
AMD steht in direkter Konkurrenz zu nVidia. Denen ist es natürlich gelegen, wenn die eigenen GPUs besser abschneiden. Das künstliche Limitieren ist daher genauso möglich wie ein unoptimales Ansprechen des DX12 Treibers bei nVidia.


Das möchte ich nicht mal sagen, denn die wollen ihre CPUs ja auch verticken, aber diese absurde Abwälzung von Problemen auf andere Firmen, wenns mal gerade bei der Einführung neuer Produkte nicht so klappt wie gewünscht geht gar nicht

fondness
2017-04-01, 10:35:37
Darum lieber Microsoft oder Nvidia wahlweisse auch Intel kritisieren, ist ja einfacher wie die Sache mal aufs eigentliche Produkt einzugrenzen

Entschuldigung, aber sowohl MS hat mit einem Patch einiges an Performance heraus geholt, ebenso diverse Spieleentwickler. Irgendwas muss der NV-Treiber noch anders machen, dass für diese Einbrüche im Vergleich zu anderen Karten verantwortlich ist, das ich doch offensichtlich.

dargo
2017-04-01, 10:35:42
AMD steht in direkter Konkurrenz zu nVidia. Denen ist es natürlich gelegen, wenn die eigenen GPUs besser abschneiden. Das künstliche Limitieren ist daher genauso möglich wie ein unoptimales Ansprechen des DX12 Treibers bei nVidia.

Mit Bulldozer gibt es absolut keine Probleme. Auch unter Linux mit Vulkan sieht soweit alles in Ordnung aus: http://www.phoronix.com/scan.php?page=article&item=amd-ryzen-madmax&num=2
Du widersprichst dir doch schon im selben Post. Warum hatte dann AMD bei Bulldozer deine sogenannte künstliche Limitierung nicht eingeführt? Dein Link zu Linux und OpenGL vs. Vulkan führt nur ins leere. Nvidia hat am DX11 Treiber gewaltige Änderungen vorgenommen, im Gegensatz zu OpenGL. Auch unter Windows in Doom ist der NV-Treiber im starken CPU-Limit @OpenGL völlig abgekackt. Was die genau bei DX12 treiben weiß niemand. Auf jeden Fall ist es aktuell in Verbindung mit einer Ryzen CPU suboptimal bis Schrott, je nach Spiel bzw. Spielszene.

https://pics.computerbase.de/7/7/2/5/2/14-1080.4219730851.jpg
Danke sehr. =)

scully1234
2017-04-01, 10:41:41
Entschuldigung, aber sowohl MS hat mit einem Patch einiges an Performance heraus geholt, ebenso diverse Spieleentwickler. Irgendwas muss der NV-Treiber noch anders machen, dass für diese Einbrüche im Vergleich zu anderen Karten verantwortlich ist, das ich doch offensichtlich.

Dann hätte man sich im Vorfeld mal mit den Mitbewerbern auseinander setzten müssen, auch wenns schwer fällt, jetzt wo das Kind im Brunnen liegt Rundumschläge zu verteilen, für die eigenen Versäumnisse vor den Release ist nunmal nicht die Schuld der anderen

Tarkin
2017-04-01, 10:46:55
Nächster Kandidat für meine Ignore-Liste und Tschüss scully1234

dargo
2017-04-01, 10:47:00
Dann hätte man sich im Vorfeld mal mit den Mitbewerbern auseinander setzten müssen...
Dagegen sprechen zwei Punkte...

1. Das funktioniert nicht wenn du dein Produkt bis auf die letzte Minute geheim halten willst. Immerhin hat man hier einen extrem starken Konkurrenten Intel und es steht eine Menge auf dem Spiel (imho finde ich Ryzen noch deutlich wichtiger als Vega, mit Ryzen kann AMD deutlich stärker den Markt abdecken).
2. Wer weiß schon ob Monate vorher AM4 Bretter soweit vernünftig gelaufen sind, dass man diese Nvidia zur Verfügung stellen könnte? Die ganzen AM4 Bretter sind selbst einen Monat nach Release immer noch eher im Betastadium, zumindest wenn man mehr als DDR4-2133 anpeilt.

scully1234
2017-04-01, 10:49:00
Diese Kommunikation funktioniert bei anderen im Vorfeld auch und das bereits über Jahrzehnte hinweg bei der Einführung neuer Produkte ohne das Gegenüber verantwortlich zu machen..

Dino-Fossil
2017-04-01, 10:49:01
Ich glaube nicht, dass AMD oder nVidia ein interesse haben, die Performance mit Produkten der Konkurenz (zumal aus dem anderen Sektor) künstlich zu beschneiden.
nVidia will, dass ihre GPUs auch mit AMD CPUs gut laufen und AMD möchte auch Leute, die eine nVidia GPU haben dazu bringen ihre CPUs zu kaufen.
Wenn es am Treiber liegt, wird das sicherlich gefixt, hoffentlich früher als später.

dargo
2017-04-01, 10:50:27
Diese Kommunikation funktioniert bei anderen auch und das bereits über Jahrzehnte hinweg
Super Argument. :uclap: Schau dir an in welcher Position aktuell Intel gegenüber AMD ist. Kurz und knapp... Intel kann es sich leisten.

Menace
2017-04-01, 10:50:46
Dann hätte man sich im Vorfeld mal mit den Mitbewerbern auseinander setzten müssen, auch wenns schwer fällt, jetzt wo das Kind im Brunnen liegt Rundumschläge zu verteilen, für die eigenen Versäumnisse vor den Release ist nunmal nicht die Schuld der anderen

1. Nenne das Zitat, das belegt, dass AMD (!) nvidia die Schuld gibt.
2. Wie soll AMD nvidias Treiber schreiben?

Ich glaube ja gar nicht, dass Deine sakrosankte nvidia das mit Absicht macht, sondern dass es in ihrer Prioritätenliste nicht gerade weit oben steht. Vielleicht ist das aber ein Architekturproblem, dass nvidias Karten bei DX12 weniger Threads bevorzugt?

Wie auch immer, kritisiert wird weniger nvidia, als die Presse, dass sie da nicht nachhakt.

scully1234
2017-04-01, 10:56:23
Super Argument. :uclap: Schau dir an in welcher Position aktuell Intel gegenüber AMD ist. Kurz und knapp... Intel kann es sich leisten.


Und darum fährt man die Taktik Schuld bei allen anderen zu suchen, weil man selbst finanziell nicht auf der Höhe der Zeit ist

Jetzt kommen wir der Wahrheit doch schon näher

dargo
2017-04-01, 11:00:35
Und darum fährt man die Taktik Schuld bei allen anderen zu suchen, weil man selbst finanziell nicht auf der Höhe der Zeit ist

Du laberst immer noch Müll, das habe ich und andere dir schon öfter gesagt. Nenne mir Quellen wo AMD(!) andere diesbezüglich beschuldigt. Ansonsten wird das ein Fall für eine Meldung an die Mods.

Linmoum
2017-04-01, 11:03:04
Diese Kommunikation funktioniert bei anderen im Vorfeld auch und das bereits über Jahrzehnte hinweg bei der Einführung neuer Produkte ohne das Gegenüber verantwortlich zu machen..
Und darum fährt man die Taktik Schuld bei allen anderen zu suchen, weil man selbst finanziell nicht auf der Höhe der Zeit ist

Jetzt kommen wir der Wahrheit doch schon näher
Du wurdest ja schon ein paar Mal dazu aufgefordert: Belege für deine Behauptungen, dass AMD die Schuld bei anderen sucht, oder Füße stillhalten und das dämliche rumgetrolle sein lassen.

scully1234
2017-04-01, 11:06:49
Wer kritisiert denn hier Microsoft ,Nvidia ,oder auch Intel wahlweisse wie es gerade zum Problem passt?

Da brauch ich nur die letzten Seiten durchwälzen für die Quellen die du verlangst

Und euer laber,Rumgetrolle oder sonstige Anspielungen könnt ihr euch sparen, das ist hier eher Meldungswürdig!

dargo
2017-04-01, 11:08:33
Wo wir gerade beim Thema sind... hat sich schon jemand Ryzen + NV Graka vs. Ryzen + Radeon in Vulkan angeschaut? Viel mehr als Doom @Windows wird es da wohl nicht geben. Eventuell noch Dota 2? Wichtig... im CPU-Limit.

Wer kritisiert denn hier Microsoft ,Nvidia ,oder auch Intel ?

Da brauch ich nur die letzten Seiten durchwälzen für die Quellen die du verlangst

:facepalm:

mkh79
2017-04-01, 11:14:05
Wer kritisiert denn hier Microsoft ,Nvidia ,oder auch Intel ?

Da brauch ich nur die letzten Seiten durchwälzen für die Quellen die du verlangst

Und euer laber,Rumgetrolle oder sonstige Anspielungen könnt ihr euch sparen, das ist hier eher Meldungswürdig!
Könntest du bitte mit diesem Unsinn aufhören?
Würde wahrscheinlich nicht nur mich freuen.

Ich lese sehr gerne die konstruktiven Versuche zu erklären, warum Ryzen hier und da mal nicht so performt, wie man es erwarten würde und finde die bisherigen Erkenntnisse sehr spannend.

iuno
2017-04-01, 11:17:18
Und darum fährt man die Taktik Schuld bei allen anderen zu suchen, weil man selbst finanziell nicht auf der Höhe der Zeit ist

Jetzt kommen wir der Wahrheit doch schon näher
Der Schwachsinn ist ja kaum auszuhalten. :facepalm:
Genau das Gegenteil ist doch der Fall! Obwohl jeder Blinde gesehen hat, dass MS Scheisse gebaut hat hat AMD sich oeffentlich hingestellt und gesagt, es sei alles OK. Da sieht man doch erst mal wie schlecht die Firma dasteht, wenn man derart Arschkriechen muss.
Und du kommst hier her und behauptest einfach das komplette Gegenteil ;D Grandios!

Unicous
2017-04-01, 11:17:33
Wäre nett wenn ihr scully nicht andauernd zitieren würdet und ihn stattdessen auf die ignore-Liste packen würdet. Danke.(y)

scully1234
2017-04-01, 11:20:54
Obwohl jeder Blinde gesehen hat, dass MS Scheisse gebaut hat hat AMD sich oeffentlich hingestellt und gesagt, es sei alles OK. Da sieht man doch erst mal wie schlecht die Firma dasteht, wenn man derart Arschkriechen muss.
!

MS hätte genau so wenig "Scheiße" gebaut, wenn man im Vorfeld genauso aktiv gewesen wäre wie andere Firmen auch, was natürlich finanziell aufwendiger ist

Aber sowas sich einzugestehen geht ja nicht, und das ist das selbe Dilemma wie auf anderer Seite mit Nvidia, oder auch gegenüber den Mobo Herstellern, die da mal aus dem Nähkästchen geplaudert hatten vor kurzen

drumnbass
2017-04-01, 11:22:41
[..]

dargo
2017-04-01, 11:29:23
Wo wir gerade beim Thema sind... hat sich schon jemand Ryzen + NV Graka vs. Ryzen + Radeon in Vulkan angeschaut? Viel mehr als Doom @Windows wird es da wohl nicht geben. Eventuell noch Dota 2? Wichtig... im CPU-Limit.

Also ich habe nur das hier gefunden was aber leidet nicht verwertbar ist.
https://www.youtube.com/watch?v=UeqgUVGZj0E
https://www.youtube.com/watch?v=ig56YVhE2uw

Der Typ mit der Radeon hat mit dem Arschbrenner aufgenommen was natürlich viel Leistung kostet. Der Typ mit der GTX1060 war da schlauer und hat shadow play genommen. Warum der Typ mit der RX480 kein ReLive genommen hat ist mir schleierhaft. :freak: Das einzige was mir auffällt... das System mit der GTX1060 fällt in 1080p teilweise Richtung 8xfps, was mir etwas wenig vorkommt. Der Ryzen ist übertaktet und entspricht eher einem R7 1800X. Genaueres weiß man aber natürlich nur im direkten Vergleich.

r-or
2017-04-01, 11:33:50
fast schon OT, weils die X-te wiederholung ist,
aber jetz muss ich das auch mal schreiben..
kann nur einen freund zitieren:
man kann deutsche (HW-)test-seiten garnichtmehr lesen, weil (fast) jeder artikel nach sponsorgeld von intel und nvidia stinkt..

Bullshit.

Das einzige was auffällig ist, dass viele ehemals als investigativ und kritisch wahrgenommene Seiten wie z.B. PCGH (siehe AF bug damals z.B.) heute anscheinend keine Zeit mehr dafür haben bzw. sich das nicht mehr lohnt. Auch bei englischsprachigen übrigens, siehe Anandtech

Konsequenz ist eben, dass wir auch andere, neue Quellen miteinbeziehen müssen. Ja, auch und gerade der 'youtube hansel'. Auch wenn es den Redaktionen nicht schmeckt, dass einzelne Leute sich heutzutage selbstständig machen können und ihnen teilweise den Rang ablaufen können bezüglich Umfang und Qualität des Contents.

Achja und auch wenn es hart klingt: Dinge wie unerträgliche Ads, clickbait etc wird vom Nutzer in den Gesamteindruck miteinbezogen. Man muss sich nicht wundern, weshalb manche Seiten nicht mehr als seriös wahrgenommen werden. Aber so ist das nunmal; wer in dem Sektor neue Entwicklungen verpennt bzw. nicht darauf reagieren kann, der muss gefühlt gegen Windmühlen kämpfen

drumnbass
2017-04-01, 11:41:43
[..]

Slipknot79
2017-04-01, 11:46:09
Wen interessiert eigentlich CPU-Limit? Spielt man plötzlich nun in 720p?

Screemer
2017-04-01, 11:50:33
Auffällig ist mal wieder folgender umstand: es war gute 50 seiten ruhig und es wurden Ursachen und Fehler gesucht. Jetzt nachdem quasi klar ist, dass mit NV Treiber irgendwas unrund läuft und sich diese mit Intel anders verhalten, sind die üblichen im thread eingetroffen. Scully, troyan und birdman. Jetzt fehlen nur noch gmb und blacki und wir haben den thread schnell derailed.

Ich hab am 2.3. (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11307701#post11307701) schon dir Vermutung geäußert, dass was in Kombination mit nvidia nicht passt. Keine sau hat das für voll genommen. Heise muss sowas finden, die sich im Bereich gaming jetzt nicht gerade als Nummer 1 Anlaufstelle platzieren. Ytber weisen seit Wochen auf solche Umstände hin. Auch hier hat sich keine sau dafür interessiert. Lieber wurden allen boards solche Hinweise als fanboyisum abgetan und das in harschester form auch von Redakteuren.

maximus_hertus
2017-04-01, 11:56:06
MS hätte genau so wenig "Scheiße" gebaut, wenn man im Vorfeld genauso aktiv gewesen wäre wie andere Firmen auch, was natürlich finanziell aufwendiger ist

Aber sowas sich einzugestehen geht ja nicht, und das ist das selbe Dilemma wie auf anderer Seite mit Nvidia, oder auch gegenüber den Mobo Herstellern, die da mal aus dem Nähkästchen geplaudert hatten vor kurzen

Der Patchday ist im Februar ausgefallen, es hätte also eh nichts genutzt....

Aber die Realität ist nicht so deine Sache, wie ich merke. Hier ist der Ryzen-Review-Thread, also bitte bleibe on Topic. Dein geheule nervt nur noch, wir wollen hier vernünftig diskutieren, Danke :)

(del)
2017-04-01, 11:59:50
Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht? :confused:

Nur mal eine kleine Zwischenanmerkung:
Ich habe mittlerweile fast zwei Tage investiert, nur um herauszufinden, wie heiß Ryzen-CPUs denn nun wirklich werden. Alles, was hier an Werten rumschwirrt, ist leider irgendwie etwas falsch. Auch AMD's Offset verschiebt nur die CPUs untereinander auf einen gemeinsamen Anfangspunkt. Nur das der in der angzeigten Form leider auch nicht wirklich stimmt. Egal welches Brett.

Glaubt man den Sensoren, dann ist die CPU nämlich sogar ein paar Grad kühler als das Kühlmittel, wenn man in der Lage ist, das Dingens bei 20°C und kälter mit einer konstanten Temperatur zu kühlen. Schwerpunkt liegt auf konstant. Ich habe anfangs wirklich gedacht, ich bin doof. Aber das hebe ich mir zum Ryzen 5 Launch auf. AMD wusste bisher keine Antwort, denn es ist noch keinem aufgefallen (sagt man). ;)

Isen
2017-04-01, 12:03:07
Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht? :confused:


Nö. Indem man auf Ungereimtheiten eingeht und sie näher beleuchtet. Genau das wird ja ignoriert. Aber das ignorierst du ja auch schon bereits, wo ist das also nochmal Investigativ?

Wenn man anmerkt, wieso mit NV Karten @DX12 so krasse Unterschiede vorhanden sind, was ist mit dem Treiber von NV, sofern zutreffend? Solche Anmerkungen werden dann von dir so interpretiert: " wenn es nicht gegen AMD geht? " findest nicht, dass man dann euch Absicht unterstellen mag, wenn man diese Ungereimtheiten anspricht, schlicht als Bias abgestempelt wird? Der Kram geistert nicht erst seit Gestern durch alle Foren. Das einzige was dann kommt sind Fehlerhafte Tests, die das eigentliche Interesse der Ungereimtheiten 0 thematisiert. Nein, solche Ungereimtheiten werden dann einfach als ist so abgestempelt, da wird nicht von selbst mal geschaut... nein.. man wird gleich in eine Schublade gesteckt.

Dino-Fossil
2017-04-01, 12:07:45
Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht? :confused:

Sagt doch niemand, auch wenn es ein paar Fanboys vielleicht (gerne) so sehen würden.
Es wird lediglich darauf hingewiesen, dass ein investigatives Interesse pro AMD teilweise zu vermissen ist.


Nur mal eine kleine Zwischenanmerkung:
Ich habe mittlerweile fast zwei Tage investiert, nur um herauszufinden, wie heiß Ryzen-CPUs denn nun wirklich werden.

Hört man nicht seit Jahren, dass den Sensorwerten teilweise nicht zu trauen ist?
Zumindest kommt sowas wie T_cpu<T_Umgebung anscheinend immer wieder mal vor. Nunja, ich bin mal gespannt auf deine Ergebnisse.

dargo
2017-04-01, 12:10:06
Ich habe mir jetzt mit meinem 3,7Ghz Hassi und R9 390 Doom @Vulkan in 1080p in den Kampfarenas angeschaut. Auch ich komme da teilweise in den 8xfps Bereich. Allerdings bringt das uns nicht weiter da die Graka limitiert. Gehe ich auf 720p runter sind es 14xfps. :freak: Ergo nützt eine GTX1060/RX480 auch nichts. ;)

Screemer
2017-04-01, 12:10:50
Das die ausgelesenen Werte hinten und vorne nicht zusammenpassen ist doch seit Tag 1 klar. Da gibt es Varianzen, die mehr als augenscheinlich sind. Imho ist die einzige Möglichkeit an ordentliche Werte zu kommen, den IHS abzunehmen und per Probe an mehreren Stellen um den die zu messen (sind natürlich keine dieinternen Werte). Das ist einfach kack aufwändig und risky. Vor allem wenn man sich seine samples selber beschafft oder vorgaben bekommt, dass diese intakt bleiben müssen.

Ich kann ganz ehrlich gesagt auch nicht verstehen, wie amd sowas auf die tester los lassen kann. Ich gehe davon aus, dass die internen Sensoren verlässliche daten liefern können, denn das müssen sie fürs powermanagment und xfr ja, aber es nicht ordentlich nach außen geliefert wird.

Gimmick
2017-04-01, 12:26:49
Nur mal eine kleine Zwischenanmerkung:
Ich habe mittlerweile fast zwei Tage investiert, nur um herauszufinden, wie heiß Ryzen-CPUs denn nun wirklich werden.

Du brauchst einen Standardkühler und misst dann bei konstanter Drehzahl des Lüfters die Temperatur des Luftstroms ;D
Kannste zumindest vergleichen :X

scully1234
2017-04-01, 12:35:36
Der Patchday ist im Februar ausgefallen, es hätte also eh nichts genutzt....


Lesen ist nicht so deine Stärke ?

wenn man im Vorfeld genauso aktiv gewesen wäre wie andere Firmen auch


Es gab auch Patchdays vor dem Februar Termin, bei der man mit aller Gründlichkeit hätte wirken können, zusammen mit Microsoft

Das selbe gilt auch und das sage ich nochmal für den Mitbewerber Nvidia oder aller anderen involvierten

Schade das nicht mehreren Geschäftskunden der Kragen so geplatzt ist ,wie im Mobo Bereich, sonst würde das Finger zeigen auf andere im Umfeld hier gewiss arg limitiert sein:wink:

anddill
2017-04-01, 12:44:54
Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht? :confused:

Nur mal eine kleine Zwischenanmerkung:
Ich habe mittlerweile fast zwei Tage investiert, nur um herauszufinden, wie heiß Ryzen-CPUs denn nun wirklich werden. Alles, was hier an Werten rumschwirrt, ist leider irgendwie etwas falsch. Auch AMD's Offset verschiebt nur die CPUs untereinander auf einen gemeinsamen Anfangspunkt. Nur das der in der angzeigten Form leider auch nicht wirklich stimmt. Egal welches Brett.

Glaubt man den Sensoren, dann ist die CPU nämlich sogar ein paar Grad kühler als das Kühlmittel, wenn man in der Lage ist, das Dingens bei 20°C und kälter mit einer konstanten Temperatur zu kühlen. Schwerpunkt liegt auf konstant. Ich habe anfangs wirklich gedacht, ich bin doof. Aber das hebe ich mir zum Ryzen 5 Launch auf. AMD wusste bisher keine Antwort, denn es ist noch keinem aufgefallen (sagt man). ;)

Meinst Du die Sägezahnkurve, die physikalisch völliger Blödsinn ist?
Mal zeigt mein Board mit der Postcode-Anzeige nach den Boot in Idle 30-40°C an, dann wieder bekomme ich im Idle eine Anzeige die im Sekundentakt so geht:
55-55-66-64-62-60-57-55-54-65-63-60-58-56-67 usw.
Auch alle Auslesesoftware macht diesen Blödsinn mit. Real dürften die halbwegs konstanten 30-40° sein. Zumindest nach meinem Gefühl wenn ich mal mit dem Finger an die Heatpipes direkt über der Kontaktplatte fasse.

Besonders schön ist daß die Lüfterregelung auch diese Werte verarbeitet und mit hektischem Rumgeregele darauf reagiert, wenn man nicht nach jedem BIOS-Flash alles wieder per Hand auf träge umstellt.

hmmm
2017-04-01, 12:45:40
Was ich mich hier frage ist:
Bestreitet hier wirklich noch einer dass der Nvidia Treiber einen Patch für Ryzen benötigt?

Es geht nicht um Schuld, das können wir sowieso nicht klären.

aufkrawall
2017-04-01, 12:46:18
Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht? :confused:

Hat man bei einigen hier schon den Eindruck, ja. :D
Es ist aber schon etwas dran, dass es so aussieht, als würde Ryzen noch etwas durch manche Umstände behindert. Einige von AMD mitverschuldet wie das Chaos bei Boards/Speicher, andere wohl nicht (Coreparking/DX12-Treiber).

Kdr
2017-04-01, 12:51:00
Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht? :confused:

Nur mal eine kleine Zwischenanmerkung:
Ich habe mittlerweile fast zwei Tage investiert, nur um herauszufinden, wie heiß Ryzen-CPUs denn nun wirklich werden. Alles, was hier an Werten rumschwirrt, ist leider irgendwie etwas falsch. Auch AMD's Offset verschiebt nur die CPUs untereinander auf einen gemeinsamen Anfangspunkt. Nur das der in der angzeigten Form leider auch nicht wirklich stimmt. Egal welches Brett.

Glaubt man den Sensoren, dann ist die CPU nämlich sogar ein paar Grad kühler als das Kühlmittel, wenn man in der Lage ist, das Dingens bei 20°C und kälter mit einer konstanten Temperatur zu kühlen. Schwerpunkt liegt auf konstant. Ich habe anfangs wirklich gedacht, ich bin doof. Aber das hebe ich mir zum Ryzen 5 Launch auf. AMD wusste bisher keine Antwort, denn es ist noch keinem aufgefallen (sagt man). ;)

Darum ging es jetzt doch nicht. Außerdem wechselst du schon wieder das Thema und bringst, wie so oft schon, deine Leidensgeschichte als Tester.

Außerdem zeigen deine Aussagen eh, dass du keinen Bock of Ryzen hast:
Die MSI in einer Einzelsendung aus China.... Ein Sample ist heute bereits kaputt angekommen *kotzmodus*
Ich mache nä. Woche Urlaub, dann kommt ja Ryzen *nochmalkotzmodus*
Reviews also leider erst in zwei Wochen nach der tollen CPU :(

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11334601&postcount=603

vinacis_vivids
2017-04-01, 12:54:45
Hat man bei einigen hier schon den Eindruck, ja. :D
Es ist aber schon etwas dran, dass es so aussieht, als würde Ryzen noch etwas durch manche Umstände behindert. Einige von AMD mitverschuldet wie das Chaos bei Boards/Speicher, andere wohl nicht (Coreparking/DX12-Treiber).

Das mit dem Boards/Speicher ist nun schon ne alte Laier mit dem du hier wieder kommst. Ist bei nem Launch von ner neuen CPU vom Underdog nun eben nicht so fein poliert wie bei der 7.Iteration vom Marktführer. Was soll diese alte Soße schon wieder?

Screemer
2017-04-01, 12:58:09
Was ivestigativen Journalismus Begriff ist isens post von oben eigentlich nichts mehr hinzuzufügen. Anmerken will ich aber noch, dass es in Redaktionen Zeitpläne gibt und die resorts eigentlich nicht gerade mit mittel (mannstunden, Geld) zugeschüttet werden. Das sieht man bei Igor doch super. Der produziert quasi alles was an Messergebnissen bei purch auf zig seiten verarbeitet wird. Seine Ergebnisse erscheinen bei thg auf der ganzen Welt. Das ist quasi ein einmann job. Da kann man schlicht nicht alles abdecken und vor allem nicht jedem lead nachgehen, der einem zugetragen wird. Wie aufwendig das ist zeigt sein Beispiel mit den sensorwerten und den Temperaturen perfekt. In anderen Redaktionen verhält es sich ähnlich. Es kann hier wohl keiner ermessen, wie viel zeit pcgh in das aots-desaster gesteckt hat. Stellt euch mal vor ihr arbeitet 2 Tage an etwas und seid stolz darauf und überzeugt gute Arbeit abgeliefert zu haben. Nach dem Wochenende kommt jemand und eröffnet euch, dass das was Uhr da abgeliefert habt Jacke ist. Nicht euer Fehler zwar aber von zweiter stelle gab es falsche infos auf denen eure Arbeit aufbaut. Das ist völlig verschwendste doch zeit und extrem frustrierend, auch im redaktionellen umfeld, die man auch gut in andere dinge investieren könnte. Das ist überhaupt nicht mit einzellenen ytern vergleichbar. Die scheiden sich auf was ein und haben manchmal Glück eben genau das zu treffen, was wirklich wichtig ist. Die 100te male, wo sie daneben liegen oder nix veröffentlicht obwohl sie dutzende Stunden versenkt haben, will ich gar nicht wissen. Verdient man seine Brötchen mit sowas, dann verhält sich das ganz anders. Da muss man liefern oder hungern.

scully1234
2017-04-01, 12:58:43
andere wohl nicht (Coreparking/DX12-Treiber).

Anders gefragt, was sollten MS oder Nvidia für Gründe haben,ihre eigenen Produkte im Verkauf zu verschlimmbessern, außer sie bekämen eben nicht genug Input von zuständiger Seite dafür?

aufkrawall
2017-04-01, 12:58:50
Das mit dem Boards/Speicher ist nun schon ne alte Laier mit dem du hier wieder kommst. Ist bei nem Launch von ner neuen CPU vom Underdog nun eben nicht so fein poliert wie bei der 7.Iteration vom Marktführer. Was soll diese alte Soße schon wieder?
Weil diese alte Soße/Laier (entscheid dich mal) offenbar teilweise immer noch aktuell ist?

Menace
2017-04-01, 13:00:58
Schade das nicht mehreren Geschäftskunden der Kragen so geplatzt ist ,wie im Mobo Bereich, sonst würde das Finger zeigen auf andere im Umfeld hier gewiss arg limitiert sein:wink:

Du bleibst Belege für Deine Anschuldigungen noch immer schuldig. Solange das so ist, nenne ich Dich Troll.

Du meinst den einen anonymen Mitarbeiter, der zugab, dass sie vor dem chinesischen Neujahr erst die intel-Boards fertig machen sollten? Wie viele Sockel gibt es eigentlich pro Jahrzehnt von intel (ernstgemeinte Frage)? Wird für jede neue CPU-Generation ein neues Board fällig?

@Unicous: Bzgl. Ignorieren
Ja, man sollte scully, gmb, birdman, troyan, achranoxer, schaffe, ignirgendwas,... auf Igno setzen, aber die Gefahren dieses Ignorierens sieht man doch überall: Esoterik nimmt überhand, Impfen gilt als gefährlich, die Erde als flach oder hohl, die Redakteure als großangelegte AMD-Leugner, .... Wenn man diese Trolle nicht widerspricht glauben das am Ende noch Unbedarfte.

Schaffe89
2017-04-01, 13:02:24
Die weltweiten Tests haben 1 Monat gebraucht um herauszufinden, dass die Anomalien an dem Nvidia Treiber liegen

Die Anomalien/Rückstände liegen nicht generell am Nvidia Treiber, sondern bisher nur am Nvidia Treiber in einem Beispiel (Tomb Raider).
Aber ich kann dir ja mal einen Tipp geben was passieren wird, wenn du alle Benchmarks mit AMD Grafik (Vega) durchführen wirst.

Dann werden die AMD CPU´s mit schwächerer Singlethreadperformance mit dem höheren Overhead in Directx11 zu kämpfen haben, weil AMD in dieser API mehr Overhead produziert, das heißt es ist überhaupt nicht sicher ob das im Schnitt über die Tests überhaupt etwas bringen wird die Grafikkarte in eine AMD zu tauschen, aber du weißt es jetzt schon bevor überhaupt jemand das gemacht hat.:facepalm:

Du pickst dir ständig irgendwelche Kirschen heraus und verallgemeinerst diese sofort, lass doch den Unsinn mal, das ist ja wirklich wie im Kindergarten.

Der 3D Center Index zeigt vor allem eines => großen Abweichungen der Testseiten, die Performance ist also bisher nicht korrekt erfasst. :freak:

Das sind keine großen Abweichungen. Untersch. Software produziert eben untersch. Ergebnisse, das gleiche hatten wir schon in x anderen Prozessortests. Jetzt nötigt ihr die Redaktionen mit einer AMD GPU im CPU Limit zu testen und was wird sich dann im Benchmarkparcour prozentual ändern? Vll 2%, oder 1%?

Vielleicht wird sich auch gar nichts ändern, weil der Nivida-Treiber in anderen Spielen eben mehr FPS mit Ryzen raushaut.

b) der (Nvidia-)Treiber nicht korrekt mit Ryzen arbeitet

In wievielen Fällen? EInem oder zwei?:rolleyes:
Ich sag ja nicht mal dass das nicht getestet werden soll, sondern es einfach nur albern ist solch einen Hype darüber zu erzeugen.

Und ich sag dir eins, Ende diesen Jahre ist ein QuadCore, egal mit welchem Takt Entry-Gaming. Da gehört er meiner Meinung nach auch schon lange hin.

Aber nur weil AMD günstige 8 Kerner released hat. Hätte es Intel getan, würdest du genau anders herum argumentieren.:redface:
Entry Gaming vielleicht vom Preis her, aber nicht von der Leistung, das wirst du spätestens dann sehen wenn AMD seine 4Kern 8 Thread CPU´s herausbringt, die werden nämlich die Gaming Empfehlung schlechthin werden.:)

(del)
2017-04-01, 13:06:08
Darum ging es jetzt doch nicht. Außerdem wechselst du schon wieder das Thema und bringst, wie so oft schon, deine Leidensgeschichte als Tester.
Außerdem zeigen deine Aussagen eh, dass du keinen Bock of Ryzen hast:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11334601&postcount=603

Es ist schon merkwürdg, dass man scheinbar jeden Pups noch mit Ironietag versehen muss, nur damit die Kleingeister nicht sofort bellend übers Stöckchen springen. Ich habe nach der Lektüre der letzten Seiten einfach das Gefühl gehabt, dass als nächstes gleich wieder Lügenpresse kommt. Da wird eine etwas spitze Bemerkung ja wohl mal erlaubt sein. Ihr teilt doch auch ständig großzügigst aus... :freak:

Und Ryzen? Tech-Day, 1001 Vorankündigung, Launchreview, Follow-Up in DE und FR, zwei getrennte Follow-Ups in Nordamerika, drei verschlissene Mainboards und insgesamt bisher über drei Wochen reine Arbeitszeit. Und alles in klitzekleinen Scheibchen. Dass man dann ab und an etwas die Lust verliert ist ja wohl nachvollziehbar. Viel dünner kann man den Ryzen-Teig ja nun wirklich nicht mehr auswalzen :D
Mein US-Kollege, mit dem ich die ganzen Sachen arbeitsteilig erledige, sitzte schon an der Latenzgeschichte mit einer neuen Methode der Messung. Auch hier fließt jede Menge Zeit rein, die die Stöckchenspringer nicht sehen. Ohne Bock würde man das doch gar nicht erst machen. Also macht mal halblang. Emotionale Schieflagen als Folge einer einseitig erzwungenen Prioritätetenverteilung ändern doch nichts an der eigenen Arbeitseinstellung.

@anddill:
Schön, wenn wenigstens einer mal liest, was man eigentlich schreiben wollte und nicht nur sein Testosteron in Foren ablädt. Ich meine den Basiswert allgemein. Ich habe mittlerweile nachweisen können, dass die CPU bei der Kühlung mit einer konstant 20°C kalten Flüssigkeit (geregelter Kompressorkühler, 10 Liter Puffer, 40l/min Durchlauf) im Idle deutlich weniger anzeigt. Nehme ich bei den CPUs mit Offset (AMD meint -20°C) selbigen weg (z.B. 1800X oder 1600X), dann landen alle CPUs im Idle mit einem dann sehr ähnlichen Wert deutlich unterhalb dessen, was die Umgebung selbst bietet. Selbst bei 20Watt Verlustleistung ist sie laut Sensoren immer noch kühler als die sie kühlende Flüssigkeit. Irgendwie schon paradox und von AMD nicht zu erkären. Die suchen gerade nach einer plausiblen Antwort. Man muss die Teile halt mal unter Laborbedingungen testen.

G3cko
2017-04-01, 13:12:27
AMD steht in direkter Konkurrenz zu nVidia. Denen ist es natürlich gelegen, wenn die eigenen GPUs besser abschneiden. Das künstliche Limitieren ist daher genauso möglich wie ein unoptimales Ansprechen des DX12 Treibers bei nVidia.

Das ist falsch und ich erkläre gerne weshalb.

Einer der größten Fehler von AMD war es ATI ebenfalls als AMD zuvermarkten. Das hat man Jahre lang so durchgezogen und musste zusehen wie die Marktanteile beider Gruppen signifikant sanken. Ich behaupte mal, dass lag hauptsächlich an dem negativen Image aufgrund der Bulldozer CPUs. Das projeziert man halt auch auf andere Produkte. Und Negative Dinge wiegt immer schwerer als positives.

Erst als man ansehen musste wie die Marktanteile auch im GPU Bereich in kritische Bereich rutschten kam es zu einem Umdenken. Nicht umsonst gab es Gerüchte zu einer Abspaltung und Ausgliederung der Radeon-Group. Plötzlich wurden AMD GPUs mit Intel CPU gebundelt. Und beim Zenrelease zeigte man sogar eine TitanX. Sowas wäre Jahre vorher undenkbar gewesen.

Intel stört es nicht, wenn AMD freiwillig weniger CPUs verkaufen möchte und daher Intel CPUs mit einer AMD GPU gebundelt werden. Anders sieht es da bei nvidia aus.

Als die Konsolendeals entschieden waren, beschloss man mit Maxwell ein Ass aus dem Ärmel zu ziehen. Zusätzlich stand mit den Konsolendeals auch fest, dass AMD die Technologien im Gamingsektor zukünftig platziert. Man versucht also dies aktiv solange herauszuzögern wie nur möglich. Dies tat man mit einem besseren DX11 Treiber und Gameworks. Bestes Beispiel Project Cars. (Noch nie so ein CPU-lastiges Rennspiel gesehen)

Ich würde noch nichteinmal sagen, dass der Nvidia DX12 Patch nur schlecht mit Ryzen läuft. Ich würde sagen er ist generell schlecht. Gut Möglich, dass man bereits eine deutlich bessere Version in der Hinterhand hat, aber man versucht eben solange vom DX11-Zeitalter zu profitieren wie nur möglich.

AMD platziert nun mal CPU und GPU in den Konsolen und ich würde sagen, dass aktuell nvidia technologisch bereits AMD hinterherläuft. Es verwundert daher nicht, dass man DX11 bei AMD nur noch stiefmütterlich behandelt und schleunigst ins low-level-Zeitalter möchte.

Mich würde es daher nicht wundern, wenn nvidia Zen aufgrund der hohen Marktanteile die man aktuell im GPU-bereich hält ebenfalls zumindest vorerst Stiefmütterlich behandelt. Das würde zu dem propritären Ansatz des Unternehmens gut passen.

Schaffe89
2017-04-01, 13:16:28
Also, wenn eine 32 Kern Server CPU sagen wir mal 350 Euro kosten würde, würdest Du den ernsthaft gegen einen I7 testen. Das ist lächerlich und Du weißt, dass auch.

Wir vergleichen aber keine 32 Kern Workstation CPU mit einer Mainstream CPU.
Wir vergleichen 2 Mainstream CPU´s auf einem Mainstream Sockel für den gleichen Preispunkt, der eine hat 4 Kerne der andere 8.
Das gleiche Thema hatten wir bei Bulldozer schonmal oder hast du den Bulldozer damals mit den Intel 6 oder 8 Kernern verglichen?:rolleyes:

Nö, man hat nach Preispunkt entschieden. Genau tut mans auch bei Sockel 2011-3 gegenüber Ryzen, was dort zu massiven Vorteilen für Ryzen führt.
Da sagt du doch auch nicht, das soll man nicht, weil die Platform von Ryzen 7 mickriger ist. (Kein Quadchannel, weniger Lanes, gegebenenfalls weniger in der CPU)

Instabilitäten werden mit der Zeit beseitigt, das ist kein Grund diese CPU nicht entsprechend zu klassifizieren.

Du weichst doch den guten Argumenten nur deswegen aus, weil die Leute mit einer 8 Kern CPU halt nicht viel anfangen können und höher getaktete 4 Kerner meist genausogut wenn nicht besser für den Heimanwender sind. Das galt aber auch schon zuvor. 7700k vs 6800k. Aufpreis lohnt für Anwendungsgebiet XY nicht, ergo wird der 7700k gekauft.

Und wie gesagt, nicht die CPU hat ne Schwäche sondern die Spiele haben keine vernüftige Anpassung an die CPU.

Das trifft in einigen wenigen Fällen sicher zu, aber das wird Ryzen auch overall nicht spürbar schneller machen, aber es ist schön dass du das wirklich für möglich hältst.

Ich weiß nicht, warum das nicht in Deinen Schädel geht aber seis drum.

Weil es einfach unschlüssig ist. Du pochst doch auch nicht bei Grafikkarten darauf nur Karten mit gleich vielen Shadern zu testen und andere deswegen nicht miteinander zu vergleichen.

Übrigens ich hab hier zu Hause nur Intel Krempel stehen.

Und ich hab aktuell ne AMD RX470 in meinem Gaming System, wen interessierts welche Hardware man besitzt.:redface:

Screemer
2017-04-01, 13:17:25
Die Anomalien/Rückstände liegen nicht generell am Nvidia Treiber, sondern bisher nur am Nvidia Treiber in einem Beispiel (Tomb Raider).


Na da hast du aber ordentlich was verpasst. Selektive Wahrnehmung?

...

Dieser post von dargo oder das aktuelle the Division Video von sumpfeule sind dur wohl entgangen?

dargo
2017-04-01, 13:18:33
Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht? :confused:

Sorry, aber was soll das? Findest du sowas normal?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11337016&postcount=3759
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11336901&postcount=3735

Nach diesen Erkenntnissen... wer will mir garantieren, dass der DX11 Treiber von NV Ryzen nicht ebenfalls ausbremst (Vorsicht! reine Spekulation)? Natürlich nicht in so einem Umfang wie bei dem Unfall @Mountain Pass in RotTR @DX12. Aber lass es mal 5-10% sein. Hier paar Prozent, beim Coreparking paar Prozent, bei Spielepatches paar Prozent. Die einzelnen Bereiche mögen noch relativ unbedeutend sein, es summiert sich aber.

Troyan
2017-04-01, 13:18:44
Bei Youtube hat jemand einen 1700 und GTX1070:
https://youtu.be/Xo8tUEqLKPM?t=29

An der selben Stelle komme ich mit i7-3770 und GTX1080@1700MHz auf 75FPS (~50% höher) und einer CPU-Auslastung von >90% (hüpft dauernd zwischen 85 und 100%):
https://abload.de/thumb/rottr_2017_04_01_12_54rs3e.png (http://abload.de/image.php?img=rottr_2017_04_01_12_54rs3e.png)

Was zeigt uns dieser Vergleich:
Tomb Raider erstellt unter DX12 arbeit für 8T, um die CPU vollständig auszulasten. Eine CPU mit mehr Threads erhält also nicht mehr arbeit. In diesem Fall verteilt das OS die Arbeit auf die vorhandenen Threads. Tja und mit Ryzen ergibt sich hieraus eben einige Probleme.

Ich denke, wenn man bei Ryzen die "Zugehörigkeit" auf die realen 8 Kerne bzw. auf einem Kernverbund beschränkt, dann wird die Leistung massiv steigen.

Das hat wiederum auch nichts mit den Treibern von nVidia zu tun. Das Verteilen der Arbeit ist Aufgabe des Betriebssystem und nicht des Treibers.

(del)
2017-04-01, 13:20:28
Sorry, aber was soll das? Findest du sowas normal?


Dazu so viel: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11337590#post11337590

vinacis_vivids
2017-04-01, 13:24:13
Ich denke, wenn man bei Ryzen die "Zugehörigkeit" auf die realen 8 Kerne bzw. auf einem Kernverbund beschränkt, dann wird die Leistung massiv steigen.

Das hat wiederum auch nichts mit den Treibern von nVidia zu tun. Das Verteilen der Arbeit ist Aufgabe des Betriebssystem und nicht des Treibers.

:freak:

+1 I-Liste

dargo
2017-04-01, 13:30:58
Ich denke, wenn man bei Ryzen die "Zugehörigkeit" auf die realen 8 Kerne bzw. auf einem Kernverbund beschränkt, dann wird die Leistung massiv steigen.

Das hat wiederum auch nichts mit den Treibern von nVidia zu tun. Das Verteilen der Arbeit ist Aufgabe des Betriebssystem und nicht des Treibers.
Wieder was gelernt. Ich wusste gar nicht, dass AMD plötzlich die Aufgaben von Microsoft übernimmt. :lol:

Aldaric
2017-04-01, 13:37:09
Achso, also das Betriebssystem verteilt unter DX11 generell richtig, unter DX12 dann nur noch bei AMD. Bei Nvidia hat das Betriebssystem dann plötzlich geistigen Durchfall und kann sich nicht mehr erinnern was DX12 überhaupt ist.

vinacis_vivids
2017-04-01, 13:37:43
Und der nächste Aprilscherz.

Schaffe89
2017-04-01, 13:38:47
Das du es nach wochen und Monaten immer noch nicht verstehst.
Intel hat keine per se bessere "pro thread" Leistung.

Sagt doch auch keiner.:redface:
Aber man wird ja noch sagen dürfen, dass Intel (7700k) in Punkto Spielen eben genau das hat, ansonsten wäre bei multithreaded Titel wie Watchdogs 2 auch kein 6900k 20% vor dem Ryzen wie bei x anderen Titeln auch.

(also eben genau nicht richtung intel/amd compiliert sind), weil sie eben genau zur vergleichbarkeit und leistungsmessung dienen.

Anwendungen zur Leistungsmessung einer CPU für Spiele zu benutzen ist graue Wunschdenken-Theorie und wurde über die Jahre immerschon widerlegt da Spiele einfach anders reagieren, weil in der CPU andere Abläufe geschehen als in Anwendungen.
Bestes Beispiel ist der Phenom II 965 gegen den i5 750. Während letzterer in Anwendungen sogar ein bisschen schneller war, lag er in Spielen deutlich zurück.

Das siehst du schön bei diesem Test:
https://www.computerbase.de/2010-12/test-prozessoren-2010/28/

Beide 4Kerne, beide 4 Threads, daran hat sich bis heute nichts geändert.
Also bitte an die Fakten halten und nicht alternatives Zeug verbreiten.

Den einzigen Vorteil von Intel siehst du im Spielebereich, was eine absolute momentaufnahme ist.

Was einfach nur eine Spekulation ist, die du versuchst als Fakt zu verkaufen.
Sofern alle Nachtests evtl. auch mit anderer Grafikkarte ( AMD ), optimierten Spielen durch sind, kannst du es dir nochmals anschauen und dann die Fakten prüfen.
Sollte es sich ändern und der Ryzen 7 1800x wie in Cinebench 10% vor dem 6900k liegen, schicke ich dir 2 Kästen Warsteiner an deine Adresse.

Und man muss weder ein mathematisches Genie sein noch Logikexperte um den Schluss eindeutig ziehen zu können, das dieser effekt nur auf der Softwareseite (compilierter Code) liegen kann.

Nein, man muss eher Verschwörungstheoretiker sein um das behaupten zu können.
AMD zeigt auch in einige Anwendungen (speicherlastige) einen Einbruch in der Performance, was, wie PCPer festgestellt hat definitiv an der langsameren CCX Verbindung und an den getrennten L3 Caches liegt. Das ist ein Bottleneck das unwiderruflich etwas Performance kostet und das kannst du nicht SOftwareseitig korrigieren, genausowenig wie Intels lahmen FSB damals.
In Cinebench macht das halt einfach mal gar nichts aus, da jeder CPU Kern an seinem eigenen Code arbeitet kaum Informationen über das CCX mit den anderen Cores teilen muss, deswegen wählte AMD diesen Benchmark.
Und genau deswegen testete AMD die Spiele in jeder Präsentation 4k um ins GPU limit zu laufen zu lassen.

Das ist wirklich simpelste Logik.

Nein, das ist lächerliche Verschwörungstheorie ohne Beweislage.:rolleyes:

Wir haben also ausschliesslich bei !gegenwärtigen! spielen einen "nachteil" der AMD CPUs.

Dann flieg für uns in die Zukunft und teste Spiele in der Zukunft und flieg wieder zurück, aber hör doch mal auf Behauptungen aufzustellen, die nichts weiter als Verschwörungstheorien sind.

Rein objektiv betrachtet ist dieser allerdings philosophischer und rein theoretischer Natur da die CPU Leistung unter nahezu allen aktuellen Spielen und konstellationen vollkommen ausreicht

Auf der einen Seite bist du so erpicht, dass die Leistung im CPU Limit in Spielen zunimmt und fährst mich zum wiederholten male (Beiträge von dir sind mittlerweile gelöscht) an um danach philosophisch zu sagen es sei ja eh egal.
Keine Ahnung was das nun wieder soll, entweder man vergleicht die Leistung vernünftig oder eben nicht.
An philosophien Gedudel ist rein nichts objektiv, sondern einfach nur esoterischer Müll denn wenn die CPU Leistung eh in Spielen ausreicht, dann brauche ich erst recht nicht auf Ryzen upzugraden, sondern kann auch einen i3 oder einen AMD FX nehmen.:facepalm:

Keine Ahnung. Du gehst davon aus jedes Spiel wird mit Ryzen so optimiert dass man dann die gleiche Leistung wie in Cinebench erreicht. Darum gehts dir, das wird aber aufgrund von Schwächen im Design die auch in Anwendungen ersichtlich sind, nicht passieren und das heißt nicht dass ich das negativ meine, sondern es halt einfach so ist.

BK-Morpheus
2017-04-01, 13:43:10
Bei Youtube hat jemand einen 1700 und GTX1070:
https://youtu.be/Xo8tUEqLKPM?t=29

An der selben Stelle komme ich mit i7-3770 und GTX1080@1700MHz auf 75FPS (~50% höher) und einer CPU-Auslastung von >90% (hüpft dauernd zwischen 85 und 100%):
https://abload.de/thumb/rottr_2017_04_01_12_54rs3e.png (http://abload.de/image.php?img=rottr_2017_04_01_12_54rs3e.png)

Was zeigt uns dieser Vergleich:
Tomb Raider erstellt unter DX12 arbeit für 8T, um die CPU vollständig auszulasten. Eine CPU mit mehr Threads erhält also nicht mehr arbeit. In diesem Fall verteilt das OS die Arbeit auf die vorhandenen Threads. Tja und mit Ryzen ergibt sich hieraus eben einige Probleme.

Ich denke, wenn man bei Ryzen die "Zugehörigkeit" auf die realen 8 Kerne bzw. auf einem Kernverbund beschränkt, dann wird die Leistung massiv steigen.

Das hat wiederum auch nichts mit den Treibern von nVidia zu tun. Das Verteilen der Arbeit ist Aufgabe des Betriebssystem und nicht des Treibers.

Gibt ein schönes Video, wo jemand genauer bei Tombraider zwischen DX11 und DX12 vergleicht (mit 1070 glaube ich). Nachdem der Ryzen unter DX12 dort so stark einbricht, packte er mal 2x RX480 Karten rein und hat wieder verglichen. Siehe da, Ryzen bricht nicht mehr ein unter DX12, außer es wird eine Nvidia Karte eingesetzt.
https://youtu.be/0tfTZjugDeg?t=11m5s

aufkrawall
2017-04-01, 13:43:24
@Schaffe:
Ich finde nicht, dass dein Feldzug hier einen sinnvollen Ausgleich zu den anderen Fanboys darstellt. Die Qualität des Forums würde deutlich steigen, würde man dich und vinacis_vivids konsequent ignorieren. Aber so ein "Stuss-Boykott" funktioniert in der Praxis halt leider nicht... ;(

Troyan
2017-04-01, 13:48:58
ct hat ebenfalls Benchmarks: https://www.reddit.com/r/Amd/comments/62s11m/german_tech_magazine_ct_did_a_test_with_a_fury_x/?sort=old

Vielleicht hat jemand hier eine Fury X Karte mit einem 8T Intel-Prozessor und kann die CPU-Auslastung in Tomb Raider mal zeigen.

Wieder was gelernt. Ich wusste gar nicht, dass AMD plötzlich die Aufgaben von Microsoft übernimmt. :lol:

Sage ich das irgendwo?
Der DX12 Treiber von nVidia macht das, was er tun soll: Anwendungsanforderungen umsetzen. Wenn die Anwendung eben 8T will bzw. arbeit für 8T erzeugt, dann wird dies durch den Treiber realisiert. Auf welchen Cores und auf welchen Threads das abgearbeitet wird, ist nicht aufgabe des DX12 Treibers.

Die Anforderung von Tomb Raider haben sich mit DX12 gegenüber DX11 verdoppelt: Statt 4T werden nun 8T benötigt, um die beste Leistung zu erreichen.

vinacis_vivids
2017-04-01, 13:52:25
Gibt ein schönes Video, wo jemand genauer bei Tombraider zwischen DX11 und DX12 vergleicht (mit 1070 glaube ich). Nachdem der Ryzen unter DX12 dort so stark einbricht, packte er mal 2x RX480 Karten rein und hat wieder verglichen. Siehe da, Ryzen bricht nicht mehr ein unter DX12, außer es wird eine Nvidia Karte eingesetzt.
https://youtu.be/0tfTZjugDeg?t=11m5s

Pascal ist ein natives DX12 Krüppel, besonders wenn man die Auflösung höher schraubt. Nur die Erhöhung der Rohleistung und Ausbau des Speichers hat bisher etwas darüber hinweggetäuscht.
Ist aber auch nicht weiter verwunderlich, weil die mArch schon altbacken ist und der technologische Rückstand zu AMD bisher durch <=DX11 Titelpacour weitgehend verwischt wurde.

Conner_Ray
2017-04-01, 13:54:41
Also bitte an die Fakten halten und nicht alternatives Zeug verbreiten.

Fakt ist, einige Spiele haben eine "Ryzenschwäche"

Keine Ahnung was das nun wieder soll, entweder man vergleicht die Leistung vernünftig oder eben nicht.

eben, wenn man die Rohleistung einer CPU testen will nimmt man halt keine Spiele ;)


das wird aber aufgrund von Schwächen im Design die auch in Anwendungen ersichtlich sind, nicht passieren und das heißt nicht dass ich das negativ meine, sondern es halt einfach so ist.
Das Ryzen öfters sogar mit >1000€ Intels mithalten und sogar übertreffen kann, ist halt eine "Schwäche" in deinen Augen. OK, deine Meinung....

dargo
2017-04-01, 14:01:40
Sage ich das irgendwo?
Der DX12 Treiber von nVidia macht das, was er tun soll: Anwendungsanforderungen umsetzen. Wenn die Anwendung eben 8T will bzw. arbeit für 8T erzeugt, dann wird dies durch den Treiber realisiert. Auf welchen Cores und auf welchen Threads das abgearbeitet wird, ist nicht aufgabe des DX12 Treibers.

Die Anforderung von Tomb Raider haben sich mit DX12 gegenüber DX11 verdoppelt: Statt 4T werden nun 8T benötigt, um die beste Leistung zu erreichen.
Ich habe keine Ahnung woher du den Quatsch mit "8T werden bei DX12 benötigt" her hast? Vielleicht bei NV, bei Radeon definitiv nicht. Das Spiel läuft selbst mit 3,7Ghz und 2C/4T auf einem Hassi und einer R9 390 geschmeidig.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11197696&postcount=4421
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11197957&postcount=4425
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11198009&postcount=4431

Schaffe89
2017-04-01, 14:02:02
Wer kritisiert denn hier Microsoft ,Nvidia ,oder auch Intel wahlweisse wie es gerade zum Problem passt?

Es kann doch völlig egal sein wer den Fehler begeht, sich nicht vorbereitet hat, vorher nichts gemacht hat usw.. usw...
Sicherlich ist das primär die Schuld von AMD, aber AMD kann ja nicht jahrelang bei Nviida und den Spieleherstellern hausieren gehen, bevor sie eine CPU µarchitektur releasen.:rolleyes:

Das einzige was jetzt zu tun ist, ist alle Fehlerquellen zu eliminieren um den Nutzer umfassend zu informieren und gegebenenfalls halt Nachtests anzubieten.
Eins aber vorweg: Du wirst die Nutzer garantiert nicht komplett zufriedenstellen können, das können nur Youtuber wie Joker oder Adored TV die alternative Fakten vebreiten, Kirschen picken und selbst nichtmal richtig testen können. Ergo kann ich gut verstehen warum die Redaktionen von so lächerlchen Tubern bisschen angepflaumt sind.

Joker spricht ja selbst bei 267 vs 263 in Overwatch dass Ryzen dort besser ist, sieht aber nicht dass das völlig GPU limitiert ist.
Und so testet der liebe Joker höchstselbst in 1440p um dann überall Bügeleisen Ergebnisse zu erhalten und über diese dann zu schwadronieren.

Nun ja, also investigativ ist also demnach nur noch, wenn es nicht gegen AMD geht?

Ja das ist das Credo der wenigen die hier die Threads wie Piraten kapern.

Es wird lediglich darauf hingewiesen, dass ein investigatives Interesse pro AMD teilweise zu vermissen ist.

Dem kann ich mich auch anschließen. Interesse bestünde bei mir definitiv für Tests mit schnellerem Ram und AMD Grafikkarte, aber bitte im absoluten CPU Limit und nicht den philosophischen Ansatz.:)

Da gibt es Varianzen, die mehr als augenscheinlich sind.

Ja, vor allem Star Craft II und Total War Attila sind noch Kandidaten.

aufkrawall
2017-04-01, 14:10:50
Ich habe keine Ahnung woher du den Quatsch mit "8T werden bei DX12 benötigt" her hast? Vielleicht bei NV, bei Radeon definitiv nicht.
Mit GeForce auch nicht.

DonnieDarko83
2017-04-01, 14:11:38
Ist das bei euch auch so, wenn Ihr Virtualisierung im Bios aktiviert, das der Bus Speed absinkt? Wenn ich die Virtualisierung aktiviert habe, dann komme ich beim Multiplikator von 38,25 nur auf ca. 3725 Mhz. Wenn ich die Virtualisierung deaktiviere dann auf ca. 3820Mhz. Auch der Ram taktet dann nur mit 1298Mhz anstatt auf 1330Mhz. Bus Speed ca. 97 Mhz

Im Benchmark verliere ich dabei auch Punkte. Außerdem schwankt der Takt wesentlich stärker wenn die Virtualisierung an ist. Da habe ich manchmal drops auf unter 2000 Mhz, obwohl der Energiesparmodus auf Höchstleistung steht. Ich habe das Asus Prime X370 Pro. Alle Bios Versionen das gleiche Problem.

scully1234
2017-04-01, 14:12:01
Es kann doch völlig egal sein wer den Fehler begeht, sich nicht vorbereitet hat, vorher nichts gemacht hat usw.. usw...
Sicherlich ist das primär die Schuld von AMD, aber AMD kann ja nicht jahrelang bei Nviida und den Spieleherstellern hausieren gehen, bevor sie eine CPU µarchitektur releasen.:rolleyes:


Brauchen sie ja auch nicht, nur wenn man das eben nicht mit der gleichen Effizienz verfolgt , muss man sich bei Release dann eben nicht wundern ,wenn es nicht so rund läuft wie anderswo

Dann aber bitte auch dazu stehen, und nicht mit nem Rundumschlag, alles und jeden der Untätigkeit gegenüber AMD bezichtigen, obwohl das ja vielmehr hier in den Threads grassiert

AMD hat sich ja folgerichtig schon vor Microsoft gestellt, und die Mobohersteller haben sich selbst bereits verwehrt ob solcher Anschuldigungen

Jetzt zieht die "Gang" halt zum nächsten Kandidaten ,der da heisst Nvidia, und oder die "gekauften" Redaktionen

dargo
2017-04-01, 14:12:26
Mit GeForce auch nicht.
Woher holt er sich dann immer seine falschen angeblichen Fakten? Alles nur aus den Fingern gesaugt?

Troyan
2017-04-01, 14:14:36
Ich habe keine Ahnung woher du den Quatsch mit "8T werden bei DX12 benötigt" her hast? Vielleicht bei NV, bei Radeon definitiv nicht. Das Spiel läuft selbst mit 3,7Ghz und 2C/4T auf einem Hassi und einer R9 390 geschmeidig.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11197696&postcount=4421
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11197957&postcount=4425
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11198009&postcount=4431

Nicht bei mir an der Stelle von oben - i7 3770 und GTX1080:
4T (1,2,3,4): 41FPS
4C (1,3,5,7): 61FPS
8T: 75FPS

Unter DX11 verliere ich Leistung mit 8T. 4C/4T ist schneller.

Menace
2017-04-01, 14:14:41
Ja das ist das Credo der wenigen die hier die Threads wie Piraten kapern.


Interessant; wird wohl Zeit für mich ein anderes Forum zu suchen, wenn Täter sich zu Opfern stilisieren.

aufkrawall
2017-04-01, 14:16:36
Woher holt er sich dann immer seine falschen angeblichen Fakten? Alles nur aus den Fingern gesaugt?
Hätte er das denn zum ersten Mal gemacht? :freak:

Schaffe89
2017-04-01, 14:18:40
Das einzige was dann kommt sind Fehlerhafte Tests, die das eigentliche Interesse der Ungereimtheiten 0 thematisiert. Nein, solche Ungereimtheiten werden dann einfach als ist so abgestempelt, da wird nicht von selbst mal geschaut... nein.. man wird gleich in eine Schublade gesteckt.

Naja, findest du es nicht ein bisschen affig (das einzige was kommt sind feherhafte Tests? Achja echt? :confused:), weil 1 Benchmarks dieses Ergebnis bringt, sofort einen Neutest mit AMD Grafik zu fordern und den Testern wieder Befangenheit vorzuwerfen?
Kühlt doch mal ein bisschen runter, an der schlechteren Spieleleistung der Ryzen wird ein oder 2 gepickte Kirschen insgesamt kaum etwas ändern und trotzdem sollte man es tun um die Nutzer umfangreich auch über mögliche Bottlenecks zu informieren, aber doch nicht auf die Art und Weise.

Es müsste euch doch nicht vom Hocker hauen wenn AMD und Nvidia Grafiktreiber anders mit gewissen Spielen umgehen.
Ein wechsel auf eine AMD Karte wird im Schnitt, behaupte ich jetzt mal, nichts großartig ändern, ergo hat das wohl für die Tester keine so hohe Priorität.

Vorischtige Ironie:
Ich würde es aber was Toms Hardware angeht schon sinvoller finden zuerst mal die CPU Spieletests upzudaten, anstatt ewig an der Temperatur einer CPUI herumzumessen, die bei AMD sowieso nie stimmt.^^

@Schaffe:
Ich finde nicht, dass dein Feldzug hier einen sinnvollen Ausgleich zu den anderen Fanboys darstellt.

Also findest du es angemessen Anwendungsperformance auf Spiele umzumünzen und daher keine Spiele mehr zu testen?
Das ist doch kein Feldzug, ich bin genauso für diese Performancebotlenecks der AMD´s aufzuklären, alleine schon deswegen, weil sonst AMD schlechter wegkommt als nötig.
Und ich denke das will in der Konkurrenzsituation niemand.

hmmm
2017-04-01, 14:23:57
...Auf welchen Cores und auf welchen Threads das abgearbeitet wird, ist nicht aufgabe des DX12 Treibers.
...

Der Nvidia Treiber selbst nutzt doch sicherlich immer noch Kernel-Multi-Threading oder nicht?!?! Wer oder was wenn nicht der Treiber sollte festlegen auf welche CPU/Core sie gepinnt werden?

Linmoum
2017-04-01, 14:32:57
Naja, findest du es nicht ein bisschen affig (das einzige was kommt sind feherhafte Tests? Achja echt? :confused:), weil 1 Benchmarks dieses Ergebnis bringt, sofort einen Neutest mit AMD Grafik zu fordern und den Testern wieder Befangenheit vorzuwerfen?
Kühlt doch mal ein bisschen runter, an der schlechteren Spieleleistung der Ryzen wird ein oder 2 gepickte Kirschen insgesamt kaum etwas ändern und trotzdem sollte man es tun um die Nutzer umfangreich auch über mögliche Bottlenecks zu informieren, aber doch nicht auf die Art und Weise.

Es müsste euch doch nicht vom Hocker hauen wenn AMD und Nvidia Grafiktreiber anders mit gewissen Spielen umgehen.
Ein wechsel auf eine AMD Karte wird im Schnitt, behaupte ich jetzt mal, nichts großartig ändern, ergo hat das wohl für die Tester keine so hohe Priorität.
Es müsste jeden vom Hocker hauen, wenn man mit 'ner Fury X eine (deutlich) bessere Performance erzielt, als mit einer Titan X. Die c't ist ja nun nicht (mehr) alleine damit, solch ein Phänomen zwischen nVidia und AMD festgestellt zu haben.

Troyan hat auf der letzten Seite entsprechendes verlinkt.

http://i.imgur.com/OjSIcgM.jpg

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11337641&postcount=3896

Conner_Ray
2017-04-01, 14:34:42
OT
Ryzenkerne untereinander beim Spielebench ;D

Kern1="Uff, so viele Daten, da häng ich ja ewig drann."
Kern2="Echt? Bei ist nix, warte die ganze Zeit schon"
Kern3=*schnarch*
Kern4=*schnarch*
Kern5="Hey, 3 und 4, könnt ihr vielleicht mal mit anpacken? Faules pack! Meine Register laufen schon über"
Kern3+4="nö, keinen Bock, Mutti sagt wir dürfen noch 100ms schlafen"
Kern6="So, fertig, Daten gehen an GPU, soll der den Rest machen."
Kern7="Hey Kern1, ruh dich mal aus, du glühst ja schon; ich übernehm, schickt mir was du bisher hast"
Kern8="Würdet Ihr alle es wie ich machen und BEIDE sch**ss Hände zum arbeiten nehmen wäre wir schon längst fertig!"

Schaffe89
2017-04-01, 14:42:01
Jetzt zieht die "Gang" halt zum nächsten Kandidaten ,der da heisst Nvidia, und oder die "gekauften" Redaktionen

Soll er doch ziehen, ich hab kein Problem wenn Nvidia auf die Mütze bekommt, du scheinbar schon.
Jedenfalls ist das Zusammenspiel da in Tombraider und teilweise auch in Division nicht optimal, sondern eher deutlich suboptimal.

dildo4u
2017-04-01, 14:48:31
Es müsste jeden vom Hocker hauen, wenn man mit 'ner Fury X eine (deutlich) bessere Performance erzielt, als mit einer Titan X. Die c't ist ja nun nicht (mehr) alleine damit, solch ein Phänomen zwischen nVidia und AMD festgestellt zu haben.

Troyan hat auf der letzten Seite entsprechendes verlinkt.

http://i.imgur.com/OjSIcgM.jpg

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11337641&postcount=3896
Müssten sie noch mal mit diesem Treiber und Ashes Ryzen Patch testen wäre mal interessant.

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Gameworks-DX12-optimierter-Treiber-und-Entwickler-Tools-1222118/

Schaffe89
2017-04-01, 14:49:53
Es müsste jeden vom Hocker hauen, wenn man mit 'ner Fury X eine (deutlich) bessere Performance erzielt, als mit einer Titan X.

Im Fließtext steht aber dass weiterhin die Intel CPU´s auch mit dem AMD Treiber unnereicht bleiben. Aber vielen Dank für den Link.
Das zeigt dass zumindest ein NAchtest inkl. AMD GPU nötig ist um einzelne Spiele neuzuberwerten. Ob sich dann an der Bewertung der Spieleleistung des Ryzen grundlegendes ändern wird, wird man sehen müssen.

Der Text von Heise ist aber auch wenig Professionell, dass eine Fury X im CPU Limit teilweise höhere Bildraten erzielen kann, ist jetzt kein Wunder, das geht auch mit einer Nvidia GT720, wenn die CPU limitiert.

dargo
2017-04-01, 14:59:42
Hat Gears of War 4 nicht auch einen intergrierten Benchmark?

@Golem
Bitte beim R5 1600(X) Test mit GTX1060 und RX480 mitnehmen. Da es hier nur DX12 gibt dürfte sich der Aufwand in Grenzen halten. :D

GSXR-1000
2017-04-01, 15:02:07
Oder bei der CPU und deren Zusammenarbeit mit anderen Produkten selber, aber nein das ja völlig unmöglich ,denn nur AMD macht seine Hausaufgaben so sorgfälltig wie kein anderer.

Das muss an Produkten und Software liegen die seit Jahren durchaus problemlos liefen , mit jeglichem anderen Hardwaresetup

Darum lieber Microsoft oder Nvidia wahlweisse auch Intel kritisieren, ist ja einfacher wie die Sache mal aufs eigentliche Produkt einzugrenzen
Das es grundsaetzlich softwareprobleme sind, ist absolut unstrittig und auch verifizierbar. Das ist sehr einfach durch synthetische Benchmarks zu evaluieren, das die reinen Leistungsdaten mehr als stimmen.
Wenn diese Leistung nicht auf die strasse gebracht werden kann, ist die Problematik logischerweise in der softwareumgebung zu suchen.
Allerdings geht es hier nicht um schuldfrage, sondern es ist simpler fakt, das wir hier eine neue Architektur haben auf die kein Code vorab angepasst werden konnte, weil keinem softwareentwickler die neuen Logiken vorlagen.
Allerdings darf man als Kunde erwarten, das zumindest bei noch aktueller und gepflegter software entsprechende optimierungen zuegig nachgepflegt werden. Wie das im übrigen bei nahezu allen neuen Hardwaregenerationen anstandslos getan wurde. Das was sich hier darstellt ist nichts neues und das haben wir bei nahezu jeder neuen Graka generation oder hatten es damals auch bei einführung der Core Logik seitens intel. Oder bei einführung von SMT. Warum das jetzt von dir in zweifel gezogen wird ist mir nicht nachvollziehbar.
Natürlich hängt das auch von support seitens AMD durch dokumentation der Logiken und optimierten Codefunktionen und auch mit direktem support beispielsweise durch mikrocode updates durch bios etc ab. Das ist aber wohl gegeben soweit ich das erkennen kann, und ich kann mir auch kaum vorstellen, das AMD im eigenen interesse diesen Support nicht liefert.

Troyan
2017-04-01, 15:10:11
Der Nvidia Treiber selbst nutzt doch sicherlich immer noch Kernel-Multi-Threading oder nicht?!?! Wer oder was wenn nicht der Treiber sollte festlegen auf welche CPU/Core sie gepinnt werden?

Das OS...
Ich kann die Zugehörigkeit der Kerne/Threads zur Laufzeit über Windows pro Anwendung ändern. Das dürfte überhaupt nicht möglich sein, wenn der Treiber dafür zuständig wäre.

Vor Allem unter DX12 hat der Treiber bzgl. Hilfsthreads keinen Einfluss mehr. Das kommt alles von Anwendung. Hier kann man aus zig Threads die Commandqueues füllen. Es kann einfach sein, dass die DX12 Implementierungen für nVidia-Karten mehr Threads erstellen als für AMD.

Deswegen ist es wichtig, dass man erstmal überprüft, wie sich die DX12 Implementierung von Spielen für nVidia und AMD auf Intel-Plattformen unterscheidet.

Isen
2017-04-01, 15:10:43
@Golem
Bitte beim R5 1600(X) Test mit GTX1060 und RX480 mitnehmen. Da es hier nur DX12 gibt dürfte sich der Aufwand in Grenzen halten. :D


Mich würde vor allem, in Anlehnung des durch PCGH berichteten Wahrscheinlichkeiten ( X % für 1700 gehen auf 3,9Ghz usw ) interessieren, ob mit dem von AMD spezifizierten 24/7 Voltages, grundsätzlich eine höhere Wahrscheinlichkeit besteht die 3,9-4,1Ghz zu bekommen oder auch dort mit der Brechstange ( >1,375v ) hantiert werden muss... und ob das überhaupt relevant ist, wenn 2 Kerne wegfallen.

Skysnake
2017-04-01, 15:17:00
Meinst Du die Sägezahnkurve, die physikalisch völliger Blödsinn ist?
Mal zeigt mein Board mit der Postcode-Anzeige nach den Boot in Idle 30-40°C an, dann wieder bekomme ich im Idle eine Anzeige die im Sekundentakt so geht:
55-55-66-64-62-60-57-55-54-65-63-60-58-56-67 usw.
Auch alle Auslesesoftware macht diesen Blödsinn mit. Real dürften die halbwegs konstanten 30-40° sein. Zumindest nach meinem Gefühl wenn ich mal mit dem Finger an die Heatpipes direkt über der Kontaktplatte fasse.

Besonders schön ist daß die Lüfterregelung auch diese Werte verarbeitet und mit hektischem Rumgeregele darauf reagiert, wenn man nicht nach jedem BIOS-Flash alles wieder per Hand auf träge umstellt.

Naja, die Zeitskala ist an sich kein Argument, so lange man nicht weiß, wo die Sensoren sitzen. Wenn die auf dem Chip sitzen, dann kann das durchaus binnen Milliseconden um dutzende Grad hoch gehen würde ich sagen.

Schaffe89
2017-04-01, 15:20:14
Das es grundsaetzlich softwareprobleme sind, ist absolut unstrittig und auch verifizierbar. Das ist sehr einfach durch synthetische Benchmarks zu evaluieren, das die reinen Leistungsdaten mehr als stimmen.

Wenn ich hierzu noch eine Bemerkung abgeben darf. Käse, das ist alles andere als unstrittig, du machst dir es nur wieder viel zu einfach.
Du kannst Anwendungensbenchmarks wie Cinebench nicht hernehmen und auf die Spieleleistung ummünzen. Durch synthetische Benchmarks ist da gar nichts zu verifizieren, das wurde jahrelang schon durch CPU Tests widerlegt.

Wenn diese Leistung nicht auf die strasse gebracht werden kann, ist die Problematik logischerweise in der softwareumgebung zu suchen.

Nein, ist sie nicht. Die mag einerseits bis zu einem Gewissen Grad an der Softwareumgebung liegen und bei Ryzen eben in der etwas limitierenden CCX Verbindung, die mancher Software eben einfach nicht schmeckt, besonders nicht, wenn man über diese Verbindung Daten hin und her schickt und das wirst du wohl kaum vermeiden können, außer AMD bringt einen nativen 8Core ohne diese "Bremse".
Spiele belasten einen Prozessor nunmal anders als ein synthetischer Cinebench.

hmmm
2017-04-01, 15:26:19
Das OS...
Ich kann die Zugehörigkeit der Kerne/Threads zur Laufzeit über Windows pro Anwendung ändern. Das dürfte überhaupt nicht möglich sein, wenn der Treiber dafür zuständig wäre.

Vor Allem unter DX12 hat der Treiber bzgl. Hilfsthreads keinen Einfluss mehr. Das kommt alles von Anwendung. Hier kann man aus zig Threads die Commandqueues füllen. Es kann einfach sein, dass die DX12 Implementierungen für nVidia-Karten mehr Threads erstellen als für AMD.

Deswegen ist es wichtig, dass man erstmal überprüft, wie sich die DX12 Implementierung von Spielen für nVidia und AMD auf Intel-Plattformen unterscheidet.
Und der Nvidia Treiber erzeugt keine Kernel-Threads? Sorry, auch wenn ich die Treiber Entwicklung unter Windows nicht besonders kenne, aber das glaube ich nicht. Es geht hier auch nicht um Multithread-Anwendungen, wir sind im Kernel(!) da kümmert sich der Scheduler nicht.

GSXR-1000
2017-04-01, 15:30:23
Keine Ahnung. Du gehst davon aus jedes Spiel wird mit Ryzen so optimiert dass man dann die gleiche Leistung wie in Cinebench erreicht. Darum gehts dir, das wird aber aufgrund von Schwächen im Design die auch in Anwendungen ersichtlich sind, nicht passieren und das heißt nicht dass ich das negativ meine, sondern es halt einfach so ist.

Mit verlaub der Herr, Sie reden schlicht und ergreifend Unsinn, welcher einfach durch simple Betrachtung des IST-Zustandes zu widerlegen ist.
1. Nein ich gehe nicht davon aus, das JEDES SPIEL DIESER WELT, WELCHES JE ERSCHIENEN IST für Ryzen optimiert wird.
2. Ich stelle allerdings auch fest, das die Leistung der Ryzen 8 Kerner für jedes Spiel welches bisher verfügbar ist unter real relevanten Bedingungen so ausreichend ist, das immer ein optimales Spielerlebnis geboten wird, solange bis die jeweilige GPU das limit setzt.
3. Für alle zukünftigen spiele darf man von optimierungen ausgehen, zumal viele spiele gleiche engines als basis verwenden und eine optimierung auf engine ebene meistens schon sehr effektiv ist.
4. Auch im Bereich OS/BIOS sind bereits optimierungen angekündigt und work in progress,das diese durchaus effizient sind, ist auch bereits evaluiert. Das ist dann ein effekt der allen spielen on top zugute kommt.
5. Natürlich sind wenig optimierte anwendungsbenchmarks (alternativ für alle architekturen optimierte anwendungsbenchmarks) vor allem aber synthetische Benchmarks die die reine Rechenleistung ermitteln die Basis von jeder Betrachtung und der Ankerpunkt für jede Prognose. Denn das sind die HARDFACTS der betrachtung, das sind die Daten die man direkt vergleichen kann, in der man Leistung und Potential von Architekturen in relation setzen kann. Die Variable ist ausschliesslich die softwareseitige Umsetzung seitens der Spieleentwickler. Und hier sollte man als Kunde (und als geneigter spieler) diese auch in die Pflicht nehmen, das potential der Plattform auch zu nutzen anstatt einen heiligen Krieg gegen einen missliebigen Plattformhersteller zu führen.
Es ist eine ganz einfache Gleichung lieber Kollege, du hast zwei verschiedene Plattformen die eine vergleichbare Ausgangsleistung bringen. Wenn das ergebnis in einem spiel dann sehr divergiert, gibt es nur einen möglichen Grund dafür. Und der ist nicht in der Plattform zu suchen.

Nehmen wir an du haettest einen Rennstall. Diesem wird ein Motor und ein Chassis und antriebsstrang geliefert. Von dem Motor kennst du Nennleistung und weisst durch einen Vergleich des Motorenprofils mit der Konkurenz das dieser absolut auf augenhöhe und konkurenzfähig ist. Trotzdem faehrt dein Auto hinterher. Wenn würdest du dafuer in verantwortung nehmen und nachbesserung fordern? Nach deiner Logik würdest du den Motorenpartner feuern. Nach gesunder Logik wuerdest du die anderen Partner in die Pflicht nehmen, die Leistung des Motors adäquat umzusetzen.

Nochmal: Ryzen hat keine gottgegebene Spieleschwäche, sondern Spiele eine vorhersehbare Ryzenschwäche, weil Ryzen eine neue Architektur ist und bisher primär in Intelrichtung optimiert wurde.
Hier ist doch wohl klar wo der Hebel anzusetzen ist.
Und auch wenns dir nicht klar sein mag, was ich unfassbar finde: Spiele sind nicht per definition anders als anwendungen, sondern spiele sind einfach nur eine Teilmenge von anwendungen. Beide sind schlichtweg softwareprogrammierungen zur nutzung von Hardware. Der Unterschied ist, das spiele ob des Zeitdrucks und weil man eben keinerlei professionelle Nutzung erwartet (sprich der Kunde potentiell anspruchsloser ist und man nach dem Motto verfahren kann: Friss oder stirb) meist sehr viel unsauberer und unoptimierter programmiert werden. Diesen Umstand jetzt AMD vorzuhalten ist, mit verlaub, sehr durchschaubar und unredlich.

GSXR-1000
2017-04-01, 15:42:23
Wenn ich hierzu noch eine Bemerkung abgeben darf. Käse, das ist alles andere als unstrittig, du machst dir es nur wieder viel zu einfach.
Du kannst Anwendungensbenchmarks wie Cinebench nicht hernehmen und auf die Spieleleistung ummünzen. Durch synthetische Benchmarks ist da gar nichts zu verifizieren, das wurde jahrelang schon durch CPU Tests widerlegt.

Es wurde garnichts widerlegt. Aber offensichtlich hast du von Programmierung keine Ahnung und fokussierst dich ausschliesslich auf den Spielebereich, wo ich bisweilen nicht mal mehr den Begriff programmierung verwenden wuerde, weil das vieles mittlerweile nur noch das aneinanderklatschen von Enginecodefetzen ist, der dritte Aufguss vor Jahrzehnten programmierter function calls.
Da wo es um das nutzen von vorhandenen Ressourcen geht, wo wirklich programmiert wird um effizienz zu erreichen, da sind die die synthetischen oder gar auch nur theoretische Benchmarks der Leuchtturm an der sich die Programmierung misst und an der auch das Ergebnis gemessen wird.
Da wo mit der Anwendung geld verdient wird, da wo die qualität von programmierung eine rolle spielt, ist der Gradmesser die theoretische Leistungsfähigkeit. Kannste übrigens auch bei deinem geliebten NV beobachten wenn du einfach mal die nutzung der professionellen NV Karten betrachtest und deren softwareseitige einbettung. Was da für umsätze in rechnenleistung erzielt werden können (wenn man denn will) und dies mal in relation zur praktischen Leistung in spielen setzen. da kämen dir die tränen.
Das Spiele in aller regel nur einen Bruchteil der tatsächlichen Leistung durch mangelhafte Programmierung nutzen ist übrigens auch keine wirkliche neuigkeit. Das ist auch keine wirkliche überraschung, wenn man sich anschaut auf welcher codebasis selbst "aktuelle" Engines aufbauen, die meist selbst nur der fuenfte aufguss, Evolutionsstufe teilweise uralter Basen sind. Dinge, die man in professioneller Umgebung schon 3 mal von Grund auf neu programmiert haette.

scully1234
2017-04-01, 15:44:12
Das ist aber wohl gegeben soweit ich das erkennen kann, und ich kann mir auch kaum vorstellen, das AMD im eigenen interesse diesen Support nicht liefert.

Dann gehe ich doch mal davon aus ,das du dir im klaren bist, das die anderen Beteiligten ebenfalls aus Eigeninteresse abliefern werden.

Oder bist du der Auffassung die stellen ihr eigenes Produkt freiwillig unter den Scheffel ?

An welchen Teil der Versorgungs/Kommunikationskette soll es denn dann hapern, wenn nicht auf Seiten von AMD,wenn das Problem immer noch vorhanden ist ?
Dein Post
Wie das im übrigen bei nahezu allen neuen Hardwaregenerationen anstandslos getan wurde.

impliziert genau das es in Vergangenheit nie ein Problem da stellte, und lässt man Aluhut Theorien außen vor, wird das auch hier im selben Umfang geschehen

Die Frage ist nur wann und in welchem Umfang wurde damit begonnen, um den anderen Mitbewerbern im Feld, eine Chance zu geben sich auf das Produkt einzustellen.

Den zweiten Protagonisten im Glied da belasten zu wollen ,ohne den priorisierten Hersteller erst einmal unbequeme Fragen zu stellen, scheint mir da weiterhin nicht so ganz schlüssig.

Das tut AMD bereits bei Microsoft nicht(man wird schon wissen warum und wieso), also wäre ich da mal sehr vorsichtig mit dem ,was da angeblich bei Nvidia im Argen liegen soll

kruemelmonster
2017-04-01, 16:06:19
Da ich seit ein paar Wochen für einen Arbeitseinsatz in Japan bin, und "dank" wenig Freizeit sowie i3 330M+Radeon Mobility 4330 zur Zeit wenig nachforschen und gar nichts nachtesten kann: warum sollte NV die Ryzens per Treiber-Schmu torpedieren? NV verkauft keine CPUs, NVs oberstes Ziel ist es soviele GPUs wie möglich zu verkaufen. Je mehr Leute sich Ryzen holen umso stärker ist es im Eigeninteresse von NV dass ihre Treiber möglichst viel Leistung aus den vielen Threads rausziehen.

Weiter; aus der AotS Diskussion (wurde iirc bei PCGH verlinkt):

https://twitter.com/FioraAeterna/status/847472586581712897
not some thread scheduling magic, not some special SIMD optimizations. just making it so their MOVNTs didn't cause chip-wide flushes
update: one part of the problem was a compiler bug in MSVC2015, where it would emit ST/ST/LD in some cases (which stalls the store queue)[,]so part of the fix was just to recompile Ashes with MSVC2017, which had a fix.
i wouldn't call this an "AMD bug" any more than the thousand things intel tells you not to do in their manual are "intel bugs"

Keine Ahnung ob Probleme dieser Art auch auf den NV-Treiber zutreffen, die Wahrscheinlichkeit dafür statt fürs absichtliche Torpedieren scheint mir aber um Größenordnungen höher.

Mir geht übrigens sowohl vinacis_vivids als auch scully1234s "Diskussionskultur" auf den Zeiger, und ich hab bei CPUs keinerlei Bias. Ich brauch nur mehr als 8 Threads für BF1, AotS und das Windows ADK, und will meinen 2600k endlich in Rente schicken. Da das Aufrüsten eh erst in paar Monaten auf dem Plan steht kann ich glücklicherweise rein beobachtend die Entwicklung verfolgen, würde mich aber auch bis dahin wahnsinnig freuen wenn statt Name-Calling auf Talkshowniveau handfeste Informationen erarbeitet werden würden.
Da AMDs Pressestelle zZ wohl nicht antwortet (HT4U (https://www.ht4u.net/reviews/2017/amd_ryzen_7_reloaded_r7_1700_bis_1800x_erneut_im_test/index30.php): Mehr als drei Wochen nach AMDs offizieller Vorstellung der Ryzen-7-Prozessoren müssen wir feststellen, dass noch viele Fragen offen sind und AMD leider keine beantwortet. Zu allem, was der Hersteller bislang öffentlich nicht kommuniziert hat, gibt es weder vom Marketing noch von der Technik Feedback.), hat denn schonmal jemand ManuelG oder einen anderen öffentlichen Kontakt von NV zu dem Thema befragt?

mkh79
2017-04-01, 16:13:03
Weil jeder Cent, der in AMDs Kassen (auch über CPUs) gespült wird, schlecht für nVidia ist?
Der Gewinn wird ja bestimmt nicht 1:1 von der CPU Sparte auf die CPU Sparte umgelegt werden.

Ich glaube nicht, dass nvidia da bewusst was "schlecht" programmiert hat, aber sie können sich durchaus aus taktischen Gründen Zeit mit einer Anpassung lassen. Sie wissen ja, dass sie die schnellsten Karten herstellen und damit getestet wird. Und je mehr Redaktionen und User von einer "Spieleschwäche" reden, desto weniger verkauft sich Ryzen.
Nur mal, um diese Frage zu beantworten.

Und wer ernsthaft in Frage stellt, dass durchaus die Notwendigkeit bestehen kann, dass Software/ Treiber auf Hardware angepasst werden müssen, damit alles rund läuft, disqualifiziert sich schon selbst in solch einer Diskussion.

kruemelmonster
2017-04-01, 16:20:25
Weil jeder Cent, der in AMDs Kassen (auch über CPUs) gespült wird, schlecht für nVidia ist?
Der Gewinn wird ja bestimmt nicht 1:1 von der CPU Sparte auf die CPU Sparte umgelegt werden.

Verschwörungstheorie?

Ich glaube nicht, dass nvidia da bewusst was "schlecht" programmiert hat, aber sie können sich durchaus aus taktischen Gründen Zeit mit einer Anpassung lassen. Sie wissen ja, dass sie die schnellsten Karten herstellen und damit getestet wird. Und je mehr Redaktionen und User von einer "Spieleschwäche" reden, desto weniger verkauft sich Ryzen.
Nur mal, um diese Frage zu beantworten.


Sorry, aber das ist für mich keine nachvollziehbare Antwort: je schlechter NV@Ryzen läuft, und umso länger und breiter das Thema durch die Welt geistert, umso schlechter für NV (ob nun nur Image oder tatsächliche Verkäufe sei mal dahingestellt). NV will in Benchmarks vorne liegen und soviele GPU-Verkäufe wie möglich schaffen, ergo werden sie sich nicht absichtlich in den eigenen Fuß schießen und sich selbst auf dem Benchtable ausbremsen.

Und wer ernsthaft in Frage stellt, dass durchaus die Notwendigkeit bestehen kann, dass Software/ Treiber auf Hardware angepasst werden müssen, damit alles rund läuft, disqualifiziert sich schon selbst in solch einer Diskussion.

Ich sehe es hoffentlich richtig dass das nicht auf mich bezogen war? :confused:

mkh79
2017-04-01, 16:28:42
Deine Sichtweise ist auch nachvollziehbar.
Als Unternehmen könnte man jetzt abwägen, was langfristig marktstrategisch besser für einen selbst ist.
Denn welche Alternative bliebe denn?
Die Leute wollen eine nvidia, weil es kein Gegenstück von AMD im gleichen Leistungsbereich gibt. Also die wird nvidia-Karte verkauft.
Dann leben sie eben entweder mit einem AMD Prozessor oder holen sich als Alternative eine Intel CPU.
Dass eine Grafikkarte gar nicht verkauft wird, oder an Stelle der nvidia eine AMD ist also beinahe ausgeschlossen, wenn jemand schon die Entscheidung getroffen hat, im hohen Leistungsbereich einkaufen zu wollen.

Aber ich gebe zu, das ist schon etwas um die Ecke gedacht.

Vielleicht dauert es einfach nur ein bisschen, bis die Treiber angepasst werden, falls es sich denn wirklich heraus stellt, dass eine Notwendigkeit dazu besteht.
Halte ich auch für plausibler.

Verschwörungstheorie?
Ich sehe es hoffentlich richtig dass das nicht auf mich bezogen war? :confused:
Nein, absolut gar nicht. :)

Ich meine, diese Idee mehrfach mal zwischendurch gelesen zu haben, dass Ryzen halt bei Spielen einfach das Nachsehen hätte, anstatt dass Software/ Treiber angepasst werden müssten.

dargo
2017-04-01, 17:07:22
Da ich seit ein paar Wochen für einen Arbeitseinsatz in Japan bin, und "dank" wenig Freizeit sowie i3 330M+Radeon Mobility 4330 zur Zeit wenig nachforschen und gar nichts nachtesten kann: warum sollte NV die Ryzens per Treiber-Schmu torpedieren? NV verkauft keine CPUs, NVs oberstes Ziel ist es soviele GPUs wie möglich zu verkaufen. Je mehr Leute sich Ryzen holen umso stärker ist es im Eigeninteresse von NV dass ihre Treiber möglichst viel Leistung aus den vielen Threads rausziehen.

Wie zum Henker kommst du auf die Idee NV würde das mit Absicht tun? Oder habe ich dich falsch verstanden?

Isen
2017-04-01, 17:08:03
Echter 1400 OC im Test:

https://www.youtube.com/watch?v=TcdmeGOsnss&feature=youtu.be

Screemer
2017-04-01, 17:13:43
Sehr interessant ist dir videobeschreibung: updated agesa code (enhance for ryzen 5), support ddr4 voltage control in ryzen master

captain_drink
2017-04-01, 17:14:00
Könnte mal jemand in den 'verdächtigen' Titeln im CPU-Limit (720p niedrige/hohe Details) Intel und AMD mit AMD@DX12 und NV@DX12 mit Ingame-Sequenzen (nicht nur den integrierten Benchmark) testen? Die Benches zu RotR sind in 1080p und der Bench zu The Division zeigt nur den integrierten Benchmark im Fenster-Modus. Gut möglich, dass der DX12-Treiber von NV im CPU-Limit langsamer ist als derjenige von AMD, das Verhältnis zu Intel dürfte dadurch aber intakt bleiben.

Ironisch finde ich übrigens, dass die (angebliche) "Spiele-Schwäche" von Ryzen nun durch eine (angebliche) DX12-Schwäche von NV, welche sich hauptsächlich im CPU-Limit abspielt, widerlegt werden soll, während die "Spiele-Schwäche" im CPU-Limit, die in den Releasetests bemängelt wurde, mit dem Hinweis verteidigt wurde, dass doch niemand in 720p spiele...

dildo4u
2017-04-01, 17:17:37
Weil jeder Cent, der in AMDs Kassen (auch über CPUs) gespült wird, schlecht für nVidia ist?
Der Gewinn wird ja bestimmt nicht 1:1 von der CPU Sparte auf die CPU Sparte umgelegt werden.

Ich glaube nicht, dass nvidia da bewusst was "schlecht" programmiert hat, aber sie können sich durchaus aus taktischen Gründen Zeit mit einer Anpassung lassen. Sie wissen ja, dass sie die schnellsten Karten herstellen und damit getestet wird. Und je mehr Redaktionen und User von einer "Spieleschwäche" reden, desto weniger verkauft sich Ryzen.
Nur mal, um diese Frage zu beantworten.

Und wer ernsthaft in Frage stellt, dass durchaus die Notwendigkeit bestehen kann, dass Software/ Treiber auf Hardware angepasst werden müssen, damit alles rund läuft, disqualifiziert sich schon selbst in solch einer Diskussion.
Das Treiber Problem wurde bei Ashes schon gelöst,dort ist der Ryzen 5 extrem nahe am 7700k,der 1800x vor dem 6900k.

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/


Jemand müsste mal Tomb Raider mit dem neuen Treiber benchen,leider sind die meisten Ryzen Test's vor dem Treiber gemacht worden,der ist erst mit der 1080 Ti gekommen.

IchoTolot
2017-04-01, 17:20:16
weil das vieles mittlerweile nur noch das aneinanderklatschen von Enginecodefetzen ist, der dritte Aufguss vor Jahrzehnten programmierter function calls.

Das kann ich auch bestätigen. Ich hab ja auch Software im Bürobereich supportet und da sind so viele Komponenten enthalten, die irgendwann mal eingekauft wurden und jaaaahrelang weiter verwendet werden in der Software.

Die eigentliche Programmierarbeit erfolgt da nur noch als quasi "Feintuning um diese Komponenten herum". Zumindest ist das meine Erfahrung bei bestimmter Software. Bei Spielen wird das ähnlich sein. Keiner erfindet immer wieder jedes Jahr das Rad neu. Daher ist es auch so ein langwieriger Prozess dass Spiele auf wirklich mehr Kernen effizient was rausholen. Hier wird auch oftmals der Kosten- und Zeitfaktor in der realen Wirtschaft, dem realen eben unterschätzt.

dargo
2017-04-01, 17:21:47
Das Treiber Problem wurde bei Ashes schon gelöst,dort ist der Ryzen 5 extrem nahe am 7700k,der 1800k vor dem 6900k.

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/

Was für Treiberproblem? Das war ein Spielpatch für Ryzen.

Troyan
2017-04-01, 17:23:26
Das Treiber Problem wurde bei Ashes schon gelöst,dort ist der Ryzen 5 extrem nahe am 7700k,der 1800k vor dem 6900k.

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/Specials/AMD-AotS-Patch-Test-Benchmark-1224503/


Jemand müsste mal Tomb Raider mit dem neuen Treiber benchen,leider sind die meisten Ryzen Test's vor dem Treiber gemacht worden,der ist erst mit der 1080 Ti gekommen.

Ashes nutzt alle Kerne mit hoher Belastung. Das hilft Ryzen mit 8C/16T. Die Problematik liegt an einer geringeren Auslastung auf allen Kernen, wenn das OS die entsprechende Arbeit verteilt. Es gibt auch keine Probleme im API-Test vom 3DMark: http://www.guru3d.com/news-story/quick-test-futuremark-3dmark-v2-3-3663-vulkan-api-overhead-benchmarks.html

Dino-Fossil
2017-04-01, 17:33:18
Wie zum Henker kommst du auf die Idee NV würde das mit Absicht tun? Oder habe ich dich falsch verstanden?

Ich denke du hast ihn wirklich falsch verstanden, er sagt das Gegenteil.

dildo4u
2017-04-01, 17:34:48
Was für Treiberproblem? Das war ein Spielpatch für Ryzen.
Ashes war im CPU Limit mit Fury X schneller als mit der Titan X Pacsal.

http://i.imgur.com/OjSIcgM.jpg

Knuddelbearli
2017-04-01, 17:38:21
Nö, man hat nach Preispunkt entschieden. Genau tut mans auch bei Sockel 2011-3 gegenüber Ryzen, was dort zu massiven Vorteilen für Ryzen führt.
Da sagt du doch auch nicht, das soll man nicht, weil die Platform von Ryzen 7 mickriger ist. (Kein Quadchannel, weniger Lanes, gegebenenfalls weniger in der CPU)


Ähm Entschuldigung aber da muss ich dir widersprechen. Der 1700 wird mit dem 4770K verglichen das passt ja auch aber der 1800X wird immer mit Intel 1.000$ 8 Kern CPU verglichen, was er dann knapp verliert statt mit dem ähnlich teuren 6 Kerner.

Der 6 Intel Kerner wird meistens nicht mal mit getestet ...

kruemelmonster
2017-04-01, 17:40:19
Oder habe ich dich falsch verstanden?

Ja.

Ich denke du hast ihn wirklich falsch verstanden, er sagt das Gegenteil.

Korrekt.

dargo
2017-04-01, 17:43:31
Ashes war im CPU Limit mit Fury X schneller als mit der Titan X Pacsal.

http://i.imgur.com/OjSIcgM.jpg
Bei niedrigen Details ist der Unterschied etwas größer, aber wen interessieren niedrige Details in Low Res? Zudem sehe ich den Zusammenhang immer noch nicht zu deinem Link zu PCGH. Die messen dort in 1080p und High-Preset. Die c´t misst zwar auch in 1080p (hier aber mit max. Details), hat da aber leider den Test mit der Fury vergessen.

Troyan
2017-04-01, 17:53:08
Könnte mal jemand in den 'verdächtigen' Titeln im CPU-Limit (720p niedrige/hohe Details) Intel und AMD mit AMD@DX12 und NV@DX12 mit Ingame-Sequenzen (nicht nur den integrierten Benchmark) testen? Die Benches zu RotR sind in 1080p und der Bench zu The Division zeigt nur den integrierten Benchmark im Fenster-Modus. Gut möglich, dass der DX12-Treiber von NV im CPU-Limit langsamer ist als derjenige von AMD, das Verhältnis zu Intel dürfte dadurch aber intakt bleiben.


Hier gibt es einen anderen Division-Test zwischen Intel und AMD mit einer GTX1080TI: https://www.youtube.com/watch?v=lyQgC9JXA78

Die Leistung mit Ryzen unter DX12 steigt um 10,5% gegenüber den 1,6% von Intel.

Man sieht hier auch sehr schön, dass der Treiber eben keine Relevanz hat. Die Verteilung der Threads erfolg durch das OS.

Schaffe89
2017-04-01, 18:21:16
Ironisch finde ich übrigens, dass die (angebliche) "Spiele-Schwäche" von Ryzen nun durch eine (angebliche) DX12-Schwäche von NV, welche sich hauptsächlich im CPU-Limit abspielt, widerlegt werden soll, während die "Spiele-Schwäche" im CPU-Limit, die in den Releasetests bemängelt wurde, mit dem Hinweis verteidigt wurde, dass doch niemand in 720p spiele...

Ja, gut erkannt, es ist sowieso hoffnungslos, es wird sich so hingedreht wie es einem in den Kram passt. Es ist ja jetzt quasi nurnoch der Nvidia Treiber, obwohl man das erst nur bei Tombraider und teils bei The Division beobachtet hat, nun muss es überall so sein.
GSXR1000 ist da aber noch schlimmer. Er will die Spiele Performance mit synthetischen Anwendungen messen und wenn da nicht das gleiche rauskommt, ist das Spiel/die Software schuld, niemals die CPU.;D
Dazu muss man wissen dass er die gleiche These vertritt wie ein altbekannter Nutzer aus dem CB/HWL Forum.



Der 6 Intel Kerner wird meistens nicht mal mit getestet ...

Jup , sollte man aber, da die Prozessoren ja ähnlich viel kosten.
Es spielt natürlich aber auch eine Rolle wie AMD die Prozessoren eingeteilt hatte, dort stellte man den 1800x gegen den 6900k, den 1700x gegen den 6850/6800k und den 1700 gegen den 7700k. Letztendlich ist es eh egal, weil man sowieso immer nach Preisleistung geht und damit ist die 2011-3 Platform inkl. CPUs aktuell hoffnungslos überteuert.

dargo
2017-04-01, 18:28:33
GSXR1000 ist da aber noch schlimmer. Er will die Spiele Performance mit synthetischen Anwendungen messen und wenn da nicht das gleiche rauskommt, ist das Spiel/die Software schuld, niemals die CPU.;D
Dazu muss man wissen dass er Gruffi/mr.dude aus dem CB/HWL Forum ist und immer ganz ekelhaft wird, wenn AMD irgendwo bisschen schwächer ist.

Na dann habt ihr beide schon was gemeinsam. Glückwunsch. :uup:

GSXR-1000
2017-04-01, 19:17:48
Ja, gut erkannt, es ist sowieso hoffnungslos, es wird sich so hingedreht wie es einem in den Kram passt. Es ist ja jetzt quasi nurnoch der Nvidia Treiber, obwohl man das erst nur bei Tombraider und teils bei The Division beobachtet hat, nun muss es überall so sein.
GSXR1000 ist da aber noch schlimmer. Er will die Spiele Performance mit synthetischen Anwendungen messen und wenn da nicht das gleiche rauskommt, ist das Spiel/die Software schuld, niemals die CPU.;D
Dazu muss man wissen dass er Gruffi/mr.dude aus dem CB/HWL Forum ist und immer ganz ekelhaft wird, wenn AMD irgendwo bisschen schwächer ist.

Du qualifizierst dich immer weiter ab. Mit jedem Post.
Nun belässt du es nicht nur bei Lügen und Trollerei, nun wird auch noch diffamiert. Zu deiner Information: ich habe weder einen account bei CB noch bei HWL. HWL hab ich seit jahren nicht mal mehr besucht, noch kenne ich einen dieser beiden Personen. Wenn du mir nicht glaubst stelle ich es gerne der Modschaft frei das durch simplen abgleich der IPs zu verifizieren. Denn es ist das allerletzte Leute zu diffamieren und nicht mal irgendeinen Grund dazu zu haben. Daher werde ich diesen Post auch melden, weil das etwas ist, was absolut nicht geht.
Zum anderen beweist du ein ums andere mal, das du sowohl technisch als auch in sachen Programmierung absolut unbewandert und in gänzlicher Unkenntnis lebst.
Wenn es einer software nicht gelingt, die unstrittig vorhandene Hardwareleistung zu nutzen, dann ist dies nunmal ausschliesslich eine schwäche der Programmierung, nicht die der Hardware. Das versteht sogar ein Schulkind, weil es simpelste Logik ist. Aber nochmals, offensichtlich hast du nie verstanden was softwareprogrammierung heisst, noch in ansaetzen was damit zu tun gehabt. Ist ja kein verbrechen. Dann sollte man sich aber auch nicht fortwaehrend mit solchen Posts zum Affen machen.

Zu guter letzt geht es mir bei dieser Aussage nicht um Intel oder AMD, es ist eine generelle Aussage, die nichts mit der aktuellen Situation von Ryzen zu tun hat. Diese Aussage kann man bei jeder neuen Hardwarearchitektur wiederfinden, dieselbe Lage hatten wir im übrigen bereits bei der Einführung der Corearchitektur, dieselbe Problematik hatten wir seinerseits beim PPro und wir hatten sie bei der Einführung von SMT. Und da ging es nicht um AMD. Nur kann ich nicht beurteilen ob du zu diesen Zeiten schon lesen konntest und das somit aktiv verfolgen konntest. Deiner Art dich hier aufzuführen entsprechend gehe ich mal zu deinen Gunsten davon aus das du entsprechend jung bist und es somit noch entwicklungshoffnung gibt.

hmmm
2017-04-01, 19:26:46
...
Man sieht hier auch sehr schön, dass der Treiber eben keine Relevanz hat. Die Verteilung der Threads erfolg durch das OS.
Anwendungs Threads != Kernel-Driver-Threads

Aber ich glaube du verstehst es sowieso nicht.

iuno
2017-04-01, 19:30:01
Hat eigentlich Ahnung davon, ob und wann AMD µcode Updates fuer Ryzen abseits von den Mainboardherstellern ausliefert?

Ich kenne das von Intel wo man den Bootloader anweisen kann, beim Start aktuelleren µCode zu laden. Bei AMD ist das sogar direkt im linux-firmware repo (fam15h und 16h)

dildo4u
2017-04-01, 19:36:04
Bei Youtube hat jemand einen 1700 und GTX1070:
https://youtu.be/Xo8tUEqLKPM?t=29

An der selben Stelle komme ich mit i7-3770 und GTX1080@1700MHz auf 75FPS (~50% höher) und einer CPU-Auslastung von >90% (hüpft dauernd zwischen 85 und 100%):
https://abload.de/thumb/rottr_2017_04_01_12_54rs3e.png (http://abload.de/image.php?img=rottr_2017_04_01_12_54rs3e.png)

Was zeigt uns dieser Vergleich:
Tomb Raider erstellt unter DX12 arbeit für 8T, um die CPU vollständig auszulasten. Eine CPU mit mehr Threads erhält also nicht mehr arbeit. In diesem Fall verteilt das OS die Arbeit auf die vorhandenen Threads. Tja und mit Ryzen ergibt sich hieraus eben einige Probleme.

Ich denke, wenn man bei Ryzen die "Zugehörigkeit" auf die realen 8 Kerne bzw. auf einem Kernverbund beschränkt, dann wird die Leistung massiv steigen.

Das hat wiederum auch nichts mit den Treibern von nVidia zu tun. Das Verteilen der Arbeit ist Aufgabe des Betriebssystem und nicht des Treibers.
Find ich persönlich geil ich geb keine 500€ für ein Ryzen System aus wenn meine 130€ CPU die 1070 voll auslastet.

FX 8320e@4.3Ghz GTX 1070@2Ghz 1080p Very High Preset.

DX11 56fps

https://flic.kr/p/Sbikfy

DX12 70fps

https://flic.kr/p/SbikyE

Langsam wird's was mit dem DX12 versprechen und das in einem Gameworks Titel.

dargo
2017-04-01, 19:36:10
Ja, gut erkannt, es ist sowieso hoffnungslos, es wird sich so hingedreht wie es einem in den Kram passt. Es ist ja jetzt quasi nurnoch der Nvidia Treiber, obwohl man das erst nur bei Tombraider und teils bei The Division beobachtet hat, nun muss es überall so sein.

Also ich sehe hier insgesamt 5 Titel wenn man The Devision mit einbezieht.
https://techreport.com/forums/viewtopic.php?t=119280

Ich habe jetzt natürlich keinen Gegentest mit einer Radeon. Wenn es deiner Meinung nicht am Grafiktreiber liegt woran dann wenn es mit einer Radeon Grafikkarte nicht zu diesen Einbrüchen kommt? Zwei Videos zu RotTR und The Division gibts ja bereits.

Edit:
Übrigens war das das offizielle Statement von AMD zu den vereinzelten Problemen bei der Spieleperformance.
https://community.amd.com/community/gaming/blog/2017/03/13/amd-ryzen-community-update?sf62107357=1

Ich lese da nirgendwo was von Beschuldigungen Dritter. Also nichts weiter als Lügen von scully1234.

Schaffe89
2017-04-01, 20:24:59
Du qualifizierst dich immer weiter ab. Mit jedem Post.
Nun belässt du es nicht nur bei Lügen und Trollerei, nun wird auch noch diffamiert.

Dann habe ich mich halt diesbzeüglich geirrt. Es gibt sonst niemandem im Netz der das so engstirnig und überheblich verbreitet. Dann könnt ihr euch halt in Zukunft die Hand reichen und an der Theorie der syntetischen Benchmarks festhalten.

Es ist nur schon irgendwie kurios. Zuerst sind Benchmarks in 720p ganz böse und du wetterst massiv dagegen und beleidigst mich(Posting gelöscht), aber dann sind auf einmal synthetische Benchmarks die einzig richtige Methode die Spieleleistung zu messen. Nur eben dort wo AMD vorne ist und gut abschneidet. Das andere wird möglichst unter den Teppich gekehrt und wer es einfach völlig neutral ausspricht, wird dann beleidigt und diffamiert.:rolleyes:

Naja, wie auch immer. Ich finds halt einfach massiv lächerlich die Schuld für das schwächere Abschneiden von Ryzen in Spielen ausschließlich bei der Software zu suchen (trotz ziemlich eindeutiger Problemanalysen wo es hakt).
Alleine schon die überdurchschnittlich gute Skalieurung mit dem RAM in Spielen durch die Bank sollte dir genug Aufschluss geben. Schnellerer Ram bingt in Cinebench oder in Renderingbenchmarks selten irgendetwas.

Knuddelbearli
2017-04-01, 20:32:29
Gibt es nen Test mit OC 2600K vs Ryzen?
Bin ja immer noch am grübeln. Aber wenn ich zB CB angucke gibt es da nichts zu grübeln. Mein 2600K läuft auf 4,5 GHZ also grob 25% OC und wäre damit deutlich vor dem 1800X. Könnte mit dem Sandy sogar noch auf 5GHZ gehen womit er dann sowieso ganz vorne wäre ( aber da bekommt dann sogar die Wakü Probleme mit der Abwärme ), während bei Ryzen aber auch Kaby lake keine 10% OC mehr gehen.

Plattform ist zwar total veraltet aber dafür gebe ich keine 500e aus.

Schaffe89
2017-04-01, 20:39:21
Ich habe jetzt natürlich keinen Gegentest mit einer Radeon. Wenn es deiner Meinung nicht am Grafiktreiber liegt woran dann wenn es mit einer Radeon Grafikkarte nicht zu diesen Einbrüchen kommt? Zwei Videos zu RotTR und The Division gibts ja bereits.

Ja eben, das muss man halt erstmal testen (du hast Attila vergessen) deswegen sagte ich ja alle Directx12 Games oder besser gesagt den ganzen Parcour mal mit ner AMD durchlaufen lassen, das wäre zwar viel Aufwand, aber dann dürfte sich die Kritik legen.
Nehme ich bei CB die besagten Spiele raus, rührt sich aber insgesamt auch nix besonderes an der Leistung.

https://abload.de/img/homeaassskexts.png

Vielleicht wird CB deswegen auch nix groß machen.

Gimmick
2017-04-01, 20:43:15
Gibt es nen Test mit OC 2600K vs Ryzen?
Bin ja immer noch am grübeln. Aber wenn ich zB CB angucke gibt es da nichts zu grübeln. Mein 2600K läuft auf 4,5 GHZ also grob 25% OC und wäre damit deutlich vor dem 1800X.


Wenn ich auf CB schaue wäre dein i7 nicht vor dem Ryzen.
Ob es sich lohnt hängt davon ab, ob deine CPU bei dir bremst und ob der Gewinn aus deiner Sicht das Geld wert wäre.

Aber:

Plattform ist zwar total veraltet aber dafür gebe ich keine 500e aus.

Ist es dir ja nicht :D
Von daher einfach weiter warten. Vielleicht hast ja Glück und deine CPU stirbt, wodurch dir die Entscheidung abgenommen wird :tongue:

Knuddelbearli
2017-04-01, 20:47:56
Das Mainboard ist schon länger ein Zombie. mehrere Pins verbogen und die Drecks Soundkarte hat in manchen Spielen ( komischerweise immer nur mit der Steamversion des Spieles, nie mit der Steamlosen ) Probleme

Und sehe gerade habe unter Linux gegeuckt sry ... und wundere mich noch über die geringen Abstände ^^

dargo
2017-04-01, 20:54:21
Nehme ich bei CB die besagten Spiele raus, rührt sich aber insgesamt auch nix besonderes an der Leistung.

https://abload.de/img/homeaassskexts.png

Du nimmst aus insgesamt 15 Spielen 3 raus und wunderst dich, dass sich am Schnitt nicht großartig was ändert? Oh man...

Edit:
Hast du das eigentlich mit Absicht gemacht wo du immer so heiß auf 720p Tests bist und die falsche Rubrik genommen oder eher unbewusst?

Wenn man die drei DX12 Benches von CB rausnimmt werden aus 4% Vorsprung für den i7-7700K 2% Vorsprung. Bei 720p sieht es schon etwas anders aus. Aus 6,7% Vorsprung werden nur noch 1,5%.
59404

btw.
Bei dem Vergleich fällt mir gerade auf, dass bei CB 1080p leicht höhere Frameraten liefert als 720p. WTF? :D

Edit 2:
Ich habe mal spaßhalber die drei DX12 Unfälle rausgenommen und nur die DX11 Games gelassen die besser auf breiteres Multithreading ansprechen.
59405

Schon werden aus 6% Rückstand 7% Vorteil. Und das ganze ohne einen einzigen Spielepatch. ;)

Gimmick
2017-04-01, 21:03:10
Das Mainboard ist schon länger ein Zombie. mehrere Pins verbogen und die Drecks Soundkarte hat in manchen Spielen ( komischerweise immer nur mit der Steamversion des Spieles, nie mit der Steamlosen ) Probleme

Und sehe gerade habe unter Linux gegeuckt sry ... und wundere mich noch über die geringen Abstände ^^

Also mit anderen Worten: Du möchtest dir was neues kaufen, aber der alte Kram will einfach nicht verrecken :confused: :biggrin:

Am besten einen Kaufebratungsthread aufmachen mit deinem "Anwendungsprofil" und/oder im AMD Ryzen Erfahrungsthread stöbern wie es momentan mit Mainboards und Speicherkompatibilität aussieht.

Dann entscheiden und was neues kaufen =)

Schaffe89
2017-04-01, 21:14:24
Du nimmst aus insgesamt 15 Spielen 3 raus und wunderst dich, dass sich am Schnitt nicht großartig was ändert? Oh man...

Ja du musst das mal aus der Sicht eines Testers sehen. Was soll sich insgesamt über die Reviews auch groß ändern,ich schrieb doch das nur, damit man sehen kann, dass die Reviews insgesamt x Spiele testen und das eine 2 oder 3 Spiele da nix großartig an der Performance ändern werden.

Hast du das eigentlich mit Absicht gemacht wo du immer so heiß auf 720p Tests bist und die falsche Rubrik genommen oder eher unbewusst?

Ja war jetzt die falsche Rubrik, danke für den Hinweis.
Ja dann bringts 4%. Über die Bandbreite an Tests ist das ein Tropfen auf dne heißen Stein und erklärt nur einen kleinen Teil der Ryzen Spieleschwäche.
Um auf den 6900k aufzuholen brauchts wohl einfach den 4000+ Ram.

Ich warte immernoch auf einen Test der den Einfluss der Infinity Fabric mit schnellerem Ram ausbügelt und das n bisschen nach oben und unten skaliert.
PCGH misst dort in Battlefield 1 über 10% Verlust wenn man über die CCX geht, wenn überhaupt wird schneller Ram die Stellschraube Nummer 1 sein die man drehen muss um in Spielen auf Intel aufzuholen.
Und das geht wie ein paar Youtuber schon gezeigt haben, man hätte das nur gerne in vernünftige glaubwürdige Tests gegossen.

dargo
2017-04-01, 21:19:47
Ich warte immernoch auf einen Test der den Einfluss der Infinity Fabric mit schnellerem Ram ausbügelt und das n bisschen nach oben und unten skaliert.
PCGH misst dort in Battlefield 1 über 10% Verlust wenn man über die CCX geht, wenn überhaupt wird schneller Ram die Stellschraube Nummer 1 sein die man drehen muss um in Spielen auf Intel aufzuholen.

Mit einer Nvidia Grafikkarte. *hust* Hier hätte ich gerne noch einen Vergleich mit Radeon. ;)


Ja war jetzt die falsche Rubrik, danke für den Hinweis.
Ja dann bringts 4%. Über die Bandbreite an Tests ist das ein Tropfen auf dne heißen Stein und erklärt nur einen kleinen Teil der Ryzen Spieleschwäche.
Um auf den 6900k aufzuholen brauchts wohl einfach den 4000+ Ram.

Falsch... siehe Spielepatch für AotS. Eine "simple" Softwareanpassung bewirkt da wesentlich mehr als nur schnellerer Speicher. Du bist einfach einer von vielen der nicht begreifen kann oder will, dass Softwareoptimierung oftmals mehr bringt als die Hardware-Brechstange. Bestes Beispiel... Konsolen.

Gipsel
2017-04-01, 21:56:47
Ich möchte dringend daran erinnern, daß das hier rein Review-Thread ist. Irgendwelche (persönlichen/Fanboy) Grabenkämpfe gehören hier nicht rein.

Wenn einige hier so weitermachen, gibt es wohl bald Zwangspausen für diejenigen.

Menace
2017-04-01, 23:12:29
Ich habe mal spaßhalber die drei DX12 Unfälle rausgenommen ...

Das ist wirklich interessant. Allerdings ist die 1800X nicht der Konkurrent der 7700K, sondern da müsste man 1700 (vom Preis) vergleichen. Gibt es das vielleicht auch?

Wie auch immer zeigt Deine "Spielerei" wie eingeschränkt man allgemeingültige Aussagen bzgl. Spielstärke machen kann. :up:

vinacis_vivids
2017-04-02, 00:28:16
Aber das geänderte/hinzugefügte (vorläufige?) Fazit von PCGH spricht wieder Bände:

´"Update 31.3.2017: Ryzen profitiert deutlich vom AotS-Update und kommt im Falle des Achtkerner näher an Intels Core i7-6900K heran, bietet ihm im Falle des Savegames sogar Paroli."

Ryzen 1800x ist schneller als der 6900k und so hat das auch zu sein. Wieder ein typisches biased Fazit.

Ryzen ist da 38% schneller und das spricht eine eindeutige Sprache.
Der "Intel wurde bei den min fps. vernichtet" muss das heißen.

Wer solche Games spielt, weißt jeden Frame im Endgame zu würdigen, denn Intels min fps sind näher an der 0 als Ryzen.

dildo4u
2017-04-02, 00:37:24
Um das vernünftig zu bewerten braucht man ein Frametimeverlauf einfach nur ein einzigen min fps Wert zu zeigen ist ziemlich Wertlos.Hast du nicht selber schon Benches verlinkt wo der 7700k bessere fps aber schlechtere Frametimes hat?

vinacis_vivids
2017-04-02, 00:39:46
[..]
Ich erinnere an:
https://abload.de/img/hit-1080-ft1800xvs690t7u15.png
https://abload.de/img/hit-4k-ft1800kvs6900k8oxoc.png

aufkrawall
2017-04-02, 01:29:30
Tolles Beispiel, "mit mehr Threads läufts etwas weniger kacke".
Mit DX11 läufts btw. im CPU-Limit langsamer, aber dafür auch wesentlich sauberer. Und das auch mit nur 4C/T...

Schaffe89
2017-04-02, 02:44:46
Schon werden aus 6% Rückstand 7% Vorteil. Und das ganze ohne einen einzigen Spielepatch. ;)

Indem du einfach mal alle Games rausnimmst bei denen Ryzen nicht so gut läuft inkl. Spiele um die sich die Diskussion gar nicht gedreht hat, kann man machen, löst aber die Probleme nicht, sondern man verschließt die Augen davor.

Warten wir mal weitere Tests ab, das rumdiskutieren bringt bei solchem Zweckoptimismus umd hingedrehe nix, man dreht sich im Kreis.

dargo
2017-04-02, 08:05:50
Das ist wirklich interessant. Allerdings ist die 1800X nicht der Konkurrent der 7700K, sondern da müsste man 1700 (vom Preis) vergleichen. Gibt es das vielleicht auch?

Ich gehe da sogar weiter. Der R5 1600X wird der Konkurrent sein obwohl er 80-100€ weniger kosten wird. Und da hat der i7-7700K keine Chance mehr.

Indem du einfach mal alle Games rausnimmst bei denen Ryzen nicht so gut läuft inkl. Spiele um die sich die Diskussion gar nicht gedreht hat, kann man machen, löst aber die Probleme nicht, sondern man verschließt die Augen davor.

Du bist echt putzig. :tongue:

Ich wollte dir nur an diesem Beispiel veranschaulichen wie schnell sich das Blatt wendet wenn die Software nur geringfügig besser multithreaded. Und da sind noch einige Games bei (die ich da gelassen habe) die kaum was mit 12-16 Threads anfangen können. Geschweige denn, dass diese Games die Ryzen-Architektur kennen.

btw.
Ashes DX12 müsste da eigentlch nach dem Spielpatch wieder rein denn nun liegt der R7 1800X gleichauf mit dem i7-6900K bzw. minimal vorne im Savegame. ;) Bei 500$ vs. 1100$ eine komplette Blamage für Intel. Und da berücksichtige ich nicht mal die Bretterpreise. Man kann auch problemlos einen R7 1800X auf ein ~100€ Brett schnallen.

59406

Aber auch egal... schon am 11.04 wird CB den R5 1500X und 1600X mit der neuen Spielversion testen.

DerKleineCrisu
2017-04-02, 09:20:00
Aber auch egal... schon am 11.04 wird CB den R5 1500X und 1600X mit der neuen Spielversion testen.

Auf diese Tests warte ich auch schon wie ein flitzebogen.

Menace
2017-04-02, 09:47:21
Indem du einfach mal alle Games rausnimmst bei denen Ryzen nicht so gut läuft inkl. Spiele um die sich die Diskussion gar nicht gedreht hat, kann man machen, löst aber die Probleme nicht, sondern man verschließt die Augen davor.


Die Auswahl der Spiele und Anwendungen ist IMMER eine willkürliche Entscheidung. Gerade bei Anwendungen nervt es mich, dass immer nur Adobe herangezogen wird. Deshalb ist es wichtig, die für sich passenden rauszusuchen. Wenn einer zu 100% Starcraft 2 zockt und ansonsten max. im Internet Filmchen anschaut wird um 7700K nicht herumkommen.

Am Besten wäre es ja, wenn man für Balkendiagramme erst einmal seine Spiele und Anwendungen anklicken müsste, bevor man das Diagramm angezeigt bekommt. Man hätte dann zwar nur die Momentaufnahme, die hat man aber ja immer.

Genau darum dreht sich doch diese Diskussion: Man kann heutzutage keine allgemein gültige Aussagen bzgl. CPUs machen. In Foren mit unterschiedlichen Interessenlagen wird das natürlich bei vielen hauptsächlich auf Balkenlängen ankommen (vgl. hier den Thread und Deine Beiträge). Aber bei Fachmagazinen hätte ich gerne ein differenzierteres Fazit.

Edit: Asus Crosshair IV Hero ist Preis um 50 € gefallen (+ Prey) (https://geizhals.de/asus-rog-crosshair-vi-hero-90mb0sc0-m0eay0-a1582881.html). :eek: Hoffentlich kein Versehen.

dargo
2017-04-02, 10:03:10
Edit: Asus Crosshair IV Hero ist Preis um 50 € gefallen (+ Prey) (https://geizhals.de/asus-rog-crosshair-vi-hero-90mb0sc0-m0eay0-a1582881.html). :eek: Hoffentlich kein Versehen.
Das ist nur eine automatische Reaktion auf den höchstwahrscheinlich Fake-Verkäufer (gabs schon öfter) bei Amazon. ;) Man kanns aber dennoch bei MF probieren. :D

fondness
2017-04-02, 10:10:07
Die MB Preise werden sicher noch deutlich fallen, wenn von Luftfracht auf Schiffsfracht umgestellt werden kann.

dargo
2017-04-02, 10:12:26
Werden die immer noch per Luftfracht geliefert? :| Nach einem Monat? Ich dachte das war nur beim Release so. So eine Schiffsfracht dauert doch ca. 2 Wochen oder nicht?

Edit:
Ich orientiere mich da aktuell am ASUS Prime B350M-A und ASUS Prime B350-Plus. -15% zum Releasepreis sind da natürlich durchaus realistisch.

fondness
2017-04-02, 10:33:30
Kann natürlich sein, dass mittlerweile eh schon per Schiff geliefert wird, zumindest zu Beginn wurden damit die höheren Preise gerechtfertigt. Aber stimmt natürlich, die Preise sind schon deutlich gesunken.

Die Verfügbarkeit ist jedenfalls noch immer bescheiden, zumindest bei X370 Brettern - und das wird sicher nicht besser, wenn am 11. April billigere Ryzen-CPUs vorgestellt werden. ich hoffe doch, dass jetzt bald mal die Liefermengen deutlichen steigen, das sollte auch noch mal für einen Preisrückgang sorgen.

anddill
2017-04-02, 10:36:26
Dazu würde passen daß die Asrock-Boards jetzt so langsam im Handel ankommen. Die haben vielleicht das Luftrennen nicht mitgemacht.

dargo
2017-04-02, 10:41:47
Die Verfügbarkeit ist jedenfalls noch immer bescheiden, zumindest bei X370 Brettern - und das wird sicher nicht besser, wenn am 11. April billigere Ryzen-CPUs vorgestellt werden.
Hier sehe ich nicht unbedingt ein großes Problem. In dem Preisbereich in dem sich die SixCores und erst recht die Quadcores bewegen werden glaube ich nicht daran, dass die Zielgruppe zu den hochpreisigen X370 Brettern greift bzw. greifen möchte.

Dazu würde passen daß die Asrock-Boards jetzt so langsam im Handel ankommen. Die haben vielleicht das Luftrennen nicht mitgemacht.
Klingt zumindest plausibel.

Menace
2017-04-02, 10:42:34
Gerade bei den Heros habe ich den Eindruck, dass der Container noch nicht in Deutschland gelandet ist, da Mindfactory diese für 31.3 angekündigt hat, was jetzt auf 6.4 geändert wurde.

Edit: Wobei das mit der automatischen Reaktion auf Fake-Verkäufer schon Sinn macht (siehe Amazon - Import aus Italien, noch nichts verkauft bis dato).

Was natürlich dann auch noch das alte Bios wäre.

L233
2017-04-02, 10:54:37
Gerade bei Anwendungen nervt es mich, dass immer nur Adobe herangezogen wird.

Warum? Was willst Du sonst heranziehen? Extreme Nischen wie Rendering und CAD? Wobei laut THG Ryzen bei diversen CAD-Anwendungen keine besonders gute Figur macht.

Am relevantesten sind immer die Benchmarks, die die Performance bei Anwendungen messen, die von möglichst vielen Leuten verwendet werden. Und da kommt man an Adobe halt nicht vorbei.

G3cko
2017-04-02, 10:59:17
Schaffe korrigiere mich wenn ich falsch liege:

Die low-level APIs gibt es hauptsächlich aus dem Grund die CPU-Last bzw den Overhead zu reduzieren. Wenn nun die Performance im GLEICHEN Titel massiv zu DX11 abweicht und mit einem anderen Grafiktreiber keine Probleme vorliegen, liegts wohl nicht an der CPU richtig? Zumal Nvidia bisher so gut wie nie mit DX12 an die eigene DX11 Performance herranreicht.

Auch ist es bereits jetzt so, dass CPUs mit mehr Kernen und weniger Takt, QuadCores mit mehr Takt in aktuellen Spielen davonlaufen. Niemand sagt der 7700k ist eine schlechte CPU. Für alte Singlethreadlastige Anwendungen vielleicht die bessere Wahl, aber nicht mehr im Jahr 2017 für einen Gamer der eine Plattform für die nächsten Jahre sucht!

Ein 6600k wurde teilweise auch als DIE Gamer-CPU empfohlen. So sieht das heute aus:
https://www.hardwareluxx.de/community/f11/ein-i5-6600k-bf1-und-die-performance-1158471.html
Selbst der 7700k hat gelegentlich kurze Hänger die Mehrkern-CPUs so nicht mehr haben.
In AotS werden bereits automatisch Details reduziert.

Und noch etwas. Nur weil sich die QuadCores so lange gehalten haben wird das nicht für immer so sein. Intel selbst sieht den Sockel 1151 nicht als GamerSockel. Die Kluft zwischen Sockel 2011 und 1151 wurde und wird immer größer. Das ist Intels offiziele Langzeitstrategie.

Und noch etwas. Leute wie du sind der Grund weshalb ich andere Foren bereits meide. 1/3 hier haben dich bereits auf der ignor Liste, 1/3 ignorieren deine Posts und das letzte Drittel teilt ohnehin nicht deine Meinung. Wir wären dir also sehr verbunden, wenn du wieder die anderen Foren aufsuchen würdest. Das nur als Wink mit dem Zaunpfahl.

Menace
2017-04-02, 10:59:29
Am relevantesten sind immer die Benchmarks, die die Performance bei Anwendungen messen, die von möglichst vielen Leuten verwendet werden. Und da kommt man an Adobe halt nicht vorbei.

Möglichst viele Leute kaufen nicht 8-Kerner.
Und so kann man eine Monopolstellung auch herstellen. Ich nutze kein Lightroom, aber was ich gehört habe ist z.B. dass Capture One (welches ich seit Jahren nutze) besser mit mehr Threads und OpenCl (nicht Cuda) umgeht.

Natürlich ist für viele wichtig, dass sie das haben, was die Mehrheit hat, aber es muss doch abseits davon auch noch Redaktionen geben, die versuchen die besten Produkte ausfindig zu machen. Würde den Markt breiter und die Konkurrenz besser und die Preise günstiger machen.

Edit: Nischen müssen es gar nicht sein. DAM-Verwaltungsprogramme zum Beispiel. Warum nicht mal IMatch und Konkurrenzen betrachten. Wenn da >1000 files mal mit 1000 Metadaten indiziert werden, dann erzeugt man auch eine ordentliche Last (wobei SSD dann wohl Voraussetzungen sind nicht in ein anderes Limit zu laufen).

Ätznatron
2017-04-02, 11:03:26
Dazu würde passen daß die Asrock-Boards jetzt so langsam im Handel ankommen. Die haben vielleicht das Luftrennen nicht mitgemacht.

Meine Frau ist in der Exportabteilung eines Fahrzeugherstellers beschäftigt und hat vor ein paar Tagen erzählt, dass momentan Schiffsfrachtraum künstlich verknappt wird und entsprechend die Frachtraten angestiegen seien.

Die Firma, in der sie arbeitet, überlegt daher mittlerweile, von Schiffs- auf Luftfracht umzusteigen, da 1. dort freie Kapazitäten vorhanden seien, und 2. sich die aufgerufenen Preise kaum noch von denen der Schifffahrt unterscheiden würden.

ilPatrino
2017-04-02, 11:22:34
Warum? Was willst Du sonst heranziehen? Extreme Nischen wie Rendering und CAD? Wobei laut THG Ryzen bei diversen CAD-Anwendungen keine besonders gute Figur macht.
cad (egal welches) ist immer noch single-threaded und das wird sich auch in dieser generation nicht ändern, weil der grundlegende kernel bei keinem system mehr angefaßt wird. solidworks kann bei der zeichnungsableitung immerhin teilweise einen zweiten core einbinden :freak:

€dit: und weils so schön ist, kriegen cad-workstations immer mehr kerne, können die aber abseits von spezialfällen gar nicht auslasten. höchstens wenn ich datenimport und reparatur betreibe. dann hab ich meistens 8 bis 16 fenster gleichzeitig auf und es limitiert nur noch der speicher und die übersicht

Gimmick
2017-04-02, 11:24:37
Warum? Was willst Du sonst heranziehen? Extreme Nischen wie Rendering und CAD? Wobei laut THG Ryzen bei diversen CAD-Anwendungen keine besonders gute Figur macht.

Am relevantesten sind immer die Benchmarks, die die Performance bei Anwendungen messen, die von möglichst vielen Leuten verwendet werden. Und da kommt man an Adobe halt nicht vorbei.

Mich nervt es auch. Klar ist es eine objektiv nachvollziehbare Entscheidung, und gerade bei einem Querbet-Test, der Spiele und diverse andere Einsatzgebiete abklappern will, muss man natürlich Einschränkungen hinnehmen.

Es gibt aber auch Reviews, die z.B. Videoediting benchen und dabei nur Premiere zur Hand nehmen. das ist schon etwas mager.
Da bencht man nicht die CPU, man bencht die Software.


Gibt es eigentlich einen schönen, übersichtlichen Ryzen-Mainboard-Test? Mit verschiedenen Speichern etc.?

L233
2017-04-02, 11:27:31
Möglichst viele Leute kaufen nicht 8-Kerner.
Jemand der beruflich mit bestimmten Anwendungen arbeitet und für den die Performance in diesen Anwendungen wichtig ist, wird das durchaus ins Auge fassen. Und darum geht's doch, oder? Es geht doch nicht um Tante Berta, die für den Landfrauenverein mit Excel die Kasse führt.

Und so kann man eine Monopolstellung auch herstellen. Ich nutze kein Lightroom, aber was ich gehört habe ist z.B. dass Capture One besser mit mehr Threads und OpenCl (nicht Cuda) umgeht.
Professionelle Photographen haben einen Workflow und die switchen nicht mal kurz Anwendungen wegen irgend einem technischen Klimbim unter der Haube. Die kaufen sich die beste Hardware für die Software, die sie benutzen - und nicht umgekehrt. An der massiven Marktdominanz von Lightroom/ACR wird sich aus diesem Grund auch so schnell nichts ändern.

Capture One, DXO, Irridient und wie sie alle heißen mögen ja gute Programme sein, die vielleicht auch technisch einiges besser machen, aber eine relevante Rolle am Markt spielen sie kaum und das wird sich auch mittelfristig nicht ändern, wenn überhaupt.

Natürlich ist für viele wichtig, dass sie das haben, was die Mehrheit hat, aber es muss doch abseits davon auch noch Redaktionen geben, die versuchen die besten Produkte ausfindig zu machen. Würde den Markt breiter und die Konkurrenz besser und die Preise günstiger machen.
Wie definierst Du das "beste Produkt"?

Für den Lightroom-, Premiere- oder Photoshop-Nutzer kommt das beste Produkt von Intel, denn der 7700k lässt hierbei selbst den deutlich teureren Ryzen 1800X alt aussehen. Für Blender/Cinema4D-Anwender oder Leute, die sehr oft Videos encodieren, ist das beste Produkt eventuell Ryzen, weil diese Anwendungen von den 8 Kernen sehr stark profitieren.

Das Problem für AMD ist halt, dass auf jede Blender- oder Cinema4D-Installation wahrscheinlich 1.000 Premiere-Installationen und 10.000 Photoshop-Installationen kommen. Natürlich kann sich das ändern, wenn Adobe ihre Software irgendwann besser für Multi-Threading optimieren... aber wir reden hier von Adobe.

Es gibt aber auch Reviews, die z.B. Videoediting benchen und dabei nur Premiere zur Hand nehmen. das ist schon etwas mager.
Da bencht man nicht die CPU, man bencht die Software.

Ja, OK. Speziell beim Video-Editing sollte da mehr gehen, stimmt schon.

Aber ob nun die CPU gebencht wird oder eben die wie sich die Software verhält, die auf dieser CPU läuft, ist dem Anwender doch letztendlich egal. Das interessiert eher die Technik-Freaks, die was zum analysieren haben wollen. Dem Premiere-Anwender, der einfach nur wissen will, was für seine Zwecke am besten geeignet ist, geht das doch am Arsch vorbei. Die Performance ist, wie sie ist.

Menace
2017-04-02, 11:42:26
Capture One, DXO, Irridient und wie sie alle heißen mögen ja gute Programme sein, die vielleicht auch technisch einiges besser machen, aber eine relevante Rolle am Markt spielen sie kaum und das wird sich auch mittelfristig nicht ändern, wenn überhaupt.


Wenn in jedem Test nur Adobe auftaucht bzw. in jedem Forum nur Lightroom erwähnt wird, wird sich das auch nicht großartig ändern.

Capture One wird nach wie vor hauptsächlich von professionellen Fotografen genutzt, obwohl es von seiner Konzeption her durchaus auch für Amateurfotografen interessant ist.

https://www.heise.de/foto/artikel/Capture-One-vs-Lightroom-3455310.html


Wie definierst Du das "beste Produkt"?

Du hast Recht. Ein "bestes Produkt" gibt es nicht. Das hängt von vielen Faktoren ab. Beim RAW-Konverter von der Bedienung, Ergebnis, Preis. Die Hardware wiederum von der Stabilität, Preis und Effizienz.

aber wir reden hier von Adobe.


Genau deshalb (und deren Umstellung auf Mietprodukte) bleibe ich bei CS6 und Ergänze es langsam durch Alternativen. Wobei C1, QuarkXpress und IMatch (Adobe kann nicht DAM) schon immer bevorzugt wurden.

Das Problem ist doch, dass alle Seiten die gleichen oder ähnliche Produkte nutzen. Warum nicht mal etwas neues wagen. Wobei das wahrscheinlich zunächst sogar von Nachteil für AMD wäre, da diese sich auch erst auf die großen Firmen stürzen.

Gimmick
2017-04-02, 11:52:41
Natürlich kann sich das ändern, wenn Adobe ihre Software irgendwann besser für Multi-Threading optimieren... aber wir reden hier von Adobe.


Es ist ein Trauerspiel :D
Dafür ist das oprimale Adobe System natürlich günstiger :tongue:

Aber zumindest für AfterEffects wurde großes angekündigt! Für irgendwann ^^.



Aber ob nun die CPU gebencht wird oder eben die wie sich die Software verhält, die auf dieser CPU läuft, ist dem Anwender doch letztendlich egal. Das interessiert eher die Technik-Freaks, die was zum analysieren haben wollen. Dem Premiere-Anwender, der einfach nur wissen will, was für seine Zwecke am besten geeignet ist, geht das doch am Arsch vorbei. Die Performance ist, wie sie ist.

Entschuldigung, ich bin auch Anwender und mir is das nicht egal ;D

Troyan
2017-04-02, 12:05:56
Ist eine AMD-GPU besser für Ryzen geeignet als eine nVidia-GPU:
https://www.youtube.com/watch?v=nLRCK7RfbUg


Nope

Isen
2017-04-02, 12:08:48
Leider GPU Limit und somit beantwortet es die Frage, hinsichtlich eines Treiber-Problems nicht.

Troyan
2017-04-02, 12:20:08
Es gibt keine Unterschiede mit sGPU. Vergleiche zwischen sGPU und mGPU sind viel zu fehleranfällig, wenn man als Basis nicht einen mGPU-Test mit allen GPUs hat.

Isen
2017-04-02, 12:22:27
Ob mit oder ohne, es beantwortet die im Raum stehende Frage in keins der Weise.
Es frönt ausschließlich dein Bias.

Gimmick
2017-04-02, 12:47:34
Ist eine AMD-GPU besser für Ryzen geeignet als eine nVidia-GPU:
https://www.youtube.com/watch?v=nLRCK7RfbUg


Nope


Ändert halt nichts an dem Problem, dass trotz Ergebnissen wie in Tomb Raider erst ein Fazit rausgehaun wird, um dann danach eventuell nach zu testen.

Die B-Note im Fazit beeinflusst sowas halt schon. Und es wird ein Fokusthema, weil es Spekulationen anregt, obwohl es ansich überhaupt nichts aussagt.

hmmm
2017-04-02, 12:48:19
Ist eine AMD-GPU besser für Ryzen geeignet als eine nVidia-GPU:
https://www.youtube.com/watch?v=nLRCK7RfbUg


Nope

Doch!
https://www.youtube.com/watch?v=QBf2lvfKkxA

Emperator
2017-04-02, 13:13:03
Ist eine AMD-GPU besser für Ryzen geeignet als eine nVidia-GPU:
https://www.youtube.com/watch?v=nLRCK7RfbUg
Nope

Doch!
https://www.youtube.com/watch?v=QBf2lvfKkxA

Das zeigt mal wieder schön warum YT-Videos als Quellen ungeeignet sind.
Die Jungs dort wollen nur eure Views, denn damit verdienen die ihr Geld. Und mit objektiven sachlichen Videos bekommt man kaum Views, aber mit polarisierenden, reißerischen, irgendwelche "Geheimnisse" auf ist stark formbar ;)

Armaq
2017-04-02, 13:18:20
Das zeigt mal wieder schön warum YT-Videos als Quellen ungeeignet sind.
Die Jungs dort wollen nur eure Views, denn damit verdienen die ihr Geld. Und mit objektiven sachlichen Videos bekommt man kaum Views, aber mit polarisierenden, reißerischen, irgendwelche "Geheimnisse" auf ist stark formbar ;)
AoTS war nichts aus Youtube. Es war eine Sonderbarkeit die nicht hinterfragt wurde.

Gimmick
2017-04-02, 13:19:41
Die Jungs dort wollen nur eure Views, denn damit verdienen die ihr Geld.

:eek: Im Gegensatz zu PCGH, die leben von Luft und Liebe. :tongue:

dargo
2017-04-02, 13:23:02
Ist eine AMD-GPU besser für Ryzen geeignet als eine nVidia-GPU:
https://www.youtube.com/watch?v=nLRCK7RfbUg


Nope

Man für Amateure. :facepalm: Dabei hatten die doch vor wenigen Tagen noch eine GTX1080 TI. :crazy: Die zwar nicht unbedingt extrem was ändern würde (1080p @max. Details), aber immerhin schon mal stärker CPU-Limit tendieren würde.

Vergleiche zwischen sGPU und mGPU sind viel zu fehleranfällig, wenn man als Basis nicht einen mGPU-Test mit allen GPUs hat.
Inwiefern? Ernst gemeinte Frage. Nach meinem Verständnis ist der Aufwand nur für das mGPU System bei der CPU höher.

Isen
2017-04-02, 13:25:25
Die Jungs dort wollen nur eure Views

Natürlich. Weil das die brennende Fragen in den Communitys darstellt die damit bedient wird, und da diese als einzige das bedienen, haben jene auch die meiste Beachtung. Verdient will ich meinen. Schnelllebiger Markt, da gewinnt nur der, der mit der Zeit geht.

Berkeley
2017-04-02, 13:28:29
Ist eine AMD-GPU besser für Ryzen geeignet als eine nVidia-GPU:
https://www.youtube.com/watch?v=nLRCK7RfbUg


Nope

Bisher habe ich hier ausschließlich mitgelesen (teils auch Bullshit). Nun dachte ich, melde ich mich mal an.

Troyan hat entweder das Video nicht zu Ende geschaut oder hat wenig Ahnung von "CPU Limits".
Im Vergleich Titan X Pascal vs. R9 295x2 (wo also das GPU Limit weitgehend "wegfällt") sieht man doch perfekt, dass eine wesentlich langsamere 295x2 in DX12 plötzlich schneller ist als Titan Pascal... Huch? CPU Limit? Aber nur bei der Titan Pascal?
TEST an der Stelle -> https://youtu.be/nLRCK7RfbUg?t=491

All die Tests davor in 1080p waren eben NICHT im CPU-Limit. Wobei die GTX 1070 in DX12 in Hitman, Division, AotS gerade mal 5-7% vor der FuryX liegt. Normales Ergebnis? Sollte man doch schon hinterfragen an der Stelle.

TGKlaus
2017-04-02, 13:35:04
Die Jungs dort wollen nur eure Views, denn damit verdienen die ihr Geld.

Willst du mir jetzt damit sagen, das z.B. pcgh nicht meine Views & Klicks will, weil sie schon anderweitig finanziert werden? :rolleyes:

Armaq
2017-04-02, 13:36:03
Bisher habe ich hier ausschließlich mitgelesen (teils auch Bullshit). Nun dachte ich, melde ich mich mal an.

Troyan hat entweder das Video nicht zu ende geschaut, oder hat wenig Ahnung von "CPU Limits".
Im Vergleich mit der Titan X Pascal vs. R9 295x2 (wo also das GPU Limit weitgehend "wegfällt") sieht man doch perfekt, dass eine wesentlich langsamere 295x2 in DX12 plötzlich schneller ist als Titan Pascal... Huch? CPU Limit? Aber nur bei der Titan?
TEST an der Stelle -> https://youtu.be/nLRCK7RfbUg?t=491

All die Tests davor in 1080p waren eben NICHT im CPU-Limit. Wobei die GTX 1070 in DX12 in Hitman, Division, AotS gerade mal 5-7% vor der FuryX liegt. Normales Ergebnis? Sollte man doch schon hinterfragen an der Stelle.
Nein! Wir hinterfragen doch nicht total unschlüssige Ergebnisse, sondern stimmen ein mit: Ryzen ist eine schlechte Gaming-CPU.

dargo
2017-04-02, 13:41:16
@Berkeley

Danke für den Hinweis. Ich muss zugeben ich habe auch nicht mehr weiter das Video geschaut. Und gerade der Test mit der R9 295X vs. Titan Pascal ist interessant.

btw.
Fällt einem hier was auf? ;)
59410

Troyan
2017-04-02, 13:45:14
Die R9 295 ist eine mGPU-Karte. AFR in DX12 muss vom Entwickler implementiert werden. Ohne einen Vergleich zu nVidia, vergleicht man hier Äpfel mit Birnen. Ich finde über Youtube auch keine relevanten Benchmarks mit nVidia und DX12AFR.

Die 100% Auslastungsanzeige bei AMD muss auch nicht das selbe bedeuten wie bei nVidia. Unterschiedliche APIs, unterschiedliche Architekturen. Die GTX1070 liefert bis zu 40% mehr Leistung als die Fury X in Tomb Raider mit dem 1800X. Es ist offensichtlich, dass die Fury X hier zwar mit 100% läuft, aber nicht 100% komplett ausgelastet wird.

Vielleicht ist ja jemand hier im Forum, der Tomb Raider, Fury X/480/etc/ und Ryzen hat und kann ganz simpel mal in 720p und 1080p vergleichen, wie die Frames sich ändern. Das muss nichtmal Ryzen sein. Eigentlich reicht ein simpler Test mit AMD, DX12 und Tomb Raider auf jeder CPU aus.

Berkeley
2017-04-02, 13:57:10
Die R9 295 ist eine mGPU-Karte. AFR in DX12 muss vom Entwickler implementiert werden. Ohne einen Vergleich zu nVidia, vergleicht man hier Äpfel mit Birnen. Ich finde über Youtube auch keine relevanten Benchmarks mit nVidia und DX12AFR.
Das ist in dem Fall völlig irrelevant ob mGPU oder nicht. Es geht um ein mögliches CPU Limit. Solange die Grafikkarte genug FPS rausfeuert, will man eben feststellen wo die CPU ihre FPS Grenzen hat.
Diese FPS Grenze (also CPU Limit) sollte dann mit JEDER GPU, die schneller als die CPU rechnet, gleich sein.
In dem Fall ist eine schnellere GPU plötzlich langsamer --> Problem.

Und auch wenn der RYZEN smart ist glaube ich kaum, dass der Prozi sich denkt, ach, ist ja eine Nvidia Karte, da grätsche ich jetzt voll rein... ;)

Wenn also grundsätzlich schon höhere FPS möglich sind, liegt das höchstwahrscheinlich nicht an der CPU und Windows sondern eher an der GPU bzw. den Treibern? Und ich wüsste nicht, dass CPU Hersteller auch monatlich Treiber rausbringen...

EDIT:
Allgemein bei den RYZEN Tests ist noch einiges unschlüssig. Ich wünsche mir einen guten Test mit RYZEN OC und 7700k mit 1060 vs 480 und DX11 vs DX12 und 1080p vs 720p (+SMT Auswirkung). Beide mit schnellem 3200er oder 3600er Speicher. Ist leider nicht gerade wenig Aufwand für die Tester.

Digidi
2017-04-02, 14:11:29
Um mal eine These aufzustellen. Nvidia lagert viel Arbiet auf die CPU aus. Da auf AMD CPU noch nicht optimiert wurde, ist es klar das NVDIA hier einbricht.

Dx12 währe da noch Interessanter. Es soll ja bekannt sein das NVIDIA kein Async Compute kann und es deshalb auf der CPU simuliert. Deshalb läuft AMD damit wohl schlechter.

Megamember
2017-04-02, 14:28:11
@Berkeley

Danke für den Hinweis. Ich muss zugeben ich habe auch nicht mehr weiter das Video geschaut. Und gerade der Test mit der R9 295X vs. Titan Pascal ist interessant.

btw.
Fällt einem hier was auf? ;)
59410

Das die Fury X am Limit ist die 1070 aber noch nicht?

nikk
2017-04-02, 14:30:14
Das zeigt mal wieder schön warum YT-Videos als Quellen ungeeignet sind.

Wenn PCGH auch so ein YT-Video mit Splitscreen von ihrem AoS-Savegame-Benchmark gemacht hätten, wäre denen die Ursache selbst aufgefallen und wenn nicht, dann spätestens den Zuschauern. Vielleicht schaut sich PCGH das sogar irgendwann ab und bringt nicht nur Balken. :)