PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - RYZEN (Summit Ridge): Review Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

koke
2017-03-08, 21:57:36
Lol - kann mir einer erklären warum die Chipsatz Treiber bei Asus 1,2 GB groß sind?

;D


Da sind wohl zweimal die Grafiktreiber (win7 / win10) mit je ~500mb enthalten.

Lowkey
2017-03-08, 22:00:07
Lol - kann mir einer erklären warum die Chipsatz Treiber bei Asus 1,2 GB groß sind?

;D

Wetten, dass das die echte All in One Edition ist? 50% macht der AMD Crimson aus.

Man braucht ja nur: http://support.amd.com/de-de/download/chipset?os=Windows%2010%20-%2064

Skysnake
2017-03-08, 22:05:53
Und was nimmt man stattdessen?
Schlussendlich interessiert mich als Nutzer doch nur, ob das OS die CPU zu 100% beschäftigt. D.h. jeder logische Kern mit einem Thread beschäftigt ist. Ob diese Threads jetzt nix tun (z.B. BusyWaiting) ist egal, weil diese die für mich relevanten Threads (z.B. ein Spiel) verdrängen. D.h. 16 Busy-Waiting-Threads mit Echtzeit-Prio lasten aus Sicht des Nutzers und des OS eine 8C/16T-CPU zu 100% aus. Das die CPU selbst 99% ihrer Hardware dabei nicht nutzt, interessiert mich nicht (außer dass ich mich über die geringe Abwärme freuen darf).

Oder sehe ich das falsch?

Man nimmt die eingebauten Performancecounter.

Und es ist eben nicht egal, weil man eben mit dem taskmanager nur sieht ob die CPU überhaupt die Chance hat etwas zu tun, was ja oft genug nicht der Fall ist.

Das kann man der CPU aber nicht anlasten. Daher kommt es halt schon auch auf die Software an.

BlacKi
2017-03-08, 22:39:28
Ich empfinde daher alles >100 FPS z.B. als Gleichwertig, da man da einfach anfängt Dinge zu testen, die nicht mehr viel mit Durchsatz zu tun haben, sondern mit der sturen seriellen Performance in einem recht speziellen Bereich...
ich spiele gerne mit 100fps und mehr, ich würde gerne die schnellste cpu für meine preisklasse in erfahrung bringen. danach kann ich immer noch entscheiden 4/6/8 kerne zu nehmen.

vinacis_vivids
2017-03-08, 22:45:05
Bei >100fps braucht man in vielen Spielen aber SLI oder Crossfire. Weißt nicht ob die Problematik mit den frametimes bei hohen fps noch relevant ist?

Skysnake
2017-03-08, 22:45:54
Das ist ja auch legitim, wenn man so spezielle Anforderungen hat. Dann ist es aber auch ein Muss die Details runter zu drehen, oder zockst du in 720p?

Und genau dann wirds interessant, weil damit dann auch die CPU last sinkt

maguumo
2017-03-08, 22:48:17
Ich dachte immer (fast alle) Grafiksettings und Auflösung haben so gut wie keinen Einfluss auf die CPU Last?

Skysnake
2017-03-08, 22:57:26
Kommt darauf an und wenn man es einsteigt bestimmt man zuerst die Setting in der zielauflösung ungefähr geht dann wieder runter. Aber im GRUNDE Limit sich über die CPU groß Gedanken machen ist auch interessant, wobei es natürlich Spiele gibt die nicht in der GPU hängen. Ehrlicherweise wäre mir aber kein solches Spiel bekannt bei dem man 100 fps haben wollte.

Der HeinZ
2017-03-08, 23:11:36
Abgesehen von ein paar Spielen ist Ryzen richtig schnell, ich freue mich darauf meine ganze Videoschneiderei durchzuziehen.
Für normales Musik Arrangment ist mittlerweile jeder Pc schnell genug, da merke ich bereits seit nem X2 keine großen Unterschiede mehr, SSD und co sei dank.
Wie sich das 128 Spuren gleichzeitig verhält, keine Ahnung, aber mehr als 24 - 32 gleichzeitig habe ich bisher in keinem Programm benutzt, weder bei MIDI noch Wave oder Mp3 Arrangements.
Ich erwarte das bei entsprechender Anpassung von Software, Treibern und Bios sogar noch so viel potenzial vorhanden ist, um jeden Intel 8/16 in die schranken zu weisen, auch bei geringerem Takt.
Das Spiele Defizit wird sich auf die eine oder andere Weise relativieren, entweder durch bessere Treiber oder dadurch das sich man an der Pixeldichte bei den Monitoren dreht und die GPU´s entsprechend im Limit betreibt. So oder so sehe ich gegenüber Intel nur Vorteile, sei es über die Gesamtleistung und / oder den Preis.
Endlich gibts mal eine Alternative Entwicklung zu der Core Technologie, die man auch bezahlen kann, und das ist erst der Anfang dieser Architektur.
Meinen 8320er werde ich aber nicht einmotten, der hat so tapfer mit jedem Jahr, jedem BS und jedem kleinen Pups an Leistung dazugewonnen, das er alle Ehre verdient hat, ein weiteres Jahr als mein Hauptrechner zu dienen.
Gruss Matthias

BlacKi
2017-03-08, 23:41:22
Das ist ja auch legitim, wenn man so spezielle Anforderungen hat. Dann ist es aber auch ein Muss die Details runter zu drehen, oder zockst du in 720p?

Und genau dann wirds interessant, weil damit dann auch die CPU last sinkt
vorweg, die diskussion ist für mich keine 720p diskussion, es ist eine gpu limit diskussion.

natürlich passe ich die einstellungen an, nicht jeder regler muss zwangsläufig auf max stehen. aber selbst mit angepassten reglern und 4,4ghz auf 6 kernen schaffe ich ungewollt ein cpu limit, das unter die 100fps rutscht. daher sind für mich low res benchmarks wichtig, sonst käme ich auf den falschen gedanken und würde auf die idee kommen das ein systemwechsel sinnvoll sein könnte, obwohl das garnicht zutrifft.
geht es darum meine refreshrate in fps zu schaffen wenn ich benchmarkwerte bewerte? erstmal nicht. würdest du aber die langsamere cpu nehmen die obendrauf noch teurer ist? dazu brauche ich die werte.

wenn daher leute meinen 720p oder low res benchmarks sind nicht praxisnah und nichtmehr zeitgemäß dann mag das für sie zutreffen, aber andere würden gerne die werte als entscheidungshilfe heranziehen.

für vega bräuchte ich zusätzlich extra cpu power um die fps zu halten. bin gespannt ob es ryzen/vega benches geben wird im cpu limit vs 1080ti.

Skysnake
2017-03-08, 23:50:33
Wie gesagt dann sollte man aber lowres Benchmarks mit reduzierten Details machen. Es ist nämlich apriori gar nicht klar was dann passiert! Das kann z.b. Darüber entscheiden ob etwas noch in den Cache passt oder eben nicht. Auch verhalten sich Details sehr wahrscheinlich anders als die Grafik-API an sich.

Da irgendwelche Projektionen zu machen ist hochgradig spekulativ

BlacKi
2017-03-08, 23:55:26
wenn die anpassungen sinnvoll sind habe ich da nichts dagegen. wird ja manchmal sogar gemacht.

Skysnake
2017-03-09, 00:07:27
Games sind halt sehr komplexe Codes. Das muss man schon mal sagen. Da sollte man echt vorsichtig sein. So einfach wie sich die meisten das vorstellen ist das nicht.

Ich hab noch kein Game analysiert aber ich kann mir da schon so einige Fallstricke vorstellen. Die korrigierst du aber nicht mal eben. Da fängste dann meist bei null wieder an.

Ohne Sourcecode ist da eine Analyse aber auch praktisch unmöglich meiner Meinung nach.

Und wenn man den hat wird man wahrscheinlich nichts sehen was mehr als 5% der Zeit pro Frage braucht.

GSXR-1000
2017-03-09, 02:30:05
wenn daher leute meinen 720p oder low res benchmarks sind nicht praxisnah und nichtmehr zeitgemäß dann mag das für sie zutreffen, aber andere würden gerne die werte als entscheidungshilfe heranziehen.

für vega bräuchte ich zusätzlich extra cpu power um die fps zu halten. bin gespannt ob es ryzen/vega benches geben wird im cpu limit vs 1080ti.

Sie sind leider nicht nur nicht praxisnah, sie sind leider auch ohne jede aussagekraft.
Als Aussage dazu, wie das Spiel in realistischen Settings mit der gegebenen Hardware performt taugts nix.
Als extrapolierung zukünftiger spieleperformance ebenfalls nicht. Denn dieser test ist rein retrospektiv und in keinster weise in die zukunft gerichtet.
Denn man inkludiert dutzende variable, die sich vorhersehbar ändern, und die in keiner relation zur suggerierten zukünftigen CPU performance stehen. Man inkludiert die variablen einflüsse der Systemumgebung, Apis, Grakatreiberversionen (die auch einfluss auf die performance mit jeweiliger cpu haben), gameengines, momentaner patchstand des getesteten spiels. Ein update an auch nur einer dieser variablen kann das ergebnis komplett umkehren. Bei einer neuen architektur sogar massiv. Und das sich diese variablen für uns in unvorhersehbarer weise ändern ist absolut sicher. Du kannst schlicht nicht von einer heutigen gameengine auf eine zukünftige interpolieren, nicht mal auf eine zukünftige version der gleichen Engine. Das suggerierst du aber, weil du unterstellst, das die jetzt festgestellte relation verschiedener CPUs dort linear weiterbesteht. Das ist vorhersehbar käse.
Als beispiel ist hier bereits exemplarisch FX8350 vs 2500K genannt worden, derlei gibt es aber dutzende.
Fakt ist auch, in realistischen Settings ist stand heute nahezu nie die CPU limitierend (selbst beim FX nicht) sondern die immer die GPU, bei halbweigs aktuellen GPUs nicht mal das. Zudem: meistens erweist sich bereits jetzt die CPU nur dann als echter flaschenhals, wenn die breite (sprich threads fehlen, beispielsweise BF1) nahezu nie bei aktuellen cpus, und vor allem nicht bei ryzen und vergleichbarem Level der Takt.
Deshalb: sinnvoll ist die kombination von tests in realistischer Auflösung mit aktueller graka hardware um den retrospektiven status quo zum zeit des kaufs festzustellen und synthetische Benchmarks zur prognose roher rechenleistung und genereller performance (speicherverwaltung etc) als indikator für generelles, zukünftig nutzbares potential.
Und nach diesen Kriterien steht ryzen, nicht nur mit den jetzt publizierten prozies, sondern als generelle plattform und architektur sehr gut da.

Schaffe89
2017-03-09, 04:50:45
Bei den 720p Tests kommt nämlich ein Problem immer wieder zum Tragen und zwar, dass die FPS meist Dreistellig sind. Das bedeutet man hat weniger als 10ms Zeit um den nächsten Frame zu berechnen. Da müssten Locks bearbeitet werden, Daten aus den Caches und dem RAM geladen werden, die Pipeline eventuell geflushed werden und am Ende auch noch die Daten über den PCI-E geschickt werden.

Und das alles passiert deutlich unterhalb den 10ms, daher irrelevant.
Ich würde bei der Theorie mitgehen wenn es >300 fps wären, da wäre die Aussagekraft wahrscheinlich nicht besonders hoch, auch wenn sich die Theorien eines I/O Limits oder sonstigen Überlegungen noch in keinem Test bestätigt haben.

Ich empfinde daher alles >100 FPS z.B. als Gleichwertig

Nur gibts für diese Theorie nunmal überhaupt keinen Beleg.

Sie sind leider nicht nur nicht praxisnah, sie sind leider auch ohne jede aussagekraft.

Wo du in deinen langen Texten kein einziges Argument für aufgebracht hast um das zu widerlegen.
Behaupten kann man viel wenn der Tag lang ist.

Als Aussage dazu, wie das Spiel in realistischen Settings mit der gegebenen Hardware performt taugts nix.

Und wieso bitte nicht? Du weißt wie schnell der Prozessor performt und weißt daher welche CPU und GPU du am besten kombinierst um ein gewisses FPS Level zu erreichen um für deine Bedürfnisse zu gamen.

Als extrapolierung zukünftiger spieleperformance ebenfalls nicht. Denn dieser test ist rein retrospektiv und in keinster weise in die zukunft gerichtet.

Ich würde schon behaupten dass er das ist, nämlich zu dem Zeitpunkt ab dem du deine Grafikkarte aufrüstet, wirst dus selber merken dass du durch deine synthetischen und GPU Limit Tests die falsche CPU für zuviel Geld gekauft hast.
Weil die Nebeneffekte wie andere Spieleengines sich ja so groß auf Prozessoren mit ähnlichen Flops, gleicher Menge an Kernen usw.. auswirken, das ist nur graue Theorie. Die Effekte sind hier eher gering.
Ein Phenom II x4 wurde auch gegenüber einem Q9550 nicht fühlbar schneller oder langsamer.
Nebenbei könnte man dir hier für ne rein wissenschaftliche Betrachtung recht geben, manche Prozessoren können durch zum Beispiel größere Caches profitieren, ich habe aber nie irgendetwas derartiges beobachten können.
Und wenn dann ändert sich die Performance über die Jahre vieleicht etwas, das ist aber wie gesagt kein Argument gegen 720p.

momentaner patchstand des getesteten spiels.

Du willst also die Benchmarks weglassen, weil das Spiel gepatched weden könnte? Oh je..dann brauchste auch gleich gar nix testen denn es könnte ja morgen die Welt von einem Asteroiden getroffen werden.

Als beispiel ist hier bereits exemplarisch FX8350 vs 2500K genannt worden, derlei gibt es aber dutzende.

Tolles Beispiel, der FX hat doppelte soviele Ausführungseinheiten, logisch dass der durch Mehrkernoptimierungen schneller wird, das konnte man auch vor 5 Jahren schon predicten, wenn man Battlefield 3 getestet hat.
Natürlich in 720p um die GPU sogut es geht auszuschließen.
Ich glaub an diesem Denkfehler begründet sich auch deine Ablehnung gegen 720p Tests.

Fakt ist auch, in realistischen Settings ist stand heute nahezu nie die CPU limitierend (selbst beim FX nicht)

Da merkt man sofort dass du selbst wohl nicht zockst. Das ist imgo ein Witz und erinnert mich an einen bestimmten User aus dem Planet 3D Now Forum der genau so argumentiert.
Nach dem würde auch ein Phenom I zum Gamen noch reichen, wenn AMD nix besseres hätte.
Mit einem FX kannst du heute übertrieben gesagt überhaupt nix mehr anfangen, da wirds zappenduster in Games. ( Ja Minesweeper, COD und Goat Simluator laufen gut)
Ansonsten ist das Ding langsamer als ein Pentium für 60 Euro.

derlei gibt es aber dutzende.

Und die stehen in keinem Widerspruch zu 720p Tests. Außerdem würde ich gerne mal die Dutzenden Beispiele abseits vom FX und Prozessoren mit untersch. vielen Ausfürungseinheiten zum Kaufzeitpunkt hören, die soviel Performance durch untersch. Software hinzugewonnen oder verloren haben.

meistens erweist sich bereits jetzt die CPU nur dann als echter flaschenhals, wenn die breite (sprich threads fehlen,

Dir bringt die Breite nix, wenn die Singlethreadperformance nix taugt. Schau dir mal Spielebenchmarks an. Ein 7600k liegt gleichauf mit dem Ryzen 1800x, weil die Games einfach nicht für 16 Threads ausgelegt sind.
Vielleicht in 5 Jahren dann mal flächendeckend.

Und nach diesen Kriterien steht ryzen, nicht nur mit den jetzt publizierten prozies, sondern als generelle plattform und architektur sehr gut da.

Wenn ich als Kriterium sinnlos Prozessoren im GPU Bottleneck teste, dann steht Ryzen wirklich in Spielen genausogut wie Intel da.
Ich suche immernoch verzweifelt nach einem Argument in deinen Beiträgen das halbwegs dafür sprechen würde nicht eine möglichst hohe CPU Last zu erzeugen.

Dein einziges Argument was ich jetzt gefunden hab war:

Keine 720p Tests im vorherschenden CPU Limit, weil sich spätere Software ändern könnte und die Prozessoren anders ansprechen könnte.
Jo, und das ergibt keinen Sinn, denn dann brauche ich wie gesagt den Prozessor auch gleich gar nicht für Spiele testen, sondern nur stellvertretend Cinebench anschalten.

PS: Du kannst gerne mal schauen wo dein doller FX in BF1 Multiplayer steht.

Pirx
2017-03-09, 07:21:36
@Schaffe Du hast anscheinend so einiges zum Thema verpasst. Informiere dich erstmal richtig.

MiamiNice
2017-03-09, 08:05:44
Wird hier im 3dc ernsthaft übet die Sinngebung von low res CPU Benches diskutiert? Ich kann es nicht glauben. Noch vor einigen Jahren wäre man hier im 3dc quasi gelyncht worden, wenn man den Standpunkt von so manchen Individuen hoer vertritt.

Skysnake
2017-03-09, 08:42:17
Sie machen schon Sinn, aber man darf auch nicht zu viel davon versprechen.

Fakt ist zum Beispiel das heutige CPUs selten limitieren vor allem muss jeder Entwickler auch dafür sorgen, daß es auf einer Mittelklasse CPU läuft.

Und noch wichtiger ist das jedem Entwickler klar sein sollte dass die Single Thread Performance praktisch nicht mehr steigt. Daher wird auch kein Game kommen das plötzlich die doppelte Single Thread Performance braucht für 60 fps.

Und ja es gibt Ausnahmen wie rts spiele teilweise. Oder wenn man zu 100% auf 60/90/120 fps laufen will. Da muss man aber eh immer gewisse Abstriche machen, die das Bild wieder verändern können.

Klar wenn zwischen CPUs 50% liegen dann wird sich das so schnell bricht ändern und wenn sie die gleiche core Anzahl haben sogar sicher nicht. Bei 5 oder 10% sieht das aber wieder ganz anders aus.

Man muss da einfach etwas differenzierter ran gehen

MikePayne
2017-03-09, 08:44:10
Mit einem FX kannst du heute übertrieben gesagt überhaupt nix mehr anfangen, da wirds zappenduster in Games. ( Ja Minesweeper, COD und Goat Simluator laufen gut)
Ansonsten ist das Ding langsamer als ein Pentium für 60 Euro.


Du weißt, dass das Quatsch ist. Langsam nervt es auch, zudem sind Deine Vorhersagen (vor dem Launch) überhaupt nicht eingetroffen.

Als ob sich ein FX-83xx-User einen Pentium Dualcore (selbst mit HT ein Witz) kaufen würde... :ugly:

Mangel76
2017-03-09, 08:45:08
Die Erklärung ist, dass du auf Durchschnittswerte aus einer längeren Zeitspanne schaust. Z.B. kömnte es in 720p Cpu a in 90 % der Zeit schaffen,die GPU ans Limit zu bringen und CPU b nur ins 60 %. Wechselst du dann auf 1440p gehen die Quoten auf 95/90. Entsprechend siehst du immer noch einen kleinen Unterschied, der aber nur auf 10% der Testzeit basiert.

Und warum ändert sich dann die FPS-Zahl bei Ryzen nicht (+-2FPS)? Der ist dann immer zu 100% im CPU-Limit? Andererseits verlieren die Intel-CPUs stärker als Ryzen - was sagen mir also 720p-Ergebnisse über das Abschneiden in höheren Auflösungen?

Botcruscher
2017-03-09, 08:47:12
Noch vor einigen Jahren wäre man hier im 3dc quasi gelyncht worden, wenn man den Standpunkt von so manchen Individuen hoer vertritt.

Nö. Gab es schon vor 15 Jahren (fuck wir werden alt) und das eigentliche Problem ist die Sturheit beider Gruppen jeweils die Argumente und Ziele der anderen zu akzeptieren. Von ihrem Standpunkt haben beide recht aber man kann halt nicht beide Ziele gleichzeitig erreichen. Ideal sind schlicht Spiele die so hart skalieren, dass die Auflösung total egal ist. Ein X3 Savegame wäre in 12K noch immer zu 100% CPU limitiert. Gleiches gilt für multicore und C: Skylines mit Kartenmod. Da kommen super Ergebnisse ohne bei 300FPS den PCIe Bus oder Grafiktreiber zu testen.

PS: Man sollte auch wirklich die Softwareseite mehr betrachten. Die überwältigende Zahl der Spiele ist auf einen doppelten AMD E ausgelegt. Alles jenseits der Konsolenanforderungen ist Zugabe.

Skysnake
2017-03-09, 08:53:30
Jup wie gesagt so Spiele gibt es. Erinnere dich doch z.b. An suprime commander oder wie das game hieß. Das kannste heute noch nicht in durchgehend 60 fps wohl zocken.

Daher sind 720p tests ja auch berechtigt aber sind kein absolute Aussage wo nur die schnellste CPU zum zocken taugt...

Mangel76
2017-03-09, 08:54:43
Solche geringen Abweichungen können an der Messungenauigkeit liegen. Selbst in absolut identisch ablaufenden Benchmarks können 2% Abweichung auftreten und wären bei 150fps schon 3fps. Sollten beim Benchmark kleine oder größere Abweichungen vorkommen, sind größere Abweichungen möglich.

Da in deinem Beispiel nur die "schnellen" Intel-CPUs Einbußen beim Wechsel von 1080p auf 1440p hinnehmen müssen, zeigt daß die langsameren CPUs die GPU nicht schnell genug füttern können.

Gleiche Geschichte beim GTA-Benchmark vom Computerbase, die Unterschiede bei den fps sind zu gering.

Es wird ja argumentiert, dass die CPU in höherer Auflösung genauso viele FPS-schafft wie in 720p. Und dann sehe ich da, dass sie es nicht schaffen, obwohl sie nicht im GPU-Limit sind. Bei einigen Spielen stimmt diese Übertragung (z.B. For Honour im gleichen Test, da sind spätestens bei 1440p alle gleich auf). Aber in einigen anderen Spielen sinken die FPS, obwohl die GPU mehr leisten könnte. Hier scheint doch die Auflösung tatsächlich einen Effekt auf die CPU-Leistung zu haben. Wenn langsamere CPUs die GPU in höheren Auflösungen nicht schnell genug füttern können, wie du sagst, dann gibt es a. auch in höheren Auflösungen ein CPU-Limit und b. liegt dieses unterhalb des CPU-Limits in 720p.

Achja: Messungenauigkeit würde sich durch Ausschläge in beide Richtungen bemerkbar machen, nicht nur in eine Richtung!


Eigentlich ist es ja nur ein relatives GPU-Limit.

Leistungsfähigere Prozessoren können dieses Limit auch nach oben verschieben.


Relatives GPU-Limit??? Das würde 720p-Test komplett ad absurdum führen.

Bsp: Jemand möchte sich für ein bestimmtes Spiel Prozessor und Grafikkarte kaufen, die in seiner Zielauflösung mind. 60 FPS schaffen. Im 720p-Test schafft CPU A 75 FPS, ist aber zu teuer. CPU B schafft 65 und CPU C schafft 62. Da B und C einen ähnlichen Preis haben, nimmt er B, da gibts ja noch sogar noch Puffer von 5 FPS. Als GPU wählt er eine, die im Test mit CPU A auch 65 FPS schafft, die perfekte Kombination!!! Und dann wundert er sich, weil die Kombi nur 55 FPS schafft, weil das relative GPU-Limit mit CPU B eben bei 55 statt 65 liegt. Hätte er CPU C genommen, so hätte womöglich die 60 FPS erreicht.

Ich halte 720p-Tests ja gar nicht für völlig sinnlos und für viele Spiele mag die Vorhersage in höhere Auflösungen ja richtig sein. Aber eben längst nicht für alle Spiele. Daher ist die alleinige Betrachtung von Lowres-Tests eben nicht ausreichend!

Menace
2017-03-09, 09:53:51
Mit einem FX kannst du heute übertrieben gesagt überhaupt nix mehr anfangen, da wirds zappenduster in Games. ( Ja Minesweeper, COD und Goat Simluator laufen gut)
Ansonsten ist das Ding langsamer als ein Pentium für 60 Euro.


OT: Man meint, von Dir schon alle lächerlichen Aussagen gehört zu haben und dann kommt doch immer was neues.
:eek: Welchen FX meinst Du? Doch die Bulldozer/Vishera-Reihe, oder? Falls ja.... ;D
Ich spiele her regelmäßig (zusammen mit Radeon Nano) und zwar keinen von Dir genannten Spiele sondern DAI, Fallout, DeusEx, Ashes, ... (bis zu einer Auflösung von 1440).

Edit: Von den Anwendungen, ganz zu schweigen.

Hast Du eigentlich keine Würde, dass Dir das notorische Lügen so leicht fällt?

Schnoesel
2017-03-09, 10:03:59
PS: Du kannst gerne mal schauen wo dein doller FX in BF1 Multiplayer steht.

Wesentlich beser als son "oller" 2500K und fast gleichauf mit dem 2600k:

https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#diagramm-battlefield-1-dx11-multiplayer-fps

Aber Fakten sind ja nicht so deins.

Lowkey
2017-03-09, 10:12:59
Mein 2500k mit DDR3-2133 und 4,5ghz wäre heute realistisch gesehen immer noch vor dem AMD FX mit OC, wenn auch nur sehr knapp. Man konnte also schon 2011 mit dem 2500k die Leistung des FX-8xxx 2014 erkaufen.

Schnoesel
2017-03-09, 10:33:17
Schön. War jetzt ein Fehler wieder auf den Mist vom Schaffe einzugehen. Fakt ist Bulldozer kam zu früh und konnte nie seine Kernzahl ausspielen. Is jetzt auch nix neues. Schon wegen SC2 und CiV6 hat mein Vishera bei mir ausgedient.

Ätznatron
2017-03-09, 10:37:44
Mein 2500k mit DDR3-2133 und 4,5ghz wäre heute realistisch gesehen immer noch vor dem AMD FX mit OC, wenn auch nur sehr knapp. Man konnte also schon 2011 mit dem 2500k die Leistung des FX-8xxx 2014 erkaufen.

Nicht wirklich 2014:

CB-Test von 2012 (https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/4/#abschnitt_leistung)

Schon damals war der 2500k nur sehr knapp vorm FX.

Lowkey
2017-03-09, 10:39:05
Du kennst nicht zufällig jemanden mit Ryzen und Civ 6, der das mal mit SMT und mal ohne SMT testen könnte?

Nicht wirklich 2014:
CB-Test von 2012 (https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/4/#abschnitt_leistung)
Schon damals war der 2500k nur sehr knapp vorm FX.

Ich beziehe mich auf http://www.eurogamer.net/articles/digitalfoundry-2016-is-it-finally-time-to-upgrade-your-core-i5-2500k

Der 2500k mit 3,3-3,7 war ja noch verlötet und in jedem Thread wurde empfohlen zu übertakten.

BlacKi
2017-03-09, 10:45:45
Und warum ändert sich dann die FPS-Zahl bei Ryzen nicht (+-2FPS)? Der ist dann immer zu 100% im CPU-Limit? Andererseits verlieren die Intel-CPUs stärker als Ryzen - was sagen mir also 720p-Ergebnisse über das Abschneiden in höheren Auflösungen?
wenn du den gta5 bench meinst, ja das sieht für mich alles nach 100% cpu limit aus. teils mit enormen schwankungen die man mit mehreren runs mitteln könnte, oder wenn zu stark abweichend ausschließen sollte.


Bsp: Jemand möchte sich für ein bestimmtes Spiel Prozessor und Grafikkarte kaufen, die in seiner Zielauflösung mind. 60 FPS schaffen. Im 720p-Test schafft CPU A 75 FPS, ist aber zu teuer. CPU B schafft 65 und CPU C schafft 62. Da B und C einen ähnlichen Preis haben, nimmt er B, da gibts ja noch sogar noch Puffer von 5 FPS. Als GPU wählt er eine, die im Test mit CPU A auch 65 FPS schafft, die perfekte Kombination!!! Und dann wundert er sich, weil die Kombi nur 55 FPS schafft, weil das relative GPU-Limit mit CPU B eben bei 55 statt 65 liegt. Hätte er CPU C genommen, so hätte womöglich die 60 FPS erreicht.

Ich halte 720p-Tests ja gar nicht für völlig sinnlos und für viele Spiele mag die Vorhersage in höhere Auflösungen ja richtig sein. Aber eben längst nicht für alle Spiele. Daher ist die alleinige Betrachtung von Lowres-Tests eben nicht ausreichend!
ich verstehe was du meinst, aber du bauschst da etwas auf was garnicht da ist. nämlich einen tatsächlichen leistungseinbruch, der garnicht da ist, sondern nur im review als benchmark abgebildet ist. ich glaube nicht daran das vom wechsel von 1080p auf 720p eine cpu langsamer wird.

Games sind halt sehr komplexe Codes. Das muss man schon mal sagen. Da sollte man echt vorsichtig sein. So einfach wie sich die meisten das vorstellen ist das nicht.

Ich hab noch kein Game analysiert aber ich kann mir da schon so einige Fallstricke vorstellen. Die korrigierst du aber nicht mal eben. Da fängste dann meist bei null wieder an.

Ohne Sourcecode ist da eine Analyse aber auch praktisch unmöglich meiner Meinung nach.

Und wenn man den hat wird man wahrscheinlich nichts sehen was mehr als 5% der Zeit pro Frage braucht.
welche wahl habe ich denn, wenn ich 100fps+ sehen will, als die auflösung als störfaktor ausszuschließen. ich hab doch keine wahl.

vinacis_vivids
2017-03-09, 10:53:31
wenn du den gta5 bench meinst, ja das sieht für mich alles nach 100% cpu limit aus.

:rolleyes:

Lowkey
2017-03-09, 11:01:50
Der GTA 5 Bench wurde mehrfach und forenübergreifend als unbrauchbar eingestuft.

Ätznatron
2017-03-09, 11:05:24
Du kennst nicht zufällig jemanden mit Ryzen und Civ 6, der das mal mit SMT und mal ohne SMT testen könnte?



Ich beziehe mich auf http://www.eurogamer.net/articles/digitalfoundry-2016-is-it-finally-time-to-upgrade-your-core-i5-2500k

Der 2500k mit 3,3-3,7 war ja noch verlötet und in jedem Thread wurde empfohlen zu übertakten.

Klar kann man in der "silicon lottery" mit dem 2500k einen Haupttreffer landen, sogar mit hoher Wahrscheinlichkeit.

Interessant übrigens, wie der Autor die eingangs gestellte Frage " Is it finally time to upgrade your Core i5 2500K?" (der Artikel ist von 2016) beantwortet:

Kann man, muss man aber nicht.

Was das für Ryzen bedeutet, ist doch auch klar: erst ab dem 4790k erreicht Intel einen Gleichstand bzw. einen Vorteil.

D.h., was in der Gaming-Perfomancebeurteilung vor einem Jahr noch für Intel-CPUs gegolten hat, gilt doch jetzt erst recht auch für den schnelleren Ryzen.

Oder man muss auch für die im Artikel erwähnten Intel-CPUs eine Spieleschwäche konstatieren.

Mangel76
2017-03-09, 11:34:22
wenn du den gta5 bench meinst, ja das sieht für mich alles nach 100% cpu limit aus. teils mit enormen schwankungen die man mit mehreren runs mitteln könnte, oder wenn zu stark abweichend ausschließen sollte.

Nein, ich meinte eigentlich Gears of War 4 im oben verlinktem Test von Techspot. Aber z.B. in Mirrors Edge gehen überall die FPS von 1080p auf 1440p zurück, obwohl alle CPUs (mit Ausnahme des 8370) mehr FPS in 1080p geliefert haben als der schnellste (7700K) in 1440p.

ich verstehe was du meinst, aber du bauschst da etwas auf was garnicht da ist. nämlich einen tatsächlichen leistungseinbruch, der garnicht da ist, sondern nur im review als benchmark abgebildet ist. ich glaube nicht daran das vom wechsel von 1080p auf 720p eine cpu langsamer wird.

Naja, in Gears of War 4 fallen die beiden i5 (6600K und 7600K) um 10-12 FPS im Vergleich 1080p zu 1440p (nicht zu 720p!). Damit liegt der 6600K dann sogar (knapp) hinter dem 1800X in 1440p, während er in 1080p noch schneller war. Wie wohl die FPS-Unterschiede in 720p ausgesehen hätten??? Und was heißt "ich glaube nicht daran"? Die Daten zeigen doch ziemlich deutlich, dass es Spiele (nicht alle!) gibt, die in 1440p aufgrund ihrer CPU nicht an das theoretische GPU-Limit herankommen, obwohl sie in 1080p diese FPS-Zahl schaffen.

Gipsel
2017-03-09, 11:42:01
So Leute!

Ich erlaube mir, Euch daran zu erinnern, daß das hier der Ryzen Review-Thread ist. Hier haben weder Vergleiche von Bulldozer zu Sandybridge was zu suchen, und noch viel weniger allgemeine Sinndiskussionen über Spieletests bei verschiedenen Auflösungen. Dafür kann man vielleicht irgendeinen Thread im Benchmark-Subforum aufmachen, hier ist das OT. Ich hoffe, das haben alle verstanden.

Danke!

Mr.Bug
2017-03-09, 11:51:34
@Gipsel: Danke :)

Microsoft arbeitet offensichtlich an einem Update zu Ryzen:

http://fs5.directupload.net/images/170309/azt79yok.jpg

(Aus Reddit)

Unicous
2017-03-09, 11:52:32
Keine Ahnung wie viel man auf "Microsoft Helps" Expertise geben kann:freak: aber jedenfalls behauptet der (offizielle) Twitter handle:

A new high-end processor means new bugs to neutralize⚔️⚔️⚔️! We'll look into this and provide information in future updates.

https://twitter.com/MicrosoftHelps/status/839581647351738375

Ich glaube ja persönlich, dass es keine magischen Performancesteigerungen gibt, wohl aber, dass Threading+SMT optimiert wird. Mal schauen, was BIOS-Updates noch bringen.

Boris
2017-03-09, 11:57:05
Irgenwie kommt es mir so vor, dass viele Software- und Hardwarehersteller den Start von Ryzen verpennt haben. Kann doch nicht sein, dass Microsoft jetzt erst Zugang zu den Prozessoren hat um ihr OS anzupassen.

Gipsel
2017-03-09, 11:59:31
Keine Ahnung wie viel man auf "Microsoft Helps" Expertise geben kann:freak: aber jedenfalls behauptet der (offizielle) Twitter handle:

https://twitter.com/MicrosoftHelps/status/839581647351738375

Ich glaube ja persönlich, dass es keine magischen Performancesteigerungen gibt, wohl aber, dass Threading+SMT optimiert wird. Mal schauen, was BIOS-Updates noch bringen.Magische Performance-Steigerungen across the Board sicher nicht. Aber in einigen Fällen (in denen sich die Threads momentan auf die Füße treten) können da schon ein paar Prozente zusammenkommen. Man kann das nicht immer verhindern (das OS weiß ja nicht genau, was die Threads machen), aber eine simple Heuristik (schmeiße Threads nicht sinnbefreit alle 10ms auf einen anderen Kern, falls es auf einen anderen Kern geht, dann bitte im gleichen CCX, Threads des gleichen Prozesses bevorzugt auf einem CCX schedulen solange es weniger als 4 sind [weil die tendentiell mehr kommunizieren dürften als Threads unterschiedlicher Prozesse], belege zuerst mal nur einen Thread pro physischem Kern und nutze die zusätzlichen für low priority Hintergrundprozesse) dürfte da schon deutlich helfen.

Dino-Fossil
2017-03-09, 12:06:39
Ich glaube ja persönlich, dass es keine magischen Performancesteigerungen gibt, wohl aber, dass Threading+SMT optimiert wird. Mal schauen, was BIOS-Updates noch bringen.

Ich würde auch nicht mit gewaltigen Zuwächsen rechnen, aber für den Anfang wäre es sicherlich wünschenswert (und im Sinne Microsofts) mit Win7 gleichzuziehen.

Wobei ich auch mal gerne einen umfassenden Benchmarkvergleich hätte, um zu sehen, wieviel es im Mittel ausmacht.
Nur scheint kein einschlägiger Reviewer noch ein Win7 System zur Verfügung zu haben.

Unicous
2017-03-09, 12:06:42
@Gipsel

Nichts anderes meine ich. Aber einige hier im Thread und in den intertubes sehnen ja schon den 14.3. herbei der die zweistelligen Performanceprozente bringen wird und ich glaube sie werden enttäuscht. Also nicht nur, dass es noch keinen Patch geben wird, sondern auch bei den potenziellen Performanceverbesserungen. Dass Ryzen momentan noch leicht underperformed ist klar, aber man sollte keine Wundertreiber erwarten.

@Dino-Fossil

Ich denke/hoffe dass einige Reviewer von den Ergebnissen von TheStilt's Win7 Experimenten aufgeschreckt wurden, es gibt ja auch schon allerorten Tipps wie man Ryzen auf Win7 installieren kann. ;)

Mr.Bug
2017-03-09, 12:17:11
TheStilt's Test:
----------
In 3D testing I did recently on Windows 10, the title which illustrated the biggest SMT regression was Total War: Warhammer.

All of these were recorded at 3.5GHz, 2133MHz MEMCLK with R9 Nano:

Windows 10 - 1080 Ultra DX11:

8C/16T - 49.39fps (Min), 72.36fps (Avg) 8C/8T - 57.16fps (Min), 72.46fps (Avg)

Windows 7 - 1080 Ultra DX11:

8C/16T - 62.33fps (Min), 78.18fps (Avg) 8C/8T - 62.00fps (Min), 73.22fps (Avg)
-----------

Das wäre bspws. in meinen Augen eine gute Performancesteigerung bei SMT-intensiven Titeln.

Unicous
2017-03-09, 12:21:09
Ja, das habe ich doch gerade angesprochen, die Tests stammen von TheStilt, und da geht es um SMT. Dass die SMT-regressions minimiert oder ausgemerzt werden wird bei Engines die auf Multithreading ausgelegt sind deutliche Steigerungen bringen.

Mr.Bug
2017-03-09, 12:39:53
Ja, habs nicht gesehen, da nebenher Google offen und Beitrag editiert - übrigens zwei nette Zufälle, war oben beim Twitterpost auch schon so. :D

dildo4u
2017-03-09, 12:53:53
4 Core 8 Threads Simulation gegen 7700k


http://www.neogaf.com/forum/showpost.php?p=231739419&postcount=1461

Lowkey
2017-03-09, 13:08:16
Man darf gespannt auf den Windows Patch warten...

Was kam nun eigentlich bei der C´T mit Fury und den höheren FPS in AotS heraus?

anddill
2017-03-09, 13:10:27
Nix, das steht da halt im Artikel.

denjudge
2017-03-09, 13:13:05
4 Core 8 Threads Simulation gegen 7700k


http://www.neogaf.com/forum/showpost.php?p=231739419&postcount=1461

Das sieht doch wieder richtig gut aus für Ryzen. Welches OS stand da nicht oder?

dildo4u
2017-03-09, 13:16:14
Der Takt des Intel wurde gesenkt also nicht 100% Vergleichbar.Die 4 Core Ryzen werden alle ein 65 TDP haben,das wird sie vermutlich bei 4Ghz halten.

Gipsel
2017-03-09, 13:23:15
4 Core 8 Threads Simulation gegen 7700k


http://www.neogaf.com/forum/showpost.php?p=231739419&postcount=1461Das mit dem L3, was dort erwähnt wird, hängt davon ab, wie man die Kerne deaktiviert. Bei der 4+0-Konfiguration ist ein ganzzer CCX aus und damit natürlich auch der zugehörige L3. Das ist dann auch von der Cachegröße recht gut mit dem i7 vergleichbar (beide mit 8MB L3). Bei der 2+2-Konfiguration wären es natürlich wirklich auch 2x8MB. Da hängt es offenbar vom Benchmark ab, was da besser abschneidet (2+2 kann in einigen Fällen durchaus mal schneller sein, meist kostet aber die zusätzliche Synchronisation der beiden CCX mehr als der zusätzliche L3 bringt, wenn man die bisherigen Tests dazu ansieht).

Der_Korken
2017-03-09, 13:39:11
4 Core 8 Threads Simulation gegen 7700k


http://www.neogaf.com/forum/showpost.php?p=231739419&postcount=1461

Mich hätte eher eine 4+0 statt einer 2+2 Konfiguration interessiert. Man sieht, dass der 7700K da stellenweise doch deutlich vorne liegt. Die Frage, ob der CCX-Interconnect speziell in Spielen ein Flaschenhals ist, bleibt leider offen.

Gipsel
2017-03-09, 13:43:20
Mich hätte eher eine 4+0 statt einer 2+2 Konfiguration interessiert. Man sieht, dass der 7700K da stellenweise doch deutlich vorne liegt. Die Frage, ob der CCX-Interconnect speziell in Spielen ein Flaschenhals ist, bleibt leider offen.Laut CPU-Z hat er eine 4+0-Konfiguration getestet (da steht nur 8MB L3, nicht 2x8MB). Die ganze Geschichte mit der Diskussion des L3 dort ist also vermutlich schlicht falsch.

MiamiNice
2017-03-09, 13:53:26
4 Core 8 Threads Simulation gegen 7700k


http://www.neogaf.com/forum/showpost.php?p=231739419&postcount=1461

Danke Dildo, sehr interessant.
Wenn man beim 7700k noch ~20% dazu rechnet hat man wohl die Situation wie sie im Allttag zu 95% anzutreffen sein wird. Ryzen bei ~4Ghz mit Software die nur 4 Cores auslastet und 7700K ~4,8Ghz in der selben Software Landschaft.

Imho bester Test bisher, da fehlt noch einer mit 4,8Ghz+ auf dem 7700K.

Grüße

vinacis_vivids
2017-03-09, 13:54:07
Nix, das steht da halt im Artikel.

Deckt sich das mit der Aussage?

http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/

"In Letzterem Fall soll sich der Unterschied zwischen DirectX 11 und DirectX 12 besonders deutlich zeigen. Diese Aussage lassen wir einmal unkommentiert stehen, genau wie den Fakt, dass Nvidia-GPUs mit zugeschaltetem Asychronous Compute an Leistung verlieren, während AMD-GPUs deutlich zulegen können. Bevor wir keine offiziellen Aussagen zum letzteren Punkt bekommen, ist jedweder Kommentar unserer Seite lediglich Mutmaßung."

Effe
2017-03-09, 13:55:47
Man sieht, dass der 7700K da stellenweise doch deutlich vorne liegt.
Ja, genau ein Mal bei WinRar. Sonst sind die Benches alle auf gleicher Höhe(maximal 10% Abweichung).
Der 7700K hat bei gleichem Takt also nur minimalen Vorsprung. AMD hängt insgesamt nur durch die Taktfrequenz zurück, da der 7700K praktisch ab Werk mit OC kommt.
Ein R5 Vierkerner mit 4,0Ghz für 200€ sollte Intels i5 und i7 vom P/L deutlich unter Druck setzen können.

Wenn man beim 7700k noch ~20% dazu rechnet hat man wohl die Situation wie sie im Allttag zu 95% anzutreffen sein wird.
Genau, 95% der 7700K Besitzer köpfen und übertakten ihre CPU:

Mit dem Core i7-7700K gibt es auch beim Übertakten schnell Probleme: die hohe Temperatur macht kurzerhand einen Strich durch die Rechnung, da eine um nur 0,05 Volt angehobene Spannung die CPU bei 4,8 GHz sehr nah an das Temperaturlimit von 100 Grad treibt. In der Standardkonfiguration (ohne Köpfen und Austausch der Wärmeleitpaste) ist deshalb ein sehr starker Prozessorkühler Pflicht, wenn übertaktet werden soll.
https://www.computerbase.de/2017-01/intel-kaby-lake-test-core-i7-7700k-i5-7600k/7/#abschnitt_overclocking_vom_nahen_limit_und_darueber_hinaus
20% werden es praktisch sicher nicht sein mit 4,8Ghz

MiamiNice
2017-03-09, 14:03:01
Imho kann man schlecht von Werks OC sprechen wenn die CPU mit diesen Taktraten vom Hersteller gelistet ist. 7700K kommt nun mal mit 4x 4,2Ghz und 4,5Ghz Boost. Das hat mit OC nichts am Hut. Was man aber bedenken sollte ist das so ziemlich jeder 7700k 4,8Ghz+ OC all Core mitmacht und dabei auch noch weniger kostet als Ryzen.
AMD sollte imho unbedingt an der Taktschraube drehen und 4 Kerner mit igp bringen wenn es mit Ryzen auf breiter Flur was werden soll.

Gipsel
2017-03-09, 14:15:14
Imho kann man schlecht von Werks OC sprechen wenn die CPU mit diesen Taktraten vom Hersteller gelistet ist. 7700K kommt nun mal mit 4x 4,2Ghz und 4,5Ghz Boost. Das hat mit OC nichts am Hut.Das sind dann aber nur 5% (Base) bzw. 12,5% mehr Takt (Boost) als in dem Test. Damit kommt man nicht auf 20% Mehrperformance.
Eher solltest Du argumentieren, daß ohne eine neue Revision Ryzen eher nicht mit 4GHz allcore kommen wird. ;)

Dino-Fossil
2017-03-09, 14:17:38
Die 4 und 6-Kerner kommen in Preisbereichen deutlich unterhalb des 7700K, legen sich damit eher mit den i3 und i5 an und dürften ein sehr gutes P/L-Verhältnis bieten.

Speziell der stärkere der beiden Ryzen 6-Kerner wird fast identische Performance in Spielen bieten wie ein 1800X und deutlich billiger ausfallen.
In vielen Anwendungen dürfte er den preislich vergleichbar platzierten Intel-Chips (i5) davonziehen.
Macht ihn mMn in einem Spielerechner/Allroundsystem potentiell zu einer der interessantesten Optionen in den nächsten Monaten.

Unterm Strich bleibt der 7700K damit für diejenigen interessant, die den aktuell stärksten "reinen" Spieleprozessor suchen, aber die Mehrzahl an Käufern dürfte sich preislich darunter orientieren.

Aber erstmal Tests abwarten. ;)

fondness
2017-03-09, 14:18:42
Danke Dildo, sehr interessant.
Wenn man beim 7700k noch ~20% dazu rechnet hat man wohl die Situation wie sie im Allttag zu 95% anzutreffen sein wird. Ryzen bei ~4Ghz mit Software die nur 4 Cores auslastet und 7700K ~4,8Ghz in der selben Software Landschaft.

Imho bester Test bisher, da fehlt noch einer mit 4,8Ghz+ auf dem 7700K.

Grüße

Ein 4C/8T Ryzen wird wohl gerade mal die Hälfte eines 7700K kosten.

dildo4u
2017-03-09, 14:19:44
Imho kann man schlecht von Werks OC sprechen wenn die CPU mit diesen Taktraten vom Hersteller gelistet ist. 7700K kommt nun mal mit 4x 4,2Ghz und 4,5Ghz Boost. Das hat mit OC nichts am Hut. Was man aber bedenken sollte ist das so ziemlich jeder 7700k 4,8Ghz+ OC all Core mitmacht und dabei auch noch weniger kostet als Ryzen.
AMD sollte imho unbedingt an der Taktschraube drehen und 4 Kerner mit igp bringen wenn es mit Ryzen auf breiter Flur was werden soll.
Die 4 Core AMD's mit HT werden um 200€ kosten,da hat Intel nur i5 ohne HT,die man nicht OC kann.

anddill
2017-03-09, 14:21:56
Die AMDs kannst Du praktisch auch nicht übertakten.

dildo4u
2017-03-09, 14:27:20
Die AMDs kannst Du praktisch auch nicht übertakten.
Die Low End Modelle schon der 1700 hat nur 3Ghz bei All Core Last und geht auf 3.9.Vermutlich wird es auch beim 4 Core Modelle geben,die mit unter 3.5Ghz laufen und dann auf 4ghz gehen.

MiamiNice
2017-03-09, 14:27:54
Das sind dann aber nur 5% (Base) bzw. 12,5% mehr Takt (Boost) als in dem Test. Damit kommt man nicht auf 20% Mehrperformance.
Eher solltest Du argumentieren, daß ohne eine neue Revision Ryzen eher nicht mit 4GHz allcore kommen wird. ;)

Du hast mich falsch verstanden. Im dem Test takten beide CPUs mit 4Ghz. Das ist für den Ryzen leichtes OC und für den 7700k eine Untertaktung. In der freien Wildbahn wirst Du keinen 7700K auf 4Ghz sehen sondern eher auf ~4,8Ghz, daher kommen meine 20% mehr. Und 4,8Ghz sind fast für jeden 7700k machbar ohne zu Köpfen.

Ich mag den Test da er bei Ryzen die 4 überflüssigen Cores deaktiviert. Welche Software, die ein normaler Anwender täglich nutzt, kann Performance aus mehr als 4 Cores generieren? Faktisch kaum eine. Setzt man jetzt leichtes OC für den Ryzen at 4Ghz ist es nach Aussagen einiger Webseiten der Wert den man mit Ryzen wohl erreichen kann/fast jeder erreichen kann. Ein realistischer Wert. Das selbe beim 7700k bedeutet 4,8Ghz, alles darüber ist realistisch betrachtet nur mit Köpfen drin.

Also Dildos Test + 20% für den Intel ist imho das was man "auf der Strasse" von den CPUs erwarten darf.

Ein 4C/8T Ryzen wird wohl gerade mal die Hälfte eines 7700K kosten.

Ich räume den kleinen Ryzens auch viel mehr Erfolgschancen ein als den großen 8 Kernern. Schon alleine wegen der IGP und dem Preis.
Aber leider noch nicht kaufbar.

dargo
2017-03-09, 14:37:26
Ich räume den kleinen Ryzens auch viel mehr Erfolgschancen ein als den großen 8 Kernern. Schon alleine wegen der IGP und dem Preis.
Aber leider noch nicht kaufbar.
Was für IGP? Ryzen bsw. Summit Ridge kommt ohne IGP.

Du hast mich falsch verstanden. Im dem Test takten beide CPUs mit 4Ghz. Das ist für den Ryzen leichtes OC und für den 7700k eine Untertaktung. In der freien Wildbahn wirst Du keinen 7700K auf 4Ghz sehen sondern eher auf ~4,8Ghz, daher kommen meine 20% mehr. Und 4,8Ghz sind fast für jeden 7700k machbar ohne zu Köpfen.

Ist auch alles völlig latte. Der R5 1600X wird weniger als i7-7700K kosten und schlägt diesen in jedem Spiel welches mit 6+ Threads gut skaliert. Da hilft dem i7 das bisschen mehr Takt auch nicht. Noch ein klein wenig interesannter könnte der R5 1600 non X werden da mehr OC-Spielraum (prozentual) und kleinerer Preis. Der R5 1500X legt sich eher mit dem i7-7700 an da gleiche TDP-Klasse. Da kannst du deine 4,8Ghz gleich wieder vergessen. Vom Preis her hat der i7-7700 gegenüber dem R5 1500X absolut keine Chance. Man sollte dabei natürlich nicht vergessen, dass Intel beim Performancesockel die IGP mitschleppt, die ja bezahlt werden will.

iuno
2017-03-09, 14:50:34
Ich räume den kleinen Ryzens auch viel mehr Erfolgschancen ein als den großen 8 Kernern. Schon alleine wegen der IGP und dem Preis.
Aber leider noch nicht kaufbar.
Was für IGP? Ryzen bsw. Summit Ridge kommt ohne IGP.
Ich bin mal gespannt, ob Zen in RR wirklich schon leichte Ueberarbeitung erfahren hat. Dadurch oder durch Kleinigkeiten in der Fertigung koennten die 4C+IGP ja letztendlich noch besser sein als die 4C SR. Zumal bei Letzteren immer noch die Chance auf eine 2+2 Konfiguration besteht :freak:
Also wuerde ich RR auch nicht so guenstig erwarten. Selbst wenn das nicht eintrifft und exakt wie SR performt, ist die IGP Intel eh weit voraus.

Lowkey
2017-03-09, 14:54:58
Der R5 1600X mit 12 Threads schlägt den i7-7700k in jedem Spiel, dass mehr als 8 Threads nutzt?

MiamiNice
2017-03-09, 15:06:22
Was für IGP? Ryzen bsw. Summit Ridge kommt ohne IGP.


Ist auch alles völlig latte. Der R5 1600X wird weniger als i7-7700K kosten und schlägt diesen in jedem Spiel welches mit 6+ Threads gut skaliert. Da hilft dem i7 das bisschen mehr Takt auch nicht. Noch ein klein wenig interesannter könnte der R5 1600 non X werden da mehr OC-Spielraum (prozentual) und kleinerer Preis. Der R5 1500X legt sich eher mit dem i7-7700 an da gleiche TDP-Klasse. Da kannst du deine 4,8Ghz gleich wieder vergessen. Vom Preis her hat der i7-7700 gegenüber dem R5 1500X absolut keine Chance. Man sollte dabei natürlich nicht vergessen, dass Intel beim Performancesockel die IGP mitschleppt, die ja bezahlt werden will.

So weit ich weiß kommen die Ryzen 4 Kerner mit IGP, oder nicht?
Was den Rest angeht, ich wollte die Leistung des Ryzens nicht beurteilen.
Mir gefällt nur der Test da er imho zeigt welche Performance man "zuhause und heute" von Ryzen erwarten kann. Gewünscht hätte ich mir nur das man den Intel auch auf alltags tauglichen Settings betreibt aber dann wäre der Test wohl obsolet geworden, man wollte ja einen Core und Takt bereinigten Bench. Deswegen die gedachten ~+20% beim Intel.

dargo
2017-03-09, 15:09:02
So weit ich weiß kommen die Ryzen 4 Kerner mit IGP, oder nicht?

Nein, es wird ein halb deaktivierter Ryzen. 4 Kerner mit IGP kommt später als Raven Ridge für Desktop und Mobile.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576241

iuno
2017-03-09, 15:14:18
RR wird dann aber trotzdem "Ryzen" heissen, mit entsprechendem Suffix fuer die IGP

vinacis_vivids
2017-03-09, 15:45:45
RR wird dann aber trotzdem "Ryzen" heissen, mit entsprechendem Suffix fuer die IGP

Nein, "Zen" heißt der Core. Raven Ridge = Zen + Vega.

MiamiNice
2017-03-09, 15:49:11
Wird wohl aber trotzdem als "Ryzen" in den Laden kommen :biggrin:

Unicous
2017-03-09, 15:51:11
Was soll der Quatsch. Die Chips heißen auch nicht Summit Ridge obwohl das der Plattform/Chip-Name für die AM4 Plattform ist.

AMD hat bereits bestätigt, dass die APUs auch unter dem Ryzen Namen verkauft werden.

CompuJoe
2017-03-09, 16:02:31
Zen = Architektur
Summit Ridge = Plattform
Zeppelin = core
Ryzen = Handelsname

Skysnake
2017-03-09, 16:06:06
Das mit dem L3, was dort erwähnt wird, hängt davon ab, wie man die Kerne deaktiviert. Bei der 4+0-Konfiguration ist ein ganzzer CCX aus und damit natürlich auch der zugehörige L3. Das ist dann auch von der Cachegröße recht gut mit dem i7 vergleichbar (beide mit 8MB L3). Bei der 2+2-Konfiguration wären es natürlich wirklich auch 2x8MB. Da hängt es offenbar vom Benchmark ab, was da besser abschneidet (2+2 kann in einigen Fällen durchaus mal schneller sein, meist kostet aber die zusätzliche Synchronisation der beiden CCX mehr als der zusätzliche L3 bringt, wenn man die bisherigen Tests dazu ansieht).
hmmm das wäre aber nicht so knalle...

Wenn man bedenkt, dass die MCMs für den Serverbereich mit 4 DIEs kommen, dann sollte es innerhalb eines DIEs zwischen den Clustern eigentlich keine Probleme/Leistungsverluste geben. Wenn doch, dann lässt das nichts gutes für die MCMs erwarten :(

Unicous
2017-03-09, 16:54:24
Vom GDC-Vortrag.

http://www.hardware.fr/medias/photos_news/00/53/IMG0053311_1.jpg


edit:

Bei 4Gamers gibt es noch mehr screenshots.

http://www.4gamer.net/games/300/G030061/20170308070/

y33H@
2017-03-09, 17:59:51
Das zeigt schön die Taktdomänen.

HOT
2017-03-09, 18:03:15
Zen = Architektur
Summit Ridge = Plattform
Zeppelin = core
Ryzen = Handelsname

Nicht korrekt:
Zen = Architektur
SummitRidge = Prozessorcodename (Desktop, gesockelt)
Zepplin = Die
Ryzen = Produktname

Schaffe89
2017-03-09, 18:07:45
Ein Test mit gleichzeitiger Aufnahme gegen einen 6600k.
https://www.youtube.com/watch?v=KQ4SHokQ3yM&t=2s

Skysnake
2017-03-09, 18:47:02
Vom GDC-Vortrag.

http://www.hardware.fr/medias/photos_news/00/53/IMG0053311_1.jpg


edit:

Bei 4Gamers gibt es noch mehr screenshots.

http://www.4gamer.net/games/300/G030061/20170308070/
Danke für den Link zu den Folien.

Was soll aber bitte folgendes sein?

"Windows 10 tickless idle improves boost performance"

Also das tickless idle meine ich.

Wird die clk im idle ausgemacht? An sich ist das ja in den entsprechenden Power stats eh schon so, oder meinen die da wirklich, dass das einzelne Taktzyklen ausgelassen werden???

Gipsel
2017-03-09, 18:49:27
In der freien Wildbahn wirst Du keinen 7700K auf 4Ghz sehen sondern eher auf ~4,8Ghz, daher kommen meine 20% mehr. Und 4,8Ghz sind fast für jeden 7700k machbar ohne zu Köpfen.Nein, Du übersiehst die Realität. Denn in der läuft die übergroße Mehrzahl der CPUs (>90%) mit Standardtaktraten (und ja, auch die meisten K-CPUs tun das). Dies bedeutet für den 7700K 4,2/4,5GHz. Das sind also nie und nimmer +20% "für die meisten". Also komme mit relevanten Argumenten (ich habe Dir ja freundlicherweise eines den Vergleich@4GHz betreffend präsentiert, was am Ende Ähnliches zum Resultat hat ;)) und nicht mit Bullshit!

Gipsel
2017-03-09, 18:56:56
hmmm das wäre aber nicht so knalle...

Wenn man bedenkt, dass die MCMs für den Serverbereich mit 4 DIEs kommen, dann sollte es innerhalb eines DIEs zwischen den Clustern eigentlich keine Probleme/Leistungsverluste geben. Wenn doch, dann lässt das nichts gutes für die MCMs erwarten :(Die Synchronisation zwischen den CCX on-Die könnte praktisch genau so lange brauchen wie die im MCM, wenn man das als Interposer realisiert. Ich meinte ja, daß man eventuell das Fabric (was selbst on-die vermutlich schon 512bit breit ist) direkt über die Dies im MCM hinweg mit 32bytes/cycle (256bit) Ports meshen kann (es also ein gemeinsames, voll verbundenes Netz im MCM wird, was dann natürlich insgesamt im MCM effektiv eine höhere Bandbreite als nur 32Byte/Takt hat, man muß ja effizient cross-die auf die Speichercontroller und IO-Hubs zugreifen können). Dann sind alle CCX beinahe gleich weit weg.

davidzo
2017-03-09, 19:09:42
EDIT: Gerade meine vorposter gesehen. Tut mir Leid, ich habe den Tab nicht refresht bevor ich geschrieben habe ;)
Gibt also schon Tests zu streaming+gaming :)

Hat eigentlich mal jemand Ryzen in typischen Multi-Anwendungen Gamingszenarios getestet?

Also ein spiel per Twitch streamen, Steam & Teamspeak im Hintergrund, letzteres mit Filterung für twitch, am besten noch den Browser mit 30tabs offen, wurde das irgendwo getestet?

Das kommt imo meiner Nutzungsweise am nächsten. Ich habe praktisch nie den Browser zu und 30tabs ist noch wenig...
Musik läuft sowieso im Hintergrund, meist ne playlist von youtube, da ich spotify-verweigerer bin. Sobald mein Handy da ist synchronisiert dropbox munter fotos und sollte lightroom im hintergrund noch offen sein werden die dem Katalog hinzugefügt.
Mit ner schnellen SSD und viel Ram gibts da selten Probleme als Multitasking-Messie. Selten heißt aber auch nicht nie...

AMD hat das Multi-Anwendungs-gaming Szenario ja speziell beim New Horizon event mit Twitch vorgeführt, bzw. wie sich der 1700 da gegen den 7700k schlägt.

Ich würde mal vermuten dass das bei den meisten powerusern hier im Forum der Fall ist, dass sie nicht erst alle potentiell CPUlast erzeugenden apps schließen bevor sie ein Spiel starten, oder?
Und selbst wenn die Hintergrundanwendungen keine konstante Last erzeugen, stört doch schon ein kurzer min-fps einbruch massiv das spielvergnügen.
Das wäre mal ein praxisrelevanter Test imo!

Knuddelbearli
2017-03-09, 19:12:52
Die AMDs kannst Du praktisch auch nicht übertakten.

Nur die Topmodelle nicht, alle anderen sehrwohl!

Eigentlich ne dumme Entscheidung von AMD aber für uns Kunden natürlich super ^^

y33H@
2017-03-09, 19:18:26
Das wäre mal ein praxisrelevanter Test imo!War die Tage überrascht wie sehr ein Steam-Download bei 200 Mbps auf die CPU geht ... leider ist sowas evtl schwierig zu reproduzieren, ich müsste noch mal gucken/fragen ob Steam die Daten immer in gleicher Reihenfolge lädt (meine dem sei so). Ansonsten bin ich bei dir, es ist halt eine Sache der Reproduzierbarkeit. Hatte sowas Ähnliches vor Jahren mal mit den Bulldozern gemacht: http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/

vinacis_vivids
2017-03-09, 19:31:20
Also guter Speicher bringt schon mal was:
http://www.legitreviews.com/wp-content/uploads/2017/03/deus-ex-gaming.jpg

Screemer
2017-03-09, 19:35:29
Alleine wenn ich origin+qtgedöns nicht minimieren, dann braucht das bei mir 2600k@4,3ghz zwischen 2-8% CPU dazu kommt noch 3-14% GPU load. Selbst wenn ein anders Fenster im Vordergrund ist. Das ist den meisten wahrscheinlich nicht mal bewusst.

davidzo
2017-03-09, 19:48:56
War die Tage überrascht wie sehr ein Steam-Download bei 200 Mbps auf die CPU geht ... leider ist sowas evtl schwierig zu reproduzieren, ich müsste noch mal gucken/fragen ob Steam die Daten immer in gleicher Reihenfolge lädt (meine dem sei so). Ansonsten bin ich bei dir, es ist halt eine Sache der Reproduzierbarkeit. Hatte sowas Ähnliches vor Jahren mal mit den Bulldozern gemacht: http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/CPU-Multitasking-Test-1075340/


Interessanter Test, war mir damals gar nicht aufgefallen. :up:
Allerdings würde ich da nicht nach average FPS gehen, damit fallen die kurzzeitigen einbrüche gar nicht groß auf. Ich würde nach min-FPS oder sogar eher frame-times-percentage gehen. Ein Lag ist kein Lag (speaking of min-fps) , aber alle paar Minuten ein Ruckler, Grafikglitch oder Lag nervt im Alltag ungeheuer und kommt praktisch bei jedem powernutzer vor, selbst wenn er nicht streamt.

iuno
2017-03-09, 20:07:06
War die Tage überrascht wie sehr ein Steam-Download bei 200 Mbps auf die CPU geht ... leider ist sowas evtl schwierig zu reproduzieren, ich müsste noch mal gucken/fragen ob Steam die Daten immer in gleicher Reihenfolge lädt (meine dem sei so).
Da wird ja auch staendig entpackt. Falls man bei naeherer Betrachtung feststellt, dass das nicht reproduzierbar ist, findet man sicherlich leichten Ersatz fuer einen Test ;)

@Unicous: guter Fund, danke!

foenfrisur
2017-03-09, 21:39:40
http://www.eteknix.com/nvidia-gtx-1080-ti-cpu-showdown-i7-7700k-vs-ryzen-r7-1800x-vs-i7-5820k/

sieht zwar recht gut für ryzen aus, wirkt aber teilweise widersprüchlich bei den werten.
sollte man wohl nicht zu ernst nehmen, oder?

ist ein msi titanium brett.

mfg

mczak
2017-03-09, 22:29:45
Also das tickless idle meine ich.

Tickless kernel ist jetzt nicht so neu, war mal ein heisses Thema bei Linux vor ziemlich genau 10 Jahren... Aber ist auch bei Windows nicht so neu (Windows 8 konnte das).
Das heisst bloss es gibt keinen fixen Timer-interrupt mehr fürs scheduling (war glaube ich bei windows 100Hz), damit ist es dann nicht mehr nötig alle 10 ms die CPU aufzuwecken wenn eh nichts los ist. Das spart etwas Strom (vor allem im idle) wieso das jetzt allerdings bei der Boost-Performance helfen soll sehe ich gerade nicht.

y33H@
2017-03-09, 22:51:44
Interessanter Test, war mir damals gar nicht aufgefallen. :up:

Allerdings würde ich da nicht nach average FPS gehen, damit fallen die kurzzeitigen einbrüche gar nicht groß auf. Ich würde nach min-FPS oder sogar eher frame-times-percentage gehen. Ein Lag ist kein Lag (speaking of min-fps), aber alle paar Minuten ein Ruckler, Grafikglitch oder Lag nervt im Alltag ungeheuer und kommt praktisch bei jedem powernutzer vor, selbst wenn er nicht streamt.Damals war FCAT brandneu und es gab kein Presentmon bzw OCAT, mit Fraps sind Frametimes/Percentiles ja bissi tricky. Wenn ich aus Les Trois-Ilets zurück bin möchte ich gerne einen OC-/SMT- und auch einen Multitasking-Artikel machen, mal gucken wie das zeitlich klappt.

Der_Korken
2017-03-09, 23:06:29
http://www.eteknix.com/nvidia-gtx-1080-ti-cpu-showdown-i7-7700k-vs-ryzen-r7-1800x-vs-i7-5820k/

sieht zwar recht gut für ryzen aus, wirkt aber teilweise widersprüchlich bei den werten.
sollte man wohl nicht zu ernst nehmen, oder?

ist ein msi titanium brett.

mfg

Die Werte sind teilweise völlig random. In Deus Ex liegen die beiden Ryzen ein gutes Stück vor den Intel-CPUs, obwohl spätestens bei 4K alles GPU-limitiert sein sollte bei ~40 fps. Sieht fast so aus, als wurde bei Intel nur eine GTX1080 non-Ti genommen. Die min fps sind auch komisch. Bei Deus Ex hat der OC Ryzen in 1080p weniger min fps als stock, bei Hitman steigen sie um 50% durch OC von 3,6 auf 4,1Ghz. Würde auf diese Werte nicht allzu viel geben.

vinacis_vivids
2017-03-10, 00:15:41
Warum sollen die min fps komisch sein?
Im OC Modus hat er vllt. noch Probleme mit SMT

d2kx
2017-03-10, 02:02:43
AnandTech haben ihr Review aktualisiert und jetzt eine Empfehlung gegeben. Sie haben auch eine Liste mit derzeitigen Problemen eingefügt, die momentan untersucht werden oder mit späteren Updates am OS verbessert werden:

http://www.anandtech.com/show/11170/the-amd-zen-and-ryzen-7-review-a-deep-dive-on-1800x-1700x-and-1700/23

Screemer
2017-03-10, 05:10:38
Interessant. Die singletread performance steigt, wenn man SMT deaktiviert.

tm0975
2017-03-10, 08:52:51
Interessant. Die singletread performance steigt, wenn man SMT deaktiviert.

was ein klares anzeichen für probleme des betriebssystems ist, vorrangig die echten kerne zu verwenden.

Screemer
2017-03-10, 09:47:26
was ein klares anzeichen für probleme des betriebssystems ist, vorrangig die echten kerne zu verwenden.
nein.

At this point, we’re unsure at what level some of these might be default design issues with Zen. The issue of single-thread performance increasing when SMT is disabled (we’ve done some pre-testing, up to 6% in ST) is clearly related to the design of the core, with static partitioning vs competitive partitioning of certain parts of the design. The CCX latency and detection is one that certainly needs further investigation.


und noch was anderes:

Also beim Asus Support kennt man keine Probleme mit dem C6H. Normale RMA Abwicklung über den Händler wird vorgeschlagen.
Das macht die Sache nicht besser.
sollte asus die gebrickten boards über die händler abwickeln wollen, dann wäre das eine ziemliche sauerei. imho sollten die sogar nen vorabaustausch machen. es ist ganz klar ein fehler von asus.

anddill
2017-03-10, 09:51:08
Das sieht eher danach aus daß Win10 Ryzen tatsächlich als Bulldozer behandelt. Da werden neben dem gebenchten Thread auch alle Hintergrundprozesse in den selben Kern gestopft.

r3ptil3
2017-03-10, 10:13:19
Echt super was da an Aufwand betrieben dafür, aber wie kann es sein, dass selbst AMD das nicht bemerkt bzw. nicht mal erwähnt hat?

Wäre ziemlich unprofessionell für AMD und vor allem sehr merkwürdig, wenn solche Sachen erst durch Foren, Reviewer etc. ans Licht kommen.

mironicus
2017-03-10, 10:18:42
Echt super was da an Aufwand betrieben dafür, aber wie kann es sein, dass selbst AMD das nicht bemerkt bzw. nicht mal erwähnt hat?

Die Aktionäre wird es freuen, wenn AMD Probleme und Verantwortung auf andere abschieben kann und viele Menschen ohne Bezahlung viele Stunden darin investieren um ihre Probleme zu lösen. :D

deekey777
2017-03-10, 10:28:01
Echt super was da an Aufwand betrieben dafür, aber wie kann es sein, dass selbst AMD das nicht bemerkt bzw. nicht mal erwähnt hat?

Wäre ziemlich unprofessionell für AMD und vor allem sehr merkwürdig, wenn solche Sachen erst durch Foren, Reviewer etc. ans Licht kommen.

Wie viele Unternehmen kennst du, die ihre Probleme zugeben?

Im Ernst:

Zum Start der Skylakes hieß es, dass die neuesten Verbesserungen erst mit dem (aktuellsten) Windows 10 zum Vorschein kommen (Speed Shift Dings). Speed Shift konnte erst durch größeres W10-Update zum Einsatz kommen, und das obwohl Microsoft mit Surface Pro 4 bereits entsprechende Produkte im Angebot hatte.

Lange rede, kurzer Sinn: Im April kommt ein weiteres Update für W10 (Redstone). Meine vermutung ist, dass Windows 10 mit der Zen-Architektur besser zusammenarbeiten wird. Gibt es eigentlich schon Tests, wo Vorabrversion von Redstone Creators Update mit Ryzen eingesetzt wird?

Boris
2017-03-10, 10:29:12
Die Aktionäre wird es freuen, wenn AMD Probleme und Verantwortung auf andere abschieben kann und viele Menschen ohne Bezahlung viele Stunden darin investieren um ihre Probleme zu lösen. :D
Immerhin hat AMD in der Vergangenheit auch einiges an die Community zurückgegeben.:)

deekey777
2017-03-10, 10:36:21
Ich grabe mal etwas:
AMD Chipset Driver?
Oder auch ein Ryzen CPU Treiber, gabs in der Vergangenheit bei AMD ja immer mal wieder für die verschiedenen CPUs.

Ich bin zu alt für sowas. ;(

Wann gab es eigentlich zuletzt externe CPU-Treiber? Bzw. Software, die tief in das System eingreift (zB der DualCore-Optimizer oder C'n'Q von AMD)? Ist das heute überhaupt möglich (Sicherheitsbedenken)?

Beim OpenCL-Treiber hast du Recht.

Boris
2017-03-10, 10:39:26
Ich denke nicht, dass es extra Treiber geben wird. Das wird in Windows 10 integriert und per Update ausgerollt. Einfach auch, weil die Infrastruktur zum Verteilen der Updates deutlich besser ist als z.B. vor 10 Jahren.

Mr.Bug
2017-03-10, 10:41:51
Ich vermute eher da kamen unglückliche Umstände & enormer Zeitdruck zusammen. Denn es liegt sicher nicht in AMD's Interesse das man nach 5 Jahren harter Entwicklungsarbeit schlechtere Benchmarks zum Release hat, die zu einem Großteil auf "Scheduler-CPU-Handlingprobleme" in Windows 10 basieren.

Da der Patchday ja "dubioserweise" pünktlich ausgefallen ist, der evtl. bereits einen Fix inne hatte, kann man eben nur spekulieren. Ab 14.3. sind wir schlauer!

Die gute Nachricht jedoch liebe Schäflein: Es ändert sich rein gar nichts an dem Umstand, dass die Jungs von Team Red uns Konsumenten endlich wieder eine tolle, konkurrenzfähige CPU gebracht haben! *Applause bitte*

Gipsel
2017-03-10, 10:46:50
nein.
At this point, we’re unsure at what level some of these might be default design issues with Zen. The issue of single-thread performance increasing when SMT is disabled (we’ve done some pre-testing, up to 6% in ST) is clearly related to the design of the core, with static partitioning vs competitive partitioning of certain parts of the design. The CCX latency and detection is one that certainly needs further investigation.
Nun, das ist die Einschätzung von Ian Cuttress, der den Artikel geschrieben hat. Das muß aber nicht stimmen. Denn wenn das OS einen virtuellen Kern schlafen legt (eventuell schon bei C1, also im Halt-Modus, was in jeder idle-Periode der Fall ist), dann sollten dem einzig verbleibenden Thread auf dem gleichen physischen Kern natürlich alle Ressourcen zur Verfügung stehen, genau wie durch Abschaltung von SMT. Geteilt werden sollten die nur bei zwei aktiven Threads auf einem Kern. Bei einer single-Thread-Last sollte also das Ergebnis nicht davon abhängen, ob SMT an oder aus ist.

=================================

Die Aktionäre wird es freuen, wenn AMD Probleme und Verantwortung auf andere abschieben kann und viele Menschen ohne Bezahlung viele Stunden darin investieren um ihre Probleme zu lösen. :DNun, es ist eigentlich per Definition ein Problem des Betriebssystems, wenn dessen Scheduler nicht optimal arbeitet. Hätte AMD enger mit MS zusammenarbeiten können, um das frühzeitig auszuräumen? Vielleicht (das werden wir vielleicht noch mal irgendwann erfahren). Arbeiten die Entwickler da ohne Bezahlung an Lösungen? Das bezweifle ich doch mal stark. :rolleyes:

Unicous
2017-03-10, 10:49:24
@Mr.Bug

Wieso dubioserweise. Einer oder mehrere patches waren korrupt und konnten nicht veröffentlicht werden und da der patch day auch für Systemadministratoren relevant ist und sicherlich auch entsprechende Wartungsarbeiten geplant werden hat man ihn gleich ganz abgesagt.

Das hat nichts mit Ryzen zu tun.

Mr.Bug
2017-03-10, 10:56:11
@Mr.Bug

Wieso dubioserweise. Einer oder mehrere patches waren korrupt und konnten nicht veröffentlicht werden und da der patch day auch für Systemadministratoren relevant ist und sicherlich auch entsprechende Wartungsarbeiten geplant werden hat man ihn gleich ganz abgesagt.

Das hat nichts mit Ryzen zu tun.

Ich hätte es in Anführungszeichen setzen sollen. ;) "Dubios" also eigentlich nur deshalb, weil es diesmal kein offizielles Statement seitens MS gab & der komplette Ausfall eines Patchdays ewig her war & in Kombi mit Ryzen-Präsi etc. - sowas heizt halt Spekulationen an. Also vorerst keine X-Akte! :D

dreas
2017-03-10, 10:59:05
es ist völlig unwahrscheinlich das da am 14. von ms schon was kommt.
das dauert noch. ebenso die bios und microcode anpassungen. wer da innerhalb von paar tagen ergebnisse erwartet ist ein träumer.

anddill
2017-03-10, 10:59:15
Vielleicht hat AMD die internen Tests mit Win7 gemacht? Wenn man sich mal die Zeiträume überlegt könnte das hinkommen. Für Win 10 wurde dann vielleicht nur getestet obs überhaupt läuft, daß es da eine Leistungsdifferenz von über alles ~5% gibt ist dann vielleicht niemandem aufgefallen.

es ist völlig unwahrscheinlich das da am 14. von ms schon was kommt.
das dauert noch. ebenso die bios und microcode anpassungen. wer da innerhalb von paar tagen ergebnisse erwartet ist ein träumer.


Eben. Ehe eine Änderung am Sheduler validiert ist könnten Monate ins Land gehen. Windows ist kein Hobbyprojekt, wo man mal schnell was reinhackt und im eigenen Anwendungsfall passts dann. Stellt Euch mal den Shitstorm vor wenn MS eine der grundlegenden Kernfunktionen des Betriebssystems mal schnell ändert und es kommt dadurch zu Problemen, zB. mit 10 Jahre alter Geschäftssoftware oder irgendwelche Atom-Tabletts bricken oder ... oder ... oder...

dreas
2017-03-10, 11:03:45
Vielleicht hat AMD die internen Tests mit Win7 gemacht? Wenn man sich mal die Zeiträume überlegt könnte das hinkommen. Für Win 10 wurde dann vielleicht nur getestet obs überhaupt läuft, daß es da einen Leistungsdifferenz von über alles ~5% gibt ist dann vielleicht niemandem aufgefallen.

unwahrscheinlich. amd muss mit ms in kontakt stehen, um die korrekte cpu erkennung, in welchem os auch immer, sicher zu stellen. das da bei win7 alles klar geht und bei win10 alle pennen, glaub ich nich. ich denke eher das amd die eigene ccx problematik nicht an ms übermittelt hat und ms daher keine anpassungen am scheduler vornahm.

anddill
2017-03-10, 11:06:30
Das CCX-Problem hat ja auch Win7 und zeigt sich da recht unbeeindruckt. Ich bin ja immer mehr der Meinung daß Win10 die Threads falsch gruppiert weil es Ryzen als "Version größer Phenom II" einstuft und wie Bulldozer behandelt.

dreas
2017-03-10, 11:07:40
Das CCX-Problem hat ja auch Win7 und zeigt sich da recht unbeeindruckt. Ich bin ja immer mehr der Meinung daß Win10 die Threads falsch gruppiert weil es Ryzen als "Version größer Phenom II" einstuft und wie Bulldozer behandelt.

das kann gut sein. warum passiert das dann aber in win7 nich?

anddill
2017-03-10, 11:10:28
Kommst Du gerade unter nem Stein vor? ;)
Weil Win7 älter als Bulldozer ist. Die optimale Auslastung für Bulldozer ( Immer erst Modul vollpacken) wurde erst durch einen händisch zu installierenden Patch nachgeliefert. Ich glaub kaum daß die Leute die Ryzen mit Win7 getestet haben diesen Patch installiert hatten.

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/Microsoft-Windows-10-Patch-1222588/

http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/470589-ryzen-hat-amd-microsofts-ausgefallener-patchday-geschadet-post8735732.html

Gipsel
2017-03-10, 11:14:18
Vielleicht hat AMD die internen Tests mit Win7 gemacht? Wenn man sich mal die Zeiträume überlegt könnte das hinkommen. Für Win 10 wurde dann vielleicht nur getestet obs überhaupt läuft, daß es da eine Leistungsdifferenz von über alles ~5% gibt ist dann vielleicht niemandem aufgefallen.Nun:
I've used Win 7 about 95% of the time on Ryzen. Only the actual performance evaluation was done with Win 10, as it wasn't up to me. The performance differences are minor, but very constant regardless (in favor of Win 7).

deekey777
2017-03-10, 11:29:47
Wenn Micrsoft bei deren Project Olympus auf Naples setzt, dann wird MS doch die vermeintlichen Scheduler-Probleme lösen.

Pirx
2017-03-10, 11:53:59
Wenn Micrsoft bei deren Project Olympus auf Naples setzt, dann wird MS doch die vermeintlichen Scheduler-Probleme lösen.
Ob die M$-Server wirklich mit M$-Software laufen?

dreas
2017-03-10, 11:57:51
Kommst Du gerade unter nem Stein vor? ;)
Weil Win7 älter als Bulldozer ist. Die optimale Auslastung für Bulldozer ( Immer erst Modul vollpacken) wurde erst durch einen händisch zu installierenden Patch nachgeliefert. Ich glaub kaum daß die Leute die Ryzen mit Win7 getestet haben diesen Patch installiert hatten.

http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/Microsoft-Windows-10-Patch-1222588/

http://extreme.pcgameshardware.de/news-kommentare-zu-cpus/470589-ryzen-hat-amd-microsofts-ausgefallener-patchday-geschadet-post8735732.html

ok, sorry. wusste nicht das der gemeine amd jünger das händisch installieren musste. als intel anwender ist man ja gewöhnt das sowas out of the box funktioniert.:wink:

Birdman
2017-03-10, 13:52:35
Bzgl. Windows7 und Performance - dies müsste auch mit einer Intel CPU gegengetestet werden, denn da gibt es je nach Spiel auch heute noch Performanceunterschiede in beide Richtungen von mehreren %
Würde mich nicht wundern wenn hier auch noch die Grafikkartentreiber ein Wörtchen mitreden...

Screemer
2017-03-10, 14:07:03
Bzgl. Windows7 und Performance - dies müsste auch mit einer Intel CPU gegengetestet werden, denn da gibt es je nach Spiel auch heute noch Performanceunterschiede in beide Richtungen von mehreren %
Würde mich nicht wundern wenn hier auch noch die Grafikkartentreiber ein Wörtchen mitreden...
wieder so eine behauptung ohne belege. hatten wir das nicht erst zu nem anderen thema?

Lowkey
2017-03-10, 14:13:07
Es dreht sich im Kreis bzw. alles um Anandtechs:


Windows 10 RTC disliking 0.25x multipliers, causing timing issues,
Software not reading L3 properly (thinking each core has 8MB of L3, rather than 2MB/core),
Latency within a CCX being regular, but across CCX boundaries having limited bandwidth,
Static partitioning methods being used shows performance gains when SMT is disabled,
Ryzen showing performance gains with faster memory, more so than expected,
Gaming Performance, particularly towards 240 Hz gaming, is being questioned,
Microsoft’s scheduler not understanding the different CCX core-to-core latencies,
Windows not scheduling threads within a CCX before moving onto the next CCX,
Some motherboards having difficulty with DRAM compatibility,
Performance related EFIs being highly regularly near weekly since two weeks before launch.

MiamiNice
2017-03-10, 14:24:26
Warum geht AMD eigentlich diesen Weg mit den Core Clustern? Sie haben sich doch bei vielen anderen Dingen bei Intel bedient, was ja nicht schlecht ist wie man den Benches entnehmen kann. Warum verbaut man so ein Bottleneck?

uweskw
2017-03-10, 14:25:55
Ob die M$-Server wirklich mit M$-Software laufen?

ymmd ;D;D;D




Es dreht sich im Kreis bzw. alles um Anandtechs:


Windows 10 RTC disliking 0.25x multipliers, causing timing issues,
Software not reading L3 properly (thinking each core has 8MB of L3, rather than 2MB/core),
Latency within a CCX being regular, but across CCX boundaries having limited bandwidth,
Static partitioning methods being used shows performance gains when SMT is disabled,
Ryzen showing performance gains with faster memory, more so than expected,
Gaming Performance, particularly towards 240 Hz gaming, is being questioned,
Microsoft’s scheduler not understanding the different CCX core-to-core latencies,
Windows not scheduling threads within a CCX before moving onto the next CCX,
Some motherboards having difficulty with DRAM compatibility,
Performance related EFIs being highly regularly near weekly since two weeks before launch.




Probleme gab es bei jeder grundlegend neuen Architektur. Beim Chiphersteller, MoBo -Herstellern und sicher bei MS und auch den Compilern.

Ryzen hat nen super Start hingelegt. Und vielleicht wir es ja sogar noch besser.
Es geht bergauf mit dem CPU-Markt.
Bleibt zu hoffen dass auch Vega sich gut macht.

greetz
US

Schlammsau
2017-03-10, 14:32:31
Nächste Woche kommt mein 1700 .... das Board liegt schon hier.��

Unicous
2017-03-10, 14:33:33
Warum geht AMD eigentlich diesen Weg mit den Core Clustern? Sie haben sich doch bei vielen anderen Dingen bei Intel bedient, was ja nicht schlecht ist wie man den Benches entnehmen kann. Warum verbaut man so ein Bottleneck?

Wer (außer dir) behauptet es wäre ein bottleneck?:confused:

Das ist ein äußerst kluges Baukastendesign, das leicht in andere Designs überführt werden kann und dabei trotzdem in Schlagweite von Inteldesigns kommt. Man kann es in APUs nutzen, man kann es bei semi-custom designs nutzen, weil man an sich nur den gesamten "IP-Block" integrieren muss und alles drumherum auch Baukastenförmig angeschlossen werden kann. Mit einem Ringbus hingegen ist man deutlich unflexibler, weil hier afaik wirklich jeder Kern einzeln "angeschlossen" werden muss.

MiamiNice
2017-03-10, 14:49:40
Wer (außer dir) behauptet es wäre ein bottleneck?:confused:

Das ist ein äußerst kluges Baukastendesign, das leicht in andere Designs überführt werden kann und dabei trotzdem in Schlagweite von Inteldesigns kommt. Man kann es in APUs nutzen, man kann es bei semi-custom designs nutzen, weil man an sich nur den gesamten "IP-Block" integrieren muss und alles drumherum auch Baukastenförmig angeschlossen werden kann. Mit einem Ringbus hingegen ist man deutlich unflexibler, weil hier afaik wirklich jeder Kern einzeln "angeschlossen" werden muss.


Die aktuellen Probleme basieren wohl angeblich darauf das diverse Sheduler die Threads über die CPU jagen wie man es von Intel CPUs gewohnt ist. Da das AMD Design ein 4+4 Design mit jeweils eigenem Cache ist und die Caches untereinander nicht wirklich schnell angebunden sind gibt es wohl Performance Probleme wenn die Threads von einem CCX zum anderen CCX geschoben werden.

Darauf basiert meine Frage. Wenn ich in AMDs Haut stecken würde, würde ich alles daran setzen das meine CPU keinen extra Patch braucht (also mache ich es so wie beim Marktführer für den die meiste Software angepasst wurde) da ich dann abhängig von fremden Entwicklern bin.

Du schreibst jetzt kluges Baukasten Design, das kann ich sogar verstehen. Man spart hier also Kosten, präziser Entwicklungskosten für weitere Masken?

Ich bin mir nicht sicher ob die Kostenersparnis die Einheiten deckt die weniger verkauft werden. Alleine hier im Forum haben sich ja schon einige überlegt doch keinen Ryzen zu kaufen obwohl er fest auf der Agenda stand. Das liegt imho an den nicht konsistenten Benchmarks. Überlege mal wie viele weitere von diesen Menschen es da draußen gibt, die durch die Gaming Benches z.b. abgeschreckt worden sind.

Ich habe das Gefühl AMD macht die Arbeit nur "halb" (nicht wörtlich nehmen) und verlässt sich auf andere die es richten werden sollen (in diesem Fall Entwickler). Das erachte ich nicht wirklich als klug. Nicht in der Position in der sich AMD gerade befindet.

Lowkey
2017-03-10, 15:04:10
Ein 1700 Tray im Mindstar für 332 inkl Versand per Paypal ... ich glaube mein Schwein pfeift!

LadyWhirlwind
2017-03-10, 15:12:41
Die aktuellen Probleme basieren wohl angeblich darauf das diverse Sheduler die Threads über die CPU jagen wie man es von Intel CPUs gewohnt ist. Da das AMD Design ein 4+4 Design mit jeweils eigenem Cache ist und die Caches untereinander nicht wirklich schnell angebunden sind gibt es wohl Performance Probleme wenn die Threads von einem CCX zum anderen CCX geschoben werden.

Darauf basiert meine Frage. Wenn ich in AMDs Haut stecken würde, würde ich alles daran setzen das meine CPU keinen extra Patch braucht (also mache ich es so wie beim Marktführer für den die meiste Software angepasst wurde) da ich dann abhängig von fremden Entwicklern bin.

Du schreibst jetzt kluges Baukasten Design, das kann ich sogar verstehen. Man spart hier also Kosten, präziser Entwicklungskosten für weitere Masken?

Ich bin mir nicht sicher ob die Kostenersparnis die Einheiten deckt die weniger verkauft werden. Alleine hier im Forum haben sich ja schon einige überlegt doch keinen Ryzen zu kaufen obwohl er fest auf der Agenda stand. Das liegt imho an den nicht konsistenten Benchmarks. Überlege mal wie viele weitere von diesen Menschen es da draußen gibt, die durch die Gaming Benches z.b. abgeschreckt worden sind.

Ich habe das Gefühl AMD macht die Arbeit nur "halb" (nicht wörtlich nehmen) und verlässt sich auf andere die es richten werden sollen (in diesem Fall Entwickler). Das erachte ich nicht wirklich als klug. Nicht in der Position in der sich AMD gerade befindet.

Ich würde hier nicht von Kosten, sondern allgemein von Resourcen und anderen wichtigen Faktoren sprechen. Möglich das es bei einer reinen Kostenbetrachtung vielleicht tatsächlich gescheiter gewesen wäre. Allerdings hätte es vielleicht auch länger gedauert neue Varianten aufzulegen und damit die Zahl der Varianten die AMD in einem gegebenen Zeitraum Zeitraum bringen kann reduziert. Dem hätte man sicher mit mehr Manpower entgegenwirken können, das hätte aber wiederum Zeit gekostet diese Manpower einzustellen und es hätte auch AMDs fix-kosten massiv erhöht. Für Semi-Custom Produkte hätte sich die Time-to-Market wohl auch erhöht.

Klar hätte Ryzen mehr eingeschlagen anders rum, aber wenn erstmal die Software für Ryzen angepasst ist, sieht es ja dann für Ryzen2 ja auch schon wieder besser aus und AMD hat den vollen Vorteil der Modularität und die damit einhergehenden niederen Kosten. Da AMD offenbar die Preisführerschaft anstrebt ist das mittelfristig wohl schon die richtige Strategie.
Edit: Die Preisführerschaft ist in der Regel nie ohne Kompromisse zu erreichen und man nimmt dann i.d.R. auch in Kauf das man bestimmte Anforderungen nicht erfüllen kann.

fondness
2017-03-10, 15:28:23
Die aktuellen Probleme basieren wohl angeblich darauf das diverse Sheduler die Threads über die CPU jagen wie man es von Intel CPUs gewohnt ist. Da das AMD Design ein 4+4 Design mit jeweils eigenem Cache ist und die Caches untereinander nicht wirklich schnell angebunden sind gibt es wohl Performance Probleme wenn die Threads von einem CCX zum anderen CCX geschoben werden.

Darauf basiert meine Frage. Wenn ich in AMDs Haut stecken würde, würde ich alles daran setzen das meine CPU keinen extra Patch braucht (also mache ich es so wie beim Marktführer für den die meiste Software angepasst wurde) da ich dann abhängig von fremden Entwicklern bin.

Du schreibst jetzt kluges Baukasten Design, das kann ich sogar verstehen. Man spart hier also Kosten, präziser Entwicklungskosten für weitere Masken?

Ich bin mir nicht sicher ob die Kostenersparnis die Einheiten deckt die weniger verkauft werden. Alleine hier im Forum haben sich ja schon einige überlegt doch keinen Ryzen zu kaufen obwohl er fest auf der Agenda stand. Das liegt imho an den nicht konsistenten Benchmarks. Überlege mal wie viele weitere von diesen Menschen es da draußen gibt, die durch die Gaming Benches z.b. abgeschreckt worden sind.

Ich habe das Gefühl AMD macht die Arbeit nur "halb" (nicht wörtlich nehmen) und verlässt sich auf andere die es richten werden sollen (in diesem Fall Entwickler). Das erachte ich nicht wirklich als klug. Nicht in der Position in der sich AMD gerade befindet.

Intel hat faktisch unbegrenzt Ressourcen und benötigt 2 Jahre, um ein neues CPU-Design in alle Märkte zu bringen. Noch immer gibt es in vielen Märkten keinen Skylake. AMD schafft es dank dem Moduldesign in einem Quartal: Ryzen für Desktop in Q1, Naples für Server in Q2. Um nur mal ein Beispiel zu nennen. Das spart enorm Ressourcen, time-to-market und ermöglicht eine einfache Skalierung. Dagegen sind die Nachteile wohl mehr als Vertretbar. Ohne dieses Moduldesign wäre AMD in vielen Märkten gar nicht präsent, denn man hat nicht die Ressourcen wie Intel x verschiedenen Dies aufzulegen.

MiamiNice
2017-03-10, 15:28:38
Klar hätte Ryzen mehr eingeschlagen anders rum, aber wenn erstmal die Software für Ryzen angepasst ist, sieht es ja dann für Ryzen2 ja auch schon wieder besser aus und AMD hat den vollen Vorteil der Modularität und die damit einhergehenden niederen Kosten. Da AMD offenbar die Preisführerschaft anstrebt ist das mittelfristig wohl schon die richtige Strategie.
Edit: Die Preisführerschaft ist in der Regel nie ohne Kompromisse zu erreichen und man nimmt dann i.d.R. auch in Kauf das man bestimmte Anforderungen nicht erfüllen kann.

Das ist der Punkt auf den ich hinaus will. Warum sollte ich als Entwickler meine Software, vielleicht sogar nachträglich, für ein Design optimieren welches vielleicht in 5% der angepeilten Zielgruppe zu finden ist? Ich meine in Zeiten in denen selbst SLI Profile den Entwicklern zu teuer sind und drauf verzichtet wird, wie schlau ist es da sich darauf zu verlassen das die selben Entwicklern für eine, aktuell, Nischen Architektur optimieren?
Wer sich auf andere verlässt ist verlassen. Diesen Spruch durfte ich früher oft hören und imho ist da auch was dran. Ryzen hätte imho ein viel größerer Wurf sein können wie z.b. A64 oder K6-2.
Aktuell hat Ryzen einen schlechten Ruf bei Spielern. Das setzt sich in den Köpfen fest und bleibt. Damit ist der Name Ryzen, schon wieder, nicht "rein".

dreas
2017-03-10, 15:29:00
Ein 1700 Tray im Mindstar für 332 inkl Versand per Paypal ... ich glaube mein Schwein pfeift!

seh da nur ne graka.

Gipsel
2017-03-10, 15:29:59
Das ist der Punkt auf den ich hinaus will. Warum sollte ich als Entwickler meine Software, vielleicht sogar nachträglich, für ein Design optimieren welches vielleicht in 5% der angepeilten Zielgruppe zu finden ist?.Weil Dir alle Deine Kunden wichtig sind, der Marktanteil voraussichtlich steigen wird und Du keine potentiellen Kunden vergraulen willst. Es ist also auch ein Investition in die Zukunft.

S940
2017-03-10, 15:36:00
Ich habe das Gefühl AMD macht die Arbeit nur "halb" (nicht wörtlich nehmen) und verlässt sich auf andere die es richten werden sollen (in diesem Fall Entwickler). Das erachte ich nicht wirklich als klug. Nicht in der Position in der sich AMD gerade befindet.Du vergisst Die Konsolen .. da gibts ebenfalls 4er Blöcke mit 128bit AVX-FPUs.
Nene - AMD hat das schon gut gemacht. 256bit und Ringbus sind teuer und haben diverse Nachteile. Das aktuelle Zen-Design hat die zwar auch, aber dafür gibt es das "billiger" (weniger Energie- und Dieflächen-Verbrauch) ;)

dildo4u
2017-03-10, 15:37:37
Ryzen + GTX 1080 Ti Test


http://hothardware.com/reviews/nvidia-geforce-gtx-1080-ti-performance-review-with-intel-and-ryzen?page=7

MiamiNice
2017-03-10, 15:41:13
Ich bezweifele nicht, dass es nicht irgendwie und irgendwo schon seinen Sinn hat (den Schuh mag ich mir auch nicht anziehen, habe gar keinen Plan von CPU Entwicklungen um das aussagen zu können). Mich trägt der Gedanke das Ryzen mit einem Ringbus eine 2. A64 CPU gewesen wäre und ich einem Jahr vielleicht 2 50% aller Gamer PCs auf Ryzen gelaufen wären.
Damit wäre AMD wirklich Back gewesen, imho. Aktuell sehe ich AMD wieder in der Rolle es ewig 2. auch wenn Ryzen hier und dort schon massiv rockt. Aber er rockt halt imho nicht da wo es wichtig ist, meine Meinung. Das ist imho schade.

Unicous
2017-03-10, 15:49:21
Eigentlich ist es müßig mit dir zu disktutieren, da du ja nicht hier bist um zu verstehen sondern um zu diskreditieren.

Du verstehst nicht, dass AMD es innerhalb einer Generation nicht schaffen kann, Intels IPC-Verbesserungen der letzten 6 Jahre aufzuholen, es aber dennoch geschafft haben in einigen Bereichen bessere Performance zu liefern.
Du verstehst nicht, dass Software-Probleme im Consumer-Bereich andere Auswirkungen haben, als im Workstation/Server-Bereich.
Du verstehst nicht, dass Intel jetzt die zigste Iteration ihres 14nm Prozesses nutzt um nicht etwa Design-Verbesserungen sondern lediglich höhere Takte zu ermöglichen, während AMD einen relativ neuen, im Vergleich schlechteren Prozess nutzt und das nicht entscheidend beeinflussen kann. Es wird bereits gemunkelt, dass sie bei TSMC fertigen könnten (es sogar einen tapeout gab), weil der 16nm Prozess auf höhere Takte ausgelegt ist, das würde dann aber auf die Transistordichte gehen und die Chips entsprechend teurer machen.
Du verstehst nicht, dass AMD ein im Vergleich lachhaftes Designbudget hat und es trotzdem geschafft hat Intel in wichtigen Benchmarks bzw. Anwendungen zu übertrumpfen.
Du verstehst nicht, dass dieser Umstand allein schon eine exzellente Grundlage darstellt um die Architektur weiter zu verbessern und mit dem eingenommen Geld weiter zu investieren.
Du verstehst nicht, dass AMD eben nicht alle Kämpfe gewinnen muss um am Ende an Boden zu gewinnen. Dass Microsoft Naples-Chips überhaupt in Betracht zieht bzw. sie nutzen wird ist ein riesiger Erfolg der Intel zum Nachdenken bringen wird.
Du verstehst auch nicht, dass es günstiger ist 4 Dies à ca. 200mm² zu fertigen und in einem MCM zu 32 Kernen (64 Threads) zu verbinden, als z.B. einen BW-EP 22 Kerner (44 Threads) der wohl 454mm² misst.
Die Performance der 22 Kerne mag dann durchaus im Mittel besser ausfallen als die des 32Kerners, aber wen interessiert das wenn die komplette Plattform nur einen Bruchteil kostet und die total cost of ownership, also die kompletten Kosten über einen gewissen Zeitraum deutlicht geringer sind und die Performance in dem gewählten Szenario sogar besser.
Du verstehst auch nicht, dass diese Softwarezicken die der neuen Plattform geschuldet sind, in den nächsten Monaten ausgemerzt sein werden (wenn AMD und die Partner/ISVs das hinbekommen) und eine Grundlage für die nächsten Jahre geschaffen wird mit dem Potential sogar hier und da noch entscheidende Prozente und damit allgemein Performance zu gewinnen. Allein schon, dass SMT nicht ordentlich funktioniert zeigt doch, dass es zahlreiches Optimierungspotential gibt und durch Reife, das Produkt noch besser werden könnte und verloren geglaubte Kämpfe doch noch gewonnen werden.

Das macht Ryzen zum jack of all trades aber zum master of none. Wer absolute Gaming-Performance besonders in Singlethreaded oder maximal four-threaded Spielen braucht, der ist bei Kaby-Lake deutlich besser aufgehoben. Wer seinen Broadwell-E 8-Kerner nochmals übertakten kann und will der ist beim Großteil der Anwendungen und Spiele auch besser aufgehoben muss aber für Chip und Plattform einen ordentlichen Batzen Kohle hinblättern.
Und genau dazwischen liegt Ryzen eine Balance zwischen diesen Welten.
Ein insgesamt beeindruckendes Produkt, dass aber die Hardcore-Enthusiasten mit einem Budget von 3000 Euro+ nicht aus den Hockern springen lässt.

Um zu diesem Ergebnis zu kommen braucht es auch keine besondere Expertise, die Zahlen sprechen für sich. Ryzen ist momentan nicht ausgereift und hat mit Kinderkranheiten zu kämpfen, hat aber großes Potential auch in den Nachfolgegenerationen den nicht mehr ganz so großen IPC-Rückstand auszugleichen und durch nochmals gereiftere Fertigung das ein oder andere MHz herauszuquetschen und neben Intels Core als der bessere Allrounder zu glänzen, schon allein weil es sich jetzt schon abzeichnet, dass neuere und zukünftige Engines deutlich besser mit Kernen skalieren und die Ära der 4+-Kerner langsam anbricht.


edit:

du wirst es nicht glauben, aber selbst bei Steam hat AMD weiterhin einen Marktanteil von über 20%, weltweit sind es wohl ca. 15%. Die 5% sind also meilenweit untertrieben und 20% ist ein hoher user share auch wenn du das wohl in deiner Welt anders siehst.:rolleyes:

LadyWhirlwind
2017-03-10, 15:52:22
Ich bezweifele nicht, dass es nicht irgendwie und irgendwo schon seinen Sinn hat (den Schuh mag ich mir auch nicht anziehen, habe gar keinen Plan von CPU Entwicklungen um das aussagen zu können). Mich trägt der Gedanke das Ryzen mit einem Ringbus eine 2. A64 CPU gewesen wäre und ich einem Jahr vielleicht 2 50% aller Gamer PCs auf Ryzen gelaufen wären.
Damit wäre AMD wirklich Back gewesen, imho. Aktuell sehe ich AMD wieder in der Rolle es ewig 2. auch wenn Ryzen hier und dort schon massiv rockt. Aber er rockt halt imho nicht da wo es wichtig ist, meine Meinung. Das ist imho schade.

Du denkst zu kurzfristig. Entscheidungen sollte man nicht mit Blick auf einen kurzfristigen Erfolg machen sondern Mittel bzw. Langfristig. Ebenso müssen solche Entscheidungen getroffen werden, bevor man weiss wie die Konkurrenz reagieren wird. Mit einer günstigen Kostenstruktur hat AMD mehr Atem in einem allfälligen Preiskampf mit Intel.
Ebenso ist der Gamer-Markt zwar Interessant aber im Server-Markt liegen dann die grossen Mengen und Einnahmen. Zen wurde mit Blick auf diesen Markt entwickelt.

Zum Thema optimierung: Als Entwickler willst du in einer Ausschreibung einem potentiellen Kunden nicht erklären müssen, wieso dein Produkt jetzt teure Intel PCs braucht während dein Konkurrenz gleiche Performance auf einem 1/3 billigeren Maschinen zustande bringt.

Intels Markennahme hilft Ihnen auch nur soweit. Wenn es um viel Geld werden Netzwertanalysen, TCO etc. erstellt und diese sind dann massgeblich für den Investitionsentscheid.

S940
2017-03-10, 15:58:45
Ich bezweifele nicht, dass es nicht irgendwie und irgendwo schon seinen Sinn hat (den Schuh mag ich mir auch nicht anziehen, habe gar keinen Plan von CPU Entwicklungen um das aussagen zu können). Mich trägt der Gedanke das Ryzen mit einem Ringbus eine 2. A64 CPU gewesen wäre und ich einem Jahr vielleicht 2 50% aller Gamer PCs auf Ryzen gelaufen wären.
Damit wäre AMD wirklich Back gewesen, imho. Aktuell sehe ich AMD wieder in der Rolle es ewig 2. auch wenn Ryzen hier und dort schon massiv rockt. Aber er rockt halt imho nicht da wo es wichtig ist, meine Meinung. Das ist imho schade.

Aus der Gamersicht sicherlich, aber die ist AMD schnurz. Wie schon der K8 zielt man aufs lukrative Serversegment, wo ne CPU mal schnell $5000 und mehr kostet. Dort wird der Ringbus mit steigender Kernanzahl schnell eine Klotz am Bein. Mit Servern wird aber das richtig große Geld verdient, wir bekommen hier quasi nur die Brosamen ab.

Nachdem die Studios die Quadcluster-Architektur schon von den Konsolenchips gewohnt war, konnte man das Risiko locker eingehen. Gut - Microsoft sorgt mal wieder für Ärger, aber wenn sich das mit nem Patch innerhalb ~6 Monaten geben sollte, wird keiner mehr über Zens Anlaufschwierigkeiten reden.

HOT
2017-03-10, 16:02:37
Unicous
Amen. Beeindruckendes Statement.

nikk
2017-03-10, 16:24:04
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/Microsoft-Windows-10-Patch-1222588/

Komisch, dass trotzdem noch immer keine einzige HW-Redaktion neugierig genug ist, mal unter W7 zu testen. Sowas sollte doch Klicks generieren. Haben die keine Ryzen-Systeme mehr oder scheitert es an der W7-Installation?:confused:

Dino-Fossil
2017-03-10, 16:44:38
Zumindest scheint Ryzen auf Win7 aktuell besser zu laufen, in einigen Fällen wohl deutlich.
Das bedeutet für mich aber auch, dass man sich aktuell nicht zu sehr den Kopf darüber zerbrechen sollte, ob das CCX-Design (edit: hehe, CCX -Design) ein deutlicher Flaschenhals ist.
Manche Performance-Sonderheit könnte sich durchaus in Luft auflösen, wenn Win10 besser mit Ryzen klarkommt (und da das mit Win7 ja augenscheinlich gelingt, kann es auch kein Hexenwerk sein).

Es ist ein wenig schade, dass heutzutage so viel in Schwarz-Weiß gemalt wird, anstatt auch einmal die Zwischentöne zu nutzen.
Entweder Hype oder Fail, anderes scheint es bei vielen (inklusiver mancher Hardware-Redaktionen!) nicht mehr zu geben.

So wird dann aus einer durchaus beachtlichen, wenn auch ggü. den neuesten Intel-CPUs absolut gesehen etwas geringeren Performance in Spielen schon eine "Schwäche"... :freak:

Schlammsau
2017-03-10, 16:48:54
Eigentlich ist es müßig mit dir zu disktutieren, da du ja nicht hier bist um zu verstehen sondern um zu diskreditieren.

Du verstehst nicht, dass AMD es innerhalb einer Generation nicht schaffen kann, Intels IPC-Verbesserungen der letzten 6 Jahre aufzuholen, es aber dennoch geschafft haben in einigen Bereichen bessere Performance zu liefern.
Du verstehst nicht, dass Software-Probleme im Consumer-Bereich andere Auswirkungen haben, als im Workstation/Server-Bereich.
Du verstehst nicht, dass Intel jetzt die zigste Iteration ihres 14nm Prozesses nutzt um nicht etwa Design-Verbesserungen sondern lediglich höhere Takte zu ermöglichen, während AMD einen relativ neuen, im Vergleich schlechteren Prozess nutzt und das nicht entscheidend beeinflussen kann. Es wird bereits gemunkelt, dass sie bei TSMC fertigen könnten (es sogar einen tapeout gab), weil der 16nm Prozess auf höhere Takte ausgelegt ist, das würde dann aber auf die Transistordichte gehen und die Chips entsprechend teurer machen.
Du verstehst nicht, dass AMD ein im Vergleich lachhaftes Designbudget hat und es trotzdem geschafft hat Intel in wichtigen Benchmarks bzw. Anwendungen zu übertrumpfen.
Du verstehst nicht, dass dieser Umstand allein schon eine exzellente Grundlage darstellt um die Architektur weiter zu verbessern und mit dem eingenommen Geld weiter zu investieren.
Du verstehst nicht, dass AMD eben nicht alle Kämpfe gewinnen muss um am Ende an Boden zu gewinnen. Dass Microsoft Naples-Chips überhaupt in Betracht zieht bzw. sie nutzen wird ist ein riesiger Erfolg der Intel zum Nachdenken bringen wird.
Du verstehst auch nicht, dass es günstiger ist 4 Dies à ca. 200mm² zu fertigen und in einem MCM zu 32 Kernen (64 Threads) zu verbinden, als z.B. einen BW-EP 22 Kerner (44 Threads) der wohl 454mm² misst.
Die Performance der 22 Kerne mag dann durchaus im Mittel besser ausfallen als die des 32Kerners, aber wen interessiert das wenn die komplette Plattform nur einen Bruchteil kostet und die total cost of ownership, also die kompletten Kosten über einen gewissen Zeitraum deutlicht geringer sind und die Performance in dem gewählten Szenario sogar besser.
Du verstehst auch nicht, dass diese Softwarezicken die der neuen Plattform geschuldet sind, in den nächsten Monaten ausgemerzt sein werden (wenn AMD und die Partner/ISVs das hinbekommen) und eine Grundlage für die nächsten Jahre geschaffen wird mit dem Potential sogar hier und da noch entscheidende Prozente und damit allgemein Performance zu gewinnen. Allein schon, dass SMT nicht ordentlich funktioniert zeigt doch, dass es zahlreiches Optimierungspotential gibt und durch Reife, das Produkt noch besser werden könnte und verloren geglaubte Kämpfe doch noch gewonnen werden.

Das macht Ryzen zum jack of all trades aber zum master of none. Wer absolute Gaming-Performance besonders in Singlethreaded oder maximal four-threaded Spielen braucht, der ist bei Kaby-Lake deutlich besser aufgehoben. Wer seinen Broadwell-E 8-Kerner nochmals übertakten kann und will der ist beim Großteil der Anwendungen und Spiele auch besser aufgehoben muss aber für Chip und Plattform einen ordentlichen Batzen Kohle hinblättern.
Und genau dazwischen liegt Ryzen eine Balance zwischen diesen Welten.
Ein insgesamt beeindruckendes Produkt, dass aber die Hardcore-Enthusiasten mit einem Budget von 3000 Euro+ nicht aus den Hockern springen lässt.

Um zu diesem Ergebnis zu kommen braucht es auch keine besondere Expertise, die Zahlen sprechen für sich. Ryzen ist momentan nicht ausgereift und hat mit Kinderkranheiten zu kämpfen, hat aber großes Potential auch in den Nachfolgegenerationen den nicht mehr ganz so großen IPC-Rückstand auszugleichen und durch nochmals gereiftere Fertigung das ein oder andere MHz herauszuquetschen und neben Intels Core als der bessere Allrounder zu glänzen, schon allein weil es sich jetzt schon abzeichnet, dass neuere und zukünftige Engines deutlich besser mit Kernen skalieren und die Ära der 4+-Kerner langsam anbricht.


edit:

du wirst es nicht glauben, aber selbst bei Steam hat AMD weiterhin einen Marktanteil von über 20%, weltweit sind es wohl ca. 15%. Die 5% sind also meilenweit untertrieben und 20% ist ein hoher user share auch wenn du das wohl in deiner Welt anders siehst.:rolleyes:
:massa:

BoMbY
2017-03-10, 17:01:05
Wegen der ASUS Crosshair VI Hero bricks auch für Euch:

BIOS ist in Arbeit (mit Glück heute noch, ansonsten hoffentlich Montag).

Ursache und Workaround (http://www.overclock.net/t/1624603/rog-crosshair-vi-overclocking-thread/750#post_25910153):


Still waiting for the BIOS. Until then you guys can lock the CPU SOC Voltage to default (Offset mode +0.00625V) to prevent the random BIOS update from happening. This is to prevent it from increasing due to auto rules when overclocking DRAM. If you're running fully default settings you're OK.


Und noch diese Ergänzung (http://www.overclock.net/t/1624603/rog-crosshair-vi-overclocking-thread/780#post_25910423) später:


Above 1.0v can cause issues from our testing, you'd have to lower your DRAM for now. At most a few percent of the boards are affected so you would probably be fine to keep running like that. I'd still lower it over the weekend to be sure until we have a BIOS update.

Effe
2017-03-10, 17:23:05
Aktuell hat Ryzen einen schlechten Ruf bei Spielern. Das setzt sich in den Köpfen fest und bleibt. Damit ist der Name Ryzen, schon wieder, nicht "rein".
Beweis durch Behauptung? Diese "Spieler" sind wohl eher in der Regel uninformierte Gamerkiddies, die RyZen schlecht finden wollen. Anhand der Benchmarks gibt es keinen Grund, einen schlechten Ruf zu erhalten.
AMD ist wieder konkurrenzfähig. That's it.

MadPenguin
2017-03-10, 17:38:41
http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/Microsoft-Windows-10-Patch-1222588/

Komisch, dass trotzdem noch immer keine einzige HW-Redaktion neugierig genug ist, mal unter W7 zu testen. Sowas sollte doch Klicks generieren. Haben die keine Ryzen-Systeme mehr oder scheitert es an der W7-Installation?:confused:

Drei Mal darfst du raten wieso. Keiner wird dir zeitlich aufwendigen Tests neu aufsetzen unter Win7. Mich würde es sogar wundern, ob jemand die Win10 Tests wiederholen wird, sobald ein sheduler Patch dafür draußen ist. Finde die Zeitschriften Tests sowieso immer mehr für die Katz, da viele von Objektivität immer mehr verschont bleiben. Da habe ich lieber Tests der Community :)

fondness
2017-03-10, 17:57:20
Mittlerweile sind die ASUS Prime X370-Pro bzw. ROG Crosshair VI Hero ganz gut lieferbar, bei MF lagernd:
http://www.mindfactory.de/Hardware/Mainboards/Desktop+Mainboards/AMD+Sockel+AM4.html

Die Preise sind auch bereits am sinken.

uweskw
2017-03-10, 17:57:21
..........Aktuell hat Ryzen einen schlechten Ruf bei Spielern. Das setzt sich in den Köpfen fest und bleibt. Damit ist der Name Ryzen, schon wieder, nicht "rein".

noch nicht. aber bald. Weil überall in den Foren Blödsinn aufgebauscht wird.
Was juckt den Normaluser 15% weniger FSP unter Lowres mit ner 800€ GraKa?
Die wenigsten potentiellen Ryzenkäufer haben eine 1080/Titan im Rechner, und diejenigen die sie haben spielen nicht in 780p.:freak:
Damit das mit ner 1060Ti oder einer HD480 irgend einen Einfluss hat, müsste man wohl unter 640x480 zocken. Aber das wird uns in allen Foren solange vorgebetet bis die Masse der Leute echt glauben sie hätten dadurch einen Nachteil.
Zukunftsicherheit durch 4 Kerne mehr, bessere Anwendungsleistung und die vormals ach so wichtige Energieeffizienz spielen auf einmal keine Rolle mehr.

Tolles Marketing edit: von für Intel.


greetz
US

Der_Korken
2017-03-10, 17:57:56
Mich würde es sogar wundern, ob jemand die Win10 Tests wiederholen wird, sobald ein sheduler Patch dafür draußen ist. Finde die Zeitschriften Tests sowieso immer mehr für die Katz, da viele von Objektivität immer mehr verschont bleiben. Da habe ich lieber Tests der Community :)

Da könnte es sich eventuell als klugen Schachzug herausstellen, dass man die R5-Modelle erst ein paar Wochen später veröffentlicht. Für die müssen die Tests definitiv neu gemacht werden. Man könnte zwar die alten R7-Resultate in die Diagramme einfügen, aber wenn der Sechskerner durch Patches und co. plötzlich in manchen Tests vor dem Achtkerner landet, wird es schwer solche Testergebnisse als seriös zu verkaufen ;).

Hasenpfote
2017-03-10, 18:18:09
Da könnte es sich eventuell als klugen Schachzug herausstellen, dass man die R5-Modelle erst ein paar Wochen später veröffentlicht. Für die müssen die Tests definitiv neu gemacht werden. Man könnte zwar die alten R7-Resultate in die Diagramme einfügen, aber wenn der Sechskerner durch Patches und co. plötzlich in manchen Tests vor dem Achtkerner landet, wird es schwer solche Testergebnisse als seriös zu verkaufen ;).Das hatte doch jemand (Gipsel?) im Preview-Thread bereits gesagt.
Die Leute, die Spaß am Basteln, Testen und Rumspielen haben, freuen sich über Ryzen und nehmen auch Probleme in Kauf. Damit werden Bugs und Fehler gefunden und gefixt. Wenn dann der Ryzen 5 und 3 kommen, sind die gröbsten Fehler raus, die Boards sind lieferbar und der Preisbereich trifft auch den Massengeschmack. Und wenigstens die großen Ryzen 5 werden nochmal gegen den Ryzen 7 gebencht werden und der wiederum wird von den Updates und Änderungen profitieren.

Schlussendlich gewinnen alle:
- AMD hatte seine Betatester
- die Freaks hatten was zum Basteln und Spielen
- die Redaktionen haben monatelang was zum Untersuchen und Artikel schreiben und Geld verdienen und müssen nicht langweiligen Kram immer und immer wieder neu aufgießen
- und Ottonormal kriegt seine gut abgehangene Gamer-CPU für unter 200Euro

Ok, jemand verliert dann doch: BIOS-Programmierer
Aber hey, so ist denen wenigstens nicht langweilig ;D

@Unicous:
Du hast in Deiner Aufzählung folgende Punkte vergessen:
- Anpassungen werden in Game-Engines vorgenommen, die dann Grundlage für die eigentlichen Spiele sind. D.h. eine Änderung, zig Spiele betroffen
- AMD liefert die APUs der wichtigsten Konsolen, d.h. die Spieleentwickler werden es für Konsolen eh umsetzen, um maximale Performance rauszuholen. Das fällt somit automatisch für PCs ab. (ich würde echt feiern, wenn die Entwickler irgendwann von Intel Geld verlangen, um nicht nur AMD-Spezifika umzusetzen :-D )

@Nikk: Ich wundere mich auch, dass niemand Ryzen unter Win7 mal durchtestet (zumindest grob). Oder findet es dort jeder so geil, ausgehorcht und mit Werbung belästigt zu werden? Worst-Case lässt man nen Praktikanten eine Kiste aufsetzen. Oder sie gehen davon aus, dass alle Gamer unter Win10 unterwegs sind.

Schaffe89
2017-03-10, 18:36:19
noch nicht. aber bald. Weil überall in den Foren Blödsinn aufgebauscht wird.

Da wird sicher kein Blödsinn aufgebauscht. Sollte man sich für eine GTX 1080 Ti in Full HD für 144 Hertz Gaming entscheiden, dann verlierst du mit Ryzen etwa die Hälfte des Vorsprungs der 1080Ti vor der 1080 wegen des eher eintretenden CPU Limits, das ist in allen Tests zu sehen.

Ryzen 8Core ist für Gaming derzeit nicht erste Wahl, schmerzhaft das einräumen zu müssen. Die Diskussionen werden hierzu immer weitergehen und größenteils muss man sich das halt dann schönreden. An dem Beitrag von Miami sieht man es wieder gut, wie er sofort wieder zerrissen wird, weil er AMD´s Vorgehen kritisiert.
Aber Kritik darf man ja keine äußern, weil dann sofort wieder das AMD hat ja kein Geld Argument kommt, ergo Diskussion canceled.

Da könnte es sich eventuell als klugen Schachzug herausstellen, dass man die R5-Modelle erst ein paar Wochen später veröffentlicht.

Das ist ne sehr gute Entscheidung von AMD. Der 1600x wird eine viel bessere Gaming CPU sein als ein 1800x.
Vielleicht ist er auch ein bisschen besser taktbar.

vinacis_vivids
2017-03-10, 18:45:38
Für GTA V schon erste Wahl ;)
https://abload.de/img/ryzenvs7700kgtavhyue4.png

Matrix316
2017-03-10, 18:59:46
Ich weiß nicht genau ob das Gamestar Review schon angesprochen wurde, aber wenn die Zahlen hier stimmen ist das schon sehr komisch:
http://www.gamestar.de/hardware/prozessoren/amd-ryzen-7-1700x/test/ryzen_7_1700x,1066,3310978,2.html#wqhd-benchmarks
https://abload.de/img/ryzentttjzr.jpg (http://abload.de/image.php?img=ryzentttjzr.jpg)

Wieso liegen die Ryzens so weit zurück und besonders wenn man bedenkt, dass der 6900K ganz vorne ist? Hä???:uponder:

Mein Argument für Ryzen war ja immer: Mehr Kerne, mehr Kerne und die Intel X99 Chips sind ja auch langsamer als die Consumer i7 mit vier Kernen und mehr Takt.

Aber gerade hier wo das Spiel von mehr Kernen zu profitieren scheint kackt AMD auch ab???

Kriton
2017-03-10, 19:01:37
Es wurde zwar auch schon ein paar Mal erwähnt, aber es sei auch noch einmal daran erinnert, dass vermutlich ein nicht unbeträchtlicher Teil der Spieler nicht nur das Spiel am Laufen hat, sondern auch TS, Browser, etc.
Spätestens dort sind mehr Kerne sinnvoll, weil dies dann auch die Kerne nutzt, welche das (insoweit möglicherweise nicht optimale) Multithreading des Spiels nicht nutzt, während das bei einem 4-Kerner unmittelbar die Kerne belastet, mit denen das Spiel arbeitet.
Insoweit sind auch viele Spielebenchmarks in gewisser Weise lediglich "synthetisch".

Matrix316
2017-03-10, 19:08:09
Ja aber die Benchen ja bestimmt nicht mit unterschiedlichen Anwendungen die im Hintergrund laufen.

Ein 3 GHz 5960 so schnell wie ein 4,2 GHz 7700K.
Ryzen müsste auch mit über 4 GHz laufen um da ranzukommen. Trotz 8 Kernen.

Das kann ja eigentlich garnet sein, wenn in Anwendungsbenchmarks AMD an intels 8 Kerner rankommt oder gar schneller ist.

Wie kann die IPC in Games so viel schlechter sein?

Birdman
2017-03-10, 19:17:08
Für GTA V schon erste Wahl ;)
https://abload.de/img/ryzenvs7700kgtavhyue4.png
Diese Zahlen sind nicht die Pixel wert aus denen sie bestehen...
1080ti und TXP fallen hinter die Fury zurück auf der Intel Plattform? Ah ja genau.
Und dass 1080ti /TXP die Reihenfolge tauschen macht noch viel weniger Sinn.

dildo4u
2017-03-10, 19:22:59
Sieht man doch im Hintergrund das ist wieder der komplette unzuverlässige Benchmark.

w0mbat
2017-03-10, 19:31:58
Blöd nur, dass die Benchmakrs stimmen...

dildo4u
2017-03-10, 19:35:31
Die min fps stimmen mit Sicherheit nicht,da der Benchmark Szene wechselt ich glaube nicht das es mit der Messung für den schwarzen Screen aussetzt.

MadPenguin
2017-03-10, 19:42:10
Da wird sicher kein Blödsinn aufgebauscht. Sollte man sich für eine GTX 1080 Ti in Full HD für 144 Hertz Gaming entscheiden, dann verlierst du mit Ryzen etwa die Hälfte des Vorsprungs der 1080Ti vor der 1080 wegen des eher eintretenden CPU Limits, das ist in allen Tests zu sehen.


Hättest du einen Link für mich für diese Behauptung?

Conner_Ray
2017-03-10, 19:58:28
Der 1600x wird eine viel bessere Gaming CPU sein als ein 1800x.

Wieder eine von deinen Vorhersagen die dir um die Ohren fliegen wird, wie alles von dir im Vorfeld zu ryzen

uweskw
2017-03-10, 20:25:11
Da wird sicher kein Blödsinn aufgebauscht. Sollte man sich für eine GTX 1080 Ti in Full HD für 144 Hertz Gaming entscheiden, dann verlierst du mit Ryzen etwa die Hälfte des Vorsprungs der 1080Ti vor der 1080 wegen des eher eintretenden CPU Limits, das ist in allen Tests zu sehen.............


Wie viele der potentiellen Ryzen-Käufer mit SuperGraKa sind 144 Herz Gamer?
Und von denen? Wer reduziert die Auflösung auf 720p oder 1080p um auf 144FPS zu spielen? Da werden eher Details oder AA runter gedreht.
Und wegen dieser kleinen Randgruppe wird Ryzen jetzt der breiten Menge der User madig gemacht?
Nein, nicht um diese Spezialisten unter den Anwendern zu informieren wird gegen Ryzen so massiv geflamt. Sondern da geht es darum den Status Quo des Plazhirschen zu erhalten. Also um richtig viel Geld. :eek:
Das geflame kommt sowohl von Marketing-Opfern die im besten Glauben handeln als auch von bestinformierten Profis die in dutzenden Foren flamen und offensichtlich den ganzen Tag nichts anderes zu tun haben.


greetz
US

edit. bestinformierten

Dino-Fossil
2017-03-10, 20:34:58
Wieder eine von deinen Vorhersagen die dir um die Ohren fliegen wird, wie alles von dir im Vorfeld zu ryzen

Mit seinem albernen Getrolle könnte er hier sogar mal in gewisser Weise recht haben:
Wenn die kolportierten Taktraten stimmen, wird der 1600X vermutlich (in Spielen) ähnlich schnell wie der 1800X, aber deutlich günstiger.
Zusammen mit der immer noch sehr guten Anwendungsperformance vermutlich eine CPU mit Top P/L-Verhältnis, die deutlich interessanter sein könnte als Intel CPUs in dem Preisbereich.

Schrumpelratte
2017-03-10, 21:23:33
scheint auch lesenswert zu sein http://www.gamersnexus.net/guides/2832-just-research-ryzen-clock-perf-v-balanced-efi-version-fps

nikk
2017-03-10, 21:42:00
Bei CS:GO ist W7 teilweise 20% schneller und die 0%-Threads bleiben im Gegensatz zu W10 konstant.
https://www.youtube.com/watch?v=XAXS8rYwGzg&t=59

Der Tester will es aber nochmal überprüfen:
"Testing more games now an retest CS:GO with its benchmark map."

Bei Deus Ex (keine 0%-Threads) gibt es hingegen (bis auf einen minfps-Ausrutscher bei W10) kaum Unterschiede:
https://www.youtube.com/watch?v=URBZaFhizGc


Edit: Die Benchmarks sind nur mit einem RAM-Riegel, d.h. ohne Dual Channel.

Digidi
2017-03-10, 21:45:41
Vom GDC-Vortrag.

http://www.hardware.fr/medias/photos_news/00/53/IMG0053311_1.jpg


edit:

Bei 4Gamers gibt es noch mehr screenshots.

http://www.4gamer.net/games/300/G030061/20170308070/

Interessant. Gibts so ein Bild von Broadwell EP? Da sind (soweit ich mich erinnere) die cores am Ring Bus glaube ich auch nur mit 32 B/cycle angeschlossen. Also hätte Broadwell das gleiche Problem.

bnoob
2017-03-10, 21:50:51
Es ist wirklich bitter nötig, dass AMD Marketing betreibt... heute mit unserem Admin geredet und irgendwie kam die Rede darauf, dass ich gerade einen FX in meinem Privatsystem habe.

"Wie du hast AMD? Das würde ich doch niemals kaufen?" Er war ehrlich überrascht, weil er mich (Entwickler) als "Hardwareguru" kennt und es nicht in seinen Kopf bekommen hat, dass ich "trotzdem" das "unterlegene" Produkt nutze.

Ich habe ihm dann erklärt, wie der FX 8-Kerner in meinen Usecase passt, aber so richtig hat das nicht geholfen.

DAS ist die Art von Indoktrination, gegen die Ryzen/Naples auf dem professionellen Markt ankommen MUSS. Und sowas entscheidet sich häufig auch einfach nicht über die Leistung, sondern mit welchem Namen mehr Profis in der Umgebung "zufrieden" (wie ich dieses Wort HASSE) sind.

Da sind die richtigen Schlagzeilen an der richtigen Stelle viel wert.

Pirx
2017-03-10, 22:18:47
Marketing oder nicht, dieser Admin offenbart ziemliches Desinteresse an der Materie und scheint wohl gern den einfachsten Weg zu nehmen. Auch, wenn man ihm das nicht verübeln kann, sollte er doch wenigstens informiert sein und sich bewusst sein, was es bedeutet sich nur in die Hände eines Marktteilnehmers zu begeben.

Lowkey
2017-03-10, 22:25:18
https://www.proshop.de/CPU/AMD-Ryzen-7-1700X-Wraith-CPU-34-GHz-AMD-AM4-8-Kerne-Bulk-ohne-Kuehler/2585195


1700x ohne Kühler für 334,99 €
1800x ohne Kühler für 549,99 €

Der Shop ist nicht neu. 1 1/2 Jahre alt mit Sitz in Dänemark.

Unicous
2017-03-10, 22:38:39
Ist auch an sich seriös. Ist der deutsche Ableger vom dänischen proshop und den gibt es schon seit über 20 Jahren.

Digidi
2017-03-10, 22:39:13
Da soll Mal jemand sagen AMD kann kein Marketing:
https://meetwalter.com
;)

Menace
2017-03-10, 22:49:53
Schon gepostet? Ht4u hat den ersten (!) Ryzen Test online. Weitere werden folgen.

Was bedeutet das für uns? Wie üblich: Nach dem Launch ist vor dem Launch. Wir haben noch viele weitere Ergebnisse, wir haben inzwischen auch neue BIOS-Versionen für verschiedene Mainboards und wir haben weitere Mainboards und den Ryzen 1700X vorliegen, den es ebenfalls zu betrachten gilt. Zudem sind weitere Prozessoren zu uns unterwegs und so heißt es also zurück an die Teststation. Doch erst einmal nehmen wir uns ein Wochenende frei, bevor Ryzen uns wieder packt. Eines steht fest: AMD is Back.
https://www.ht4u.net/reviews/2017/amd_ryzen_7_1800x_im_test/

Lowkey
2017-03-10, 22:50:10
Schon wieder ausverkauft. dreas wird sich wieder ärgern, dass er zwei Angebote verpaßt hat.

gmb
2017-03-10, 23:15:05
Schon gepostet? Ht4u hat den ersten (!) Ryzen Test online. Weitere werden folgen.


https://www.ht4u.net/reviews/2017/amd_ryzen_7_1800x_im_test/


Ziemlich jämmerlich, dass der i7-7700k immer noch zu langsam läuft. So viel zu den tollen ht4u Tests. Nicht nur Amis können sich ein Mist zusammenbenchen.

bnoob
2017-03-10, 23:16:24
Marketing oder nicht, dieser Admin offenbart ziemliches Desinteresse an der Materie und scheint wohl gern den einfachsten Weg zu nehmen. Auch, wenn man ihm das nicht verübeln kann, sollte er doch wenigstens informiert sein und sich bewusst sein, was es bedeutet sich nur in die Hände eines Marktteilnehmers zu begeben.
Klar macht er an der Stelle seinen Job nicht richtig. Aber viele Admins in KMU sind in einer vergleichbaren Situation.

Der ist ungefähr so alt wie ich, also Mitte 20. Er hat K8 im Servermarkt aus einer professionellen Perspektive nicht mehr erlebt und die Dozenten im Studium haben Hardware kaum behandelt. Woher also soll er es besser wissen?

Screemer
2017-03-10, 23:22:44
Ziemlich jämmerlich, dass der i7-7700k immer noch zu langsam läuft. So viel zu den tollen ht4u Tests. Nicht nur Amis können sich ein Mist zusammenbenchen.
Natürlich ist der Prozessor auf Platz 1 im Spieleranking zu langsam. Komm mal klar.


Der ist ungefähr so alt wie ich, also Mitte 20. Er hat K8 im Servermarkt aus einer professionellen Perspektive nicht mehr erlebt und die Dozenten im Studium haben Hardware kaum behandelt. Woher also soll er es besser wissen?
Interesse an seinem job und dem damit verknüpften Markt?

bnoob
2017-03-10, 23:42:33
Kaum vorhanden. Er liest die Branchenzeitschriften die zufällig auf seinem Schreibtisch landen, Heise und manchmal Golem, und damit hat es sich.

Er sieht das eben als Job, kann ich ihm kaum verübeln.

Ich bin auch nicht in der Position ihn mal zu stupfeln, auch wenn ich das trotzdem tue :D

Dino-Fossil
2017-03-10, 23:57:59
Natürlich ist der Prozessor auf Platz 1 im Spieleranking zu langsam. Komm mal klar.


So ein tolles Stück Silizium hat mindestens Platz 0 verdient, wenn nicht sogar -1...

Grendizer
2017-03-11, 00:11:21
Mal ehrlich.... ich bin Head of IT (knapp über 40!) bei einem Softwareentwickler mit etwa 80 Mitarbeitern. Obwohl ich mir privat gerade einen 1700X zusammengebaut habe, werde ich ich den nächsten 2 Jahren AMD NICHT in die Nähe unseres Serverraum kommen lassen.

Hintergrund:

Wir haben einen netten kleinen stabilen VMware Cluster bestehend aus 5 HP Servern und ein bisschen SAN Storage. Bei den Kosten, die wir für SLES 12, Windows 2016 für 5 Hosts mit 84 Kernen, VMWare Lizenzen, Veeam Lizenzen usw. zahlen, sind die Hardwarekosten für einen Server aktuell einfach lachhaft.

Für 13.000 Euro bekommt man einen HP-Server mit 2x14 Kernen und 512 GB Speicher. Klar wären 2x32 "besser" ... aber der limitierende Faktor bei uns ist entweder Hauptspeicher oder SAN Storage. CPU sind im Tagesgeschäft pro Host bei 30-40%. Allerdings würden AMD CPU bedeuten, das man nicht mehr so ohne weiteres VMs von einem Host auf den anderen schieben kann, oder das man entsprechend leistungsreduzierende Kompatibilitätseinstellungen vornehmen muss.

nullpunkt
2017-03-11, 00:15:24
Achtung, das ist natürlich falsch. Du kannst die VMware EVC Settings dann auf AMD ändern falls Du alle Server ersetzt. Und der Performance Impact ist fast nicht feststellbar bei deaktivertem EVC. Trotzdem hast Du recht, ich werde bei meinen Kunden auch nicht umgehend Naples einsetzen. Aber natürlich werde ich das in Zukunft in Betracht ziehen.

Grendizer
2017-03-11, 00:21:38
Achtung, das ist natürlich falsch. Du kannst die VMware EVC Settings dann auf AMD ändern falls Du alle Server ersetzt. Und der Performance Impact ist fast nicht feststellbar bei deaktivertem EVC. Trotzdem hast Du recht, ich werde bei meinen Kunden auch nicht umgehend Naples einsetzen. Aber natürlich werde ich das in Zukunft in Betracht ziehen.

Ganz soooo billig wären dann 5 Server auf einmal doch nicht *g*... ich ging davon aus, das im Jahr nur 1-2 Server "aufgefrischt" werden und man dann einen Mischbetrieb hat....

vinacis_vivids
2017-03-11, 00:33:15
Ryzen@Guild Wars 2
https://www.youtube.com/watch?v=UoMWySIOOA8

Einer hat von 3-5 min.fps (2500k) auf 14 min.fps (ryzen1700) aufgerüstet bei schweren Schlachten.

nullpunkt
2017-03-11, 01:01:02
Und da wir ja im Review Thread sind, mein 1700er mit 16gb lpx 3200er und x370 prime ist angekommen.

gefällt mir gut, einbauen, starten, läuft. übertakten, da musste ich erst rasch lesen wie das mit fid und did schon wieder läuft. nun ist er mal bei 3500mhz. bios war 0502 drauf, das update ich morgen.

was am meisten nervt ist die verdammte discobeleuchtung. ist ja schlimm. das board leuchtet in allen farben, der spire kühler rot, die sapphire in blau *g*

dildo4u
2017-03-11, 02:04:57
Ubisoft hat mal weider eine Killer DX11 Engine geschrieben,läuft extrem gut auf 8 Core's selbst bei nur 3.2Ghz und 45 Watt TDP.

https://youtu.be/TOC1qpVxClM

Ryzen@Guild Wars 2
https://www.youtube.com/watch?v=UoMWySIOOA8

Einer hat von 3-5 min.fps (2500k) auf 14 min.fps (ryzen1700) aufgerüstet bei schweren Schlachten.
Opfer vom AMD Treiber,die Performance ist absolut grottig mit der 290.

CompuJoe
2017-03-11, 02:38:04
Opfer vom AMD Treiber,die Performance ist absolut grottig mit der 290.

Bei dem Kampf komme ich bei meinem System aber auch nicht viel besser weg!

Bin mal gespannt wie es bei mir wird, der 1800X und der Speicher liegen schon hier, warte noch auf Kühler und Lieferbarkeit des Mainboards.

Schaffe89
2017-03-11, 08:02:57
DAS ist die Art von Indoktrination, gegen die Ryzen/Naples auf dem professionellen Markt ankommen MUSS. Und sowas entscheidet sich häufig auch einfach nicht über die Leistung, sondern mit welchem Namen mehr Profis in der Umgebung "zufrieden" (wie ich dieses Wort HASSE) sind.

Das ist keine Indoktrination, sondern die Schuld von AMD.
AMD hinkt seit 2005 hinterher, was willst du bitte von ihm hören?
AMD schaltet keine Werbung im Fernsehen, denn selbst wenn AMD jetzt Ryzen hat der konkurrenzfähig ist, kommt keine Werbung im Fernsehen.
AMD kann kein Marketing, weder jetzt noch damals.

Der HT4U Test ist imho ziemlich gut, außer die CPU Spielebenchmarks die sind teilw. durch Limitierung der GPU nicht ganz so realiable.
Trotzdem ist der simulierte 1600x nur 4% hinter dem 1800x.
Und der 7700k 23% vor dem 1800x, während dieser genau gleichauf mit dem 7600k ist.

fondness
2017-03-11, 08:44:15
Schon gepostet? Ht4u hat den ersten (!) Ryzen Test online. Weitere werden folgen.


https://www.ht4u.net/reviews/2017/amd_ryzen_7_1800x_im_test/

Müsste anddill einfügen, ich kann den ersten Beitrag leider nicht mehr bearbeiten....

Sir_Freezer
2017-03-11, 08:45:36
Naja seit 2005 nun defintiv nicht aus technologischer Sicht.
Du übertreibst.

Das Große Geschäft wird aber sowieso im Server- und Enterprise Segment stattfinden und darüber haben ja nun einige auch schon Senf verteilt.
Es bleibt spannend, auch in Bezug auf die Bug-Behebung...

deekey777
2017-03-11, 09:09:17
https://www.guru3d.com/news-story/microsoft-confirms-windows-bug-is-holding-back-amd-ryzen.html

Microsoft scheint sich die Probleme bewusst zu sein.

Digidi
2017-03-11, 10:08:26
Das ist keine Indoktrination, sondern die Schuld von AMD.
AMD hinkt seit 2005 hinterher, was willst du bitte von ihm hören?
AMD schaltet keine Werbung im Fernsehen, denn selbst wenn AMD jetzt Ryzen hat der konkurrenzfähig ist, kommt keine Werbung im Fernsehen.
AMD kann kein Marketing, weder jetzt noch damals.

Der HT4U Test ist imho ziemlich gut, außer die CPU Spielebenchmarks die sind teilw. durch Limitierung der GPU nicht ganz so realiable.
Trotzdem ist der simulierte 1600x nur 4% hinter dem 1800x.
Und der 7700k 23% vor dem 1800x, während dieser genau gleichauf mit dem 7600k ist.
Amd kann kein Marketing?

www.meetwalter.com

Wann hätte Nvidia Mal so eine geile Aktion?

OK. Intel hätte auch schon gute Aktionen.

Isen
2017-03-11, 10:51:41
https://www.pcper.com/reviews/Processors/AMD-Ryzen-and-Windows-10-Scheduler-No-Silver-Bullet

AMD Ryzen and the Windows 10 Scheduler - No Silver Bullet

Editor's Note: The testing you see here was a response to many days of comments and questions to our team on how and why AMD Ryzen processors are seeing performance gaps in 1080p gaming (and other scenarios) in comparison to Intel Core processors. Several outlets have posted that the culprit is the Windows 10 scheduler and its inability to properly allocate work across the logical vs. physical cores of the Zen architecture. As it turns out, we can prove that isn't the case at all. -Ryan Shrout

Screemer
2017-03-11, 11:02:50
Das sieht in sumpfeules gamingtests aber ganz anders aus.

LadyWhirlwind
2017-03-11, 11:18:18
Das sieht in sumpfeules gamingtests aber ganz anders aus.

Können Anwendungen die Threads nicht selber steuern? Bei Game-Engines macht das ja Sinn, weil nicht alle Threads die gleiche Last erzeugen.

Matrix316
2017-03-11, 11:23:47
Kaum vorhanden. Er liest die Branchenzeitschriften die zufällig auf seinem Schreibtisch landen, Heise und manchmal Golem, und damit hat es sich.

Er sieht das eben als Job, kann ich ihm kaum verübeln.

Ich bin auch nicht in der Position ihn mal zu stupfeln, auch wenn ich das trotzdem tue :D
Also ich kann mir überhaupt nicht vorstellen, dass jemand im IT Bereich arbeiten kann ohne sich näher für die Hardware und so zu interessieren oder so. Selbst in der Softwareentwicklung finde ich das komisch, wenn Leute zwar programmieren können aber keine Ahnung haben, welche Grafikkarte oder CPU sie in ihrem Rechner haben.:freak:

Trotzdem hätte ich mir die letzten Jahre auch kein AMD System gekauft. Es sei denn jemand hat akute Geldnot, braucht unbedingt 8 halbe Kerne und hat keine Heizung... :biggrin: aber sonst?

JETZT mit Ryzen wird das natürlich interessanter. Ich glaube zwar nicht, dass große Cloud Rechenzentren umsteigen würden - da zählt Stabilität wirklich alles - aber kleine Firmen die möglichst viele Kerne brauchen...wobei die meistens aber auch möglichst viel RAM brauchen und da könnte das Dual Channel Speicherinterface stören. Oder kriegen die Server Ryzens Quad Channel?

anddill
2017-03-11, 11:37:10
Können Anwendungen die Threads nicht selber steuern? Bei Game-Engines macht das ja Sinn, weil nicht alle Threads die gleiche Last erzeugen.

Ja. Es gibt verschiedene Abstufungen der Kontrolle. Wenn die Anwendung generell oder im speziellen Fall nichts vorgibt oder eine andere Anwendug höhere Priorität anfordert kümmert sich der Sheduler.

uweskw
2017-03-11, 11:44:25
https://www.guru3d.com/news-story/microsoft-confirms-windows-bug-is-holding-back-amd-ryzen.html

Microsoft scheint sich die Probleme bewusst zu sein.
Kann ja dauern bis MS das fixed. Kann AMD nicht einen Win10 Patch/Treiber bringen und die Sache so beschleunigen?

greetz
US

Schnoesel
2017-03-11, 11:48:09
Oder kriegen die Server Ryzens Quad Channel?

Octa-Channel

https://www.computerbase.de/2017-03/amd-naples-cpu-benchmarks/

Digidi
2017-03-11, 11:55:17
http://www.hardware.fr/medias/photos_news/00/53/IMG0053311_1.jpg

Hier noch Mal das Bild von Hardware.fr was Unicus gepostet hat. Bei ryzen sind 4 Kerne mit nur einem Pfad 32 B/cycle an die Data fabric angeschlossen. Bei Intel Broadwell ist, soweit ich weiß, jeder "einzelne" CPU Kern mit 32 B/cycle an den Ringbus angeschlossen.

https://content.hwigroup.net/images/articles/bdw-e-lcc.png

Da ist der grundlegende Unterschied. Wenn da auf Intel optimiert wurde mit dem Ring Bus ist das kein Wunder das es so schlecht läuft für AMD. Mann muss schauen dass alle abhängigen threads auf einem ccx laufen. Bei Intel ist das egal. Wenn man das aber beachtet wird AMD schneller sein als Intel.

Matrix316
2017-03-11, 11:58:01
Octa-Channel

https://www.computerbase.de/2017-03/amd-naples-cpu-benchmarks/
Stimmt ich bin ja blöd. Das hatte ich sogar schon gelesen glaub ich. Ok, wenigstens etwas. :D

tm0975
2017-03-11, 12:33:17
Er hat K8 im Servermarkt aus einer professionellen Perspektive nicht mehr erlebt und die Dozenten im Studium haben Hardware kaum behandelt. Woher also soll er es besser wissen?

Damals war es auch nicht anders. Da hieß es oft, AMD sein nicht kompatibel. Selbst als Intel den AMD64 befehlssatz von AMD übernahm, konnte man sich den Unsinn anhören. AMD sei doch nichts für echte Server...

AMD muss wieder in die Top500 Supercomputer etc

rentex
2017-03-11, 14:22:41
https://m.youtube.com/watch?v=xUNyeuKkXLU

@ 0:58

Ist das jetzt positiv oder negativ? 😂

DanMan
2017-03-11, 15:16:55
https://m.youtube.com/watch?v=xUNyeuKkXLU

@ 0:58

Ist das jetzt positiv oder negativ? 😂
Es ist auf jeden Fall Off-Topic.

Malabolge
2017-03-11, 16:03:09
https://m.youtube.com/watch?v=xUNyeuKkXLU

@ 0:58

Ist das jetzt positiv oder negativ? 😂

Zumindest "günstiger" als Intel :biggrin::D

Schaffe89
2017-03-11, 16:30:46
http://www.zolkorn.com/en/amd-ryzen-7-1800x-vs-intel-core-i7-7700k-mhz-by-mhz-core-by-core-en/view-all/

Core by Core/MHZ by MHZ Vergleich zwischen einem untertaktenen 7700k und einem übertakteten AMD Chip.
Der 7700k gewinnt in Games trotzdem ca um 10%.
Hier braucht AMD definitiv hoch getaktete 6 Kerner um die zwischen den 7600/7700k zu platzieren.
Ein 7700k wird wohl etwa 30% schneller sein als ein 1200x, dafür ist man in Anwendungen sehr gut.

Winrar enttäuscht aber.

BlacKi
2017-03-11, 16:38:17
da der 1600(x) komplett andere preislage hat und wohl nicht mehr als 4ghz drinn sind passt das doch mit 260$.

Der_Korken
2017-03-11, 16:50:42
Es wurde ja schon gesagt, dass die Sechskerner mit großer Wahrscheinlichkeit nicht höher takten werden als die Achtkerner, da es der gleiche Die ist und beim OC nicht der Verbrauch/die Hitze limitiert, sondern irgendwelche kritischen Pfade im Chip, die auch mit großer Spannungszugabe nicht wirklich schneller werden. Dennoch wäre ein 6C/12T-Chip mit 3,8Ghz für 250€ ein hervorragender Konkurrent für den 7600K.

Linmoum
2017-03-11, 17:04:08
AMD braucht keine hochtaktenden CPUs. Zumal entscheidend hinzukommt, dass das einfach (noch) nicht möglich ist. Die magische Grenze liegt momentan bei rund 4GHz, auf mehr braucht man vorerst gar nicht hoffen.

Wer hohen Takt will, der ist bei Intel besser aufgehoben. Wer ein rundes Gesamtpaket mit sehr gutem P/L-Verhältnis will, ist es bei Ryzen.

tm0975
2017-03-11, 17:12:40
Ganz soooo billig wären dann 5 Server auf einmal doch nicht *g*... ich ging davon aus, das im Jahr nur 1-2 Server "aufgefrischt" werden und man dann einen Mischbetrieb hat....

Wenn das auffrischen dann immer so geht. Bei unseren Kunden (Data warehouse Anwendungen) ist in der Vergangenheit immer die RAM limitierung der Grund gewesen, die Server zu ersetzen. Allerdings hat sich das in den letzten Jahren etwas entspannt, da Dank niedriger RAM Preise und guter bestückbarkeit fast immer 256 GB Installationen angeschafft wurden. Vom San sind wir wieder weg, das ist für uns eine zu große Bremse. Pcie ssds sind mittlerweile das grösste Argument für eine Neuanschaffung. Daher finde ich naples schon sehr beeindruckend. Dual 8Kern reicht von der CPU her für uns allemal aus.

@schaffe vergiss Winrar als CPU Test. Nimm 7zip und die Ergebnisse sind ganz andere und vor allem schlüssigere. Winrar testet nur der, der will das Intel 4 kerner gewinnt 😋

gmb
2017-03-11, 18:02:03
http://www.zolkorn.com/en/amd-ryzen-7-1800x-vs-intel-core-i7-7700k-mhz-by-mhz-core-by-core-en/view-all/

Core by Core/MHZ by MHZ Vergleich zwischen einem untertaktenen 7700k und einem übertakteten AMD Chip.
Der 7700k gewinnt in Games trotzdem ca um 10%.
Hier braucht AMD definitiv hoch getaktete 6 Kerner um die zwischen den 7600/7700k zu platzieren.
Ein 7700k wird wohl etwa 30% schneller sein als ein 1200x, dafür ist man in Anwendungen sehr gut.

Winrar enttäuscht aber.


Die haben aber auch mit virtuellen cores getestet und bei den gaming Tests ist mal wieder unklar, ob hier nicht die GPU im großen Maß bessere Werte verhindert. Das ist sehr wahrscheinlich der Fall bei den knappen Abständen. Ein gut gemeinter Test, nur bei der Ausführung hapert es.

y33H@
2017-03-11, 18:11:55
Gerade den HT4U-Test durchgelesen: Der 1800X profitiert dort in Spielen oft deutlich (teils bis zu +12 %) durch DDR4-3200.

robbitop
2017-03-11, 19:05:18
Schön wäre, wenn der Memory Controller eine eigene Clock Domain hätte. Dann wäre man weniger abhängig vom Board und Speicher in Bezug auf die Senkung der Latenz. Ich hoffe, dass dieser in RR und PR deutlich höher (und unabhängig vom RAM) taktet. Analog Intel.

Was ich allerdings nicht verstehe, warum sinkt die gemessene Latenz vom L3 in Aida(?) wenn der Memorycontroller/Fabric höher taktet? Der L3 läuft doch mit vollem Takt. Oder waren das Messfehler (noch nicht vollständige Unterstützung von SR?)?

Gipsel
2017-03-11, 19:37:16
Was ich allerdings nicht verstehe, warum sinkt die gemessene Latenz vom L3 in Aida(?) wenn der Memorycontroller/Fabric höher taktet? Der L3 läuft doch mit vollem Takt. Oder waren das Messfehler (noch nicht vollständige Unterstützung von SR?)?Ja, AIDA mißt im L3 momentan Schrott (die gemessenen Latenzen ändern sich auch mit der Coreanzahl, laut Aida hätte die 3+3 Konfig massiv niedrigere L3-Latenzen, was natürlich nicht stimmt, k.A. was die da machen). Die L3-Latenzen sind in Wahrheit über die vollen 8MB in einem CCX praktisch konstant (40 Takte).

Was der PCPer-Test übrigens recht gut aufzeigt, sind die verschiedenen Kompromisse bei intel und AMD bei der Skalierung der Kernanzahlen. Während bei AMD die Kommunikation innerhalb eines eng gekoppelten CCX ziemlich fix ist (praktisch doppelt so schnell wie bei intels 8-Kernern), wird es dann bei CCX-übergreifenden Zugriffen deutlich langsamer (intel ist da dann etwa doppelt so schnell). Allerdings wird der Aufwand für so einen Ringbus immer größer, wenn man gleichbleibend niedrige Latenzen erreichen will. Praktisch werden die immer schlechter, je größer der Ring wird (weswegen intel auch bei den HCC-Modellen 2 Partitionen mit jeweils eigenen Ringen verbaut). Kurz: Ein Ringbus skaliert nicht wirklich gut zu hohen Kernzahlen (oder man betreibt richtig großen Aufwand), andere Konzepte erscheinen irgendwann günstiger (insbesondere, falls man die Software darauf anpassen kann). Im einfachsten Fall partitioniert man und koppelt mehrere Ringe zu einem Zylinder/Torus, wie intel das bei den HCC-Modellen macht (auch wenn das da mit nur 2 Verbindungen zwischen den Ringen etwas degeneriert ist).

AMD hat sich dafür entschieden, größere CPUs modular aus CCX mit 4 eng gekoppelten Kernen aufzubauen. Man bezahlt den Schritt über ein CCX hinaus offenbar mit einem signifikanten Latenzzuwachs. Hier wird es bei Snowy Owl und Naples spannend zu sehen, ob das eher ein "one off" Penalty ist, sprich ob man die Kommunikation im Package zwischen den Dies ähnlich schnell abwickeln kann wie on-Die zwischen den CCX. Prinzipiell bieten die GMI-Links für die Kommunikation im MCM die Möglichkeit, ein Mesh für die 4 Dies / 8 CCX (potentiell mehr) zu haben, was eine sehr hohe aggregierte interne Bandbreite besitzt (die wächst anders als bei einem Ringbus mit der Anzahl der verlinkten Dies). Dies könnte also zum Preis des Hits beim Schritt von 4 auf 8 Kerne darüber hinaus sehr gut skalieren. Die Behauptungen von AMD zu Naples gehen ja ein wenig in die Richtung. Wir werden es sehen.

=Floi=
2017-03-11, 20:07:40
könnte das mit der anforderung zu tun haben, dass low latency eher bis 4 kerne benötigt wird und die multicore sachen eher high latency sind?

iuno
2017-03-11, 20:12:43
Was der PCPer-Test übrigens recht gut aufzeigt, sind die verschiedenen Kompromisse bei intel und AMD bei der Skalierung der Kernanzahlen. Während bei AMD die Kommunikation innerhalb eines eng gekoppelten CCX ziemlich fix ist (praktisch doppelt so schnell wie bei intels 8-Kernern), wird es dann bei CCX-übergreifenden Zugriffen deutlich langsamer (intel ist da dann etwa doppelt so schnell).
Mich wuerde das Ergebnis des Tests mal auf einer Intel HCC mit 2 Ringbussen interessieren. Und ob es etwa im Linux Kernel entsprechende Aenderungen gab, die eine Migration zwischen "weiter entfernten" (in verschiedenen Ringbussen) Kernen vermeiden sollen.

Digidi
2017-03-11, 21:19:37
@gipsel

Ich verstehe den Ringbus von Intel nicht. Müsste man da nicht verschiedene Latenzen zwischen den physichen Kernen sehen. Z.B. liegt der Kern 2 direkt neben Kern 1, Kern 4 ist aber 3 Kerne entfernt von Kern 1.

So wie ich den Ringbus verstanden haben wird bei jedem Takt das Datenpaket einen Kern weiter geschoben, bis es beim jeweiligen Kern ankommt. Es würde also bei einer Kommunikation zwischen den physichen Kernen​ 1 und 4, drei Takte länger dauern bis das Paket da sind.

Oder was verstehe ich da falsch?

Skysnake
2017-03-11, 22:08:33
Nein das ist so. Allerdings muss man mit fences oder Flash arbeiten, damit man nicht vom ooO Design ausgetrickst wirst

Ansonsten musst du auch mit Cache cohärenz traffuc rechnen was alles nochmals glättet.

anddill
2017-03-12, 00:59:37
https://www.pcper.com/reviews/Processors/AMD-Ryzen-and-Windows-10-Scheduler-No-Silver-Bullet

AMD Ryzen and the Windows 10 Scheduler - No Silver Bullet

So, hab mir das jetzt mal durchgelesen. Irgend jemand hatte ja hier schon mal die schönen bunten Diagramme gepostet, aber ohne den ersten Teil des Artikels machen die leider wenig Sinn, und sagen vor allem nichts zur Kernfrage aus.
Es sieht also tatsächlich so aus daß Ryzen zumindest grundsätzlich richtig von Win 10 erkannt und angesprochen wird. Gut daß es da also kein größeres Problem gibt, schlecht daß da also nicht relativ simpel noch viel zu holen ist.

Und meine Theorie mit der Verwechselung mit Bulldozer gehört dann auch aus der Luftschleuse geschmissen.

N0rG
2017-03-12, 01:28:48
aber wie kommt dann die differenz zu win7 zustande?

DerKleineCrisu
2017-03-12, 07:03:12
aber wie kommt dann die differenz zu win7 zustande?

Das würde ich auch nun gerne Wissen, es ist doch schon merkwürdig das
unter Windows 7 andere teilweise bessere Brechmark Werte rauskommen
bei Spiele als bei Windows 10.
Es musst doch also bei Windows 10 etwas falsch laufen, sonst hätte
doch nicht auch ein Microsoft MA nicht gesagt das da ein " Bug " ist.

Macht irgendwie keinen richtigen Sinn sonst.
Auf der einen Seite der Artikel, juble Trubel Heiterkeit alle ist gut
auf der anderen Seite " da ist ein Bug ". :confused:

Fabian_HT4U
2017-03-12, 08:26:38
Schön wäre, wenn der Memory Controller eine eigene Clock Domain hätte. Dann wäre man weniger abhängig vom Board und Speicher in Bezug auf die Senkung der Latenz. Ich hoffe, dass dieser in RR und PR deutlich höher (und unabhängig vom RAM) taktet. Analog Intel.

Was ich allerdings nicht verstehe, warum sinkt die gemessene Latenz vom L3 in Aida(?) wenn der Memorycontroller/Fabric höher taktet? Der L3 läuft doch mit vollem Takt. Oder waren das Messfehler (noch nicht vollständige Unterstützung von SR?)?
Der Takt des Memory Controller ist imho gar nicht mal so entscheidend. Im Bezug auf die Latenzproblematik ist von viel größerer Bedeutung, dass die Infinity Fabric auch nur mit Speichertakt läuft, also jenes Interface, was die Kommunikation zwischen den CCX und damit auch zwischen den L3-Cache Blöcken übernimmt. Sehr anschaulich wird dies an der von digidi geposteten Grafik :smile::
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11317072#post11317072
Ich denke AMD hat hier schlicht einen Kompromiss geschlossen aus Kosten, Energiebedarf, Platzbedarf und Performance.

Aber zurück zur Frage. Wenn der Speichertakt steigt, steigt der Takt des CCX-Interface und damit sinkt die Latenz bei einem Zugriff auf einen entfernten L3-Block. Daher sinkt damit die "durchschnittliche" L3-Latenz. Wie bekannt mögen Spiele (und auch Packer) schnelle und große L3-Caches, daher sehe ich hier einen Hauptgrund warum gerade Spiele so gut auf einen höheren Speichertakt reagieren.

Eine ebenfalls interessante Frage in diesem Zusammenhang ergibt sich aus einem ganz anderen Design-Punkt bei Zen/Ryzen. Jeder L3-Block taktet so schnell, wie der schnellste Kern im CCX. Bei einer klassischen Single-Threaded Latenzanalyse dürfte also ein L3-Block (im nicht verwendeten CCX) deutlich langsamer sein, was zusätzlich die Latenzen erhöht. Fazit: In der Praxis, bei vernünftiger Auslastung, könnte der Nachteil weit kleiner sein, als es viele Latenzanalyse-Tools zeigen. Darum: Man sollte diese Auslese-Software nicht überbewerten. Am Ende zählt einfach dass was hinten rauskommt, und das ist doch in aller Regel sehr positiv :smile:

Grüße
Fabian

robbitop
2017-03-12, 08:57:58
Ja da hast du Recht. Allerdings zeigt die überdurchschnittlich gute Skalierung der Leistung mit dem Speichertakt, dass die CPU etwas mehr schaffen würde - also zurückgehalten wird.. Entweder von der Latenz zum RAM oder der Bandbreite/Latenz zwischen den CCX. Hier könnte man die Skalierung des Speichertakts mit nur einem aktiven CCX messen. Auch Spaßeshalber (zusätzlich) wie die Skalierung von CCX und Speichertakt bei deutlich gesenkten CPU Takt (1-2 GHz) aussieht. Wie sehr bremst es jetzt noch? Damit könnte man Rückschlüsse ziehen, was Ryzen an Memclk/fabric clk bräuchte, um bei aktuellwn Frequenzen gesättigt zu sein und man könnte das Verhältnis so weit verschieben um zu extrapolieren, wie weit er aktuell dadurch zurück gehalten wird.

Grendizer
2017-03-12, 09:25:03
Ich habe mir endlich mal Star Citizen runtergeladen. Aber ich bekomme in very high auf der Raumstation mit einer 1080 und einem 1700X nur 21 fps. Das schockt mich ein wenig.

BigKid
2017-03-12, 09:30:33
Ich habe mir endlich mal Star Citizen runtergeladen. Aber ich bekomme in very high auf der Raumstation mit einer 1080 und einem 1700X nur 21 fps. Das schockt mich ein wenig.
StarCitizen hängt nicht an der CPU und nicht an der GPU - StarCitizen krankt am aktuellen Stand seines Netcodes... Ich glaube die 21fps haben nix mit Ryzen zu tun und damit solltest du in den SC Thread... Aber vorsicht... nicht zu negativ auftreten sonst bist sofort ein Hater ;)

DerKleineCrisu
2017-03-12, 09:35:50
StarCitizen hängt nicht an der CPU und nicht an der GPU - StarCitizen krankt am aktuellen Stand seines Netcodes... Ich glaube die 21fps haben nix mit Ryzen zu tun und damit solltest du in den SC Thread... Aber vorsicht... nicht zu negativ auftreten sonst bist sofort ein Hater ;)


Richtig das hat nix mit der CPU zu tun, ist ein Star Citizen problem.;)

nagus
2017-03-12, 09:46:16
Quake 2 - Ryzen vs. Core i7 (https://www.youtube.com/watch?v=oMNFoNtKCR8)

:biggrin:

Gipsel
2017-03-12, 10:16:41
Quake 2 - Ryzen vs. Core i7 (https://www.youtube.com/watch?v=oMNFoNtKCR8)

:biggrin:Endlich packt einer mal die wirklich wichtigen Benchmarks im CPU-Limit an! ;D

MadCat
2017-03-12, 10:21:32
Ich habe mir endlich mal Star Citizen runtergeladen. Aber ich bekomme in very high auf der Raumstation mit einer 1080 und einem 1700X nur 21 fps. Das schockt mich ein wenig.
Gehe in den Hangar. Da solltest Du eher die Leistung des Systems abschätzen können. Lass dir dein größtes Schiff in den Hangar stellen und schau, was für FPS Du da hast.
Wie die anderen schon sagten, der Netcode im MP ist die limitierende Ursache.

Mal gespannt, wie es wird, wenn ich meinen 1800x mit Vega habe.

@Benchmarkunterschiede Win7/Win10

Hat sich noch keiner die Mühe gemacht auch mal Win8 und Win8.1 dahingehend zu checken!?

Mika2016
2017-03-12, 13:20:01
Quake 2 - Ryzen vs. Core i7 (https://www.youtube.com/watch?v=oMNFoNtKCR8)

:biggrin:

Der beste Test, den ich bislang gesehen habe ;)

MechWOLLIer
2017-03-12, 13:57:04
aber wie kommt dann die differenz zu win7 zustande?
Das hat einen einfachen, viel simpleren Grund. Und generell die Aussage für Spiele zu treffen ist...sehr gefährlich. More coming soon.

Matrix316
2017-03-12, 14:19:29
Warums kaum Mainboards gibt:

In general, it’s been too long for AMD to launch a new CPU, so they forgot how to do it, so they launched the CPU just like they were launching the graphics card. They didn’t care about the platform eco-system, so the eco-system is suffering and stock is delayed.
Read more at http://www.legitreviews.com/one-motherboard-maker-explains-why-amd-am4-boards-are-missing_192470#8kXU60zlDpL2Kbbw.99

Unicous
2017-03-12, 14:31:27
Ein User hat bei P3DNow Shoplistungen von Ryzen 5 Modellen (1400, 1500X, 1600, 1600X) gepostet.


59173

http://www.planet3dnow.de/vbulletin/threads/421433-AMD-Zen-14nm-8-Kerne-95W-TDP-DDR4?p=5143692&viewfull=1#post5143692

horn 12
2017-03-12, 15:05:02
@Matrix, Unicous

Was steht da bitte auf Deutsch drinnen und kommen die Neuen weiteren CPU recht schnell auf den Markt? --- April bereits, oder gar früher?

iuno
2017-03-12, 15:23:11
Ein User hat bei P3DNow Shoplistungen von Ryzen 5 Modellen (1400, 1500X, 1600, 1600X) gepostet.


59173

http://www.planet3dnow.de/vbulletin/threads/421433-AMD-Zen-14nm-8-Kerne-95W-TDP-DDR4?p=5143692&viewfull=1#post5143692
Meinst du die Angaben stimmen auch?
Dann waere ab dem 1500X (4 Kerner) jeweils der komplette L3$ aktiv:eek:

Grabhopser
2017-03-12, 15:24:32
Der 1400er angeblich mit 10 MB Cache(->4+0) und der 1500er mit 18MB(->2+2)....

Wenns stimmt sehr interessant :biggrin:


Edit:
Damit man auch alle möglichen Defekte verwerten kann :wink:

nikk
2017-03-12, 16:01:28
In Tomb Raider ohne SMT ist W7 im Durchschnitt 7% schneller (414,5fps).
Mit SMT ist W7 13% schneller und die durchschnittliche Bildrate steigt auf 432,8 fps. Die 0%-Threads bleiben (wie in CS:GO) konstant. In W10 hingegen gibt es überhaupt keine 0%-Threads und sind es 386,8 fps ohne SMT und 382,6 fps mit SMT.
https://www.youtube.com/watch?v=U9DE83lMVio

Lowkey
2017-03-12, 16:08:34
Das kann doch nicht sein, dass das Niemandem vorher aufgefallen ist?

aufkrawall
2017-03-12, 16:11:09
So wie bei der 970, bei der bei vielen Spielen einfach der VRAM-Verbrauch nicht über 3,5GB gehen wollte?

w0mbat
2017-03-12, 16:13:38
Der 1400er angeblich mit 10 MB Cache(->4+0) und der 1500er mit 18MB(->2+2)....

Wenns stimmt sehr interessant :biggrin:


Edit:
Damit man auch alle möglichen Defekte verwerten kann :wink:

D.h., der 1400er ist besser, weil er nicht das langsame CCX hat?

Linmoum
2017-03-12, 16:19:41
In Tomb Raider ohne SMT ist W7 im Durchschnitt 7% schneller (414,5fps).
Mit SMT ist W7 13% schneller und die durchschnittliche Bildrate steigt auf 432,8 fps. Die 0%-Threads bleiben (wie in CS:GO) konstant. In W10 hingegen gibt es überhaupt keine 0%-Threads und sind es 386,8 fps ohne SMT und 382,6 fps mit SMT.
https://www.youtube.com/watch?v=U9DE83lMVio
Bin mal gespannt, was da noch kommt. Und wieder waren es die User, die solch ein Phänomen zuerst entdeckt haben.

Dino-Fossil
2017-03-12, 16:46:43
Warums kaum Mainboards gibt:

Wenn's stimmt - angeblich ist die Quelle ein Mitarbeiter bei einem der Board-Hersteller, könnte natürlich auch fake sein.
Wenn er die Wahrheit sagt, dann träfe die Hersteller mMn allerdings eine Teilschuld, da die Quelle selbst sagt, sie waren vor Ryzen voll auf Intel's KL-Launch fixiert und hätten für AMD eh keine Ressourcen erübrigt.

Gipsel
2017-03-12, 16:48:25
Warums kaum Mainboards gibt:
Zitat eines anonymen Mainboard-Herstellers aus dem Artikel:
It’s all about the bad coordination, bad communication, bad support and bad timing to launch this platform in my opinion. With all these issues, none of us could start manufacture the boards sooner. Also, in January and February, all board vendors’ production lines were occupied with Intel 200 series boards before Chinese New Year and tried to ship as much boards as we can to ensure we won’t have stock issues while Asia was on New Year vacation.Also haben sie den intel-Boards eine höhere Priorität eingeräumt. Das liegt dann ja wohl in ihrer eigenen Verantwortung.
In late December, AMD decided to pull in the launch date (it was scheduled to launch in late Q2) and launched it right after Chinese New YearAnvisiertes Launchdatum soll Ende Q2 gewesen sein? Das ist ja wohl mal klar als Bullshit zu bezeichnen. Es ist schon vor einem halben Jahr Q1 offiziell (von Lisa Su persönlich) ausgerufen worden. Wenn sich etwas verschoben hat, dann maximal ein paar Wochen nach hinten (man wollte eher früher in Q1 starten mit der Option auf Ende Q4/16).

Daß eine bessere Unterstützung seitens AMD eventuell möglich gewesen wäre, kann schon sein. Aber das da oben sind zum Teil fadenscheinige Begründungen. Die MB-Hersteller selber haben dem Ganzen keine Priorität gegeben (wie dem Zitat ja zu entnehmen!). Dann die Schuld (ausschließlich?) bei AMD zu suchen, läßt jede Selbstkritik vermissen und ist wenig glaubhaft.
AM4 als solches ist im Prinzip im letzten Sommer gestartet (im kleinen Maßstab, hauptsächlich für OEMs). Jetzt gab es neue Chipsätze und neue CPUs, die Anlaß waren, neue Boards breiter aufzulegen. Die final aussehenden Boarddesigns an sich existierten ja offenbar bereits im Dezember 2016/Januar 2017 und Samples geisterten auch schon eine Weile durch die Gegend. Da haben die MB-Hersteller also auch einen gewissen Anteil an der Situation, wenn sie sich laut eigener Aussage im Januar und Februar darauf konzentrierten, die intel Z270-Boards rauszuhauen und dafür dann die Arbeit an den AM4-Boards schleifen ließen.

Hasenpfote
2017-03-12, 17:05:14
Warums kaum Mainboards gibt: http://www.legitreviews.com/one-moth...0zlDpL2Kbbw.99Was für ein Blödsinn! Wie lange gibt es die AM4-Platform? September 2016 wurde die mit Bristol Ridge angekündigt.
AMD hatte schon im Oktober gesagt, dass Ryzen in Q1 kommt (https://www.guru3d.com/news-story/amd-ceo-lisa-su-reconfirms-zen-release-in-q1-2017.html), aber die Boardhersteller sind natürlich TOTAL überrascht undbehaupten, das wäre erst im Dezember gesagt worden.
Ich glaube der wirkliche Grund für den Mangel an Boards ist der Folgende (und wenigstens waren sie da ehrlich): Also, in January and February, all board vendors’ production lines were occupied with Intel 200 series boards before Chinese New Year and tried to ship as much boards as we can to ensure we won’t have stock issues while Asia was on New Year vacation.Die haben einfach nicht erwartet, dass AMD da mit einer konkurrenzfähigen CPU kommt und und es Nutzer gibt, die das auch kaufen. Frage ist natürlich: Wieso wussten sie das nicht? Hatten die keine CPUs oder nur extrem niedrig getaktete Engineering Samples, damit niemand was an Intel verpetzt? Oder war das ne Retourkutsche von AMD, dafür das die Hersteller AMD seit Jahren links liegen lassen (z.B. im Notebook-Segment), obwohl konkurrenzfähige Hardware da ist?
Und wieder waren es die User, die solch ein Phänomen zuerst entdeckt haben.Du erwartest doch nicht, dass Redaktionen im Sinne der Kunden vor Win10 warnen, oder? Schließlich kann es ja nur gut sein, wenn ein Weltkonzern seine zentrale Software kostenlos abgibt. Ich find es geil, dass Ryzen unter Win7 besser läuft. Wenn ich mein System aufsetze muss ich schauen, welche Win7-Updates ich installiere. Nicht, dass da eins bei ist, welches den Scheduler oder andere Bereiche "optimiert" ;D
Das hat einen einfachen, viel simpleren Grund.Die Überwachungssoftware auf Win10 lastet 7 Kerne voll aus, sodass beim Ryzen nur ein Kern die Möglichkeit hat, was Sinnvolles zu tun?

edit: Gipsel war schneller. :D

just4FunTA
2017-03-12, 17:23:17
In Tomb Raider ohne SMT ist W7 im Durchschnitt 7% schneller (414,5fps).
Mit SMT ist W7 13% schneller und die durchschnittliche Bildrate steigt auf 432,8 fps. Die 0%-Threads bleiben (wie in CS:GO) konstant. In W10 hingegen gibt es überhaupt keine 0%-Threads und sind es 386,8 fps ohne SMT und 382,6 fps mit SMT.
https://www.youtube.com/watch?v=U9DE83lMVio

Die GPU taktet im wìn7 benchmark mit 1.8ghz und win10 mit 1.5ghz auf solche Dinge muss man beim benchen achten sonst ist der benchmark wertlos.

aufkrawall
2017-03-12, 17:26:57
Nein. Der Tester (und ich auch) haben schon im passenden Thread beschrieben, warum der GPU-Takt im CPU-Limit keine Rolle spielt.

AnnoDADDY
2017-03-12, 17:27:11
Die GPU taktet im wìn7 benchmark mit 1.8ghz und win10 mit 1.5ghz auf solche Dinge muss man beim benchen achten sonst ist der benchmark wertlos.
Und warum taktet sie unter win7 höher? Weil sie mehr gefordert wird da das ganze komplett im CPU Limit ist!

Edit: aufkrawall war schneller...

just4FunTA
2017-03-12, 17:32:45
Nein. Der Tester (und ich auch) haben schon im passenden Thread beschrieben, warum der GPU-Takt im CPU-Limit keine Rolle spielt.
Dann ist es ja kein Problem darauf zu achten das der Takt in beiden Benchmarks gleich ist.

dildo4u
2017-03-12, 17:35:49
Dann ist es ja kein Problem darauf zu achten das der Takt in beiden Benchmarks gleich ist.
Geht nicht da man den Boost bei Nvidia nicht festtackern kann.Wenn die CPU mehr fps liefern kann taktet die Karte automatisch höher.

DanMan
2017-03-12, 17:37:36
Ich find es geil, dass Ryzen unter Win7 besser läuft.
Das stimmt so pauschal ja auch wieder nicht. Kommt auf das Spiel an, wie man am Deus Ex Bench vom gleichen Youtuber sieht.

vinacis_vivids
2017-03-12, 17:42:21
Das stimmt so pauschal ja auch wieder nicht. Kommt auf das Spiel an, wie man am Deus Ex Bench vom gleichen Youtuber sieht.

Deux Ex@DX12? Mit ner Nvidia-Karte wunderts auch niemanden.

dildo4u
2017-03-12, 17:48:26
Deux Ex@DX12? Mit ner Nvidia-Karte wunderts auch niemanden.
Der Bench ist GPU Limitiert egal ob man AMD oder Nvidia nutzt.
Außerdem performt NV gut unter DX12 mit dem neuen Treiber.

https://www.bit-tech.net/hardware/graphics/2017/03/09/nvidia-geforce-gtx-1080-ti-review/6

vinacis_vivids
2017-03-12, 17:59:49
Der Bench ist GPU Limitiert egal ob man AMD oder Nvidia nutzt.
Außerdem performt NV gut unter DX12 mit dem neuen Treiber.

https://www.bit-tech.net/hardware/graphics/2017/03/09/nvidia-geforce-gtx-1080-ti-review/6

Sehe da keine DX11 Werte zum Vergleich... DX12 performt bei allen Spielen bei Nvidia nach wie vor schlechter.