PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen Desktop APU (Raven Ridge) - Reviews


Seiten : 1 [2] 3

Relic
2018-02-18, 01:54:59
naja HDMI 2, DP 1.4 vielleicht/hoffentlich und sicher auch weitere kleine Annehmlichkeiten

HDMI 2.0 haben auch die 3er Chipsätze schon.. auch wenns laut datenblätter nur 1.4 ist:

https://smallformfactor.net/forum/threads/raven-ridge-hdmi-2-0-compatibility-1st-gen-am4-otherboard-test-request-megathread.6709/

Pirx
2018-02-18, 09:52:58
HDMI 2.0 haben auch die 3er Chipsätze schon.. auch wenns laut datenblätter nur 1.4 ist:

https://smallformfactor.net/forum/threads/raven-ridge-hdmi-2-0-compatibility-1st-gen-am4-otherboard-test-request-megathread.6709/
AHA thx!

Gorkon
2018-02-18, 12:37:16
So, UEFI vom Wohnzimmer-PC aktualisiert (AB350M Pro4 - 4.63 Beta), Bristol Ridge ausgebaut, Ryzen 5 2400G rein...und läuft.

Auf den ersten Blick keine großen Auffälligkeiten und auch keine Instabilitäten, Blue/BlackSOD, etc. Ganz sicher ist nur, dass RR unbedingt aktuelle GPU-Treiber braucht :freak: Man merkt schon, dass die Treiber irgendwie noch Beta und ein älterer Branch sind.

Der CPU-Teil läuft dagegen recht gut. Hab mich schon mal an leichtes OC+UV gemacht und steh atm bei 3,8GHz bei 1,2V (Default Vcore == 1,35V). Das schafft dann auch der Wraith Spire (übrig vom R5 1600 von der Holden) mit 68°C bei Prime95 (21°C Raum)...ausgelesen mit HWInfo.

Das einzige was aber unverändert ist...RAM. Die beiden 8GB G.Skill Aegis (3000er) laufen mit 2933 2800MHz ohne Probleme, 3066 macht schon Boot-Probleme. Ist halt Hynix...aber war ja alles bekannt. Ryzen will halt unbedingt Samsung-ICs und das Asrock-Board ist halt auch kein CH6 ;)

Trotzdem erstmal zufrieden mit der Kiste. Der Leistungssprung von BR > RR ist schon enorm...

EDIT: 2933MHz machen doch ab und an Probleme. Mit 2800MHz aber dafür scharfen Timings ist die Kiste bisher stabil. Kein Hynix-RAM für SR/RR :unono:

Megamember
2018-02-18, 12:52:10
STreamer RAwiioli hat gestern ca. 5 Stunden den 2200G getestet incl. Übertakten, Köpfen, Temps, viele Games usw. War sehr interessant auch weil es selbst son richtig bodenständiger Nerd bei dem nix gestellt ist ;)

https://www.twitch.tv/rawiioli/videos/all

steve.it
2018-02-18, 13:17:11
Passt vielleicht besser in diesen Thread.

In der aktuellen c't wurden drei B350-Boards getestet. Das Gigabyte GA-AB350N-Gaming WIFI (Mini-ITX) hat ziemlich gut abgeschnitten. Im Leerlauf nur 19W Verbrauch mit Ryzen 5 2400G, 16 Gbyte DDR4-2666-RAM und einer SATA-6G-SSD.


Asus ROG Strix B350-F Gaming
Soft-Off (mit ErP) / Energie sparen: 1,3W (0,5 W) / 1,8W
Leerlauf / Vollast: 24 W / 120 W

MSI B350M-MORTAR
Soft-Off (mit ErP) / Energie sparen: 0,7W (0,3 W) / 1,7W
Leerlauf / Vollast: 21 W / 119 W

Gigabyte GA-AB350N-Gaming WIFI (Mini-ITX)
Soft-Off (mit ErP) / Energie sparen: 1,5W (0,3 W) / 1,7W
Leerlauf / Vollast: 19 W / 117 W


Ist Meltdown und Spectre kein Argument?
Hier steht AMD vergleichsweise gut da.

Igor TH
2018-02-19, 06:45:55
Kopflos, aber mal etwas ausführlicher:

AMD Ryzen 5 2400G geköpft: Original gegen Wärmeleitpaste und Flüssigmetall (http://www.tomshardware.de/amd-apu-gekoepft-messungen-temperaturen,testberichte-242451.html)

maguumo
2018-02-19, 07:17:39
Klasse Artikel. Gibt es zwischen Liquid Metal/GaIn Legierungen und Lot noch einen erwähnenswerten Unterschied? Die theoretische Wärmeleitfähigkeit ist mehr als doppelt so hoch. Aber selbst verlöten ist wohl eh eher nicht drin.

Igor TH
2018-02-19, 07:24:01
Der Unterschied sollte überschaubar ausfallen, so dünn, wie die Schicht ist. Ich hatte früher mal so Metall-Folie zum Einbrennen (Schmelzen), die war sogar schlechter. Das Problem ist ja, dass man genaugenommen sogar zwei Schichten braucht, wenn man es industriell lösen will.

Messias
2018-02-19, 09:40:13
Hab mir gestern mein Testsystem mit R5 2400G, MSI B350 PC Mate, 8GB Crucial DDR 2400 und 128GB SSD zusammengeschraubt.
Win10 neu aufgesetzt, aktuelle RR Treiber von AMD geladen.
MB BIOS ist vom 28.1.
Läuft soweit.
Aber: Beim Testen mit Firestrike kommen nur müde 1650 Punkte raus, bzw RAM übertaktet auf 3200 sind es 2200 Punkte.
In den Reviews waren es aber zwischen 3500 und RAM übertaktet deutlich über 4000 Punkte.
Jemand ne Idee, woran es hapert?

Pirx
2018-02-19, 09:53:10
Dual Channel? Ist es wirklich das neueste Bios?

pilzsammler2002
2018-02-19, 09:53:40
mit Firestrike kommen nur müde 1650 Punkte raus, bzw RAM übertaktet auf 3200 sind es 2200 Punkte.
In den Reviews waren es aber zwischen 3500 und RAM übertaktet deutlich über 4000 Punkte.
Jemand ne Idee, woran es hapert?

Schau dir Mal die Frametimes an ob er zwischendurch immer für eine Sekunde hängt :)

Wenn ich bei mir den Turbo ausmache läuft er 99% stabiler :)

Messias
2018-02-19, 10:03:35
Gibt zumindest kein Neueres.
Ja, dual Channel macht sicher was aus. Aber die Tester hatten ja gleich 100 Prozent Mehrleistung.

dildo4u
2018-02-19, 10:06:33
Ohne Dual Channel machen die Werte komplett Sinn.Auch die CPU wird extrem langsam sein Ryzen braucht ca DDR4 3000 im Dual Channel bis er Optimal läuft.

Messias
2018-02-19, 10:17:10
Ohne Dual Channel machen die Werte komplett Sinn.Auch die CPU wird extrem langsam sein Ryzen braucht ca DDR4 3000 im Dual Channel bis er Optimal läuft.

Ernsthaft? Nur 50 Prozent der Leistung wegen single statt dual Channel?
Ich teste heute Abend mal mit dem RAM aus dem Spielesystem. Das sind zwei 3000er Riegel.
Aber nur halbe Leistung kann ich kaum glauben...

dildo4u
2018-02-19, 10:18:51
Ernsthaft? Nur 50 Prozent der Leistung wegen single statt dual Channel?
Ich teste heute Abend mal mit dem RAM aus dem Spielesystem. Das sind zwei 3000er Riegel.
Aber nur halbe Leistung kann ich kaum glauben...
https://youtu.be/vjjcXZGdJCU

http://abload.de/img/dualrakvu.png

Megamember
2018-02-19, 10:40:47
Hab mir gestern mein Testsystem mit R5 2400G, MSI B350 PC Mate, 8GB Crucial DDR 2400 und 128GB SSD zusammengeschraubt.
Win10 neu aufgesetzt, aktuelle RR Treiber von AMD geladen.
MB BIOS ist vom 28.1.
Läuft soweit.
Aber: Beim Testen mit Firestrike kommen nur müde 1650 Punkte raus, bzw RAM übertaktet auf 3200 sind es 2200 Punkte.
In den Reviews waren es aber zwischen 3500 und RAM übertaktet deutlich über 4000 Punkte.
Jemand ne Idee, woran es hapert?

vram Zuweisung im Bios auf 2Gig? Und ja, mit Single statt Dual Channel sink die Leistung ins Bodenloose.

Pirx
2018-02-19, 10:47:12
Der CPU-Teil dürfte damit kaum ein Problem haben, dafür die GPU um so mehr - und dann noch nur 2400er (ggü. 2933 in den Tests) - ist klar, daß die Leistung in 3D dann gnadenlos einbricht.

pilzsammler2002
2018-02-19, 10:56:37
Ernsthaft? Nur 50 Prozent der Leistung wegen single statt dual Channel?
Ich teste heute Abend mal mit dem RAM aus dem Spielesystem. Das sind zwei 3000er Riegel.
Aber nur halbe Leistung kann ich kaum glauben...

Also im Firestrike skaliert es schon derbe. Dachte du hättest Dual-Channel.

Score mit 2133 = 2406
Score mit 3200 = 3426

Complicated
2018-02-19, 11:01:38
Kopflos, aber mal etwas ausführlicher:

AMD Ryzen 5 2400G geköpft: Original gegen Wärmeleitpaste und Flüssigmetall (http://www.tomshardware.de/amd-apu-gekoepft-messungen-temperaturen,testberichte-242451.html)
Gute Arbeit. (y)
Danke für den Artikel.

Messias
2018-02-19, 11:01:54
Ja, ich sehe schon...
Ich dachte Speed ist wichtiger als dual Channel.
Und ich hab ja auch mit Speicher auf 3200 getestet.
Das war ja auch grottig.
Aber okay... Zweiter Riegel muss Ran. 😉

MR2
2018-02-19, 12:10:09
Gute Arbeit. (y)
Danke für den Artikel.

Ebenfalls! Super gemacht!

BlacKi
2018-02-19, 12:14:21
Ja, ich sehe schon...
Ich dachte Speed ist wichtiger als dual Channel.
Und ich hab ja auch mit Speicher auf 3200 getestet.
Das war ja auch grottig.
Aber okay... Zweiter Riegel muss Ran. ��
ein quadchannel interface würde die performance der gpu nochmals erheblich steigern. oder und schnellerer speicher, 4000+ und so. aber das ist alles zu teuer für ein APU system. ein xtra schneller vram speicher würde aber viel mehr bringen. kommt die intel vega kombo nicht mit hbm?

ndrs
2018-02-19, 12:14:23
Ja, ich sehe schon...
Ich dachte Speed ist wichtiger als dual Channel.
Und ich hab ja auch mit Speicher auf 3200 getestet.
Das war ja auch grottig.
Aber okay... Zweiter Riegel muss Ran. ��
Speed und Dual-Channel kannst du problemlos substituieren. Das Produkt ist entscheidend.
Du fährst stock mit 2400. OC mit 3200. Letzteres sind immer noch 50% weniger als mit 2*2400 = 4800. Das ist dann immernoch erheblich weniger als das maximal spezifizierte und in den Reviews verwendete 2*2933. Und ja, man kann es tatsächlich so simpel rechnen.

Lowkey
2018-02-19, 12:15:42
Wo ist aktuell die Grenze beim Speicher? 3466?

Megamember
2018-02-19, 12:17:43
Wo ist aktuell die Grenze beim Speicher? 3466?

Wie beim RYzen, je nachdem was der Speicher mitmacht.

anddill
2018-02-19, 12:45:09
Hab mir gestern mein Testsystem mit R5 2400G, MSI B350 PC Mate, 8GB Crucial DDR 2400 und 128GB SSD zusammengeschraubt.
Win10 neu aufgesetzt, aktuelle RR Treiber von AMD geladen.
MB BIOS ist vom 28.1.
Läuft soweit.
Aber: Beim Testen mit Firestrike kommen nur müde 1650 Punkte raus, bzw RAM übertaktet auf 3200 sind es 2200 Punkte.
In den Reviews waren es aber zwischen 3500 und RAM übertaktet deutlich über 4000 Punkte.
Jemand ne Idee, woran es hapert?

Die MSI BIOS-Versionen sind aktuell auf dem Stand "Läuft erst mal". Da kommt noch was. Witzigerweise gibt es für die High-End Bretter, auf denen wohl kaum einer jemals so eine APU betreiben wird schon aktuellere Betas ("Update Raven SMU Firmware to improve system performance"), aber nicht für die µATX-Bretter.
Ich hab im Moment auch ein System mit einem MSI-Brett, dem B350M Mortar (War eins der wenigen mit Display-Port Ausgang) fast fertig dastehen, das soll nächsten Sonntag fertig sein. Ich hoffe mal das bis dahin noch ein besseres BIOS verfügbar ist.

ps: Beta-BIOSe für MSI AM4:
https://forum-en.msi.com/index.php?topic=283344.0

pps: Ich sehe gerade, Dein Board ist in der Liste, für Dich gibts schon eine Beta.

Messias
2018-02-19, 13:03:29
Ja, cool. Und nen zweiten Riegel hab ich auch bestellt...
Wird schon.

Lowkey
2018-02-19, 13:42:03
Wie beim RYzen, je nachdem was der Speicher mitmacht.

Gibt es dazu schon praktische Tests? Die 4500Mhz gehen sicherlich noch nicht.

dildo4u
2018-02-19, 13:45:02
Bei 3600 muss man schon cl19 nutzen da verpufft die Leistung.

https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/2/#abschnitt_speicherskalierung

deekey777
2018-02-19, 13:46:04
Wo ist aktuell die Grenze beim Speicher? 3466?
https://www.golem.de/news/ryzen-5-2400g-und-ryzen-3-2200g-im-test-raven-ridge-rockt-1802-132531-5.html

Wir erreichen DDR4-3466 mit CL19 bei hohen 1,45V und das auch nur ziemlich instabil.

Zudem sind die Zugriffszeiten bei CL19 schon so hoch, dass DDR4-3466 kaum schneller und manchmal gar langsamer als DDR4-3200 mit CL14 ist. Eine andere Herangehensweise ist es daher, nicht auf Takt zu setzen, sondern auf mehr Parallelität: Wird Dual- statt Single-Rank-Speicher verwendet, verbessert Bank-Interleaving bei gleichem Takt und gleichen Latenzen die Leistung. Dual-Rank-Memory schafft aber selten hohe und keine sehr hohen Frequenzen

Wo ist eigentlich dieser Übertaktungsfolie?

https://www.anandtech.com/show/12233/amd-tech-day-at-ces-2018-roadmap-revealed-with-ryzen-apus-zen-on-12nm-vega-on-7nm/4

Wie will AMD eigentlich 3600 erreicht haben?

mboeller
2018-02-19, 13:58:27
ein quadchannel interface würde die performance der gpu nochmals erheblich steigern. oder und schnellerer speicher, 4000+ und so. aber das ist alles zu teuer für ein APU system. ein xtra schneller vram speicher würde aber viel mehr bringen. kommt die intel vega kombo nicht mit hbm?

ein Triple-Channel System mit 192bit wäre doch ein guter Kompromiss, oder?

Der Aufwand wäre wahrscheinlich sogar geringer als bei HBM mit Interposer.

ZEN2-APU mit 5GHz Basetakt und 1024 ALU's @ 1,5GHz + 12 od. 24GB DDR4 4200 (= ~100GB/sec)

Alternativ DDR5 mit 128bit, sollte das dann schon verfügbar sein.
https://www.anandtech.com/show/11238/ddr5-to-double-bandwidth-over-ddr4-specification-due-next-year

Pirx
2018-02-19, 14:11:56
neuer Sockel, neue Mainboards, jeweils teurer...

deekey777
2018-02-19, 14:22:11
neuer Sockel, neue Mainboards, jeweils teurer...

Es heißt immer: Bristol Ridge hatte QC und nur einen Sockel. Wurde halt nicht von Mainboard-Herstellern umgesetzt.

RR kann offiziell maximal Dual-Channel.

dargo
2018-02-19, 15:06:57
Bei 3600 muss man schon cl19 nutzen da verpufft die Leistung.

https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/2/#abschnitt_speicherskalierung
Wieso muss man?
https://geizhals.de/g-skill-trident-z-silber-rot-dimm-kit-16gb-f4-3600c15d-16gtz-a1439046.html?hloc=at&hloc=de

Und wem das zu teuer ist nimmt die Samsung B-Dies mit CL16.
https://geizhals.de/g-skill-ripjaws-v-schwarz-dimm-kit-16gb-f4-3600c16d-16gvk-a1373435.html?hloc=at&hloc=de

dildo4u
2018-02-19, 15:13:12
Ich schätze mal die sind für Intel,G.Skill hat Modelle für AMD die maxen bei 3200.

https://www.gskill.com/en/finder?cat=31&series=3268

Die Modelle für Intel gehen bis 4266.

https://www.gskill.com/en/finder?cat=31&series=2860

dargo
2018-02-19, 15:19:05
Das ist doch Quark... nichts weiter als Marketing Geschwätz. Samsung B-Dies laufen am besten bei Ryzen, wüsste nicht warum das bei RR anders sein sollte. Und nicht alle Samsung B-Dies sind mit dem Marketing Schwachsinn "for AMD" ausgewiesen.

Loeschzwerg
2018-02-19, 15:24:26
Marc hatte zumindest Probleme hohe Taktraten + scharfe Latenzen zu erreichen. Während 3200 noch mit CL14 lief, musste er bei 3466 auf CL19 runter (inkl. hohen 1,45V).

Raven Ridge verhält sich hier, möglicherweise durch die überarbeiteten Caches, anders: Wenn wir von DDR4-2933 mit CL14 auf DDR4-3200 mit gleichen Latenzen wechseln, ändert das an der Leistung fast nichts. Offenbar verträgt der Speichercontroller auch keine sehr hohen Taktraten: Mit zwei Speicherkits mit Samsungs B-Dies (G.Skill Flare X), die auf einem Intel-System locker DDR4-4000 schaffen, war bei Ryzen mit Vega früher Schluss. Wir erreichen DDR4-3466 mit CL19 bei hohen 1,45V und das auch nur ziemlich instabil.

Zudem sind die Zugriffszeiten bei CL19 schon so hoch, dass DDR4-3466 kaum schneller und manchmal gar langsamer als DDR4-3200 mit CL14 ist. Eine andere Herangehensweise ist es daher, nicht auf Takt zu setzen, sondern auf mehr Parallelität: Wird Dual- statt Single-Rank-Speicher verwendet, verbessert Bank-Interleaving bei gleichem Takt und gleichen Latenzen die Leistung. Dual-Rank-Memory schafft aber selten hohe und keine sehr hohen Frequenzen.

dildo4u
2018-02-19, 15:30:54
Jup ich hoffe Zen+ bringt dort mehr eigentlich hat sich dort gar nix getan,sie haben jetzt einfach das freigegeben was relativ Problemlos läuft 2933.

Lowkey
2018-02-19, 15:37:19
Naja es hängt an Hynix und Micron (Crucial). Die können DDR4-3000 einfach nicht in den Mengen liefern. Nun scheinen alle Hersteller 2933 Module liefern zu können. 2933 ist quasi der neue Bodensatz. Ich würde eben selbst bei Officesystemen auf den Preis schauen und wegen 5 Euro nicht am DDR4 sparen wollen.


Ist der 2200g oder 2400g irgendwo im Angebot?

N0Thing
2018-02-19, 15:40:51
https://youtu.be/vjjcXZGdJCU

http://abload.de/img/dualrakvu.png

Kann es sein, dass diese Stelle für einen Vergleich nicht geeignet ist? Man sieht unterschiedliche Auslastung bei der CPU und die Speicherbelegung unterscheidet sich ebenfalls stark ohne erkennbaren Grund.

dargo
2018-02-19, 15:42:22
Marc hatte zumindest Probleme hohe Taktraten + scharfe Latenzen zu erreichen. Während 3200 noch mit CL14 lief, musste er bei 3466 auf CL19 runter (inkl. hohen 1,45V).
RR ist ganz neu. Da würde ich erstmal paar Biosversionen abwarten um mir ein endgültiges Urteil zu bilden.

Loeschzwerg
2018-02-19, 15:45:50
Mich würde es auch nicht stören wenn sich da nichts mehr bessert, ist bei RR schlichtweg unnötig.

Gorkon
2018-02-19, 16:44:42
Blöde Frage vielleicht, aber wer sagt denn, dass der IMC da dicht macht und nicht die Infinity-Fabric? Ist ja immerhin alles zusammengetackert :D

pilzsammler2002
2018-02-19, 17:03:51
Blos kein G.Skill kaufen... :freak:
Seit Ryzen laufen die Teile bei mir und Kollegen nicht richtig im Sinne von 3200 läuft mit max 2933 etc. :mad:
Aktuell würde ich Corsair Vengenace empfehlen. DIe haben immer ihre 3200+ erreicht :biggrin:

dildo4u
2018-02-19, 17:08:38
Die Flare X sind ok AMD versendet die selber an die Tester.

https://youtu.be/QHL_cHtZdDE?t=1m

BlackArchon
2018-02-19, 17:51:36
Blöde Frage vielleicht, aber wer sagt denn, dass der IMC da dicht macht und nicht die Infinity-Fabric? Ist ja immerhin alles zusammengetackert :D
Der Fachbegriff dafür heißt "glued together" laut Intel. :biggrin:

Gorkon
2018-02-19, 17:54:48
Blos kein G.Skill kaufen... :freak:
Seit Ryzen laufen die Teile bei mir und Kollegen nicht richtig im Sinne von 3200 läuft mit max 2933 etc. :mad:
Aktuell würde ich Corsair Vengenace empfehlen. DIe haben immer ihre 3200+ erreicht :biggrin:
Aegis? Die sind in der Tat eher meh (Hynix). Sind bei der Holden und im HTPC drinne (3000er). Beim R5 1600 musste ich bis auf 2666MHz zurück, mit dem 2400G geht noch 2800MHz. Die Samsung-G.Skill bei mir laufen aber tadellos mit den angegebenen Timings bei 3200MHz.

pilzsammler2002
2018-02-19, 18:22:59
Nope :)
RipJaws und Trident... :rolleyes:

Messias
2018-02-19, 18:25:43
Update:
Also mit meinen Patriot Riegeln (2x8GB) bei Dual Channel 3200 kommt jetzt schon mal was Andres raus. 3300 Punkte im Firestrike. Also gut 50% mehr nur durch den zweiten Riegel.
Da bin ich baff.
Mit OC (3900Mhz/1500MHz) dann 3700 Punkte.

Igor TH
2018-02-19, 18:40:13
Na siehst Du, geht doch :)

Die Flare X gehen ganz nett. AMD war so frei :D

y33H@
2018-02-19, 18:53:59
Sogar richtig neue aus der Januar 2018 Produktion =) meine 'alten' Flare X sind von März 2017, also kurz vor Summit Ridge.

Megamember
2018-02-19, 22:55:30
Hab jetzt schon öfter gelesen das man statt den Flarex eher die TridentZ nehmen sollte für Ryzen, die sind besser gebinnt. Bei FlareX sollen oft nichtmal 3200 gehen.

Das ist doch Quark... nichts weiter als Marketing Geschwätz. Samsung B-Dies laufen am besten bei Ryzen, wüsste nicht warum das bei RR anders sein sollte. Und nicht alle Samsung B-Dies sind mit dem Marketing Schwachsinn "for AMD" ausgewiesen.

Also das Ram auf den intels generell besser rennt ist ja nun nix neues und 3600@CL15 bei ryzen musste mir auch erstmal zeigen.Evt bei extrem er Spannung und nur halbwegs stabil. Bei Intels kein Problem.

Megamember
2018-02-19, 22:56:53
....

Jake Dunn
2018-02-20, 00:03:21
Ist der 2200g oder 2400g irgendwo im Angebot?

Aktuell hier

https://abload.de/img/unbenanntnmqhe.jpg (http://abload.de/image.php?img=unbenanntnmqhe.jpg)

Radeonfreak
2018-02-20, 00:17:52
Nope :)
RipJaws und Trident... :rolleyes:

Hab seit nem halben Jahr Tridenz Z mit 3333 Mhz Cl14 laufen. :freak:

horn 12
2018-02-20, 00:39:52
Welche hast denn genau gekauft.
Diese hier:
https://www.bpm-power.com/it/product/1687646/

Und lässt jene gar mit 3333 Mhz laufen?

Igor TH
2018-02-20, 06:38:00
Trident Z gehen eigentlich auch, wenn es die richtigen sind. Ich hatte immer stabile 3200, egal ob nun Ryzen im Dual- oder Threadripper im Quad-Channel :)

horn 12
2018-02-20, 07:08:25
Und welche sind bitte die "Richtigen" -Danke!

Igor TH
2018-02-20, 07:22:26
Die habe ich selbst zweimal im Einsatz: FA-3200C14Q-32GTZR. Sind aber 32GB Kits.
Der F4-3600C16Q-32GTZR lief auf den APUs auch, allerdings stabil nur mit max. 3466 und CL17.

Jake Dunn
2018-02-20, 08:01:35
Die sind auch gut hier ;)

G.Skill Trident Z silber/rot DIMM Kit 16GB, DDR4-3200, CL14-14-14-34 (F4-3200C14D-16GTZ)

Pirx
2018-02-20, 09:39:29
Rendering mit dem 2400G und Autodesk VRED

UHWwcStt868

Armaq
2018-02-20, 10:28:13
Die habe ich selbst zweimal im Einsatz: FA-3200C14Q-32GTZR. Sind aber 32GB Kits.
Der F4-3600C16Q-32GTZR lief auf den APUs auch, allerdings stabil nur mit max. 3466 und CL17.
Es beruhigt mich zu lesen, dass du den Speicher auch nur auf 3466 bekommst bei CL 17. Ich hab zwar Ryzen 1, aber die 3600 sind Wunschträume.

Sagt die Gerüchteküche was zu Ryzen 2 und DDR4000?

Lowkey
2018-02-20, 17:03:22
Man kann erwarten, dass wie bei Intel der Support eine oder zwei Stufen höher gehen kann. Das hängt eben wieder vom Mainboard ab. Ich rechne mit 3733 Mhz.

Loeschzwerg
2018-02-20, 17:45:09
Digital Foundry Test zum 2200G:
https://www.youtube.com/watch?v=WBEJoAoW944

...u.a. auch mit einem Vergleich beim Speicher zwischen 2400 und 3200.

Für den Preis ist der Ryzen 3 echt unschlagbar :)

marc-05
2018-02-20, 18:50:56
Wie könnte man bei den APU kostengünstig noch mehr Bandbreite/Leistung rausholen ?

Bei AMD 780/790 gabs früher hab bei den Mobos Side Port Memory das brachte bisschen mehr Leistung als nur vom Arbeitsspeicher alleine.

Oder optional ein PCB mit GDDR5 Speicher das man in den PCI-E Slot steckt.

Knuddelbearli
2018-02-20, 19:09:17
Kostengünstig für die Leistung ( Doppelte Leistung darf auch doppelten Preis haben ) oder Kostengünstig gesamt ( also immer um Rund 100$ ) ?

Lowkey
2018-02-20, 19:26:01
Wenn man DDR4-3200 CL14 nimmt und dann der APU 4gb spendiert, dann hat man noch 12gb für das Spiel. Das reicht dann locker aus, aber ist jenseits von günstig. Selbiges gilt für die Mainboardfrage, ob man zwecks Aufrüstung mindestens einen B350 nimmt oder beim A320 bleibt. Und dann spielt OC eine Rolle, also 4ghz kann man sicherlich erreichen, aber beim Nutzen der APU limitiert Speicher oder APU-Takt. Der Takt des APU bringt ein paar FPS. Ebenso natürlich der DR-Dual-Channel Speicher, den man manuell auf bessere Timings stellen kann. Doch beim OC der CPU benötigt man theoretisch einen besseren Kühler. Der Boxed ist am Limit.

Wenn man das durchdenkt, dann ist ein günstiges System nicht einfach ohne Einschnitte in die Leistung machbar. Die CPU ist günstig, aber der Speicher aktuell sauteuer.

Screemer
2018-02-20, 19:55:27
Hast du mal nen Blick ins df-Video von oben geworfen? 1,5ghz gpu mit stockkühler bringt ordentlich Mehrleistung die Free.

Screemer
2018-02-20, 19:58:04
Ich fände 2gb gddr5 als sideport wie früher auch interessant. Die Frage ist allerdings wieviel das bringen würde. Dürfte derzeit auch nicht mehr kosten als damals die 128mb 2009.

Gibt ja nur 8gbit Chips...

mczak
2018-02-20, 20:11:11
Bei AMD 780/790 gabs früher hab bei den Mobos Side Port Memory das brachte bisschen mehr Leistung als nur vom Arbeitsspeicher alleine.

So viel hat das auch wieder nicht gebracht - hatte bloss eine 16bit Anbindung. IIRC war das eher bei den Mobilchips zum Stromsparen gedacht, weil die Grafik im Chipsatz war und der MC eben in der CPU, so dass man alle Daten für die GPU über HT transportieren musste (schlecht wenn man bloss Bandbreite braucht für Display Scan-out).
(Man konnte das doch auch verschieden konfigurieren, entweder braucht die GPU exklusiv Sideport Speicher, das war dann langsamer als exklusiv Systemspeicher, oder eben interleaved, dann war es etwas schneller.)
Nicht ohne Grund ist das verschwunden bei den APUs... Aber klar theoretisch wäre so etwas denkbar - damit es wirklich was bringt (natürlich bloss im interleaved Modus) müsste man dann aber schon mindestens 32bit gddr5 haben (wäre dann gegenüber 128bit ddr4 allein so immerhin plus 50% Bandbreite). Das dürfte nicht ganz billig sein...

Der_Korken
2018-02-20, 21:02:28
Digital Foundry Test zum 2200G:
https://www.youtube.com/watch?v=WBEJoAoW944

...u.a. auch mit einem Vergleich beim Speicher zwischen 2400 und 3200.

Für den Preis ist der Ryzen 3 echt unschlagbar :)

Interessant, dass GPU OC scheinbar mehr bringt als zusätzliche Bandbreite. Das deckt sich ein wenig mit dem CB-Test, wo OC-RAM gar nicht mal sooo viel gebracht hat, wie man vielleicht vermuten würde. Wäre ja schön, wenn AMD bei der Bandbreiteneffizienz endlich mal zu Nvidia aufschließt.

dildo4u
2018-02-20, 22:01:41
Das ganze scheint ziemlich TDP Limitiert zu sein vermutlich wollte man aber keine 95 Watt APU da man sich das verlöten sparen will.(Logisch bei 99€)
Vega scheint in 14nm nur bis 1.2Ghz effizient zu sein,da drüber wirds wie bei den Desktop GPUs kritisch.

SKYNET
2018-02-21, 01:48:49
Interessant, dass GPU OC scheinbar mehr bringt als zusätzliche Bandbreite. Das deckt sich ein wenig mit dem CB-Test, wo OC-RAM gar nicht mal sooo viel gebracht hat, wie man vielleicht vermuten würde. Wäre ja schön, wenn AMD bei der Bandbreiteneffizienz endlich mal zu Nvidia aufschließt.

bei AMD ist es meist nie die bandbreite die zum engpass wird... siehe auch vega oder RX grakas, bandbreite en mass, aber OC bringt eher wenig, GPU takten dafür um so mehr.

Unicous
2018-02-21, 04:26:28
Ich hoffe du merkst, dass du gerade Äpfel mit Birnen vergleichst.

Wir reden hier von einer Grafikeinheit die sich das Interface mit einer CPU teilt und sich dann auch noch mit "langsamen" DDR4 begnügen muss, während man bei den GPUs GDDR5 und HBM nutzt, die ein Vielfaches der Bandbreite bieten.

Warum denkst du wohl liegen 2400G und 2200G so nahe beieinander, warum können sich die 11 CUs kaum von den 8 CUs absetzen obwohl erstere höher getaktet sind?

Raven Ridge kommt mit 2933er RAM bei ca. 36 GB/s raus (http://www.legitreviews.com/amd-ryzen-5-2400g-ryzen-3-2200g-cpu-reviews-raven-ridge_202691/3), GPUs mit einem 128 Bit Interface haben normalerweise mindestens das Doppelte, als 72 GB/s+. (Vorausgesetzt wir reden hier nicht von verkrüppelten Grafikkarten, die auf billig getrimmt wurden.)

Diese 36 GB/s teilt sich die GPU mit der CPU, dass die Bandbreite knapp ist und bleibt ist auch keine Neuigkeit: jede APU seit Trinity verhungert an der Bandbreite.

dildo4u
2018-02-21, 08:08:38
TpECFc4nlmI

SKYNET
2018-02-21, 09:00:03
Ich hoffe du merkst, dass du gerade Äpfel mit Birnen vergleichst.

Wir reden hier von einer Grafikeinheit die sich das Interface mit einer CPU teilt und sich dann auch noch mit "langsamen" DDR4 begnügen muss, während man bei den GPUs GDDR5 und HBM nutzt, die ein Vielfaches der Bandbreite bieten.

Warum denkst du wohl liegen 2400G und 2200G so nahe beieinander, warum können sich die 11 CUs kaum von den 8 CUs absetzen obwohl erstere höher getaktet sind?

Raven Ridge kommt mit 2933er RAM bei ca. 36 GB/s raus (http://www.legitreviews.com/amd-ryzen-5-2400g-ryzen-3-2200g-cpu-reviews-raven-ridge_202691/3), GPUs mit einem 128 Bit Interface haben normalerweise mindestens das Doppelte, als 72 GB/s+. (Vorausgesetzt wir reden hier nicht von verkrüppelten Grafikkarten, die auf billig getrimmt wurden.)

Diese 36 GB/s teilt sich die GPU mit der CPU, dass die Bandbreite knapp ist und bleibt ist auch keine Neuigkeit: jede APU seit Trinity verhungert an der Bandbreite.

recht hast du, den part habe ich gekonnt "überflogen"
dann wäre die einfachste lösung wohl quad channel... 102.4GB/s(DDR4 3200) sollte wohl für beides langen :confused:

marc-05
2018-02-21, 14:36:18
Von den "Franzmännern" gibts auch einen Test der APUs.
https://www.hardware.fr/articles/973-1/amd-ryzen-5-2400g-ryzen-4-2200g-apu-retour.html

Speicherskalierung mit gleichen Timings
http://fs1.directupload.net/images/180221/tqvhdgob.jpg (http://www.directupload.net)

Effe
2018-02-21, 14:52:37
An die Raven Ridge Besitzer: Bri mir stürzt GPU-Z reproduzierbar kurz nach Programmstart ab mit BSD und Neustart.
Auch mit neuer Win10 Installation und neuesten Chipsatztreibern. Hat noch wer das Problem?
2200g, B350 Mortar

marc-05
2018-02-21, 14:54:11
Da hatte Rawiioli/Cracky im Test was gesagt das GPU-Z nicht läuft

dildo4u
2018-02-21, 14:57:17
An die Raven Ridge Besitzer: Bri mir stürzt GPU-Z reproduzierbar kurz nach Programmstart ab mit BSD und Neustart.
Auch mit neuer Win10 Installation und neuesten Chipsatztreibern. Hat noch wer das Problem?
2200g, B350 Mortar
Ist ein bekannter Bug.

https://youtu.be/t_te-ksbGXE?t=3m47s

Messias
2018-02-21, 14:58:59
An die Raven Ridge Besitzer: Bri mir stürzt GPU-Z reproduzierbar kurz nach Programmstart ab mit BSD und Neustart.
Auch mit neuer Win10 Installation und neuesten Chipsatztreibern. Hat noch wer das Problem?
2200g, B350 Mortar

Same here.
Wenn ich GPU-Z starte, bekomme ich postwendend einen Bluescreen.

BlackArchon
2018-02-21, 17:05:40
Mich würde interessieren, ob Dual-Rank-Speicher immer noch einen kleinen Performance-Zuwachs gegenüber Single-Rank-Speicher bringt, so wie damals bei Kaveri. Hat da jemand schon etwas entdeckt?

Loeschzwerg
2018-02-21, 17:18:37
Hier:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11627947#post11627947

Lieber setzt man auf Takt und scharfe Latenzen.

Edit:
AMD gibt zudem DDR4-3200 für gewisse Embedded Modelle der APU frei, der Takt dürfte also fast immer drin:
https://www.computerbase.de/2018-02/amd-epyc-embedded-3000-ryzen-v1000/

Messias
2018-02-21, 18:33:07
Hier:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11627947#post11627947

Lieber setzt man auf Takt und scharfe Latenzen.

Oder auf beides.
Mein Patriot dual Rank RAM laeuft hier mit 3200MHz bei CL16.
Das ist vermutlich ne ganz gute Kombi.
In der Maschine mit dem Ryzen 1700x ging max.2933MHZ. Da hat AMD offenbar wirklich noch mal was verbessert.

BlackArchon
2018-02-21, 18:59:41
Hier:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11627947#post11627947

Lieber setzt man auf Takt und scharfe Latenzen.

Edit:
AMD gibt zudem DDR4-3200 für gewisse Embedded Modelle der APU frei, der Takt dürfte also fast immer drin:
https://www.computerbase.de/2018-02/amd-epyc-embedded-3000-ryzen-v1000/
Dankeschön! Ein bisschen scheint es also schon noch zu bringen, wenn man Dual-Rank benutzt.

Knuddelbearli
2018-02-21, 19:20:28
Von den "Franzmännern" gibts auch einen Test der APUs.
https://www.hardware.fr/articles/973-1/amd-ryzen-5-2400g-ryzen-4-2200g-apu-retour.html

Speicherskalierung mit gleichen Timings
http://fs1.directupload.net/images/180221/tqvhdgob.jpg (http://www.directupload.net)

kann kein französisch. Sind das gleiche Timings oder gleiche Zugriffszeiten?

Gleiche Timings wäre ja unsinnig da die Zugriffszeiten mit höherem takt ja sinken

Loeschzwerg
2018-02-21, 19:23:37
Oder auf beides.
Mein Patriot dual Rank RAM laeuft hier mit 3200MHz bei CL16.
Das ist vermutlich ne ganz gute Kombi.


Jup. Denke das dürfte sich zu CL14 SR dann nicht viel nehmen. Ist halt die Frage was man einfacher stabil erreicht.

Gorkon
2018-02-21, 19:47:30
kann kein französisch. Sind das gleiche Timings oder gleiche Zugriffszeiten?

Gleiche Timings wäre ja unsinnig da die Zugriffszeiten mit höherem takt ja sinken

Gleiche Timings...alles bei 15-15-15-35

https://www.hardware.fr/articles/973-20/gpu-integre-influence-memoire-overclocking.html

Knuddelbearli
2018-02-22, 10:18:27
Also nur begrenzt aussagekräftig da man nicht weiss ob es von den besseren Zugriffszeiten kommt oder Bandbreite, danke

ndrs
2018-02-22, 10:18:39
In dem Fall ein ziemlich unsinniger Vergleich. Zumindest kann man keine Aussage treffen ob Zugriffszeit oder Bandbreite den größeren Einfluss haben.

Edit: zwei Dumme ein Gedanke xD

y33H@
2018-02-22, 10:46:19
Ihr schlagt also vor, die Bandbreite und die Zugriffszeiten zu trennen, in dem man etwa für DDR-2400 und für DDR4-3200 die Latenzen entsprechend ausrechnet?

ndrs
2018-02-22, 10:53:52
Wenn man eine definitive Aussage treffen möchte, was wieviel Performance bringt, geht es doch kaum anders. Das gilt für das Interesse an der Architektur. Ob es für am Markt erhältliche Speichermodule relevant ist, dazu hab ich zu wenig Überblick, da mein letzter Einkauf auf 2011 datiert ...

Ph0b0ss
2018-02-22, 11:23:56
Ihr schlagt also vor, die Bandbreite und die Zugriffszeiten zu trennen, in dem man etwa für DDR-2400 und für DDR4-3200 die Latenzen entsprechend ausrechnet?

Auf jeden Fall. Ist ja bei normalen Grafikkarten auch so, dass beim Hochtakten des Vram die Timings schrittweise automatisch etwa so angepasst werden, dass die absolute Latenz etwa gleich bleibt.

Freestaler
2018-02-22, 12:39:59
Ihr schlagt also vor, die Bandbreite und die Zugriffszeiten zu trennen, in dem man etwa für DDR-2400 und für DDR4-3200 die Latenzen entsprechend ausrechnet? Am Ende des Tages setzt sich doch die ganze Performance an der Datenbreite und der effektiven Zugriffzeit zusammen. Um Aussagen zu treffen ob nun Bandbreite oder Latenz (nicht CL) mehr bringt, muss man das doch zwangsweise entkoppeln. 2400 mit cl14 (11,66ns) gegen 3200 cl4 (8,75ns) ist eben kein nur bandbreite bzw. Frequenz bergleich. Dies ist mehr ein Ramgüte (mittelklasse gegen highendram) vergleich.

Lowkey
2018-02-22, 12:52:38
2133/2400 ist Unterklasse. Über 4266 ist Highend.

Die Frage ist nicht ganz geklärt, ob 4700er Speicher auf 3200 CL12 laufen würde?

Freestaler
2018-02-22, 13:14:50
2133/2400 ist Unterklasse. Über 4266 ist Highend.

Die Frage ist nicht ganz geklärt, ob 4700er Speicher auf 3200 CL12 laufen würde?

CL geteilt durch Frequenz in mhz mal 2000 ergibt zugriffzeit in nanosekunden. Im normal fall kann man mit der frequenz runter und dann auf den CL wert, welche die gleiche latenz ergibt. Jedoch kann man die frequenz nicht einfach erhöhen. Da gibt es von Riegel zu Riegel maximale frequenzen. Dies ist wie die effektive minimale zugriffzeit gegeben. OC ausgenommen.

Ergo wenn der 4700 den du ansprichst cl unter 18 hat, ja dann wird er vermutlich mit 3200 cl12 laufen. Wobei beides dann um 7,6ns sind.. solche schnelle Latenzen gibts nicht zu kaufen.. meist schluss bei 8,75ns, zu mindest offiziell.

Die Güte der Chips macht highend oder nicht. Nicht die Frequenz alleine wie von Dir geschildert. Darum sind die 3200 CL14 auch teurer als 3600 CL19.den fehler hat z.b. auch CB im review. Günstiger 3600 gegen teuren 3200 und dann das Fazit, das "schneller" speicher nichts bringt. Und ja, die aller höchsten erhältlichen Frequenzen sind wohl immer highend.

Lowkey
2018-02-22, 15:19:57
Mein 3600er CL15 will nicht mit 3200 CL14 laufen will. Weder auf Intel noch auf AMD.

Eine Liste bzw Übersicht fehlt mir immer noch, also 3200 CL14 entspricht zB. 3600 CL16 oder so. Die Subtimings sind immer etwas anders. Generell fehlt mir eine Übersicht über den Speicher und dessen Leistungsvergleich. Wozu 4700Mhz, wenn 3000 CL9 schneller wäre?
(nur ein erfundenes Beispiel).

Nur kann man nicht einfach den DDR4-4700 von Gskill ordern und einfach nur die primären Timings pro Taktstufe anpassen, da der XMP genau für einen Takt angepaßt wurde.


Mit dem Bios Update für das Gigabyte B350 ITX bekomme ich sogar 1% mehr Leistung heraus. Eingebaut ist noch der 1700x. Das Angebot für einen 2200g oder 2400g habe ich verpaßt.

Heureka: Es läuft mit XMP auf DDR4-3600 CL16-15-15-1

GearDown ist leider an.

Freestaler
2018-02-22, 15:53:02
@Lowkey, 3600cl16 = 8,888ns, 3200CL14=8,75ns.. evtl hast glück mit mehr spannung.

Lowkey
2018-02-22, 15:55:11
Ich kenne die Teiler, aber die Subtimings oder Timings werden beim Trimmen laufend verändert. Mehr als 1.4v auf den Speicher erfordert eine aktive Kühlung.

3600 ohne Geardown resultiert im Bios Reset.

Freestaler
2018-02-22, 18:11:44
Ich kenne die Teiler, aber die Subtimings oder Timings werden beim Trimmen laufend verändert. Mehr als 1.4v auf den Speicher erfordert eine aktive Kühlung.

3600 ohne Geardown resultiert im Bios Reset. Ryzenimc der 3600 mitmacht auch mit gdm ist sowieso schon selten. Wirklich rockstable sind die wenigsten. Und pers. ist alles bis 1,45 volt ddr4 bei samsung b-die in nem normale belüfteten gehäuse keine sache. Bei mir selbst 1,5 easy mit nur 3x 600 rpm gehäuselüfter. Ich denke du bist eher an der ryzen imc grenze als an der ram grenze. Mein ryzen hat aida64 latenzen unter 70ns nicht gerne. Egal bei welcher frequenz.. so als bespiel.

y33H@
2018-02-23, 15:03:32
Ich habe hier grade den Core i5-8250U mit DDR4-2400-CL17-2T und den Ryzen 7 2700U mit DDR4-2133-CL15-1T da.

Beides sind rund 14 ns - aber dennoch mehr Bandbreite beim Intel für die iGPU oder bin ich da auf dem Holzweg?

dildo4u
2018-02-23, 16:12:42
GPU-Z Version für Raven Ridge.

https://www.techpowerup.com/download/techpowerup-gpu-z/#changes-v2-8-0

vinacis_vivids
2018-02-23, 16:44:18
Ich habe hier grade den Core i5-8250U mit DDR4-2400-CL17-2T und den Ryzen 7 2700U mit DDR4-2133-CL15-1T da.

Beides sind rund 14 ns - aber dennoch mehr Bandbreite beim Intel für die iGPU oder bin ich da auf dem Holzweg?

Core i5-8250U mit DDR4-2400-CL17-2T - 14,17ns - 19,2 GB/s
Ryzen 7 2700U mit DDR4-2133-CL15-1T - 14,06ns - 17 GB/s

save

Raven Ridge in Spieleautomaten:
https://www.heise.de/newsticker/meldung/AMD-Ryzen-V1000-fuer-Gluecksspielautomaten-und-Embedded-Systems-3974889.html

fondness
2018-02-23, 18:01:28
GPU Compute Performance of the Ryzen 5 2400G:
https://www.pcper.com/reviews/Graphics-Cards/GPU-Compute-Performance-Ryzen-5-2400G

Effe
2018-02-23, 20:29:37
GPU-Z Version für Raven Ridge.

https://www.techpowerup.com/download/techpowerup-gpu-z/#changes-v2-8-0

Läuft jetzt stabil ohne BSOD. Fehlt mir nur noch ein Treiber mit ReLive Unterstützung.

Freestaler
2018-02-23, 22:40:58
Core i5-8250U mit DDR4-2400-CL17-2T - 14,17ns - 19,2 GB/s
Ryzen 7 2700U mit DDR4-2133-CL15-1T - 14,06ns - 17 GB/s

save

Obacht evtl noch mit single vs dualchannel. Ansonst past.

Screemer
2018-02-23, 22:54:13
GPU Compute Performance of the Ryzen 5 2400G:
https://www.pcper.com/reviews/Graphics-Cards/GPU-Compute-Performance-Ryzen-5-2400G
Wenn man nicht will, dann findet man natürlich nix:
AMD's Advanced Media Framework (AMF). However, we have been unable to find any software support for this toolset beyond AMD's own ReLive application.

:facepalm:

Das ist so dämlich, dass es schon kaum zu glauben ist. Die sind nicht mal der Nutzung von Google befähigt.

Ffmpeg unterstützt encoding via amf seit 20171209 (vorher schon experimentell und in manchen binär Release) und es gibt auch noch andere Converter wie as Video Converter, der kann das schon seit nem Jahr. Ich kann’s einfach nicht glauben.

y33H@
2018-02-24, 01:37:12
Obacht evtl noch mit single vs dualchannel. Ansonst past.Beides Single.

Freestaler
2018-02-24, 09:09:28
Beides Single.

Schade, da verhungert die APU. Die IGP vermutlich nicht.

SKYNET
2018-02-24, 10:39:49
Schade, da verhungert die APU. Die IGP vermutlich nicht.

also auf intel, bringt SC zu DC für die IGP einiges:
https://www.computerbase.de/forum/showthread.php?t=1454213

Freestaler
2018-02-24, 12:06:25
also auf intel, bringt SC zu DC für die IGP einiges:
https://www.computerbase.de/forum/showthread.php?t=1454213
Krass, das hätte nicht gedacht, das es selbst bei der IGP schon so an der Bandbreite happert. Dann verhungert die APU ja noch mehr.

dildo4u
2018-02-24, 12:16:39
Die AMD APU rennt eher ins TDP Limit,ansonsten hätte man mit GPU OC keine großen Zuwächse mehr.

Hier sinds 45% durch OC.

http://abload.de/img/fortnitelku1i.png

https://www.techspot.com/article/1579-overclocking-guide-ryzen-3-2200g/

Freestaler
2018-02-24, 13:35:14
Die AMD APU rennt eher ins TDP Limit,ansonsten hätte man mit GPU OC keine großen Zuwächse mehr.

Hier sinds 45% durch OC.

http://abload.de/img/fortnitelku1i.png

https://www.techspot.com/article/1579-overclocking-guide-ryzen-3-2200g/

Wobei bei dem Test Dualchannel 3000 Ram verwendet werden, also 48 Gbit/s. Das sind zu den 2133 im single doch immerhin 182% mehr.. also fast die dreifache Bandbreite. Ob da deine Ausage zum OC noch passt? Und zudem wird auch die CPU massiv übertaktet. Bin mir jedoch sicher, irgendwer wirds bereits getestet haben rein GPU mit OC und Bandbreiten einfluss.

vinacis_vivids
2018-02-24, 14:45:11
Wobei bei dem Test Dualchannel 3000 Ram verwendet werden, also 48 Gbit/s. Das sind zu den 2133 im single doch immerhin 182% mehr.. also fast die dreifache Bandbreite. Ob da deine Ausage zum OC noch passt? Und zudem wird auch die CPU massiv übertaktet. Bin mir jedoch sicher, irgendwer wirds bereits getestet haben rein GPU mit OC und Bandbreiten einfluss.

Im Screen stehen 1600Mhz GPU-Mem-CLK -> 3200Mhz RAM. Es ging allein um die GPU@1,65Ghz + CPU@3,9Ghz.

Freestaler
2018-02-24, 15:32:45
Im Screen stehen 1600Mhz GPU-Mem-CLK -> 3200Mhz RAM. Es ging allein um die GPU@1,65Ghz + CPU@3,9Ghz.
Es ging um die Frage ob die APU mit 2133 singlechannel limitiert ist. Er meinte das dies nicht sein kann, da OC der GPU 45% bringt. Nur das die 45% benchmark resultate bereits auch mit mehr als der 3fachen! Speicherbandbreite gemacht wurden zu 2133 sc. Oder kurz, sie taugen meiner Meinung nach nicht um aufzuzeigen, das 2133 singlechannel reicht und es a ja der flaschenhals nur die rohleistung der gpu ist, da ja per gpu mhz oc alles besser wird.

dildo4u
2018-02-24, 17:03:36
2400G ist jetzt schon bei 150€.

https://www.mindfactory.de/product_info.php/AMD-Ryzen-5-2400G-4x-3-60GHz-So-AM4-BOX_1227065.html


um6EtEcjnzQ

5sM-yAsiydU

Ri*g*g*er
2018-02-26, 08:31:18
Hi zusammen,

ich finde die CPU in Verbindung mit der GPU so richtig interessant, seit Jahren bewegt sich endlich mal wieder was am CPU und Technik Himmel :biggrin:

Überlege mir ein kleines Testsystem nur zum Ausprobieren zusammen zu stellen, möglichst klein und mobil, so dass es auch auf der Arbeit neben den geleasten 5 Jahre alten Bürokisten zum Einsatz kommen kann. Ich habe fast alle Komponenten zusammen es fehlt -> der Arbeitsspeicher.

Welcher ist im Hinblick auf Preis/Leistung zu empfehlen, ich brauche keinen Blinki/OC Ram sondern es soll einfach laufen aber den Prozessor mit seinen Möglichkeiten nicht beschränken. Gerne Empfehlungen für 2 x 4 und 2 x 8 posten, Danke.

Grüße, Ri*g*g*er

Twodee
2018-02-26, 09:32:57
Ich verwende diese hier: (lag noch rum :))
https://geizhals.de/corsair-vengeance-lpx-rot-dimm-kit-16gb-cmk16gx4m2b3000c15r-a1314354.html?hloc=at&hloc=de

Mit dem R5-2400G auf dem Asus Prime B350 läuft der RAM per D.O.C.P mit 3000Mhz@CL15 (sogar die erweiterten Subtimings werden richtig gesetzt).

SKYNET
2018-02-26, 11:48:00
Hi zusammen,

ich finde die CPU in Verbindung mit der GPU so richtig interessant, seit Jahren bewegt sich endlich mal wieder was am CPU und Technik Himmel :biggrin:

Überlege mir ein kleines Testsystem nur zum Ausprobieren zusammen zu stellen, möglichst klein und mobil, so dass es auch auf der Arbeit neben den geleasten 5 Jahre alten Bürokisten zum Einsatz kommen kann. Ich habe fast alle Komponenten zusammen es fehlt -> der Arbeitsspeicher.

Welcher ist im Hinblick auf Preis/Leistung zu empfehlen, ich brauche keinen Blinki/OC Ram sondern es soll einfach laufen aber den Prozessor mit seinen Möglichkeiten nicht beschränken. Gerne Empfehlungen für 2 x 4 und 2 x 8 posten, Danke.

Grüße, Ri*g*g*er
Ich verwende diese hier: (lag noch rum :))
https://geizhals.de/corsair-vengeance-lpx-rot-dimm-kit-16gb-cmk16gx4m2b3000c15r-a1314354.html?hloc=at&hloc=de

Mit dem R5-2400G auf dem Asus Prime B350 läuft der RAM per D.O.C.P mit 3000Mhz@CL15 (sogar die erweiterten Subtimings werden richtig gesetzt).

da er nichtOC will, wäre wohl besser speicher zu nehmen der grad in die spezifikationen passt.... ;)https://geizhals.eu/g-skill-aegis-dimm-kit-16gb-f4-3000c16d-16gisb-a1474853.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk

Twodee
2018-02-26, 12:10:30
da er nichtOC will, wäre wohl besser speicher zu nehmen der grad in die spezifikationen passt.... ;)https://geizhals.eu/g-skill-aegis-dimm-kit-16gb-f4-3000c16d-16gisb-a1474853.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Wo habe ich etwas von OC geschrieben?
Mit D.O.C.P habe ich das 3000er Profil, wofür der Riegel ausgelegt ist, ausgewählt / automatisch eingestellt.

Mit deinem RAM-Vorschlag wäre das nicht anders, nur etwas schlechtere Timings.

spike.sp.
2018-02-26, 12:29:15
Wann plant AMD eigentlich die Einführung der RR-CPUs, die z.B. einer SR-CPU Ryzen 5 1800X entsprechen?

y33H@
2018-02-26, 12:55:50
Gibt's nicht, max 4C/8T mit 11 CUs - keine 8C/16T mit Grafik.

davidzo
2018-02-26, 13:00:27
Wann plant AMD eigentlich die Einführung der RR-Cpus die zB SR Ryzon 5 1800X entsprechen?

Alter deine Rechtschreibung! Gib dir mal ein bisschen mehr Mühe.

Eine höhere SKU als den 2400G wird es erstmal nicht geben. Das beste Silizium wird natürlich für die mobile SKUs reserviert sein, da man da deutlich höhere Verkaufspreise erziehlen kann. Die beiden Desktop SKUs sind praktisch nur Reste-Verklappung von Ryzen mobile DIEs die zu viel verbrauchen. Wenn der Prozess im laufe der Zeit noch besser läuft kann man eventuell in 6-8Monaten einen 2500G und 2300G nachschieben, aber bis dahin bleibt das so.

Mehr Cores wird es erst mit einer Zen2 APU ab 2019 geben, momentan machen mehr als 4 Cores im mobile einfach keinen Sinn. Zumal AMD sich auf den 15Watt Bereich fokussiert, der laut eigener Aussage 90% des Marktes ausmacht.

Loeschzwerg
2018-02-26, 16:54:23
Jetzt ist wäre zwar Spielgeld durch den Verkauf meines BDW-EP vorhanden, aber so richtig begeistern kann ich mich gerade nicht. 2x 16GB sind einfach zu teuer... Schade dass ich meinen reg. ECC nicht verwenden kann.

Lowkey
2018-02-26, 17:06:03
Gibt's nicht, max 4C/8T mit 11 CUs - keine 8C/16T mit Grafik.

Was kommt noch von Intel? CPUs für den Notebook Markt oder erleben wir noch etwas in Richtung Broadwell?

Loeschzwerg
2018-02-26, 17:09:11
Du meinst CFL mit eDRAM? Die Roadmaps sehen hier zumindest keine Varianten für den normalen LGA vor.

BlackArchon
2018-02-26, 21:48:46
Ich habe mir gerade diesen Speicherskalierungs-Test für Raven Ridge bei THG angeschaut: http://www.tomshardware.com/reviews/raven-ridge-memory-scaling-benchmarks,5489.html

Nun ist es doch bei Ryzen so, dass der Speichertakt mit dem Takt der Infinity Fabric gekoppelt ist. Bei Raven Ridge ist doch der eine CCX mit dem Grafik-Kern auch per IF verbunden, durch einen höheren Speichertakt beschleunigt man also auch die Kommunikation von CCX und iGPU (zusätzlich zur Performance der iGPU an sich). Lässt sich irgendwie herausbekommen, inwiefern sich die schnellere Kommunikation der beiden Komponenten auf die Grafik-Performance auswirkt?

Brillus
2018-02-27, 01:13:06
Ich habe mir gerade diesen Speicherskalierungs-Test für Raven Ridge bei THG angeschaut: http://www.tomshardware.com/reviews/raven-ridge-memory-scaling-benchmarks,5489.html

Nun ist es doch bei Ryzen so, dass der Speichertakt mit dem Takt der Infinity Fabric gekoppelt ist. Bei Raven Ridge ist doch der eine CCX mit dem Grafik-Kern auch per IF verbunden, durch einen höheren Speichertakt beschleunigt man also auch die Kommunikation von CCX und iGPU (zusätzlich zur Performance der iGPU an sich). Lässt sich irgendwie herausbekommen, inwiefern sich die schnellere Kommunikation der beiden Komponenten auf die Grafik-Performance auswirkt?
Ich denk nicht das da viel ist. Aktuelle Spiele sind auf PCIe Bandbreite ausgelegt das sollte bedeutend weniger sein + iGPU ist relativ lahm. Wie ich den letzten Bench in der Richtung in Erinnerung habe war da kein Unterschied zwischen PCIe3 x8 und x16.

Lowkey
2018-02-27, 01:42:24
CB hatte doch mal den 2500k mit PCI-E 2.0 x16 und da war Xcom 2 sehr lahm, aber generell waren es laut den Tests höchstens mal 3% Unterschied zwischen x8 und x16.


Ich bestell mir mal einen 2400g. Eventuell wechsel auf Asrock AM4 ITX samt Full Cover Wakü und treibe die CPU mal ans Limit.

mironicus
2018-02-27, 09:47:55
Wieso baut AMD eigentlich noch keine APUs mit HBM-Speicher? Die machen schnelle SOCs wie z.B. das der PS4 Pro oder Xbox One X, für Intel haben sie auch einen gebaut, aber die normalen User werden mit Mobile-Chips abgespeist die zu schlecht waren für 15 Watt-Notebooks...

Mir fehlt auch so etwas wie Optimus, wo man zwei Grafikkarten paralell nutzen und von der ein oder anderen Fähigkeiten der GPUs in Apps (z.B. Videobearbeitung) profitieren kann.

Lowkey
2018-02-27, 10:03:11
Diese Extrafähigkeiten werden eingespart. Also vermutlich schaut man nur auf wenige Aspekte einer Grafikkarte, die nicht unbedingt was mit Vernunft zu tun haben. So verkauft der Marktführer in Sachen FPS immer mehr Karten der unteren Preisbereiche. Also jeder hat doch eine 1030 aka Micro Titan ;)

Eine APU mit HBM2 Speicher wäre vermutlich zu teuer für den Massenmarkt. Broadwell war ja auch als i7 preislich oberhalb aktueller i7er.

dildo4u
2018-02-27, 11:15:02
Einfach die Preise von den Notebooks mit HBM2 abwarten,es hat sein Grund warum das nur mit Intel Kombiniert wird.Keiner gibt 1500€ + für ein AMD Notebook aus.
Das ganze skaliert in Kombination mit HBM2 einfach noch nicht nach unten,daher hört man immer noch nix von einem RX 580 Ersatz.

spotz
2018-02-27, 14:31:17
Wieso baut AMD eigentlich noch keine APUs mit HBM-Speicher?
Es scheint einfach technisch nicht notwendig zu sein. In den in diesem Thema verlinkten Tests mit schnellerem Speicher gewinnen die Ryzen-G kaum an Geschwindigkeit.
Mehr (~20%) scheint die Übertaktung der Ryzen-G mit besserem Kühler in dem Techspot Test zu bringen. Aber auch bei dem wurde nur DDR4-3000 Speicher genutzt. An der Speicherbandbreite scheint es also nicht so sehr zu hapern.

Sofern sich zukünftige Ryzen-G mit Navi iGPU ähnlich verhalten, kann man getrost bei DDR4 Speicher bleiben, bei dem ja noch etwas Spielraum für höhere Taktungen und damit Bandbreite besteht. Bei deutlich stärkeren integrierten GPUs wie beim Kaby Lake-G mit 24 CUs und mehr, könnte man ja wie Intel auf eine EMIB Lösungen zurückgreifen. Letztendlich wird es aber vom Preis des HBM2 Speichers abhängen. Derzeit wird der bei Samsung und Co in 14nm gefertigt. Vielleicht haben sich die Kosten der Speicherhersteller in 2 Jahren soweit amortisiert, sowie Angebot und Nachfrage entspannt, dass sie HBM2 Speicher günstig genug anbieten können.

Mir fehlt auch so etwas wie Optimus, wo man zwei Grafikkarten paralell nutzen und von der ein oder anderen Fähigkeiten der GPUs in Apps (z.B. Videobearbeitung) profitieren kann.
Ich vermute das dafür einfach der Kreis möglicher Kunden für AMD zu klein ist, um bei einem Ryzen-G noch eine Optimus ähnliche Lösung zu entwickeln und zu pflegen.

Messias
2018-02-27, 14:40:07
@spotz

https://youtu.be/vjjcXZGdJCU

http://abload.de/img/dualrakvu.png

Das mit dem Speichertakt stellt sich bspw. hier aber ganz anders dar.
2x00G skaliert eben sich ziemlich stark mit schnellerem Speicher.

spotz
2018-02-27, 15:02:05
In den mir bekannten Tests von computerbase, PCGH oder Toms Hardware brachte DDR4 Speicher mit 3200, 3600 oder gar 4000er Taktung nur wenig. Ich bin mir nicht sicher ob der in dem von dir zitierten Test hohe Leistungssprung von 2133 auf 2933, bei höhere Taktungen wiederholbar ist. In bisherigen Tests sah ich davon wie gesagt kaum etwas.

Twodee
2018-02-27, 15:08:28
In den mir bekannten Tests von computerbase, PCGH oder Toms Hardware brachte DDR4 Speicher mit 3200, 3600 oder gar 4000er Taktung nur wenig. Ich bin mir nicht sicher ob der in dem von dir zitierten Test hohe Leistungssprung von 2133 auf 2933, bei höhere Taktungen wiederholbar ist. In bisherigen Tests sah ich davon wie gesagt kaum etwas.

CB fängt mit 2933Mhz an nach oben... :rolleyes:
Der größte Sprung findet vorher statt:

http://www.tomshardware.com/reviews/raven-ridge-memory-scaling-benchmarks,5489.html

ab 2933MHz CL14 ist das ganze gesättigt...

Lowkey
2018-02-27, 15:25:19
Ich habe immer den Eindruck, dass einfach nur von CL 19 auf CL 14 umgestellt wurde und danach nichts mehr. Eigentlich müßten die Reviews die gesamten Timings angeben.

Daher hätte ich gerne mal einen Test von zB. thestilt.

vinacis_vivids
2018-02-27, 15:42:39
Zur Bandbreite:
Vega11: 11Cus, 704SP,1.5Ghz, 2.1Tflops, 51.2GB/s -> 24.4GB/Tflops (DDR4-3200Mhz)
Polaris11: 14Cus,896SP, 1.2Ghz, 2.15Tflops, 112GB/s -> 52GB/Tflops
VegaM: 24Cus, 1536SP, 1.2Ghz, 3.7Tflops, 224GB/s -> 60.5GB/Tflops
Vega10: 64Cus, 4096SP, 1.5Ghz, 12.3Tflops, 484GB/s -> 39.3GB/Tflops
Polaris20: 36Cus, 2304SP, 1.4Ghz, 6.4Tflops, 256GB/s -> 39.7GB/Tflops
Also in Speicherbandbreite schwimmt Vega11 wahrlich nicht. Bei 1.65Ghz + DDR4-4000 dürfte es nochmals einen ordentlichen boost geben und RX560 ist nicht mehr weit entfernt.

Lowkey
2018-03-01, 12:35:40
Hilfe!

Am Gigabyte B350 ITX komme ich am DP oder HDMI nicht ins Bios, weil anscheinend die Auflösung von 3440x1440 nicht nativ supportet wird?

M4xw0lf
2018-03-01, 13:23:57
Hilfe!

Am Gigabyte B350 ITX komme ich am DP oder HDMI nicht ins Bios, weil anscheinend die Auflösung von 3440x1440 nicht nativ supportet wird?
Anderen Monitor zur Hand? Fernseher im Zweifelsfall? :uponder:
Btw - falscher Thread.

Messias
2018-03-01, 14:57:41
Hilfe!

Am Gigabyte B350 ITX komme ich am DP oder HDMI nicht ins Bios, weil anscheinend die Auflösung von 3440x1440 nicht nativ supportet wird?

Ich habe mit einem MSI B350 PC Mate + R5 2400G und einem LG Monitor mit 3440x1440 am HDMI keinerlei Probleme. Weder im BIOS noch sonst wo.
Sollte sich das Gigabyte nicht genau so verhalten? Ist doch der gleiche Chipsatz? ITX hin oder her

Twodee
2018-03-01, 15:05:37
Ich habe mit einem MSI B350 PC Mate + R5 2400G und einem LG Monitor mit 3440x1440 am HDMI keinerlei Probleme. Weder im BIOS noch sonst wo.
Sollte sich das Gigabyte nicht genau so verhalten? Ist doch der gleiche Chipsatz? ITX hin oder her
Zumal das Display nicht am Chipsatz hängt :)

Lowkey
2018-03-01, 16:23:02
Im Bios sind irgendwo drei Auflösungen auswählbar, also 1920x1080, 2560x1440 und 4k. Natürlich geht es mit jedem Full HD Gerät, aber das ist dann ein seltsamer Bug.

Pirx
2018-03-01, 16:51:17
Bekommt man Windows 7 auf RR zum laufen?

Twodee
2018-03-01, 17:08:20
Bekommt man Windows 7 auf RR zum laufen?
Den 17.40er GPU Treiber gibt es auch für Win7, ansonsten gelten die gleichen Umstände wie für SR auch.

Lowkey
2018-03-02, 17:12:20
Gibt es irgendwelche interessanten Sammelthreads im Netz mit Tips und Tricks und Ideen?

3Dmark rennt, aber bei Fortnite habe ich direkt Grafikfehler im Vollbildmodus und das Spiel schwankt sehr stark zwischen 15 und 120fps.

Zack ein Blackscreen nach 30mins im Game. Ich weiss nicht was da los ist. Die Wakü und der Lüfter über dem Mainboard sorgen für gute Temperaturen. Memtest findet keine Fehler.

FPS sind auf 100fps / 100hz limitert. SMT ist nun auch aus.

Effe
2018-03-02, 18:01:33
Windows neu installiert? Wurde übertaktet?

Lowkey
2018-03-02, 18:10:44
Ich hatte den 1700x und die 1050 TI ausgebaut. Mit der 1050 TI läuft das Spiel nun rund.

Eine Neuinstallation kann ich natürlich mal probieren.

Effe
2018-03-02, 18:14:02
Ich hatte Fehlfunktionen in Form von verzerrtem Sound am DisplayPort nach Tausch von R5-1600 und 290X mit 2200g .
Nach Neuinstallation weg.

Megamember
2018-03-02, 20:06:15
Im Mindstar gibts den 2400G grad für 129€.

Twodee
2018-03-02, 20:30:52
Im Mindstar gibts den 2400G grad für 129€.
Ist halt eine Tray Version

Megamember
2018-03-02, 20:38:28
Kann man sich wenigsten gleich einen gescheiten Kühler mitbestellen.;)
Maan ich brauch das Ding einfach Null aber bin kurz davor mir einen zu bestellen zum rumspielen...

Lowkey
2018-03-02, 21:03:35
+9 Euro Versand und ohne Kühler.

Gorkon
2018-03-02, 21:06:32
Gibt es irgendwelche interessanten Sammelthreads im Netz mit Tips und Tricks und Ideen?

3Dmark rennt, aber bei Fortnite habe ich direkt Grafikfehler im Vollbildmodus und das Spiel schwankt sehr stark zwischen 15 und 120fps.

Zack ein Blackscreen nach 30mins im Game. Ich weiss nicht was da los ist. Die Wakü und der Lüfter über dem Mainboard sorgen für gute Temperaturen. Memtest findet keine Fehler.

FPS sind auf 100fps / 100hz limitert. SMT ist nun auch aus.
Die GPU-Treiber sind im Prinzip "uralt"...17.40er Branch. Ich würde kein endgültiges Urteil fällen, bevor kein neuer Treiber da ist. Soll ja im Q2 passieren (PlayReady 3.0, Netflix 4K).

Loeschzwerg
2018-03-03, 11:32:10
Maan ich brauch das Ding einfach Null aber bin kurz davor mir einen zu bestellen zum rumspielen...

Die Preise beim Speicher halten mich effektiv davon ab :D

Edit:
Abstürze gibt es auch bei den Notebooks noch: https://www.notebookcheck.com/Test-HP-Envy-x360-15-Ryzen-5-2500U-Vega-8-SSD-FHD-Convertible.280292.0.html#toc-test-hp-envy-x360-15-ryzen-5-2500u-vega-8-ssd-fhd-convertible

Lowkey
2018-03-03, 13:54:30
Also die Windows Neuinstallation brachte keine Besserung.

Nach der Installation des neusten Treibes bleibt der Full HD Bildschirm am DP schwarz. Der andere Bildschirm wird korrekt erkannt. Fortnite auf Vollbild ist immer noch verpixelt. Laut Foren liegt es am Ausgabeformat und die Lösung gibt es nur für Nvidia.

Nach einer Runde Fortnite kann ich sicher sagen, dass entweder irgendwas nicht rund läuft oder man mit den Microrucklern und FPS Einbrüchen leben muss. Das Spiel läuft auf 120fps auf Full HD beim Absprung, aber im Kampf geht es dermaßen ruckelig zu, dass man nichts treffen kann. Mit 15fps wird das nichts. Die Videos auf Youtube empfehlen 720p, aber ehrlich gesagt erkennt man dann keinen Gegner mehr auf 100m.
Das 3DMark Ergebnis mit ca. 3300 Punkten ist genau da wo es sein soll.

Dafür läuft Twitch im Gegensatz zum Richland System auf 1080p @ 60fps flüssig bei 60%.

Man merkt im Betrieb wie laufend CPU und GPU um die Resourcen streiten. Ohne TDP Limit und Boost wäre eine Betrieb sicherlich interessanter.

Der DDR4-3600 läuft auf 3200 CL16-16-16 per XMP + minmal schärfere Timings. 3600mhz wie mit dem 1700x gehen nicht.

dildo4u
2018-03-03, 14:11:21
Gibt es ein Grund warum du den Takt nicht festnagelst?DF hat das Selbe beobachtet ohne OC kann es immer mal wieder Einbrüche geben.

Ev3s0jYVwOo

http://abload.de/img/2400gpuphd.png

Lowkey
2018-03-03, 14:17:18
Danke für den Link.

Wenn ich ein bisschen im Bios spiele, dann läuft nicht alles rund. Aktuell war es ein Crash im 3DMark und ein einfacher Freeze im IDLE.


Rechner lief eine Stunde. Ich will ins Bios => Blackscreen. Man ist das eine Baustelle.

OT71
2018-03-03, 23:43:49
bei mir ist ne Bremse im Bios verankert....wenn ich im Bios die GPU auf extrem Mode stelle, dann rennt die zwar 1500mhz, aber die CPU taktet sich in Spielen nicht mehr richtig hoch.
Stell ich auf Standard, dann geht die GPU nicht höher als 1100mhz, dafür rennt die CPU wieder richtig.

bei OC hängt sich gleich alles auf....

2200G mit Asus B350 Prime Plus Board

positive...mein 2800er Speicher rennt 3066

Messias
2018-03-04, 08:06:11
Es gibt ein Beta BIOS für dein Board.
Installiere das Mal.
Die ersten BIOS für RR sind nicht das Gelbe vom Ei.

M.

pilzsammler2002
2018-03-04, 09:01:04
Bei mir hat bisher bei den beiden RR "Turbo aus" am meisten geholfen :)

OT71
2018-03-04, 09:36:39
Es gibt ein Beta BIOS für dein Board.
Installiere das Mal.
Die ersten BIOS für RR sind nicht das Gelbe vom Ei.

M.

wenn du das meinst...ist drauf!

BIOS
Version 3805 Beta Version
2018/02/11


edit:
alle Energiesparmaßnahmen und Turbo im Bios abgeschalten...keine Verbesserung.

Megamember
2018-03-04, 09:53:54
wenn du das meinst...ist drauf!

BIOS
Version 3805 Beta Version
2018/02/11


edit:
alle Energiesparmaßnahmen und Turbo im Bios abgeschalten...keine Verbesserung.

Chipsatz und GPU Treiber alle aktuell?

OT71
2018-03-04, 10:13:10
GPU Treiber ja
https://www.amd.com/de/support/7706

Chipsatz nein, das könnte ich noch machen

Unicous
2018-03-04, 11:12:06
wenn du das meinst...ist drauf!

BIOS
Version 3805 Beta Version
2018/02/11


edit:
alle Energiesparmaßnahmen und Turbo im Bios abgeschalten...keine Verbesserung.

Ich habe gelesen, dass eben diese Beta sehr viele Probleme bereitet.

dildo4u
2018-03-04, 11:38:49
tkRAVwpbNEI

TGKlaus
2018-03-04, 11:50:23
@dildo4u

Es wird dir wahrscheinlich noch keiner gesagt haben,
aber kannst du nicht mal ein paar Zeilen zu den Videos schreiben die du postest.

Dein jetziges Vorgehen ist einfach Mist!

TGKlaus
2018-03-04, 11:59:54
Stell ich auf Standard, dann geht die GPU nicht höher als 1100mhz, dafür rennt die CPU wieder richtig.


Könnte daran liegen, das der Standard iGPU-Takt des 2200G bei 1100MHz liegt :rolleyes:

Twodee
2018-03-04, 13:47:20
Ich habe gelesen, dass eben diese Beta sehr viele Probleme bereitet.
Ja tut sie, ALL-Core-Turbo liegt beim R5-2400g bei 3.9Ghz, Stock VCore bei 1.45V :eek:
Festgenagelter Takt geht nur bis 3.7Ghz runter, drunter wird nicht gebootet.
SoC-Base-VCore verhält sich Sprunghaft. Wenn die GPU auf Turbo steht, springt die SocVcore auf 1.3V :eek: GPU-VCore wird gänzlich ignoriert...

Screemer
2018-03-04, 14:17:42
@dildo4u

Es wird dir wahrscheinlich noch keiner gesagt haben,
aber kannst du nicht mal ein paar Zeilen zu den Videos schreiben die du postest.

Dein jetziges Vorgehen ist einfach Mist!
hab ich ihm schon mind. 100 mal in allen möglichen threads gesagt. link dropping ist einfach scheiße!

aufkrawall
2018-03-04, 14:27:08
Es steht der Video-Name in der Preview, wo ist das Problem?
Wen es nicht interessiert, muss es nicht anschauen.

Screemer
2018-03-04, 14:40:06
na klar. folgende info zieh ich mir aus dem video-namen:

in dem video gibt es im ürbigen keine zahlen zu den temperaturen der "vorgestellten" lüfter. es gibt einfach nur ne aufzählung von billigen lüftern. für diese info musste ich mir das ganze verdammte video reinziehen. waste of time.

affenzirkus. wie immer halt. ob die links jetzt mit titeln versehen sind oder nicht ändert nichts daran, dass link dropping scheiße ist!

deekey777
2018-03-04, 15:36:47
Da kannst du dich genau so gut aufregen, dass es nachts kälter ist als draußen.

Lowkey
2018-03-04, 15:46:42
Der Sata Treiber ist nicht der von AMD, aber das Chipsatztreiberpaket installiert keinen neuen Treiber für Sata. Wenn ich manuell den Treiber für AMD Sata installiere, dann weiss ich nicht was er macht und zerschieße mir damit das System. Oder ist der Sata Treiber von 2006 "normal"?

Fortnite ist sehr gut programmiert, aber was nützen mir 60fps im Spiel, wenn er im Shotgun Nahkampf auf 15fps kurz einbricht?

Ich takte gerade ein wenig herum und schau mir nebenher noch ein paar Youtube Videos an...



PS: Nicht alle Videos dienen der Informationen oder der Unterhaltung. Machmal ist es echtes Klickbait.

phoenix887
2018-03-04, 20:06:16
Bin am überlegen auf einen den 2400G abzurüsten, da ich kaum noch am PC Zocke....

Meine Frage: Für knapp unter 200 Euro gibt es den 2400G geköpft, bei Caseking. Lohnt sich der Aufpreis, oder wie ist die Hitzeentwicklung?

Jemand Erfahrungen wie der 2400G auf einem MSI Board läuft? Gibt es Bugs?

Loeschzwerg
2018-03-04, 20:11:59
Wozu? Hast du vor deine Graka ebenfalls zu verkaufen und nur noch mit der internen GPU zu fahren?

Den Aufpreis für Conductonaut Flüssigmetall würde ich mir sparen, außer du fährst die APU ins absolute Limit:
http://www.tomshardware.de/amd-apu-gekoepft-messungen-temperaturen,testberichte-242451.html

Messias
2018-03-04, 20:16:51
Hier läuft ein 2400G auf einem MSI B350 PC Mate.
Ich würde nicht das Extrageld dafür bezahlen, daß die CPU geköpft ist.
Wenn man nicht gerade dauerrendert o.ä., sind die Temperaturen wohl auch kein Problem.

Hier jedenfalls läuft der 2400G ziemlich gut. Nachdem ich ihn zuerst auf 4GHz/1600Mhz laufen hatte, habe ich nun wieder auf Standard CPU takt und 1500MHz GPU (Standardspannung) runtergeregelt.

Du mußt dann natürlich damit leben, daß aktuelle Spiele nur in niedrigen Details laufen.

phoenix887
2018-03-04, 20:23:23
Wozu? Hast du vor deine Graka ebenfalls zu verkaufen und nur noch mit der internen GPU zu fahren?

Den Aufpreis für Conductonaut Flüssigmetall würde ich mir sparen, außer du fährst die APU ins absolute Limit:
http://www.tomshardware.de/amd-apu-gekoepft-messungen-temperaturen,testberichte-242451.html

ok danke lese ich mal durch. JA die Grafikkarte auch, weil ich kaum noch am PC Zocke und wenn dann nur an der Nintendo Switch, wenn ich Zeit habe.

Mache praktisch am PC nur noch Multimedia.

Hier läuft ein 2400G auf einem MSI B350 PC Mate.
Ich würde nicht das Extrageld dafür bezahlen, daß die CPU geköpft ist.
Wenn man nicht gerade dauerrendert o.ä., sind die Temperaturen wohl auch kein Problem.

Hier jedenfalls läuft der 2400G ziemlich gut. Nachdem ich ihn zuerst auf 4GHz/1600Mhz laufen hatte, habe ich nun wieder auf Standard CPU takt und 1500MHz GPU (Standardspannung) runtergeregelt.

Du mußt dann natürlich damit leben, daß aktuelle Spiele nur in niedrigen Details laufen.

ah ok 1500mhz GPU geht auch mit Standardspannung. Ok danke, bin ich schlaucher. Wie sind die Temps dann so?

Ja das mit den Spielen ist mir klar, aber diese ganze Triple AAA Titel reizen mich gar nicht mehr. Für einen Japan Port wie FFX und soweiter, denke ich reicht die APU, wenn ich mal wasi n der Richtung spiele will und es nicht für die Switch gibt. Ehrlich gesagt, teilweise sind Spiele auf der Switch in 720p. Mit meinem Sitzabstand stört es mich nicht mal so sehr.

Messias
2018-03-04, 20:36:19
Temperaturen habe ich nur mal ganz am Anfang, als die CPU noch auf 4GHz lief, beobachtet.
Das war noch mit dem Boxed Kühler. Da gingen die beim normalen Spielen nie über 60°.
Jetzt dürfte das Ganze noch mal kühler sein.
Allerdings: Ich habe mal zum Spaß Prime laufen lassen, nur zwanzig Minuten, aber da erreichte die CPU knappe 90°.
Hat aber trotzdem nicht gethrottelt.
Das könnte die CPU bei dir dann bei Multimediakram ggf. auch fast erreichen?

phoenix887
2018-03-04, 20:38:56
Temperaturen habe ich nur mal ganz am Anfang, als die CPU noch auf 4GHz lief, beobachtet.
Das war noch mit dem Boxed Kühler. Da gingen die beim normalen Spielen nie über 60°.
Jetzt dürfte das Ganze noch mal kühler sein.
Allerdings: Ich habe mal zum Spaß Prime laufen lassen, nur zwanzig Minuten, aber da erreichte die CPU knappe 90°.
Hat aber trotzdem nicht gethrottelt.
Das könnte die CPU bei dir dann bei Multimediakram ggf. auch fast erreichen?

Habe mir den Toms Hardware Artikel durch gelesen, wenn dann werde ich ihn mir ungeköpft holen, lohnt sich wirklich nicht, ist ja auch so im grünen Bereich.

Mit Multimedia, meinte ich nicht Videoschnitt, sondern Youtube, Full HD Videos abspielen nicht anspruchvolles und ab und zu mal ein Port wie Final Fantasy 10 HD.

Loeschzwerg
2018-03-04, 20:56:46
Die Frage ist ob dir dann evtl. nicht auch der 2200G reichen würde? Wenn du SMT für 8 logische Kerne nicht benötigst, dann fährst du auch mit dem 2200G richtig prima (wenn übertaktet).

Siehe hierzu folgenden Bericht von DF:
https://www.youtube.com/watch?v=Ev3s0jYVwOo

phoenix887
2018-03-04, 21:35:35
Die Frage ist ob dir dann evtl. nicht auch der 2200G reichen würde? Wenn du SMT für 8 logische Kerne nicht benötigst, dann fährst du auch mit dem 2200G richtig prima (wenn übertaktet).

Siehe hierzu folgenden Bericht von DF:
https://www.youtube.com/watch?v=Ev3s0jYVwOo

ok wäre auch möglich, Preis-Leistung ist ja Top. Lasse es mir mal durch den Kopf gehen.

Lowkey
2018-03-04, 21:50:21
Man kann in der Tat aus den Tests und aus eigener Erfahrung sagen, dass diese CPU für Spieler keine Lösung ist. Dafür laufen Videos sehr gut. Der 2200G ist in jedem Fall die bessere Wahl, da der Unterschied letztlich bei unter 10% liegt. Und 10% von 30fps ist einfach nicht spürbar. Für sich ist die CPU-Leistung sehr gut. Andererseits lohnt sich der 2400G als CPU nicht, da der 1600 schon für 160 Euro zu haben ist.
Die Kühlung ist kein Problem. Wenn es zu heiss wird, dann drosselt irgendwas.

Entweder baut man einen PC fürs Kinderzimmer mit den günstigsten Komponenten oder es wird am Ende wieder ein ITX-mini HTPC mit externem Netzteil. Für Beides gibt es andere Lösungen. Daher stellt sich mir wie bei den alten AMD CPUs mit Grafik jedes Mal die Frage, was man genau damit Einzigartiges machen kann?

Eine Übergangslösung wäre es allemal, denn man kann recht bequem irgendwann eine Grafikkarte nachrüsten. Die CPU Leistung ist auf Intel-Level.

phoenix887
2018-03-04, 22:04:02
Man kann in der Tat aus den Tests und aus eigener Erfahrung sagen, dass diese CPU für Spieler keine Lösung ist. Dafür laufen Videos sehr gut. Der 2200G ist in jedem Fall die bessere Wahl, da der Unterschied letztlich bei unter 10% liegt. Und 10% von 30fps ist einfach nicht spürbar. Für sich ist die CPU-Leistung sehr gut. Andererseits lohnt sich der 2400G als CPU nicht, da der 1600 schon für 160 Euro zu haben ist.
Die Kühlung ist kein Problem. Wenn es zu heiss wird, dann drosselt irgendwas.

Entweder baut man einen PC fürs Kinderzimmer mit den günstigsten Komponenten oder es wird am Ende wieder ein ITX-mini HTPC mit externem Netzteil. Für Beides gibt es andere Lösungen. Daher stellt sich mir wie bei den alten AMD CPUs mit Grafik jedes Mal die Frage, was man genau damit Einzigartiges machen kann?

Eine Übergangslösung wäre es allemal, denn man kann recht bequem irgendwann eine Grafikkarte nachrüsten. Die CPU Leistung ist auf Intel-Level.

War auch mein Gedanke, wenn es mich dochmal überkommen sollte, kann man wieder schnell miteiner Grafikkarte aufrüsten. Aber ich brauche einfach keine Grafikkarte mehr.

Lowkey
2018-03-05, 11:39:15
Ich habe nun zwar fast alles zum Laufen bekommen (default Einstellungen im Bios sind das Problem), doch beim Neustart fährt er selten hoch. Ich spiele eine halbe Stunde, drücke auf Neustart fürs Bios und die Lüfter drehen, es kommt kein Bild und die Tastatur-Maus springt nicht an.

Memtest läuft durch. Sämtliche Benchmarks laufen sehr gut durch. Grafikfehler haben einige Spiele immer noch. (Das Geflimmer ohne Anti-Aliasing ist sowas von Retro).

Nur wo liegt der Fehler? Die Automatischen Spannungen sind alle im normalen Rahmen.

Update:
Eine Neuinstallation mit dem letzten Windows 10 ISO 1709 ist wohl Pflicht. Das lößt ein paar Probleme mit den Spielen und Freezes. Man darf auf keinen Fall den Grafiktreiber vor dem Chipsatztreiber installieren und muss bei Chipsatztreiber das kleine Paket ohne den Grafiktreiber nehmen. Nun läuft zB Fortnite gefühlt anders. Die Framedrops sind an manchen Stellen sehr heftig, aber im Kampf bricht es nicht so stark ein.

pilzsammler2002
2018-03-06, 07:49:53
Framedrops wegen nachladen oder throttle?

Ich konnte das jetzt verlässlich nachstellen...
https://www.youtube.com/watch?v=qf99GSZ8Bgc (links mit turbo rechts ohne)
Kurios ist das laut Ryzenmaster ich nicht mal ansatzweise im tdp Limit bin.hatte sowas ähnliches mal bei nem FX 8320e auf nem billig matx Board gehabt. Kann es also vllt an den vrms des Gigabyte mini-itx liegen?

@igor hast du da mal was gemessen?

marc-05
2018-03-07, 17:28:52
Rawiioli/Cracky hat das gleiche Problem bei seinem Gagabyte A320 MoBo gehabt. Erst mit SOC Spannung + 0.0V und 3,5GHZ lief der 2400G mit stabilen Taktraten . Auf Standarttakt viel der Gputakt in PUBG bis 200MHZ errunter.

Lowkey
2018-03-07, 18:10:05
@pilzsammler2002

Nice ... vorhin konnte ich Fortnite ohne Probleme spielen und treffen. Es läuft smooth sogar mit der zweiten AA Stufe.

pilzsammler2002
2018-03-07, 19:52:20
Rawiioli/Cracky hat das gleiche Problem bei seinem Gagabyte A320 MoBo gehabt. Erst mit SOC Spannung + 0.0V und 3,5GHZ lief der 2400G mit stabilen Taktraten . Auf Standarttakt viel der Gputakt in PUBG bis 200MHZ errunter.

Aber es ist ja definitv kein GPU Prob... Die Cpu geht ja auch bis ~500mhz runter, was bedeutend tiefer ist als 1600mhz im kleinsten idle-state... :freak:

@Lowkey
Kein Problem :)
Musste mich da etwas reinfuchsen aber bin aktuell viel am austesten... Es ist wie gesagt kein 65w TDP begrenzendes Problem (da bin ich teilweise meilen entfernt). Irgendwie spinnt der Turbo ;D :freak:

Lowkey
2018-03-07, 19:55:54
Ich spekulier mal, dass der XFR und XFR2.0 für B350 nicht gedacht ist bzw. supportet wird.

dildo4u
2018-03-07, 20:00:04
Ich spekulier mal, dass der XFR und XFR2.0 für B350 nicht gedacht ist bzw. supportet wird.

Nur der Overboost ist 400 Exklusiv,der Rest sollte auf 300 laufen.
Gerade der 2400 sollte keine Probleme machen da es kein 95 TDP Chip ist,erst overboost geht auf 105.

http://abload.de/img/5-1080.258420152ebk83.png

pilzsammler2002
2018-03-07, 20:02:48
Der Boost ansich funktioniert ja, bei dem 2200G auch einwandfrei.
Nur der 2400G "spackt" manchmal rum :freak:

Gutes Bsp. war bei mir auch Dota 2 wie random das auftritt... Teamfights mit mega viel effekten und Spielern etc. kein problem..., alleine auf der Lane am Farmen "zack" framedrops aus heiterem Himmel :D :D :D

Messias
2018-03-07, 20:47:12
Vermutich gibt es da auch noch ein wenig BIOS Arbeit für AMD, bzw. die Mainboard Partner zu tun, dann läuft das auch auf B350 ok.
Igor hatte ja auch so etwas berichtet...

Lowkey
2018-03-07, 21:02:42
Nur der Overboost ist 400 Exklusiv,der Rest sollte auf 300 laufen.
Gerade der 2400 sollte keine Probleme machen da es kein 95 TDP Chip ist,erst overboost geht auf 105.

http://abload.de/img/5-1080.258420152ebk83.png

Ich sehe gerade, dass XFR2.0 im letzten Bios vorhanden ist, aber standardmäßíg auf disabled. Das sollte doch ein 400er Feature sein?

dildo4u
2018-03-07, 21:13:52
Nein steht doch auf dem Slide nur der Overboost ist 400 Exklusiv.
XFR 2.0 können alle 2000 Serie CPUs unabhängig vom Board.

http://abload.de/img/cvts1yhcsq50.jpg

Gorkon
2018-03-07, 21:30:01
Der Boost ansich funktioniert ja, bei dem 2200G auch einwandfrei.
Nur der 2400G "spackt" manchmal rum :freak:

Gutes Bsp. war bei mir auch Dota 2 wie random das auftritt... Teamfights mit mega viel effekten und Spielern etc. kein problem..., alleine auf der Lane am Farmen "zack" framedrops aus heiterem Himmel :D :D :D
Klingt halt stumpf nach Energiesparen weil ja nix los ist. Tritt bei dem Sys mit dem 2400G hier auch manchmal auf, aber 1.) nicht so krass wie in einigen Videos und 2.) nur mit aktiven VSync wenn die Leistung locker für 60fps reicht. Sieht / merkt man aber irgendwie wirklich nur wenn RTSS oder HWInfo mitläuft und man die Frametimes auch sieht ;)

Lowkey
2018-03-07, 22:32:46
Das Bild blieb halt eine Sekunde stehen. Man denkt eher an Nachladeruckler. Die C-States kann man deaktivieren und Windows auf Höchstleistung stellen. Und dennoch bringt erst ein fester CPU Takt die Lösung.

pilzsammler2002
2018-03-07, 22:40:12
Klingt halt stumpf nach Energiesparen weil ja nix los ist. Tritt bei dem Sys mit dem 2400G hier auch manchmal auf, aber 1.) nicht so krass wie in einigen Videos und 2.) nur mit aktiven VSync wenn die Leistung locker für 60fps reicht. Sieht / merkt man aber irgendwie wirklich nur wenn RTSS oder HWInfo mitläuft und man die Frametimes auch sieht ;)

Siehe mein Video :)
Die slowdowns sind definitiv bemerkbar und passieren auch bei "Vollauslastung" :)


Festen Takt habe ich nicht, nur turbo aus hat bei mir für 99% der Probs gereicht :)

Gorkon
2018-03-07, 23:21:15
Also so krass war das nicht mal Stock hier :| Aber ich fahr die Kiste hier ja genau wie du auch nicht mehr "Stock" und da läuft wirklich alles soweit normal.

pilzsammler2002
2018-03-08, 07:44:09
Also so krass war das nicht mal Stock hier :| Aber ich fahr die Kiste hier ja genau wie du auch nicht mehr "Stock" und da läuft wirklich alles soweit normal.
Hast du im Bios den Takt festgenagelt (3,6ghz) oder Windows auf Höchstleistung gestellt?

Messias
2018-03-08, 09:30:55
Ich verstehe gar nicht, warum das dann nicht bei allen so ist. Ich habe hier keinerlei solche Probleme. Liegt vielleicht an meiner Spielauswahl. Fortnite spiele ich nicht. Dafür Doom, SC2, Wolfenstein2...

pilzsammler2002
2018-03-08, 10:29:20
Ich verstehe gar nicht, warum das dann nicht bei allen so ist. Ich habe hier keinerlei solche Probleme. Liegt vielleicht an meiner Spielauswahl. Fortnite spiele ich nicht. Dafür Doom, SC2, Wolfenstein2...

Bei mir fing es direkt mit dem ersten Test an... Insurgency hakte zwischendurch.
Dota 2 -> The Division -> Divinity Original Sin -> Cities Skylines... Überall gab es aussetzer. Am einfachsten erzeugen lies es sich dann bei Cities.

Daraufhin dann halt erst undervoltet = so gut wie keine Besserung (beide SOC und CPU ca. -0,1v weniger
Dann mal Turbo aus und schon wurde es durchgängig besser und tritt seitdem nicht mehr auf (0,1% mal am ruckeln).
Mich wundert es eher das es den Testern (abseits Igor der ja sowas ähnliches hatte) nicht aufgefallen ist...
Vielleicht Golden Samples? :freak:

Lowkey
2018-03-08, 10:48:51
Nein steht doch auf dem Slide nur der Overboost ist 400 Exklusiv.
XFR 2.0 können alle 2000 Serie CPUs unabhängig vom Board.

http://abload.de/img/cvts1yhcsq50.jpg


Ich entdecke noch nicht den Sinn von XFR2. Das CPU Verhalten ist nahezu unverändert beim 2400G.

pilzsammler2002
2018-03-08, 10:52:52
Im Gegensatz zum Ryzen 1700x den ich noch hier habe boostet der 2400G viel feiner. Auch die P-States sind viel feiner.
Dadurch lässt sich natürlich etwas Strom sparen :freak:

Lowkey
2018-03-08, 10:57:48
Was für ein System benutzt du für den 2400G?

pilzsammler2002
2018-03-08, 11:12:53
Was für ein System benutzt du für den 2400G?
R5 2400G Vega @ 1240 mhz
16 GB / Corsair Vengeance @ 2933
GA-AB350N-Gaming WIFI (T20h Bios)
Western Digital Nvme 256 GB
Win 10 / 1709
:biggrin:

pilzsammler2002
2018-03-09, 18:30:08
Kleines Update:
Laut reddit soll das SMU 30.68.0 das Problem beseitigen. Als Gigabyte User bin ich aktuell "nur" mit dem 30.67.0 dran. Ich bin gespannt wann nen Bios Update kommt :cool:

Gorkon
2018-03-10, 08:30:29
Sumpfeule hat irgendwie den 18.3.1 auf nem RR HP Envy zum laufen bekommen :|

JktpPMTogXY

Ja, ist Mobile, aber der Chip ist ja der selbe ;) *hust*

pilzsammler2002
2018-03-10, 10:45:41
Sumpfeule hat irgendwie den 18.3.1 auf nem RR HP Envy zum laufen bekommen :|

Ja, ist Mobile, aber der Chip ist ja der selbe ;) *hust*

Den Treiber kann man über Geräte Manager installieren :)

Gorkon
2018-03-10, 11:47:27
Ja, auch grad in den Kommentaren gefunden. Nachher mal mit dem 2400G testen ob das wirklich klappt. In der .inf steht ja nix von Raven drinne.

EDIT: Klappt nicht. Treiber wird gefunden, aber es kommt ne Fehlermeldung das er nicht initialisiert werden kann. Naja, die paar Wochen gehen auch noch so.

vinacis_vivids
2018-03-15, 18:47:12
MSI B350M Gaming Pro + Ryzen 5 2400G inkl. OC
http://www.guru3d.com/articles_pages/msi_b350m_gaming_pro_review,10.html

poiu
2018-03-27, 12:04:24
Nachdem die Todes Grippe vorbei gezogen ist endlich Online :D aber was lange gärt wird endlich gut

32 Desktop-Grafikarten, in 23 Spielen und in zwei Auflösungen.:devil:

http://www.tweakpc.de/hardware/tests/cpu/amd_ryzen_3_2200g_ryzen_5_2400g/s01.php

Vergleichs Grafikkarten: Radeon RX 550, RX 460, R9 360, NVIDIA GTX 750ti….

Videos zu PUG, Hots, Dota 2 usw. findet ihr in der Playlist bei YT und inklusive einer Zusammenfassung des schriftlichen Tests als Video (https://www.youtube.com/watch?v=L4z7jczAJLg)

https://www.youtube.com/playlist?list=PLSaDKx_ugAo6DqPMc4z1pBcLFPGtEW8Xm

Aufgenommen natürlich mit HDMI Grabber

Wer es Technisch tiefgehender bevorzugt, findet im Schriftlichen Test Infrarotbilder der verwendeten Mainboards von MSI B350I PRO AC und Gigabyte AB350N-Gaming Wifi und viele weitere Benchmarks




http://www.tweakpc.de/hardware/tests/cpu/amd_ryzen_3_2200g_ryzen_5_2400g/i/ir/ryzen_2400g_msi_cpu_waermebild_05.jpg

http://www.tweakpc.de/hardware/tests/cpu/amd_ryzen_3_2200g_ryzen_5_2400g/i/ryzen_apu_41_small.jpg

pilzsammler2002
2018-03-27, 16:27:44
Schöner Test, aber GW3 ist noch nicht released :freak:

Ich war ehrlich gesagt leicht überrascht das GW 2 nur "minimal" besser als auf meinem 7850k läuft Oo

dargo
2018-03-28, 22:57:55
wl0egrrmumM

dildo4u
2018-03-30, 12:01:59
Fortnite, LOL, PUBG & Co.: Einsteiger-Grafikkarten, APUs und IGPs im Benchmark

https://www.computerbase.de/2018-03/fortnite-pubg-overwatch-benchmarks-igp/2/

Soul
2018-04-02, 18:05:08
Ist die APU gut genug als 4k Mediacenter System? Ich suche was als Intel Nuc Gegenpart für Multimedia

dildo4u
2018-04-02, 18:11:49
Ist die APU gut genug als 4k Mediacenter System? Ich suche was als Intel Nuc Gegenpart für Multimedia

Play Ready 3 fehlt noch die Hardware ist da.

https://www.golem.de/news/ryzen-5-2400g-und-ryzen-3-2200g-im-test-raven-ridge-rockt-1802-132531-all.html

Loeschzwerg
2018-04-04, 20:25:48
https://www.golem.de/news/grafikkarte-obacht-bei-der-geforce-gt-1030-mit-ddr4-speicher-1804-133669.html

GT1030 @ DDR4 vs RR wäre jetzt doch mal ein interessanter Vergleich.

mczak
2018-04-04, 21:37:32
https://www.golem.de/news/grafikkarte-obacht-bei-der-geforce-gt-1030-mit-ddr4-speicher-1804-133669.html

GT1030 @ DDR4 vs RR wäre jetzt doch mal ein interessanter Vergleich.
Da selbst die GT1030 mit gddr5 bloss gerade so den 2400G schlägt, braucht man nicht viel Fantasie um sich vorzustellen dass die ddr4-Variante mit bloss 1/3 der Bandbreite keine Chance hat selbst gegen den 2200G. Jedenfalls wenn man dem RR Dual-Channel ddr4-2400 oder besser spendiert.
Ich finde es übrigens extrem enttäuschend dass man da zum absolut billigsten Ramsch-DDR4 gegriffen hat den's gibt. Selbst OEMs verbauen heutzutage oft dd4-2400 als Systemspeicher auch wenn das nicht wirklich wahnsinnig viel bringt (für CPUs).
Die GM108 (nur mobil) hatten ja in der ddr3-Variante entweder ddr3-1800 oder ddr3-2000 - das ist immerhin am oberen Ende was man als normalen ddr3-Speicher kriegt. Die DDR4-2100 der GT1030 sind da wirklich erbärmlich und nicht mal eine wirkliche Steigerung gegenüber ddr3.
Schon klar dass man da kein OC-DDR4 verbauen will, aber sowas wie ddr4-2667 gibt's problemlos mit Standardspannung und würde sicher nur minimal mehr kosten. Da hat man bloss um ein paar Pfennige zu sparen gleich nochmal 20% Performance verschenkt.

Loeschzwerg
2018-04-04, 22:02:54
Da selbst die GT1030 mit gddr5 bloss gerade so den 2400G schlägt

Es gibt genügend anderweitige Beispiele und diese würden mich interessieren ;) Rein technisch.

Pfennigfuchserei ist vollkommen korrekt, hast du bei vielen RR PCs/Notebooks genauso.

Kummer
2018-04-04, 22:23:59
Play Ready 3 fehlt noch die Hardware ist da.

https://www.golem.de/news/ryzen-5-2400g-und-ryzen-3-2200g-im-test-raven-ridge-rockt-1802-132531-all.html

Folglich fehlt das auch bei den mobilen APUs oder? Die sind da schon langsam bei der Umsetzung.

SKYNET
2018-04-05, 00:54:11
https://www.golem.de/news/grafikkarte-obacht-bei-der-geforce-gt-1030-mit-ddr4-speicher-1804-133669.html

GT1030 @ DDR4 vs RR wäre jetzt doch mal ein interessanter Vergleich.

endlich wird der teure GDDR5 nicht mehr für den billigen schrott rausgeworfen...

dildo4u
2018-04-06, 11:55:20
wNaz4hBNQDA

Lowkey
2018-04-06, 12:25:59
Ich empfinde das Spiel auf der 960, die er später einbaut, als flüssiger, auch wenn die FPS teils identisch sind. Als ob das Spiel bei der FPS Anzeige nicht alles anzeigt.

Blediator16
2018-04-06, 13:01:01
Ich empfinde das Spiel auf der 960, die er später einbaut, als flüssiger, auch wenn die FPS teils identisch sind. Als ob das Spiel bei der FPS Anzeige nicht alles anzeigt.

Die sind überhaupt nicht identisch. Bei der APU ist die Varianz erheblich höher, als bei der GPU. Er hätte die 1080p bei der APU evtl sein lassen sollen.

dildo4u
2018-04-17, 10:04:59
Neue Raven Ridge Treiber per Winupdate:

https://www.catalog.update.microsoft.com/Search.aspx?q=vega Den Link nutzen und nach neuste zu Erst sortieren:


3dRpWVAyU8s

Lowkey
2018-04-17, 10:21:10
Ausgezeichnet! Ich installiere gleich mal Windows auf dem APU System neu. Es kann ja nur besser werden.

vanquish
2018-04-20, 22:44:46
Wird Zeit für einen Treiber-Mod. :freak:
Ich habe hier einen RR in dem ich eine RX 480 zusätzlich eingebaut habe. Eine wahre Odyssey. -.-

Ausgangslage: RR mit Chipsatz und Grafiktreibern installiert. RX480 eingebaut. Windows kann keine passenden Treiber finden. Gelbes Ausrufezeichen. Also manuell über Gerätemanager die RR-Treiber gesucht. Wird was gemacht. Installation scheitert aber. Dann gloreiche Idee ... Probierst Adrenalin Treiber ... Geht natürlich nicht mit RR. Die RX 480 wird von der Treiber Installation nicht einmal gefunden.

Also RR GPU deaktiviert. Windows erkennt RX 480 und installiert natürlich den Adrenalin Treiber mittels download direkt und scheitert dann wieder. Karte kann nicht gefunden werden WTF! Manueller versuch scheitert ebenfalls. Hinweis RadeonSettings!. RR wieder aktiviert. RR-Treiber Installation verweigert die Installation wegen RadeonSettings. Weil neuer und so.

DDU musste her. -.-
Chipsatztreiberinstallation mit RadeonSettings entsorgt (die Treiber anschl. manuell installiert). RX 480 ausgebaut. RR GPU aktiviert. RR installiert. Reboot RX 480 eingebaut RX 480 wurde erkannt und installiert.

Im Grunde lag es daran, dass der Chipsatztreiber ein eigenes RadeonSettings mitinstalliert das immer installiert bleibt. RR installiert noch ein RadeonSettings, das etwas neuer ist als das vom Chipsatz. Kommt aber mit dem vom Chipsatz zurecht (v17.xx). Gloreich ist natürlich, wenn man noch ein weiteres AMD Grafikkartenprodukt installieren möchte und dabei Windows die Arbeit überlässt oder die Treiber von der beigefügten CD nimmt oder die vermeintlich passenden von AMD direkt bezieht. Haha

Botcruscher
2018-04-20, 23:09:25
Bios Einstellungen mal durchgehen. iGPU hat 3 Möglichkeiten und dann kommt noch der der Primäre Adapter dazu.

vanquish
2018-04-21, 08:43:46
Ja, bei dem Asus Rog Strix B350-f kam die Option die iGPU zu deaktivieren aber erst mit v3803 Bios. Leider wurde die iGPU nicht zu 100% deaktiviert und Linux stürtzte beim Booten ab. v3805 brachte dann HybridGraphics dazu. Aber immer noch keine Änderung. Also ließ ich die iGPU weiterhin aktiviert. Mit dem Beta Bios v3909 das ich daraufhin erhielt ging es dann endlich.
Mittlerweile sehe ich es aber so dass die iGPU auch nützlich sein kann und will sie eigentlich nicht mehr deaktivieren. HybridGraphics wäre evtl. noch interessant. Aber dazu fehlt mir unter Windows der Umschalter. An die Tatsache, dass man nur den RR-Treiber für beide Karten installieren kann möchte ich erst gar nicht denken. Unter Linux hätte ich ein Umschaltscript. Aber dort gibt es noch einiges mehr an Baustellen. Ich glaube auch nicht, dass die Option HybridGraphics von Asus korrekt implementiert wurde. Denn wenn ich HG aktiviere verhält sich das System so wie wenn die Einstellung einfach nur "Enabled" wäre. Also nix mit dGPU deaktiviert.

Gorkon
2018-04-21, 09:01:51
Wird Zeit für einen Treiber-Mod. :freak:
Ich habe hier einen RR in dem ich eine RX 480 zusätzlich eingebaut habe. Eine wahre Odyssey. -.- [...]

Es wird einfach Zeit, dass AMD wieder nen Unified-Treiber für alle GPUs bringt. Ging doch früher auch :frown:

Bzw. wenn sie unbedingt den "WHQL-Only"-Ansatz bei den APUs weitermachen wollen (wegen weniger Supportanfragen von den DAUs und Mobile-Nutzern) dann halt nen Beta-Schalter in den Treiber einbauen oder hinter ner simplen Registrierungswall anbieten. Unter Linux gibts das Problem ja z.B. erst gar nicht...amdgpu oder radeon, je nach Alter und gut ist. Warum unter Windows so ein Terz gemacht wird...:rolleyes:

vanquish
2018-04-21, 10:13:55
Ja, aber an den Weihnachtsmann glaube ich nicht. Da glaube ich eher an den frustrierten User der sich seine eigene Lösung bastelt. Aber ich denke dass auch diese Zeiten vorbei sind. Selbst die miesen Creative-Treiber werden von niemandem mehr "gemoddet". Oder sind die mittlerweile gut? ;P

Pirx
2018-04-21, 11:36:17
35 W APUs

2200GE mit 3,2 / 3,6 GHz
2400GE mit 3,2 / 3,8 GHz

https://www.computerbase.de/2018-04/amd-ryzen-5-2400ge-ryzen-3-2200ge-specs-launch/

Lowkey
2018-04-21, 12:42:32
Weniger CPU Leistung bei gleicher APU Leistung machen die CPUs sogar interessant.

SKYNET
2018-04-21, 12:43:52
Da selbst die GT1030 mit gddr5 bloss gerade so den 2400G schlägt

inzwischen nichtmal mehr das.... und nach OC sowieso nicht mehr ;D

Loeschzwerg
2018-04-21, 12:47:33
Weniger CPU Leistung bei gleicher APU Leistung machen die CPUs sogar interessant.

Da bin ich voll bei dir, der hohe CPU Takt ist in den wenigsten Fällen wichtig. Das Budget kann man eher in der GPU versenken.
Bei den Vorgängern war das noch katastrophal anders :D

SKYNET
2018-04-21, 13:03:54
Weniger CPU Leistung bei gleicher APU Leistung machen die CPUs sogar interessant.

der turbo ist aber nur 100Mhz weniger... also sollte der leistungsverlust recht überschaubar sein. :cool:

robbitop
2018-04-21, 16:39:58
Naja aber die TDP ist kleiner also wird sie den Turbotakt seltener halten können.

stav0815
2018-04-21, 16:49:14
Wenn es denn noch gescheite ITX-Boards geben würde - aktuell nur teure Gaming-Ware mit x-Features, die keiner braucht...

mboeller
2018-04-21, 18:47:48
35 W APUs

2200GE mit 3,2 / 3,6 GHz
2400GE mit 3,2 / 3,8 GHz

https://www.computerbase.de/2018-04/amd-ryzen-5-2400ge-ryzen-3-2200ge-specs-launch/

Würden diese APUs in einem Notebook schneller sein, als zB. ein 2700u?

mczak
2018-04-21, 19:27:26
Würden diese APUs in einem Notebook schneller sein, als zB. ein 2700u?
Klar, wenn du den auch gekühlt bekommst...
Auch ein Ryzen 2500U mit cTDP von 25W ist schneller als ein Ryzen 2700U mit cTDP von 15W. Bei 35W dürfte der MT-Takt nochmals höher liegen, allzuviel mehr liegt aber wohl gegenüber 25W nicht mehr drin. Auch beim IGP dürfte noch etwas mehr drin sein bei 35W, und die grössten Vorteile müsste der bei gleichzeitiger CPU+GPU Last haben.
Ausserdem würde der schnelleren Speicher unterstützen, wovon der IGP profitieren würde.
Kann aber sein dass der 2700U ein besser gebinnter Chip ist dann wäre der Vorsprung gegenüber einem 25W cTDP 2700U (bei dem man die 25W auch gekühlt bekommt) wohl eher gering.

Igor TH
2018-04-21, 20:35:48
Man kann ja auch im BIOS den Saft ewas einbremsen. Aber will man das wirklich? :)

Mein kleiner Kraftzwerg fürs Wohnzimmer (mit 2400G und mehreren SSDs auf Zusatzkarte)

https://i.imgur.com/KGlIAdu.png
https://i.imgur.com/svzzHzc.png

Kodi läuft auch ganz ordentlich, allerdings spackt ab und dann der AMD-Treiber nach dem Verlassen des Ruhezustandens. Dann gibt es einen Bluescreen mit dem Treiber als Ursache. :(

Twodee
2018-04-22, 09:31:48
Nein will man nicht :D

R5 2400G @3.9Ghz mit picoPSU 160Watt
http://abload.de/img/img_20180422_0917222fp4q.jpghttp://abload.de/img/img_20180422_0916365jpyl.jpg

M4xw0lf
2018-04-22, 09:41:35
Twodee hat den kleinsten!

Igor TH
2018-04-22, 09:42:20
Schönes Dingens! So ein Chieftec habe ich übrigens vor einiger Zeit mit einer AM1-Platine hinter einem Monitor montiert. Fetzt auch, bis heute. Hast Du die blaue LED? Das habe ich bei mir mittlerweile alles abgeklemmt. Nervt, da zu intensiv.

Ich hab fürs Wohnzimmer letztendlich das Silverstone genommen, weil es Rack-Größe hat und damit genau auf den Sub passte. Und weil ich optional ein Slot-In Laufwerk einbauen kann :)

https://i.imgur.com/EKcjpDM.jpg

Twodee
2018-04-22, 09:50:38
Würde ich ein ATX-Netzteil verbauen wollen, dann wäre Silverstone bei mir auch die erste Wahl :up:

Nein keine blaue LED, da ist eine Grüne (PowerOn) und Rote (Disk) LED verbaut. Die leuchten relativ schwach und man sieht sie nur direkt von vorn.

Günstig war es auch, 35€ fürs Chieftec + Aufsatz
(hatte mir mal 3 Stück vor 2-3 Jahren zu einem günstigen Kurs bestellt, dafür gibt man dann bei der picoPSU mehr aus :freak:)

Igor TH
2018-04-22, 09:56:39
Preislich kann man gegen diese Chieftecs nicht anstinken, stabil sind die auch. Ich hatte zwei davon, aber eines (das neueste) kam mit blauer LED. Warum auch immer. Dieser Trend ist echt gaga.

Am Silverstone habe ich alle Lampen aus. Nur die SSD-Karte hat hinten auch LEDs, aber das stört nicht so extrem. Ich habe mittlerweile drei SSDs drin. Eine unterm Mainboard und zwei auf der Zusatzkarte. Da habe ich sogar noch die alte SATA-M2 mal mit untergekriegt. Und es ist das 300-Watt-SFX von Silversone drin. Semi-passiv, aber der Lüfter ist bisher noch nie angesprungen. Meine kleinen Picos gehen alle nur bis 65/90 Watt, das wäre mir etwas zu knapp. Ich hab schon einige gehimmelt, leider.

Twodee
2018-04-22, 10:32:56
Ist ein doofer Trend mit den LEDs, die Zielgruppe ist eben jünger geworden :D
In der Not kann man die LEDs ja auch selber tauschen.

Von den picoPSUs (https://www.amazon.de/Mini-Box-picoPSU-160-XT-Power-Mini-ITX-Supply/dp/B005TWE6B8/ref=sr_1_2?ie=UTF8&qid=1524385307&sr=8-2&keywords=picopsu&dpID=41mSE1aB%252BBL&preST=_SY300_QL70_&dpSrc=srch) hatte ich mir zu BOINC-Zeiten (vor 7 Jahren) auch 3 Stück gekauft und diese dann 24/7 (I7 2600@3.2Ghz@100Watt Systemlast) für etwas über ein Jahr non-stop betrieben.
Die Teile sind unverwüstlich :)
(Der eigentliche Grund für die Picos ist der niedrige Verbrauch, den R5 betreibe ich mit 16Watt [gemessen an der 220V Dose], bzw. 14,5 Watt [gemessen am 12V NT] @Idle und die peakLast liegt bei ~110Watt)

Die 0815 DCDC-Wandler-Boards (https://i.ebayimg.com/images/g/bbUAAOSwYmZXEVGE/s-l1600.jpg) (die man in günstigen ITX-Gehäuse als Zugabe findet), halten nicht so lange durch :freak:

Knuddelbearli
2018-04-22, 13:37:32
Ist ein doofer Trend mit den LEDs, die Zielgruppe ist eben jünger geworden :D

Nö wir sind älter geworden und die Zielgruppe gleich :frown:

Twodee
2018-04-22, 13:56:29
Nö wir sind älter geworden und die Zielgruppe gleich :frown:
sag doch nicht so etwas, das ist deprimierend :freak: