PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 [42] 43 44 45 46 47 48

SKYNET
2019-11-12, 15:58:13
Wobei die 15 reine Speku von notebook check sind die 12 aber schon auf halbwegs glaubhaften leaks beruhen.

15 CUs wäre aber schon fett, das ganze aber bitte mit 4GB HBM2 anbinden, sonst verpufft die leistung im nirvana... siehe schon V8 vs. V11... bei gleichem takt gibts nur in ganz wenigen titeln wirklich signifikante unterschiede, meistens ist der speicher die bremse für die V11, wärend die V8 noch ein wenig luft hat.

robbitop
2019-11-12, 17:03:51
Ggf hat man trotz Vega CUs bereits Dinge von Navi implementiert, die den Umgang mit der Bandbreite verbessern.

Unicous
2019-11-12, 17:11:39
Offizielle Unterstützung von DDR4-3200 und insbesondere LPDDR4(X-4266) sollte einen ordentlichen Schub bringen. Ansonsten gehe ich von relativ Vanilla Vega CUs aus, dafür wurden offensichtlich die Fixed Function Units überarbeitet.

Das müsste reichen um Ice Lake in Schach zu halten.

MSABK
2019-11-12, 17:40:27
Es wurde bemängelt, dass YT 4k60 ruckelt. Hoffentlich wird das auch gefixtx

robbitop
2019-11-13, 09:46:16
Offizielle Unterstützung von DDR4-3200 und insbesondere LPDDR4(X-4266) sollte einen ordentlichen Schub bringen. Ansonsten gehe ich von relativ Vanilla Vega CUs aus, dafür wurden offensichtlich die Fixed Function Units überarbeitet.

Das müsste reichen um Ice Lake in Schach zu halten.

Wobei die OEMs ja leider ziemlich mit Speichertakt geizen idR. Somit werden IGPs leider fast immer ausgebremst.

aufkrawall
2019-11-13, 10:15:26
Es wurde bemängelt, dass YT 4k60 ruckelt. Hoffentlich wird das auch gefixtx
Das ist sicherlich nur ein Windows-spezifisches Treiberproblem.

dildo4u
2019-11-13, 11:08:19
Vega kann VP9 nicht komplett beschleunigen,das fällt mit Desktop APUs nicht auf weil es die CPU abfängt.

Im Ergebnis benötigt das gesamte Testsystem mitsamt der GeForce GTX 1080 Founders Edition auf YouTube etwa 70 Watt. Mit einer Radeon Vega 64 sind es aber gleich 110 Watt und damit 40 Watt oder fast 60 Prozent mehr. Dies lässt sich nur mit einer aktualisierten Videoeinheit lösen und benötigt entsprechend eine neue Hardware.

https://www.computerbase.de/2017-09/youtube-leistungsaufnahme-amd-nvidia/

S940
2019-11-13, 11:57:25
Wobei die OEMs ja leider ziemlich mit Speichertakt geizen idR. Somit werden IGPs leider fast immer ausgebremst.
Nicht nur am Takt wird gespart, oftmals fehlt auch ein 2. Speicherriegel ...

grobi
2019-11-13, 12:13:31
Ich bin enttäuscht von der Vega APU-Version. Die habe es nichtmal hinbekommen das man Netflix und Amazon in 4K schauen kann. Treiberproblem super........... Es ist wohl nicht von AMD verifiziert.

mfg grobi

SKYNET
2019-11-13, 14:51:15
Ich bin enttäuscht von der Vega APU-Version. Die habe es nichtmal hinbekommen das man Netflix und Amazon in 4K schauen kann. Treiberproblem super........... Es ist wohl nicht von AMD verifiziert.

mfg grobi

nur das die 4k quali beim streaming mieser ist als 1080p via BR auf ner 4k glotze :ulol: dachte letztes mal bei meiner besseren hälfte ich sterbe, habe dann auch grad das abo zurückgestuft, da es qualitativ keinen mehrwert bietet.

aufkrawall
2019-11-13, 15:21:21
Vega kann VP9 nicht komplett beschleunigen,das fällt mit Desktop APUs nicht auf weil es die CPU abfängt.



https://www.computerbase.de/2017-09/youtube-leistungsaufnahme-amd-nvidia/
Du irrst dich, Raven Ridge hat eine modernere VPU als Vega-dGPU. Renoir wird sogar eine neuere VPU als die der Navi-Karten haben, das war bereits im Linux-Treiber ersichtlich und hier auch von mir erwähnt...

iuno
2019-11-13, 15:27:51
Ich bin enttäuscht von der Vega APU-Version. Die habe es nichtmal hinbekommen das man Netflix und Amazon in 4K schauen kann. Treiberproblem super...........
Das ist natuerlich kein Hardware- oder Treiberproblem, sondern eins des DRM Systems.

Beschwer dich bei Netflix.

BoMbY
2019-11-13, 15:49:32
Vor allem ist das DRM ehh total nutzlos. All das Trara und es gibt trotzdem 0-day 4K Rips.

iuno
2019-11-13, 16:36:55
Ja, mir brauchst du das nicht zu erzaehlen.

grobi
2019-11-13, 22:19:51
Das ist natuerlich kein Hardware- oder Treiberproblem, sondern eins des DRM Systems.

Beschwer dich bei Netflix.


Polaris kann es doch auch. Also eher ein AMD-Problem .:rolleyes:

iuno
2019-11-14, 12:17:53
Waere mir neu. Netflix unterstuetzt nur Intel und Nvidia: https://help.netflix.com/en/node/23931

Wuerde aber an der Ausgangslage auch nichts aendern. Hast du dich schon bei Netflix beschwert?


edit: OK, offenbar gab es ein Treiber-Update vor anderthalb Jahren. Dass Netflix es seither nicht geschafft hat, die FAQ anzupassen, zeigt wie scheissegal ihnen das Thema und ihre Kunden sind. Aber das muss natuerlich jeder selbst wissen, wie er sich fuer sein Geld behandeln laesst.

Zossel
2019-11-14, 12:29:06
Waere mir neu. Netflix unterstuetzt nur Intel und Nvidia: https://help.netflix.com/en/node/23931

Wuerde aber an der Ausgangslage auch nichts aendern. Hast du dich schon bei Netflix beschwert?

Wer sollte sich den da beschweren, es glotzt doch niemand mehr Fernsehen.

SKYNET
2019-11-14, 14:46:12
Wer sollte sich den da beschweren, es glotzt doch niemand mehr Fernsehen.

also bei mir läuft bestimmt 6h am tag comedy central...

netflix hat leider nix, das auch nur ansatzweise von interesse wäre... die eigenproduktionen sind nahezu durchweg gülle... einzig witcher reizt mich derzeit nen wenig, aber da warte ich bis die staffel komplett oben ist, und mache dann nen testaccount, schaue mir die staffel an nem WE an, und beende das testabo wieder... habe ja noch nen paar e-mail addis für sowas ;D

weil geld bekommen die von mir nicht, für die miese qualität...

Zossel
2019-11-14, 15:00:15
weil geld bekommen die von mir nicht, für die miese qualität...

Und warum knallst du dir miese Qualität rein?

Felixxz2
2019-11-14, 18:52:54
netflix hat leider nix, das auch nur ansatzweise von interesse wäre... die eigenproduktionen sind nahezu durchweg gülle...

Hui das nenn ich mal ne exotische Meinung, aber solls ja auch geben...
Aber Ot

dildo4u
2019-11-15, 17:14:17
Threadripper 3960X Geekebench 5 20k Punkte

https://browser.geekbench.com/v5/cpu/599061


ll2cipUZWPQ

SKYNET
2019-11-16, 00:22:01
Und warum knallst du dir miese Qualität rein?

bessere hälfte hat nen abo... ich nutze nur ab und an eine der unzähligen e-mail adressen um mir serien anzuteasern wo alle immer "ohh, ganz toll musst du sehen"... in 99% der fälle aber enttäuschend.

Nightspider
2019-11-17, 19:53:47
Hätte man den Navi-Part eigentlich recht einfach HBM fähig machen können oder ist das komplizierter?

Sprich: Könnte es auf manchen Renoir-Varianten HBM Stacks geben weshalb eine Vega Grafik verbaut wird?

Ich hoffe ja wirklich das es spätestens in 1,5 Jahren auch eine highend APU mit HBM geben wird.

YfOrU
2019-11-18, 07:56:13
Ich hoffe ja wirklich das es spätestens in 1,5 Jahren auch eine highend APU mit HBM geben wird.

Meiner Ansicht nach kann man sich vom dem Gedanken im Consumerbereich langsam verabschieden.

Im klassischen Desktop Segment (ATX) Format gibt es dafür praktisch keinen Markt. Also Mobile und SFF. Hier bewegt man sich aber im Kontext des Volumens bei 10-25W TDP. Eine richtig fette IGP ist da kaum unterzubringen. Natürlich steig die Anzahl der Ausführungseinheiten mit kleineren Fertigungsstrukturen weiter an. Parallel aber auch die Speicherbandbreite (DDR5, LPDDR5 etc.). Immer knapp, mit Blick auf das Segment und Powerbudget trotzdem ausreichend.

Bleibt damit Mobile/SFF bei 35W aufwärts. Dafür eine eigene "fette" APU halte ich mit Blick auf die immer weiter steigenden Kosten/Aufwand für nicht sonderlich realistisch und wirtschaftlich. Hinzu kommt das sich beim Packaging und Interconnects einiges bewegt. Es dürfte deutlich wirtschaftlicher sein diesen Bereich mit Lösungen analog zu KBL-G zu bedienen (bestehend aus Chips welche sich auch einzeln bzw. in anderen Kombinationen einsetzen lassen).

mboeller
2019-11-18, 08:55:46
warum? Ich erwarte gerade bei den 10-25w Notebooks HBM. Allerdings gleich 8-16GB HBM2E als Ersatz für den Hauptspeicher. Dann macht das hoffentlich auch Sinn, da man viel Platz einsparen kann.

YfOrU
2019-11-18, 10:45:55
Wenn viel Platz eingespart werden soll sehe ich hier eher LPDDRx als PoP wie bei Intels Lakefield.

Dino-Fossil
2019-11-18, 11:43:38
Ich glaube außerhalb von semi-custom nicht wirklich an eine fette High-Performance APU mit HBM.
Zu wenig Nachfrage in Vergleich zu den Entwicklungskosten.
Hätte AMD die Marktanteile, wie Intel sie hat (oder nVidia im Gaming-Bereich), wäre das vielleicht was anderes.
Aber so würde sich vermutlich kaum ein OEM finden, der die Dinger verbaut (und das auch noch in einer ordentlichen Form tut) und die Nachfrage dürfte sich, abseits von AMD-Anhängern und Enthusiasten-Kreisen, sowieso eher in Grenzen halten.

Ist zwar schade, aber auf absehbare Zeit sehe ich so ein Experiment als wenig realistisch an.

Complicated
2019-11-19, 17:48:29
Im Prinzip wären die Konsolen ja perfekte Kandidaten dafür und doch wird dort aus Kostgengründen ebenfalls nicht drauf gesetzt. Gäbe es denn so etwas wie einen Enthusiasten-Konsolen-Markt wo eine Zielgruppe 1.000,- € oder mehr bezahlen würde, dann würden wir das schon im Markt haben, denke ich. Aber selbst für VR möchte das nur ein zu kleiner Teil bezahlen.

Dino-Fossil
2019-11-22, 10:56:32
Ja, teurer wird es sicherlich, aber wohl auch nicht so viel. Nur zählen bei den großen angepeilten Volumina von Konsolen halt auch schon kleinere Beträge. Wenn die Konsole dadurch (plakativ) 100€ teurer wird ist sie gleich deutlich unattraktiver für den Kunden. Oder man muss eben mehr subventionieren und sie rechnet sich erst später.
So lange GDDR die nötige Bandbreite liefert um die Performance zu erreichen bleibt man dann eben dabei.

amdfanuwe
2019-12-01, 00:21:55
Wieder gute Verkäufe bei MF
https://www.reddit.com/r/AMD_Stock/comments/e423ye/amd_reaches_new_record_high_mindfactoryde_in_nov/

Pirx
2019-12-04, 16:25:34
Kommt egtl Renoir erstmal "nur" für Notebooks, oder auch gleich für Desktop?

Unicous
2019-12-04, 17:35:33
Vermutlich wieder Mobile First, aber ohne Gewähr.

deekey777
2019-12-20, 23:06:11
Etwas zu Renoir: https://www.reddit.com/r/Amd/comments/ebxsvh/amd_renoir_apus_gpu_details_for_all_skus_with_tdp/

davidzo
2019-12-21, 15:57:15
https://www.reddit.com/r/Amd/comments/ed9qyr/renoir_apu_ryzen_7_4700u_8c8t_2ghz42ghz_pcmark10/

Rund 20% besserer pcmark score als der 3700U und das mit doppelt so vielen Kernen. Da sieht man irgendwie nicht viel von dem Zen2 IPC Uplift den wir im desktop mainstream und massiv im HEDT gesehen haben...
Mit doppelt so vielen Kernen und deutlich mehr IPC erwarte ich auch etwas mehr als 100% CPU Performance Zuwachs, trotz fehlendem SMT. Anderserseits ist das auch nur PCmark...
Vielleicht funktioniert der Turbo nicht oder es wird lahmer single channel Ram verwendet.

Die Ergebnisse sehen eher danach aus was man von 4C/8T Zen2 erwarten würde - vielleicht sind die 8C/8T ein Auslesefehler?

Gibt es schon irgendwelche Daten zur Cache-Ausstattung?

CrazyIvan
2019-12-21, 16:18:40
Man sollte auch das 15w TDP Limit nicht vergessen. Im Mobile Sektor sagen Kernanzahl und max. Frequenz erst einmal wenig aus. Mehr Performance gibt's im Grunde nur über Effizienz.

BoMbY
2019-12-21, 16:28:33
Ryzen 5 4600H
Ryzen 5 4600HS
Ryzen 7 4700U
Ryzen 7 4800H
Ryzen 7 4800HS
Ryzen 9 4900H

https://videocardz.com/newz/amd-rumored-to-launch-ryzen-9-4900h-ryzen-7-4800hs-and-ryzen-4600hs-mobile-cpus-soon

SKYNET
2019-12-21, 17:19:39
https://www.reddit.com/r/Amd/comments/ed9qyr/renoir_apu_ryzen_7_4700u_8c8t_2ghz42ghz_pcmark10/

Rund 20% besserer pcmark score als der 3700U und das mit doppelt so vielen Kernen. Da sieht man irgendwie nicht viel von dem Zen2 IPC Uplift den wir im desktop mainstream und massiv im HEDT gesehen haben...
Mit doppelt so vielen Kernen und deutlich mehr IPC erwarte ich auch etwas mehr als 100% CPU Performance Zuwachs, trotz fehlendem SMT. Anderserseits ist das auch nur PCmark...
Vielleicht funktioniert der Turbo nicht oder es wird lahmer single channel Ram verwendet.

Die Ergebnisse sehen eher danach aus was man von 4C/8T Zen2 erwarten würde - vielleicht sind die 8C/8T ein Auslesefehler?

Gibt es schon irgendwelche Daten zur Cache-Ausstattung?


8 threads vs. 8 threads... und der 3700U boostet höher, da nur 4 echte kerne, wärend der 4700U 8 echte kerne hat... somit ganz plausibel mit den 20% bei 15W für beide...

einfach bevor man rumfötzelt das hirn nen wenig betätigen, so wegen logischen denken und so.

davidzo
2019-12-21, 17:38:11
8 threads vs. 8 threads... und der 3700U boostet höher, da nur 4 echte kerne, wärend der 4700U 8 echte kerne hat... somit ganz plausibel mit den 20% bei 15W für beide...

einfach bevor man rumfötzelt das hirn nen wenig betätigen, so wegen logischen denken und so.

Der einzige der sich hier im Ton vergreift bist du.

Überleg mal, Zen2 wurde als breite Server-Architektur ausgelegt die nicht besonders Taktfreudig ist und ihren Effizienz Sweetspot sehr weit unten hat. Dass sich die Taktraten bei Ryzen 3000 trotzdem etwas erhöht haben ist nicht der Rede wert und liegt an TSMCs 7nm Prozess. In Epyc 7002 sieht man am ehesten wofür Zen2 gebaut wurde und das sind auch die Taktraten die wir im Mobile haben. Die Referenz finde ich daher viel passender als yuf hochtaktende Ryzen 3000 zu gucken.
Rome quetscht bei etwa gleichem Verbrauch und leicht niedrigeren Taktraten doppelt soviele Kerne in das TDP Budget. Da sieht man wie Effizient Zen2 in diesem Taktbereich ist. Nebenbei sollte die integrierte Vega auch vom Umstieg auf 7nm profitieren.

Die Erwartungen von annähernd 100% Multicore Zuwachs sind also nicht von der Hand zu weisen, wenn man weiß wie Effizient Epyc Rome in einem vergleichbaren Taktfenster ist. Kern Verdoppelung + gleicher Takt und fast gleiche TDP bei 12->7nm ist ja bei beiden gleich, ebenso wie der Architektursprung.
PCmark ist aber ein Benchmark, der in den meisten Fällen nicht richtig mit MT skaliert (Anwendungsstarts, browsing, excel) und auch gar nicht nur die CPU misst. Es kann also daran liegen und an einer Reihe von anderen Hardwarekonfigurationen, die sich hoffentlich bis zum Launch noch klären.
Bisher deuten ja alle Quellen eher darauf hin dass Renoir-full wirklich ein 8c/16T ist.

mironicus
2019-12-21, 17:40:45
https://wccftech.com/amd-ryzen-9-4900h-ryzen-7-4800h-8-core-16-thread-ryzen-4000-apu-leak/

reaperrr
2019-12-21, 18:37:53
Die Erwartungen von annähernd 100% Multicore Zuwachs sind also nicht von der Hand zu weisen
Unsinn, das ist völlig überzogen.

Außerdem ist PCMark nun wirklich eines der schlechtesten Testszenarien, um den Performance-Unterschied zwischen zwei CPUs zu messen, da der Benchmark ziemlich viele Tests enthält, die kaum bis gar nicht mit der CPU-Leistung skalieren, geschweige denn pro-Thread-Leistung.

mczak
2019-12-21, 22:32:58
Die Ergebnisse sehen eher danach aus was man von 4C/8T Zen2 erwarten würde - vielleicht sind die 8C/8T ein Auslesefehler?

So ohne weitere Informationen würde ich auch eher darauf tippen da wird die CPU-Topologie nicht richtig erkannt.

davidzo
2019-12-21, 22:41:00
Unsinn, das ist völlig überzogen.

Außerdem ist PCMark nun wirklich eines der schlechtesten Testszenarien, um den Performance-Unterschied zwischen zwei CPUs zu messen, da der Benchmark ziemlich viele Tests enthält, die kaum bis gar nicht mit der CPU-Leistung skalieren, geschweige denn pro-Thread-Leistung.

Für PC-Mark hast du wohl recht. Aber bei voll skalierenden Anwendungen kann man mehr erwarten. Da sind aber durchaus Einzeltests die eigentlich sehr gut skalieren müssten, wie die Foto-filter, Downscaling per CPU, Deshaking von Video, in denen gerademal 20-30% auf den 3700U draufgelegt werden.

Gleichzeitig sind die Zahlen der verschiedenen 3700Us und der intel Konkurrenz auch nicht immer schlüssig, da gibt es viele komische Zahlen und falsche Auslesungen. Würde mich nicht wundern wenn PCmark da nicht nur schlecht mit unbekannten CPU/VGA Kombinationen funktioniert sondern auch selbst ein wenig verbuggt ist.

gmb
2019-12-21, 23:02:18
So ohne weitere Informationen würde ich auch eher darauf tippen da wird die CPU-Topologie nicht richtig erkannt.


Glaube ich nicht, dann hätte es schon Auffälligkeiten bei den Desktop Zen2 gegeben. Das sind sicher 8 Kerne, allerdings auch nur 8 Threads. Ich hätte 6/12 für eine saubere Lösung gehalten als diese künstliche Beschneidung ohne Hyperthreading, die performance wäre wohl auch vergleichbar gewesen. Bei Intel nimmt sich nicht viel zwischen 6/12 und 8/8. Selbst Intel hat im mobilen Bereich immer auf eine SMT Beschneidung verzichtet bei den Core.

davidzo
2019-12-21, 23:14:38
Glaube ich nicht, dann hätte es schon Auffälligkeiten bei den Desktop Zen2 gegeben. Das sind sicher 8 Kerne, allerdings auch nur 8 Threads. Ich hätte 6/12 für eine saubere Lösung gehalten als diese künstliche Beschneidung ohne Hyperthreading, die performance wäre wohl auch vergleichbar gewesen. Bei Intel nimmt sich nicht viel zwischen 6/12 und 8/8. Selbst Intel hat im mobilen Bereich immer auf eine SMT Beschneidung verzichtet bei den Core.

Das betrifft ja auch nur den dort getesteten 4700U. SMT soll es ja beim 4800H 4900H und den TDP-reduzierten S-Abwandlungen geben.

Übrigens ein smarter Move von AMD mit dem S-Kürzel. Bisher kann beim 3700U und 3500U jeder Vendor eigene TDPs von 25W bis hinunter zu dauerhaften 12Watt definieren. Nicht viel anders ist es bei der H-Serie. Dadurch gibt es einige sehr langsame raven- und picasso Notebooks und für den Consumer ist das nicht ohne weiteres erkennbar. Wenn für eine H-serie CPU in Zukunft eine gewisse mindest-TDP garantiert werden muss und die CPU ansonsten mit dem S-Kürzel bezeichnet werden muss, hat AMD nach wie vor die Vorteile eines einfacheren SKU-Schemas, einfachere supplychain und lässt den Vendors weiter freie Hand die Kühllösung und Formfaktor selbst zu optimieren. Gleichzeitig schafft das aber Transparenz für die Kunden ob sie jetzt eine 35 oder 45Watt H-serie mit voller Leistung bekommen oder eine gedrosselte 30/25Watt S-Version und man steht in den Benchmarks nicht unverschuldet mit heruntergezogenen Hosen da.

mczak
2019-12-21, 23:32:59
Glaube ich nicht, dann hätte es schon Auffälligkeiten bei den Desktop Zen2 gegeben.
Naja also dafür würde ein simpler BIOS-Fehler reichen der die Kerne nicht richtig nummeriert.
8 Kerne / 8 Threads macht jedenfalls Null Sinn im Mobilbereich und selbst wenn die Angaben in dem Benchmark da tatsächlich stimmen sollten wird eine solche 15W Renoir CPU kaum je verkauft werden.

gmb
2019-12-21, 23:45:55
Naja also dafür würde ein simpler BIOS-Fehler reichen der die Kerne nicht richtig nummeriert.
8 Kerne / 8 Threads macht jedenfalls Null Sinn im Mobilbereich und selbst wenn die Angaben in dem Benchmark da tatsächlich stimmen sollten wird eine solche 15W Renoir CPU kaum je verkauft werden.


Warum null Sinn? Und warum kaum verkauft?

mczak
2019-12-22, 00:08:24
Warum null Sinn? Und warum kaum verkauft?
SMT erhöht die Energieeffizienz (mit kaum verkauft meine ich kommt so nicht auf den Markt).

gmb
2019-12-22, 00:34:48
Das mit dem fehlenden SMT sage ich doch, eine 6/12 Lösung wäre sauberer. Aber die Frage ist doch jetzt: Bringt 8/8 Vorteile gegenüber 4/8 im 15-25W ULV Bereich. Ich denke schon.

SKYNET
2019-12-22, 02:26:48
Warum null Sinn? Und warum kaum verkauft?

weil 6/12 weniger strom brauchen würde als 8/8 ;)

Leonidas
2019-12-22, 05:49:12
https://www.reddit.com/r/Amd/comments/ed9qyr/renoir_apu_ryzen_7_4700u_8c8t_2ghz42ghz_pcmark10/
Anderserseits ist das auch nur PCmark...


PCMark skaliert unsagbar schlecht, da in erheblichem Maßstab Disk- und Speichertests einfließen. Teilweise zwischen Core i3 und Core i7 nur +20% = für echte Prozessoren-Tests unverwendbar.

dildo4u
2019-12-22, 06:08:57
PCMark ist echt komisch 9700k=9900k,3700X=9600k.

https://live.staticflickr.com/65535/49256292723_9c79f1cbfd_z.jpg (https://flic.kr/p/2i3BnLg)benf (https://flic.kr/p/2i3BnLg) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.pcgamer.com/intel-core-i9-9900ks-review/

Berniyh
2019-12-22, 06:35:54
Aber die Frage ist doch jetzt: Bringt 8/8 Vorteile gegenüber 4/8 im 15-25W ULV Bereich. Ich denke schon.
Das hängt vermutlich stark vom Anwendungsfall ab.

Leonidas
2019-12-22, 10:41:56
Ich habe hier mal bessere Benchmark-Werte aus den Einzeltests von PCMark10 herausgesucht:
https://www.3dcenter.org/news/amds-renoir-apu-der-ryzen-4000-uhg-serien-bringt-wohl-gleich-8-cpu-kerne-mit

Laut dem "Photo Score" kommt jener Zen-2-Achtkerner nun beachtbar oberhalb der anderen Prozessoren heraus, auch der Comet-Lake-Sechskerner zeigt einen kleinen Vorteil. Eine wirklich gute Skalierung (wie bei anderen Benchmarks) ist es aber trotzdem noch nicht.




PCMark ist echt komisch 9700k=9900k,3700X=9600k.


Bei den großen Differenzen wird es noch deutlicher: Ein 12-Kerner Ryzen 9 3900X soll nur +48% auf einen Ryzen 5 2400G APU drauflegen - trotz 3x CPU-Kerne und Zen-2-Vorteil?

Nightspider
2019-12-22, 11:34:07
AMD sollte noch eine Spezialvariante auf den Markt bringen bei dem sie die Hersteller verpflichten eine flüssigmetall WLP aufzutragen. Würde die Temps, Verbrauch und die Boostfrequenzen gleich deutlich verbessern. :D

Zur Not muss ich das selbst machen und wie der Bauer, die Spannung leicht senken und den Takt leicht erhöhen. ^^

dildo4u
2019-12-22, 11:36:34
Der größte Nachteil im Notebook wird sein das kaum einer LPDDR4X verbauen wird um Geld zu sparen,nicht nur was Speed angeht sondern auch um Intel beim Verbrauch schlagen zu können.

Nightspider
2019-12-22, 12:10:01
Machts denn preislich so einen krassen Unterschied?

Ich mein es gibt ein 12GB Smartphone mit LPDDR4X und das kostet gerade mal 50€ mehr als die 8GB Variante.

Dann kosten pro 4GB die LPDD4X Variante vielleicht 15-20 Euro mehr?
Das sind pro 16GB 60-80 Euro mehr.

Solange es am Laptop dran steht ob DDR4 oder LPDDR4X verbaut ist ja alles okay.

reaperrr
2019-12-22, 12:34:26
SMT erhöht die Energieeffizienz (mit kaum verkauft meine ich kommt so nicht auf den Markt).
Seit wann das?
In allen entsprechenden Tests, die ich bisher zu dem Thema gelesen habe, hat das Deaktivieren von SMT den Stromverbrauch teils erstaunlich stark gesenkt, während es - jedenfalls bei 8-Kernern - kaum bzw. teils sogar positive Auswirkungen auf die Leistung in Spielen hat.
Natürlich gibt es außerhalb von Spielen Anwendungen, die ganz gut mit SMT skalieren, aber im Endanwender-Bereich ist SMT leistungstechnisch meist vernachlässigbar und in Hinblick auf Perf/W manchmal sogar kontraproduktiv, jedenfalls bei Intel (bei AMD mag der Unterschied geringer sein).

8c/8t sollte im Mittel etwas schneller als 6c12t sein und nicht viel mehr verbrauchen.

Wie auch immer, AMD wird sich da schon was bei gedacht haben.

gmb
2019-12-22, 12:34:53
Machts denn preislich so einen krassen Unterschied?



Siehe hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12090411&postcount=31

Auf ein Gerät macht das nicht viel aus. Die Masse machts, außerdem ist der OEM flexibler wenn der Speicher nicht verlötet wird. Bei den Smartphones kommt aus Platzgründen sowieso nur LPDDR infrage. Bei Icelake haben praktisch alle Geräte über 1000€ LPDDR4 verbaut, die Budget Modelle weit unter 1000€ dagegen nur DDR4.

MadPenguin
2019-12-22, 13:45:35
Ich kann es kaum erwarten endlich eine 4xxx APU mobile in einen miniPC einzupflanzen

davidzo
2019-12-22, 13:52:44
PCMark skaliert unsagbar schlecht, da in erheblichem Maßstab Disk- und Speichertests einfließen. Teilweise zwischen Core i3 und Core i7 nur +20% = für echte Prozessoren-Tests unverwendbar.

Als CPU-Test also unbrauchbar.
Aber an sich eine gute Sache, denn das spiegelt viel mehr wieder was dem Nutzer beim PC-Kauf begegnet. Für die Schwuppdizität entscheidend sind zu großem Anteil auch Storage, RAM und i/o, ja sogar Treiberkonfigurationen. Systeme mit nur der fettesten CPU und größten Festplatte können mitunter endslahm sein. In diesem Sinne gibt PCmark vielleicht mehr das wieder was man als Nutzer erwarten kann.
Nur uns hilft das nicht weiter...

Naja, am 6. Januar wissen wir mehr...
https://www.ces.tech/event/630198.aspx

Wenn das Asus Lineup von 11 Geräten als genereller Indikator für die OEM-Adoption von Renoir gelten kann, dann sollten wir ein Vielfaches an Systemen bekommen als noch mit Picasso - und womöglich auch früher wenn die Systemdaten jetzt schon an den Einzelhandel durchgestochen werden.
Bei X570 im Desktop war die Beite des Lineups der Mainboardhersteller ja auch ein guter Indikator für die zu erwartende Performance...

SKYNET
2019-12-22, 15:59:05
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12090411&postcount=31

Auf ein Gerät macht das nicht viel aus. Die Masse machts, außerdem ist der OEM flexibler wenn der Speicher nicht verlötet wird. Bei den Smartphones kommt aus Platzgründen sowieso nur LPDDR infrage. Bei Icelake haben praktisch alle Geräte über 1000€ LPDDR4 verbaut, die Budget Modelle weit unter 1000€ dagegen nur DDR4.

wenn die hersteller wenigstens freigeben würden XMP profile zu laden, wäre das ja kein problem...

https://geizhals.de/corsair-vengeance-so-dimm-kit-32gb-cmsx32gx4m4x3600c16-a1788622.html

dürfte grad der vega nen ordentlichen schub geben.

Ich kann es kaum erwarten endlich eine 4xxx APU mobile in einen miniPC einzupflanzen

wird nicht passieren, da die dinger nicht gesockelt sind sondern verlötet.



8c/8t sollte im Mittel etwas schneller als 6c12t sein und nicht viel mehr verbrauchen.


nö, da bei gleichem verbrauch die 6/12 höher (ca. 20%) taktet(wenn takt nicht gedeckelt)... ;)

basix
2019-12-22, 16:21:43
Was mich bei Renoir noch interessieren würde: Ob sie den L3 wieder halbieren und die Die Size.

Bei 13 Vega CUs, 8 Cores mit halbiertem L3 und 8x PCIe 4.0 komme ich auf ca. 140-150mm2. Das wäre in etwa so gross wie das 6C Coffee Lake Die: https://en.wikichip.org/wiki/intel/microarchitectures/coffee_lake#Hexa-Core

reaperrr
2019-12-22, 16:32:39
nö, da bei gleichem verbrauch die 6/12 höher (ca. 20%) taktet(wenn takt nicht gedeckelt)... ;)
;D

Auf keinen Fall.

Erstens machen die Kerne nur einen Teil des Gesamt-Verbrauchs aus. Zweitens erfordert mehr Takt auch mehr Spannung, 20% mehr Takt braucht schnell mal 50-100% mehr Saft.
Und drittens führt SMT zu mehr Kern-Auslastung, was wie gesagt auch den Verbrauch des Kerns bei gleichem Takt etwas erhöht.

Ist aber eh Makulatur, da AMD allein schon aus Marketinggründen keinen günstigeren Chip höher takten lässt als die Top-Modelle, maximal gleich hoch, und im Mobile-Bereich auch selten großartige Optionen für OC etc. vorhanden sind.

Blediator16
2019-12-22, 16:40:48
Pcmark by Intel. Wieso nicht gleich noch user bench?

mczak
2019-12-22, 18:30:39
Seit wann das?
In allen entsprechenden Tests, die ich bisher zu dem Thema gelesen habe, hat das Deaktivieren von SMT den Stromverbrauch teils erstaunlich stark gesenkt, während es - jedenfalls bei 8-Kernern - kaum bzw. teils sogar positive Auswirkungen auf die Leistung in Spielen hat.
Ich habe schon lange keine entsprechenden Tests mehr gesehen. Rein von der Theorie her müsste das aber so sein. Stärker ausgelastete Kerne müssten etwas effizienter sein als weniger stark ausgelastete, weil man ja kein Power-Gating oder ähnliches machen kann für einzelne Ausführungseinheiten. Klar der Stromverbrauch steigt auch mit höherer Auslastung aber eben nicht ganz so stark wie die Geschwindigkeit.

CrazyIvan
2019-12-24, 13:36:08
So, die Weihnachtsvorbereitungen sind abgeschlossen. Zeit, um noch ein wenig über Renoir und die zu erwartende Leistung zu spekulieren:

Wovon wir ausgehen können: Die U-Serie wird sicher über 15w TDP und mindestens 25w TDPup (peak) verfügen.
Der wiedermal phenomenale Artikel von Anandtech (https://www.anandtech.com/show/15044/the-amd-ryzen-threadripper-3960x-and-3970x-review-24-and-32-cores-on-7nm/2) zu Threadripper gibt uns konkrete Zahlen zu den Verbrauchswerten der Kerne: 13w @ 4,5 Ghz, 6w @ 4 Ghz und geschätzt 3w @ 3-3,5 Ghz.
Jetzt spekuliere ich mal, dass der Beitrag des uncore Bereichs aufgrund diverser Downgrades und vor allem der monolithischen Bauweise deutlich geringer ausfallen wird, als im Desktop. Ich tippe mal auf 5w - möglicherweise zu optimistisch.

Das ergäbe folgende Szenarien:
Peak Single threaded: 1core @ 4,5 Ghz
Peak lightly threaded: 3core @ 4,0 Ghz
Peak heavy threaded: 8core @ 3-3,5 Ghz
Sustained single threaded: 1core @ 4,0-4,3 Ghz
Sustained lightly threaded: 2core @ 4,0 Ghz
Sustained heavy threaded: 8core @ 2,0-2,5 Ghz

Klingt für mich eigentlich ganz gut - da sind 8 Kerne durchaus gut angelegt. Oder habe ich was übersehen?

basix
2019-12-24, 15:49:53
So, die Weihnachtsvorbereitungen sind abgeschlossen. Zeit, um noch ein wenig über Renoir und die zu erwartende Leistung zu spekulieren:

Wovon wir ausgehen können: Die U-Serie wird sicher über 15w TDP und mindestens 25w TDPup (peak) verfügen.
Der wiedermal phenomenale Artikel von Anandtech (https://www.anandtech.com/show/15044/the-amd-ryzen-threadripper-3960x-and-3970x-review-24-and-32-cores-on-7nm/2) zu Threadripper gibt uns konkrete Zahlen zu den Verbrauchswerten der Kerne: 13w @ 4,5 Ghz, 6w @ 4 Ghz und geschätzt 3w @ 3-3,5 Ghz.
Jetzt spekuliere ich mal, dass der Beitrag des uncore Bereichs aufgrund diverser Downgrades und vor allem der monolithischen Bauweise deutlich geringer ausfallen wird, als im Desktop. Ich tippe mal auf 5w - möglicherweise zu optimistisch.

Das ergäbe folgende Szenarien:
Peak Single threaded: 1core @ 4,5 Ghz
Peak lightly threaded: 3core @ 4,0 Ghz
Peak heavy threaded: 8core @ 3-3,5 Ghz
Sustained single threaded: 1core @ 4,0-4,3 Ghz
Sustained lightly threaded: 2core @ 4,0 Ghz
Sustained heavy threaded: 8core @ 2,0-2,5 Ghz

Klingt für mich eigentlich ganz gut - da sind 8 Kerne durchaus gut angelegt. Oder habe ich was übersehen?

Ich hätte etwa da selbe geschätzt für die 15W SKU, wenn auch auf der unteren Seite deiner Werte. Den 1-Core Boost wird aber eher etwas geringer sein, weil >4 GHz beginnt Zen 2 zu saufen. 4.5 GHz sind da eher zu viel des Guten. Nichtsdestotrotz werden das sehr schöne CPUs. Vermutlich werden die 4C/8T SKUs sogar nahe an einen 10710U herankommen in Cinebench.

CrazyIvan
2019-12-24, 17:37:08
Ja, die 4,5 Ghz sind optimistisch, aber bei gemessenen 13,5w Verbrauch nicht völlig realitätsfremd. Vieles steht und fällt mit dem Verbrauch des uncore Bereichs.
Meinst Du mit Deinem letzten Absatz, dass sogar die 4C8T Modelle mithalten, oder glaubst Du, dass 8C8T und 8C16T aus irgendwelchen Gründen schlechter performen?

basix
2019-12-25, 00:41:28
Ja der Uncore ist hier das Zünglein an der Waage.

Und nö, 6+ Cores werden sicher sehr gut abschneiden. Ich wollte folgendes sagen: Die 4C/8T SKUs werden vermutlich ebenfalls sehr stark. Wenn sie den 4C Intels den Rang ablaufen oder gar an den 6C 10710U ran kommen, gute Nacht Intel. Weil 4C wird bei AMD das neue Low End.

ChaosTM
2019-12-25, 00:51:32
ARSvLiG-5iU


Werden Spiele GPU´s unnötig ?

Complicated
2019-12-25, 02:40:42
Hat sich aber ganz schön verspekuliert der Gute.

Leonidas
2019-12-25, 05:12:18
Konzeptionell ziemlicher Unsinn. AMD braucht im APU-Bereich einen OEM-Pleaser, Halo-Produkte gibt es mittels Threadripper.

Und AMD ist derzeit bezüglich der Ressourcen noch nicht so weit, Spaßprojekte auflegen zu können, wo man einfach mal schaut, wohin das führt bzw. ob ein Markt vorhanden ist. Selbst Threadripper ging seinerzeit nur, weil es kaum Kosten verursachte.

gravitationsfeld
2019-12-25, 07:44:37
APUs mit mainstream Grafik würden sich definitiv verkaufen, wenn das Gesamtsystem billiger ist. Vor Zen war AMD halt immer zum Budget-Bereich verdammt weil CPU seitig kein Land zu sehen war.

basix
2019-12-25, 10:43:15
Jepp.

Habe schon im Navi Thread geschrieben: Was ist wenn Navi 12 ein GPU-Chiplet mit ca. 1024 CUs ist? https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12173427#post12173427

Einer kam dann noch auf die Idee, HBM draufzustapeln.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12174338#post12174338

Schlussendlich hätte man mit Minimalaufwand von Chipfläche eine GPU bis max. 50W an Renoir angeflanscht. Stromverbrauch bei IF-Anbindung sollte im Vergleich zu PCIe ebenfalls geringer sein. Man könnte günstiger anbieten, da nicht zwingend dedizierte Stromversorgung nötig ist usw. und könnte sich den RDNA Vorteil dennoch zunutze machen. Vega hat den Vorteil schon verfügbar gewesen zu sein und ausserdem pro CU deutlich weniger Chipfläche als RDNA zu beanspruchen. Für Browser-Surfing und Youtube reicht auch Vega locker.

Berniyh
2019-12-25, 10:51:26
Die Idee ist doch ewig alt.
Bislang gab es überhaupt keine Hinweise auf GPU Chiplets, stattdessen massig Hinweise auf monolithische APUs etc.

Zudem gibt es bislang auch keinen Hinweis auf eine RDNA APU. Das Einzige was in die Richtung geht ist Van Gogh, was aber angeblich schon RDNA2 mitbringt, d.h. auch wieder nicht Navi12 sein kann.

Complicated
2019-12-25, 12:59:59
Eben, AMD hat doch ein Chiplet-Design für APUs derzeit auch klar dementiert. Ich glaube für Matisse sogar explizit. Ich wüsste auch nicht ob es sinnvoll ist nun aus dem nichts auf dem neuesten Fertigungsprozeß mit einer Chiplet-GPU ums Eck zu kommen.
Der Stromhunger der IF-Verbindungen spricht auch hier eher dagegen, wenn man mit den effizienten Designs von Intel mithalten möchte.

Fällt denn keinem auf, dass die kleinste Chiplet-SKU ein 6-Kerner ist? Alles unterhalb des Ryzen 5 3500 sind monolithische Zen+-APUs im 3000er-Lineup. Je weniger Kerne, desto höher der Anteil beim Stromverbrauch für den "uncore".

Wenn Renoir tatsächlich mit 8/16-Cores/Threads bis 45 W TDP ins Notebook kommen soll, dann kann da nicht alleine 27W für die Anbindung verbraucht werden. Egal wie effizient die Kerne selber sind. Aber andererseits erhält man sehr viel TDP-Spielraum für die Kerne, wenn man IF wegläßt, verglichen mit den Desktop-Chiplet-Designs. Hier gibt es wohl einen Break-Even, der beim Design allerdings schon bekannt ist und entsprechend berücksichtigt wird.

Wie das mit Zen+ aussieht hat Anandtech sehr schön ausgearbeitet:
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4
AMD’s product here gives two interesting data points. Firstly, when the cores are weakly loaded, the IF + DRAM controller + IO accounts for a massive 43% of the total power of the processor. This is compared to 4% for the i7-8700K and 19% for the i9-7980XE. However, that 43% reduces down to around 25% of the full chip, but this is still on par with the bigger mesh based processor from Intel.

Another interesting point is that the combined non-core power doesn’t change that much scaling up the cores, going from ~17.6W to ~25.7W. For the big Intel chip, we saw it rise from ~13.8W up to beyond 40W in some cases.
Da hast du dann 16 Threads und die benötigen 25W für den uncore. Mit den verbliebenen 20 W Powerbudget stehst du dann aber mit sehr wenig All-Coretakt da für 8-Cores inkl. SMT.

y33H@
2019-12-25, 13:29:49
Ich checke das mal die Tage mit dem 3700X, der ist ja ziemlich auf Effizienz getrimmt seitens AMD ... rein aus Interesse, denn Matisse ist ja ein Chiplet Design mit 12 nm I/O.

SKYNET
2019-12-25, 13:43:19
Konzeptionell ziemlicher Unsinn. AMD braucht im APU-Bereich einen OEM-Pleaser, Halo-Produkte gibt es mittels Threadripper.

Und AMD ist derzeit bezüglich der Ressourcen noch nicht so weit, Spaßprojekte auflegen zu können, wo man einfach mal schaut, wohin das führt bzw. ob ein Markt vorhanden ist. Selbst Threadripper ging seinerzeit nur, weil es kaum Kosten verursachte.

och, wäre mir da nichtmal so sicher das AMD sowas nicht machen würde, immerhin labeln sie inzwischen auch 2600er als 1600er nur damit sie weiterhin stuff haben, das deutlich besser ist als die intels in dem preisbereich.

zitat igor nachdem ich fragte "ist also nur um intel weiterhin ans bein zu pissen" --> "so könnte man es sagen" ;D

und bei 5nm ist eh der neue AM5 sockel da, ich denke der wird nen wenig grösser ausfallen(grössenmässig was zwischen TRX40 und AM4 jetzt) spekuliere auch, das AMD quadchannel auf mainstream einführen wird, und die HEDT dann das schon für TRX spekulierte octachannel interface bekommen.

mit quadchannel und DDR5 wird auch HBM2 für ne IGP relativ obsolent --> 204GB/s

Setsul
2019-12-25, 14:48:20
Bei diesen ganzen Chiplet-APU Spekulationen sollte man sich immer fragen "was bringt das?".
Die meisten fragen "geht das?", die Antwort ist ja, also muss es kommen.

Aber was bringt eine Chiplet-APU? Bei 100 oder 200W TDP ist der Vorteil klar, einfach existierende Chips mit IF nehmen und fertig. Fixkosten 0, billiger gehts nicht. Stückkosten praktisch identisch zu einer monolithischen APU, wenn nicht sogar besser wegen Yields.
Bei Low Power/Mobile ist es etwas anders. In dem Bereich von 3 bis maximal 14 CUs (eher wieder 11) verkauft AMD teilweise noch GCN1. Bei nVidia gibts dort immernoch 1030/1050 gefertigt bei Samsung. Da gibts wenig Geld zu holen also gibts auch nur selten neue Chips und wenn dann auf billigeren Prozessen. Gut, man könnte jetzt dem Bereich was Gutes tun und einen neuen Chip mit neuer Architektur auf neuem Prozess auflegen der eben auch als Chiplet verwendet wird. Aber was bringt das? Die Zahl der Chips reduziert sich nicht egal ob man ein Chiplet auflegt oder eine monolithische APU. Bei den Stückkosten bringts auch nichts. 12nm IOD ist etwas billiger, aber dafür schleppt man IF und DDR/GDDR auf dem Chiplet mit rum, das kostet auch Fläche. Bei 50$ dGPUs ist der neuere Prozess eher ein Nachteil als ein Vorteil. Wenn man alles bis runter zu 3 CUs verkaufen kann sind Yields auch kein Problem. Stromverbrauch steigt etwas im Vergleich zur monolitischen APU, auch ein Nachteil bei Mobile.
Man könnte natürlich auch ein Chiplet nur für die APU ohne DDR/GDDR auflegen aber dann wirds völlig sinnlos.

Also welchen Grund gäbe es für eine Low Power Chiplet-APU?

mironicus
2019-12-25, 14:51:23
Wieviel weniger Performance hat ein Renoir mit 8/16 Kernen wohl gegenüber einem 3700x bei 45 Watt TDP? Wahrscheinlich werden Notebooks aber wohl gerne mal kurzfristig mehr schlucken dürfen. Arbeiten die Renoir-Notebooks wohl auch mit PCIe 4.0 oder macht das wohl momentan keinen Sinn?

Complicated
2019-12-25, 16:11:49
Ich checke das mal die Tage mit dem 3700X, der ist ja ziemlich auf Effizienz getrimmt seitens AMD ... rein aus Interesse, denn Matisse ist ja ein Chiplet Design mit 12 nm I/O.
Gute Idee.
Hier hat das mal jemand auf dem Ryzen 7 2700X demonstriert. 16 Threads bei 15W takten 550 MHz. Bei 35 W ist es immerhin schon etwas mehr mit schwankend zwischen 2,8 und 3,2 GHz. Der hat allerdings keinen I/O-Chip.
https://www.reddit.com/r/Amd/comments/9mxs88/ryzen_7_2700x_ctdp_test_15w_vs_35w_vs_65w_vs_auto/

Hach hier den Acer Predator Helios 500 gefunden mit R7 2700 und Vega 56:
https://www.tomshardware.com/reviews/acer-predator-helios-500-amd-ryzen,5566.html
Davon träumen ja alle immer...17" und 1:30 Akkulaufzeit. Ich weiss nicht warum das manche haben wollen und dann das Ding sowieso immer an der Steckdose betreiben. Das Intel -Modell schafft eine Stunde länger (Intel Core i9-8950HK + Nvidia GTX 1070). Die volle Leistung rufen die auch nur ab, wenn der Stromstecker drin ist und ein entsprechendes Powerprofil aktiv ist.

Berniyh
2019-12-25, 16:20:22
Das kann man nicht vergleichen. Wenn man GPU, CPU und IO bei einer (mobilen) APU trennen würde, dann wäre auch das IO die deutlich anders.
Einerseits aus Platzgründen, andererseits, weil das IO Die für Mobile überdimensioniert ist.
Was will man denn mit den ganzen PCIe Lanes anfangen?
Zumal dann bei PCIe 4.0.
Mit 12-16 Lanes würde man da wohl schon auskommen. Einen Chipsatz bräuchte es evtl. auch nicht unbedingt, insbesondere, sollte WLAN/BT wirklich in die CPU integriert werden.
Mehr als 3 USB Anschlüsse haben ja die wenigsten Notebooks. SATA o.ä. gibt es ja nicht.
Bleiben also SSD, USB Anschlüsse und Sound-Chip. evtl. bei manchen noch eine zusätzliche, dedizierte GPU.
Aber 16 PCIe 4.0 Lanes für die GPU wären im mobilen Bereich wohl ziemlich Overkill (und Stromverschwendung).

Was ist denn eigentlich stromsparender? 8 Lanes PCIe 4.0 oder 16 Lanes PCIe 3.0?

Odal
2019-12-25, 16:33:48
chiplet design ala zen2 ist viel zu ineffizient für geringe bzw. Teillast. Da verbraucht ja schon allein der IO Chip mehr als eine Notebook CPU. Das Chiplet Design taugt gerade so noch für den Desktop aber würde im Laptop total failen.
Und wenn AMD irgendwo noch liefern müsste dann sind es für Notebooks

MR2
2019-12-25, 18:05:44
Kommt egtl Renoir erstmal "nur" für Notebooks, oder auch gleich für Desktop?

Würde ich auch gerne wissen.
"The desktop parts will be coming out a little bit later considering the Ryzen 5 3400G and the Ryzen 3 3200G launched recently."

"a little bit" können auch paar Monate sein, oder?
Sämtliche Verwandten und Bekannten brauchen nen neuen Rechner. Windows7 läuft eben aus. Der 3400G ist schon OK, aber n schöner 6 Kerner mit schnellerer integrierter Grafik wäre mir lieber, weil zukunftssicherer. Der R5 2600 wäre super, aber ne gescheite leise Grafikkarte wohl wieder zu teuer....

Berniyh
2019-12-25, 18:26:43
chiplet design ala zen2 ist viel zu ineffizient für geringe bzw. Teillast. Da verbraucht ja schon allein der IO Chip mehr als eine Notebook CPU. Das Chiplet Design taugt gerade so noch für den Desktop aber würde im Laptop total failen.
Und wenn AMD irgendwo noch liefern müsste dann sind es für Notebooks
So wie es aktuell am Desktop umgesetzt ist: ja, definitiv zu ineffizient

Aber bedenke, dass das auch die erste Iteration ist. Wir wissen nicht ob und wie viel das in Zukunft verbessert werden kann.
Dass da ggf. noch Potential drin ist sieht man ja am X570. In den ersten Monaten wurden hier praktisch in jedem Test grob +5W gegenüber X470 gemessen.
Neuere Tests mit neuem BIOS/AGESA zeigen da aber eher einen Gleichstand bei entsprechenden Einstellungen.

Dazu eben noch, dass man sicherlich für Notebooks so ein IO Die neu designen würde mit weniger PCIe Lanes und ggf. auch anderen Anpassungen.
Ob das dann reicht um effizient genug zu sein? keine Ahnung.
Zumindest für die aktuelle und auch nächste Generation wohl eher nicht, denn die kommen ja – soweit bekannt – alle monolothisch.
Aber für die übernächste? Wir werden sehen …

Complicated
2019-12-25, 18:29:19
chiplet design ala zen2 ist viel zu ineffizient für geringe bzw. Teillast. Da verbraucht ja schon allein der IO Chip mehr als eine Notebook CPU. Das Chiplet Design taugt gerade so noch für den Desktop aber würde im Laptop total failen.
Warum eigentlich immer diese Schwarz/Weiss und alles übertreiben Polemik?
Ein eigener IO-Chip für mobile wäre ja wohl das kleinste Problem.
"viel zu ineffizient" ist genauso undifferenziert wie "total failen"

Nightspider
2019-12-25, 19:43:27
Welche Bandbreite liefert Infinity Fabric eigentlich? Ließen sich größte APUs eigentlich so einfach realisieren?

HBM ließ sich wegen der winzigen Lötkugeln nicht so einfach auf das PCB setzen richtig?
Könnte man nicht so etwas wie einen Mini-Sockel (kleiner Interposer) an 2 HBM stacks löten und dann die breiteren Sockel auf das PCB setzen ohne dass gleich die ganze APU oder Chiplets auf einen Interposer müssen?

basix
2019-12-25, 20:06:18
Ich glaube einige haben meinen Punkt nicht verstanden: Renoir IST monolithisch, das ist für mich keine Frage. Es geht darum, dass man die APU mit einem Chiplet erweitern könnte. Im Prinzip genau das, was Intel mit Kaby Lake-G gemacht hat. Aber mit dem entscheidenden Unterschied, dass man via Infinity Fabric anbinden kann und sich den Display Controller, VCE usw. sparen könnte, da die Vega iGPU das ja schon beinhält.

Berniyh
2019-12-25, 20:22:31
Welche Bandbreite liefert Infinity Fabric eigentlich? Ließen sich größte APUs eigentlich so einfach realisieren?
https://en.wikipedia.org/wiki/List_of_interface_bit_rates#Computer_buses

PCI Express 4.0 (×16 link) 256 Gbit/s 31.51 GB/s 2018
PCI Express 5.0 (×16 link)[ 512 Gbit/s 63.02 GB/s 2019
Infinity Fabric (Max theoretical) 4.096 Tbit/s 512 GB/s 2017

Wie viel in den CPUs real weiß ich jetzt nicht, aber wenig wird es nicht sein.
Das Problem dabei ist aber auch nicht die Bandbreite, sondern die Latenz und (für manche Andwendungen bzw. Szenarien) der Energieverbrauch.
HBM ließ sich wegen der winzigen Lötkugeln nicht so einfach auf das PCB setzen richtig?
HBM wird ja in GPUs schon eingesetzt, also ist das ein gelöstes Problem.
Zudem ging es hier jetzt ja eher um Stacking, d.h. Aufsetzen des HBM auf ein (oder mehrere) Chiplet(s).

Nightspider
2019-12-25, 20:27:57
Da werden ja auch große Interposer verwendet.

Von stacking spreche ich ja nicht.

Odal
2019-12-25, 21:18:03
Warum eigentlich immer diese Schwarz/Weiss und alles übertreiben Polemik?
Ein eigener IO-Chip für mobile wäre ja wohl das kleinste Problem.
"viel zu ineffizient" ist genauso undifferenziert wie "total failen"


Das ist keine Schwarz/Weiss Polemik. Die Interconnects kosten halt ordentlich Energie (das hat sich mit Zen2 sicher nicht geändert eher im Gegenteil da der IO noch in separates Silicium wanderte).

https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4


Und wäre 7nm nicht generell so sparsam würde man hier auch im Desktop nicht so gut aussehen.
Die CPU Dies brauchen kaum was (deswegen gibts auch keine riesen Unterschiede zw. Load und fast Idle) für Notebooks ist das aber ungeeignet. Im Notebook will man vielleicht mal kurz auf 20Watt boosten. Da bringts dann auch nix den IO Chip von 15Watt auf 10 Watt zu drücken. Das ist immer noch viel zu viel für Notebooks von der zusätzliche Power fürs IF mal ganz zu schweigen.

dildo4u
2019-12-25, 21:26:33
Den 12 Core gibt es doch als 65Watt Modell dürfte hier locker reinpassen.

Balanced – CPU limited at 90 W and 4.2x multiplier, GPU limited at 140 W

https://www.ultrabookreview.com/27215-asus-rog-g703gx-review/

Deinorius
2019-12-25, 21:28:28
Ich glaube einige haben meinen Punkt nicht verstanden: Renoir IST monolithisch, das ist für mich keine Frage. Es geht darum, dass man die APU mit einem Chiplet erweitern könnte. Im Prinzip genau das, was Intel mit Kaby Lake-G gemacht hat. Aber mit dem entscheidenden Unterschied, dass man via Infinity Fabric anbinden kann und sich den Display Controller, VCE usw. sparen könnte, da die Vega iGPU das ja schon beinhält.


Wenn du dir den DIE von Raven Ridge anschaust, wirst du sehen, dass die Display Engine und der Multimedia Controller nicht direkt Teil der iGPU sind.
Selbst wenn so etwas irgendwann kommen würde, muss ich mich fragen, ob es nicht gerade für den mobilen Bereich besser wäre, wenn die APU zumindest die 2D Engine, VCE, Display Engine und einen kleinen 3D Bereich in der APU beinhalten würde, z.B. 3 CUs. Die Vega iGPU in Raven Ridge braucht über 60 mm² für 11 CUs (oder 12 wegen Redundanz?). Unter 7 nm wäre das winzig. Wäre für die mobile Nutzung ausreichend und sehr stromsparend. Im GPU Chiplet, wie auch immer das realisierbar wäre, bräuchte man keine Display Engine oder VCE, wenn man das vernünftig anbinden kann. Natürlich könnte man dieses Chiplet wohl kaum mit dem RAM anbinden, aber HBM?
Dazu kommt noch das so ein Chiplet extra designt und produziert werden müsste. Wäre interessant, ob sich OEMs dafür interessieren würden.

Screemer
2019-12-25, 21:34:51
Das ist keine Schwarz/Weiss Polemik. Die Interconnects kosten halt ordentlich Energie (das hat sich mit Zen2 sicher nicht geändert eher im Gegenteil da der IO noch in separates Silicium wanderte).

https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4


Und wäre 7nm nicht generell so sparsam würde man hier auch im Desktop nicht so gut aussehen.
Die CPU Dies brauchen kaum was (deswegen gibts auch keine riesen Unterschiede zw. Load und fast Idle) für Notebooks ist das aber ungeeignet.
Als würde es eine großen Unterschied machen ob die phys, die den meisten Saft brauchen, im monolitischen kern oder sparst in nem I/o die sind. Der interconnect muss auch auf nem monolithischen Kern vorhanden sein. Dazu kommt noch, dass du für einen mobile I/o massig interconnects einsparen kannst. Das geht bei der neben den phys nötigen Logic los und endet bei irgendwelchen Peripherieanbindung.

unl34shed
2019-12-25, 22:00:10
Wird schon etwas sparsamer, da das Signal im Chip bleibt und die distanz kürzer ist. Das spart schon Energie, aber ob es wirklich nennenswert ist??

Complicated
2019-12-25, 22:57:51
Es geht darum, dass man die APU mit einem Chiplet erweitern könnte. Im Prinzip genau das, was Intel mit Kaby Lake-G gemacht hat. Aber mit dem entscheidenden Unterschied, dass man via Infinity Fabric anbinden kann und sich den Display Controller, VCE usw. sparen könnte, da die Vega iGPU das ja schon beinhält.
Ich sehe halt nicht was da auf dem Chiplet Mehrwert bringen soll, wenn man sowieso einen monolithische APU mit 8 Kernen hat. Was soll auf das Chiplet drauf? GPU? CPU? Das monolithische Design nimmt doch alles auf bis 95 W TDP, wenn nötig. Wozu noch IF verbauen und mehr Silizium aufwenden für ein weiteres Chiplet?

Kaby Lake war ja eine CPU(mit iGPU) die eine mobile GPU mit HBM ganz normal via 8xPCIe angebunden hat. Das war kein integriertes Design, sondern einen klassische mobile diskrete GPU. Lediglich der HBM Speicher war via EMIB an die GPU angebunden.

https://ark.intel.com/content/www/de/de/ark/products/130409/intel-core-i7-8809g-processor-with-radeon-rx-vega-m-gh-graphics-8m-cache-up-to-4-20-ghz.html
Separate Grafikkarte: Radeon™ RX Vega M GH Grafik



Das ist keine Schwarz/Weiss Polemik. Die Interconnects kosten halt ordentlich Energie (das hat sich mit Zen2 sicher nicht geändert eher im Gegenteil da der IO noch in separates Silicium wanderte).

https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4

Was du nicht sagst....


Wenn Renoir tatsächlich mit 8/16-Cores/Threads bis 45 W TDP ins Notebook kommen soll, dann kann da nicht alleine 27W für die Anbindung verbraucht werden. Egal wie effizient die Kerne selber sind. Aber andererseits erhält man sehr viel TDP-Spielraum für die Kerne, wenn man IF wegläßt, verglichen mit den Desktop-Chiplet-Designs. Hier gibt es wohl einen Break-Even, der beim Design allerdings schon bekannt ist und entsprechend berücksichtigt wird.

Wie das mit Zen+ aussieht hat Anandtech sehr schön ausgearbeitet:
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4


Und wäre 7nm nicht generell so sparsam würde man hier auch im Desktop nicht so gut aussehen.Da Zen+ und die Ryzen 2xxx Serie in 12nm gefertigt ist, bist da offensichtlich falsch informiert.

Complicated
2019-12-25, 23:25:27
Welche Bandbreite liefert Infinity Fabric eigentlich? Ließen sich größte APUs eigentlich so einfach realisieren?

HBM ließ sich wegen der winzigen Lötkugeln nicht so einfach auf das PCB setzen richtig?
Könnte man nicht so etwas wie einen Mini-Sockel (kleiner Interposer) an 2 HBM stacks löten und dann die breiteren Sockel auf das PCB setzen ohne dass gleich die ganze APU oder Chiplets auf einen Interposer müssen?
Das macht ja Intel mit EMIB. So ist HBM bei der Kaby Lake Vega angebunden. Allerdings hatte HBM2 das von dir beschriebene Problem nicht meines Wissens nach. Im Base-Die sind die ganzen Anbindungen und PHYs untergebracht.



https://www.pcgameshardware.de/screenshots/original/2018/05/Intel-Kaby-Lake-G-Presentation-6-pcgh.jpg


Details zu Intels EMIB findest du hier:
https://www.planet3dnow.de/vbulletin/threads/424860-EMIB-Intels-Interposer-Alternative-fuer-Multi-Chip-Packages

Zum Thema Infinity Fabric:
Zen
IFOP (OnPackage): For a system using DDR4-2666 DIMMs, this means the CAKEs will be operating at 1333.33 MHz meaning the IFOPs will have a bi-directional bandwidth of 42.667 GB/s.
IFIS (Inter-Die): For a system using DDR4-2666 DIMMs, the CAKEs will be operating at 1333.33 MHz meaning the IFIS will have a bidirectional bandwidth of 37.926 GB/s.

Zen2:
https://en.wikichip.org/wiki/amd/microarchitectures/zen_2
Infinity Fabric 2
2.3x transfer rate per link (25 GT/s, up from ~10.6 GT/s)
Decoupling of MemClk from FClk, allowing 2:1 ratio in addition to 1:1
DDR4-3200 support, up from DDR4-2933

Macht dann aktuell für IFOP 98 GB/s und für IFIS 87 GB/s

basix
2019-12-26, 02:09:29
https://en.wikipedia.org/wiki/List_of_interface_bit_rates#Computer_buses

Wie viel in den CPUs real weiß ich jetzt nicht, aber wenig wird es nicht sein.
Das Problem dabei ist aber auch nicht die Bandbreite, sondern die Latenz und (für manche Andwendungen bzw. Szenarien) der Energieverbrauch.

Die 512 GB/s kommen von Vega (on-chip), da entsprechende Speicherbandbreite vorhanden ist. Bei Vega 7 sind es sicher 1 TB/s.

Wenn du dir den DIE von Raven Ridge anschaust, wirst du sehen, dass die Display Engine und der Multimedia Controller nicht direkt Teil der iGPU sind.
Selbst wenn so etwas irgendwann kommen würde, muss ich mich fragen, ob es nicht gerade für den mobilen Bereich besser wäre, wenn die APU zumindest die 2D Engine, VCE, Display Engine und einen kleinen 3D Bereich in der APU beinhalten würde, z.B. 3 CUs. Die Vega iGPU in Raven Ridge braucht über 60 mm² für 11 CUs (oder 12 wegen Redundanz?). Unter 7 nm wäre das winzig. Wäre für die mobile Nutzung ausreichend und sehr stromsparend. Im GPU Chiplet, wie auch immer das realisierbar wäre, bräuchte man keine Display Engine oder VCE, wenn man das vernünftig anbinden kann. Natürlich könnte man dieses Chiplet wohl kaum mit dem RAM anbinden, aber HBM?
Dazu kommt noch das so ein Chiplet extra designt und produziert werden müsste. Wäre interessant, ob sich OEMs dafür interessieren würden.

Genau so wie du es beschreibst meine ich es ja auch (und habe es auch so geschrieben ;)). Alles nötige ist auf der APU, die Compute-Erweiterung ist auf dem Chiplet. Günstige und Office only Geräte kommen ohne Chiplet. Stärkere Geräte mit Chiplet. HBM wäre nur noch das Tüpfelchen auf dem i.

@Complicated:
Auf das Chiplet soll eine GPU. Es geht darum, dass man mit dem Chiplet allenfalls eine dedizierte Grafikkarte ersetzen kann, mit deutlich geringerem Footprint als auch energieeffizienter. Wieso IF? Viel kleiner und energieeffizienter als PCIe. Ausserdem kann das Chiplet aus reinen CUs bestehen und dem IF-Link. Also ein CCD mit RDNA anstatt Zen 2. Apple würde dir das aus den Händen reissen, insbesondere mit HBM. Mit schnellem LPDDR4 kann man auch über den Hauptspeicher gehen. Ist immer noch 2x schneller als die heute schnellste APU.

Sobald man > 50W GPU-Leistung geht, kann man Navi 14 nehmen.

reaperrr
2019-12-26, 02:40:01
Die Vega iGPU in Raven Ridge braucht über 60 mm² für 11 CUs (oder 12 wegen Redundanz?).
11 ist Vollausbau, kann man auf Die-Shots sehen.

Unter 7 nm wäre das winzig.
Jep, und genau das dürfte auch einer der Hauptgründe sein, warum Renoir offenbar nur 2, höchstens 3 zusätzliche CUs auf dem Die hat.

RR hängt ja mit 11 CUs im Desktop schon heftigst im Bandbreitenlimit (3200G quasi auf 2400G-Niveau in Spielen), und außer Support für etwas schnelleren RAM sowie vielleicht mit Glück noch verdoppelten GPU-L2-Cache wird sich da bei Renoir nicht viel dran ändern.
Noch mehr CUs hätten da nur unnötig Fläche verbraten, zumal ja dank 7nm auch noch (deutlich) höhere Taktraten möglich sein werden.

Das erklärt mMn auch, warum es bei den Desktop-Modellen bei "B10" (also vermutlich 10 oder maximal 11 CUs) bleiben wird: die 2-3 zusätzlichen CUs würden quasi keinen Unterschied machen, aber den Verbrauch je MHz und v.a. die benötigte Ausbeute an Chips mit entsprechend funktionierenden CUs erhöhen, für quasi nix an echtem Mehrwert, da ~300 MHz mehr Takt selbst bei 10 CUs mehr als ausreichen würden, um das Bandbreitenlimit bis zum Anschlag auszureizen.

robbitop
2019-12-26, 09:00:45
Ich glaube einige haben meinen Punkt nicht verstanden: Renoir IST monolithisch, das ist für mich keine Frage. Es geht darum, dass man die APU mit einem Chiplet erweitern könnte. Im Prinzip genau das, was Intel mit Kaby Lake-G gemacht hat. Aber mit dem entscheidenden Unterschied, dass man via Infinity Fabric anbinden kann und sich den Display Controller, VCE usw. sparen könnte, da die Vega iGPU das ja schon beinhält.

Ggf ist das aber kein sinnvolles Produkt für den Markt. Kabylake-G war ein Flop und das weiß auch AMD. Warum sollte man das nochmal machen? ;)
Wenn Ressourcen knapp sind, ist es sinnvoll sich auf Produkte zu konzentrieren, die am wichtigsten sind. Jedes Tapeout kostet Geld.

basix
2019-12-26, 10:51:07
Ggf ist das aber kein sinnvolles Produkt für den Markt. Kabylake-G war ein Flop und das weiß auch AMD. Warum sollte man das nochmal machen? ;)
Wenn Ressourcen knapp sind, ist es sinnvoll sich auf Produkte zu konzentrieren, die am wichtigsten sind. Jedes Tapeout kostet Geld.

Ich denke das hatte zwei Gründe: Intels Lineup / Pricing und Vega war gegen Pascal im Nachteil. Das Produktkonzept an sich wäre ja sexy. Stell dir all die Laptopts mit Nvidia 750M bis 1650M vor, welche man mit einem kleinen <100mm2 Chiplet angreifen könnte. Damit wäre man viel kosteneffizienter als die Konkurrenz. Die grosse Frage ist einzig ind allein Bandbreite. Stacked RAM on top wäre der Königsweg, wohl aber auch etwas teuer. Würde man stacken, könnte man das Chiplet sogar in Richtung EPYC verwerten.

Ob die Zei reif für so etwas ist? Ich weiss nicht. Ohne zusätzliche Bandbreite lohnt sich der Aufwand vermutlich nicht.

CrazyIvan
2019-12-26, 10:51:52
Wird schon etwas sparsamer, da das Signal im Chip bleibt und die distanz kürzer ist. Das spart schon Energie, aber ob es wirklich nennenswert ist??

Gipsel hatte hierzu schonmal konkrete Zahlen auf den Tisch gelegt. IIRC ist das schon signifikant, da für die Datenschubserei mittlerweile ordentlich Saft draufgeht.

mironicus
2019-12-26, 11:14:19
Ggf ist das aber kein sinnvolles Produkt für den Markt. Kabylake-G war ein Flop und das weiß auch AMD. Warum sollte man das nochmal machen? ;)
Wenn Ressourcen knapp sind, ist es sinnvoll sich auf Produkte zu konzentrieren, die am wichtigsten sind. Jedes Tapeout kostet Geld.

Intel hätte Kaby Lake-G auch mit 6 bzw. 8. Kern-CPU kombinieren können, sozusagen wäre dies die Grundlage für einen klassischen Dell XPS oder zumindest Macbook sein können. Aber das Scheitern ist wohl eher einem ideologischen Grund zuzurechnen (nicht zuviel AMD bei Intel). Intel hat die Treiberpflege für Kabylake-G auch schon seit einem Jahr eingestellt (kein Treiber mehr von Intel für die AMD-GPU).

Odal
2019-12-26, 11:32:32
Was du nicht sagst....


Da Zen+ und die Ryzen 2xxx Serie in 12nm gefertigt ist, bist da offensichtlich falsch informiert.


Muss ich das verstehen? Wenn bei Zen+ (in 12nm) der Power Consumption Anteil vom IF bei geringer Last schon bei fast 50% liegt dann bei Zen2 dank sparsamerer 7nm Dies ja wohl noch höher.

Complicated
2019-12-26, 12:08:47
Du verstehst nicht, dass wir ein und das selbe schreiben. Ich hatte dich lediglich gebeten nicht so polemisch "fail" und "geht gar nicht" zu schreiben. Etwas differenzierterer Umgang mit den Möglichkeiten, die wir hier im Forum teilweise nicht richtig vorhersehen können. Ich störe mich lediglich an einigen Begrifflichkeiten die du verwendest. Nichts das wir ausdiskutieren müssen. Du kannst den Hinweis annehmen oder es sein lassen.
(Das andere war eine Korrektur, da du im Zusammenhang mit Anandtechs Artikel 7nm so verwendet hast, als ob Zen+ in 7nm gefertigt wäre)

Nightspider
2019-12-26, 12:09:46
Bei den APUs in Laptops war der Uniefied Memory doch gar nicht so wichtig.
Wenn man schon darüber nachdenkt die GPU mittels HBM zu beschleunigen könnte man doch auch gleich schon 4-8GB GDDR6 für die schnelleren Renoir Lösungen anbieten. Mit leicht reduziertem Takt und Spannungen wäre das doch effizient genug und nicht so teuer wie HBM.

Gab's einen triftigen Grund dafür dass das gar nicht mehr in Betracht gezogen wird?

Glaub das früher ja mal nur am Uniefied Speicher aber dadurch bremst man sich halt auch selbst sehr aus.

mironicus
2019-12-26, 12:14:47
Ich gehe mal davon aus, dass wir Spielelaptops mit Renoir und RTX 2080 bzw. 5700M kombiniert sehen, die praktisch ein Gegenangebot zu den Intelversionen sind und denen in nichts nachstehen. Dann bricht wieder ein weiteres Monopol von Intel.

mboeller
2019-12-26, 13:09:28
den Verbrauch der Datenschubserei kann man anscheinend um den Faktor 20 reduzieren, wenn man einen aktiven Interposer einsetzt:

https://www.electronicsweekly.com/news/design/communications/more-on-leti-3d-on-chip-network-uses-active-interposer-2016-07/


“The chip requires 20 times less energy for data transmission than chips placed on an electronic circuit board,”


Der Unterschied zw. monolithisch und Chiplet - Design könnte damit nur noch gering sein

Complicated
2019-12-26, 13:36:02
Nicht nur das. Es gibt ein wissenschaftliches Papier über die Kosten/Nutzen des aktiven Interposers.

Es würden 10% aktive Fläche ausreichen und die Yield würde lediglich um 0,1% schlechter gegenüber passiven Interposern (die praktisch bei 98,5% liegt, da ja nichts kaputt gehen kann an Schaltungen und zudem ein billiger Bulk-Prozeß zwischen 45nm und 12nm verwendet werden kann.)

Auf Seite 14 hast du die Zahlen zu den Yields mit unterschiedlichen Anteilen an aktiven Elemente auf dem Interposer und in Kapitel 4 zur NoC-Architektiur wie das ganze Vorteile bringt und was weiterführend nötig ist. Auf Seite 25 ist eine gute schematische Darstellung wie das unterschiedlich angebunden wird bei aktiven und passiven Interposern.
https://tspace.library.utoronto.ca/bitstream/1807/70378/3/Kannan_Ajaykumar_201511_MAS_thesis.pdf

Sehr interessant sind auch die Ausführungen über die Topology der möglichen Mesh-Konzepte.
Das unter 4.3.1 gezeigte "Misaligned Topology" ist z.B. etwas, das erst durch aktive Interposer äußerst spannend wird und z.B. mit Intels EMIB nicht nachgebaut werden kann. Oder sagen wir nur wenn um jedes Chiplet rundherum eine EMIB-Brücke gelegt wird, was die Technik ad absurdum führen würde, also nicht sinnvoll nachgebaut werden kann.

Nightspider
2019-12-26, 13:36:59
Da wird halt auch nirgends erklärt woher die Einsparungen kommen sollen.
Die Wege, sprich die Leiterbahnen sind mit aktivem Interposer ein bisschen kürzer als wenn die Chips direkt daneben platziert werden.

Dennoch müssen die Signale aus einem Chip raus und es unterscheidet sich nur die Länge der Leiterbahn oder?

Complicated
2019-12-26, 13:46:22
Das siehst du auf Seite 36 des von mir verlinkten Dokuments, Kapitel 5.2.4.

Nightspider
2019-12-26, 13:59:52
Da steht auch nix relevantes.
Mein Vergleich zwischen aktivem und passiven Interposer oder PCB.
Da werden verschiedene Routing Methoden für Interposer verglichen.

Complicated
2019-12-26, 14:06:17
Das hast du in 15 min erfolgreich überlesen? Na dann...
Vielleicht hat ja jemand noch eine weitere Quelle.

Nightspider
2019-12-26, 14:11:27
Die Folien sind ja nicht neu und ein Inhaltsverzeichnis gibt's auch.

KarlKastor
2019-12-26, 15:14:19
Extra Speicher für die GPU lohnt nicht. Das sind Nischenlösungen. Renoir mit LPDDR4 wird ne ordentliche Schippe drauflegen bei der Performance. Zugleich den idle Verbrauch reduzieren. Das ganze bei kostengünstiger Herstellung. In der nächsten Generation kann man auf LPDDR5 setzen.

Alles darüber eben per extra GPU.

HBM oder GDDR6 macht doch auch alles wieder Komplex. Ich sehe da nicht den Markt, den AMD bedienen sollte, für den sich so eine Entwicklung rechtfertigt.

Complicated
2019-12-26, 15:17:49
Welche Folien?
Ich habe dir die Seitenummer des PDF ja auch noch genannt.
Ich wüsste ja nicht was sonst unter
"5.2.4 Power and Area Modelling"
zu finden sein soll. Die von dir schon erwähnte Abhängigkeit der Leitungslängen wird dort beschrieben inkl. Graphischer Aufarbeitung.
Grafik 5.7 zeigt die Unterschiede zwischen viel und wenig Routing auf dem Interposer mit den verschiedenen Routing Protokollen.
(a) Interposer First Routing, and (b) Minimal Interposer Routing

Die folgernde Grafik 5.8 zeigt dir sogar
1. Nur den Verbrauch des Mesh (Dynamic Power)
2. Den Verbrauch der NoCs auf allen angebundenen Chips und dem Interposer (Global Wire Area)
3. Nur den aktiven Interposeranteil (Active Area)

Das ganze ist normalisiert auf ein normales monolithisches Mesh
In Figure 5.8, we show power and area results normalized to a mesh for each topology. This considers only the network power and area but includes the network on each of the chips, the interposernetwork, and the μbumps.

basix
2019-12-26, 15:39:46
Da wird halt auch nirgends erklärt woher die Einsparungen kommen sollen.
Die Wege, sprich die Leiterbahnen sind mit aktivem Interposer ein bisschen kürzer als wenn die Chips direkt daneben platziert werden.

Dennoch müssen die Signale aus einem Chip raus und es unterscheidet sich nur die Länge der Leiterbahn oder?

Länge der Leiterbahn = Impedanz (Widerstand, Kapazität, Induktivität), Laufzeit, Repeater. Bei einem Interposer ist das viel besser als bei einem normalen Substrat. Ausserdem kann man den Bus bei einem Interposer viel breiter machen (siehe HBM), das führt dazu dass man geringere Taktraten und Spannungen verwenden kann. Faktor 10x kann da schon realistisch sein.

Complicated
2019-12-26, 16:02:41
Ich habe noch keine Quelle gesehen die einen Faktor 10x erwähnen würde, den man einsparen kann beim Verbrauch, durch Nutzung eines Interposers. Ich meine wenn man mal Anandtechs Analyse des Zen+ I/O (https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4) zu Grunde legt, könnte man vielleicht den bei wenigen Threads (bis 6 Threads) benötigten Basisverbrauch vielleicht um den Faktor x10 reduzieren bei einem Umstieg von IF zu Interposer. Also anstatt 17-20 W eine Reduzierung auf 2W wie bei Intels 8700K. Nur ist das ja lediglich eine Kennzahl von vielen, die anderweitig wiederum andere Auswirkungen auslöst. Aber für ein mobiles 8 Core-Design sicherlich interessant bei leichten Workloads. Intels Lösung nimmt sich zwischen 10 und 16 Threads (7980XE) ca. 40W, während IF da bei ca. 25W Powerbudget steht.

BoMbY
2019-12-30, 21:15:02
4700U mit scheinbar DDR4-1866 (https://twitter.com/_rogame/status/1211684443846586368):

4700U vs 3200G (Best score with 3200MHz RAM) (https://twitter.com/_rogame/status/1211676274256732165):

https://pbs.twimg.com/media/ENC9I9uW4AYi2us?format=jpg&name=medium

4700U vs 3550H (best score) (https://twitter.com/_rogame/status/1211677006699601922):

https://pbs.twimg.com/media/ENC9z1TX0AAs08w?format=jpg&name=medium

4700U vs i7-1068NG7 28w (only available score for now) (https://twitter.com/_rogame/status/1211680704167329795):

https://pbs.twimg.com/media/ENDBK6JXsAExrnQ?format=jpg&name=medium

R7 4700U vs i7-1065G7 (best score) (https://twitter.com/_rogame/status/1211668008021741576):

https://pbs.twimg.com/media/ENC1n_UWkAY1iLG?format=jpg&name=medium

Scheint wohl irgendwie noch Probleme bei dem Combined Test zu haben.

dildo4u
2019-12-30, 21:22:38
60%+ von Gen zu Gen nicht schlecht,das Modell sollte ja sparsamer sein als der 3550H.

Nightspider
2019-12-30, 22:45:54
Wo müsste sich die Leistung ganz grob in etwa im Vergleich zu einer zb. alten GTX970 einordnen?

gmb
2019-12-30, 23:07:01
Die GPU ist überschaubar schneller in dem Test zu Picasso, da müsste noch mehr kommen. Sonst wird es gegen Tigerlake recht dünn werden.

robbitop
2019-12-30, 23:29:33
1866 MHz RAM - klar dass da nicht viel kommt. Und wer weiß wie hoch der GPU Takt war.
So viel mehr wird aber mangels neuer uArch nicht kommen. Etwas mehr Takt ein bissl mehr CUs und ggf etwas mehr RAM Takt. Viel mehr als +15-20% als bei Picasso ist da nicht zu erwarten.

Unicous
2019-12-30, 23:34:55
Die GPU ist überschaubar schneller in dem Test zu Picasso, da müsste noch mehr kommen. Sonst wird es gegen Tigerlake recht dünn werden.

Was soll man dazu noch sagen.:facepalm:

@robbitop

Die RR/PI GPU verhungert an der geringen Bandbreite. Wie wissen noch nicht ob CUs hinzukommen, jedoch werden die Zen 2 Kerne in einigen Szenarien helfen und die deutlich höhere Bandbreite durch DDR4 3200/LPDDR4X wird ihr Übriges tun. Ich denke da ist deutlich mehr drin als mickrige 15-20%.

gmb
2019-12-30, 23:38:15
1866 MHz RAM - klar dass da nicht viel kommt. Und wer weiß wie hoch der GPU Takt war.
So viel mehr wird aber mangels neuer uArch nicht kommen. Etwas mehr Takt ein bissl mehr CUs und ggf etwas mehr RAM Takt. Viel mehr als +15-20% als bei Picasso ist da nicht zu erwarten.


Der 1866er RAM bezieht sich auf den 3750H und 3550H, schau dir den Twitter Verlauf an, außerdem hängt der 3dmark hängt nicht so sehr an der Bandbreite.

SKYNET
2019-12-30, 23:47:17
1866 MHz RAM - klar dass da nicht viel kommt. Und wer weiß wie hoch der GPU Takt war.
So viel mehr wird aber mangels neuer uArch nicht kommen. Etwas mehr Takt ein bissl mehr CUs und ggf etwas mehr RAM Takt. Viel mehr als +15-20% als bei Picasso ist da nicht zu erwarten.


die 2CUs mehr bringen eh nix, sieht man ja schon bei V8 vs. V11, bei gleichem takt kaum unterschiede in den meisten games... bandbreite limitiert einfach derbe... daher denke ich das den dicksten bump bei den 4000er APUs der 3200er speicher ausmachen wird.

SKYNET
2019-12-30, 23:53:02
Der 1866er RAM bezieht sich auf den 3750H und 3550H, schau dir den Twitter Verlauf an, außerdem hängt der 3dmark hängt nicht so sehr an der Bandbreite.

schwachsinn, musst nur mal die benches anschauen wo singlechannel verbaut ist und welche wo DC im system hängt, die APU kratzt dann fast ab.

gmb
2019-12-30, 23:58:00
schwachsinn, musst nur mal die benches anschauen wo singlechannel verbaut ist und welche wo DC im system hängt, die APU kratzt dann fast ab.


Muss man nicht, das würde nichts beweisen mit Singlechannel. Wenn musst du mit dem RAM nach oben skalieren, um zu sehen, was es zusätzlich bringt. Du kannst gerne RAM Skalierungstest von ULV Versionen und 3dmark hier reinstellen. Aber nochmal, DDR4-1866 bezieht sich auf Picasso und nicht Renoir.

SKYNET
2019-12-31, 00:00:20
Muss man nicht, das würde nichts beweisen mit Singlechannel. Wenn musst du mit dem RAM nach oben skalieren, um zu sehen, was es zusätzlich bringt. Du kannst gerne RAM Skalierungstest von ULV Versionen und 3dmark hier reinstellen. Aber nochmal, DDR4-1866 bezieht sich auf Picasso und nicht Renoir.


vollkommen egal welche gen es ist, 1866 ist killer für ne APU, selbst die räudigen intellösungen würden bei sowenig bandbreite verhungern.

Unicous
2020-01-02, 16:56:46
Der Ryzen 4800H wird wohl ein 8-Kerner mit SMT, mit 2,9GHz Basistakt und 4,3GHz Turbo.

https://twitter.com/TUM_APISAK/status/1212656329833115653

dildo4u
2020-01-02, 16:57:38
AMD Ryzen 7 4800H 8C/16T 2.9Ghz Base /4.3Ghz Boost

Physics Score 19XXX


https://twitter.com/tum_apisak/status/1212656329833115653?s=21

Auf Level mit den 45 Watt Intels,Ryzen 3750H lag bei 10k.

https://benchmarks.ul.com/compare/best-cpus

Unicous
2020-01-02, 17:03:16
Nicht nur auf dem Level, das Ganze bei geringerem (Turbo-)Takt.

https://pbs.twimg.com/media/ENRKQXcWoAAdB5h.jpg

https://twitter.com/_rogame/status/1212675865366212608

Complicated
2020-01-02, 17:12:04
Ähm...die verbaute RTX 2060 hat eine TDP von 80W. Die iGPU des Ryzen kommt da aber recht nahe dran bei den Graphics-Scores.

Unicous
2020-01-02, 17:15:28
Das ist keine iGPU, sondern vermutlich eine 5600M.

amdfanuwe
2020-01-02, 17:15:46
Wer sagt denn, dass das die iGPU ist? Wird eine 5600M verbaut sein.

mironicus
2020-01-02, 17:21:10
Ich hoffe wirklich das einige Hersteller so klug sind und auch Thunderbolt 3 mit Renoir-Laptops anbieten (hat Intel ja für alle freigegeben), ist ja eigentlich kein Problem das anzubinden, gibt es auch vereinzelnt bei X570-Mainboards. Und spätestens mit USB 4 wird es ohnehin Standard.

Complicated
2020-01-02, 17:22:24
ok..hab das mit "generic" wohl überinterpretiert...Danke.

bloodflash
2020-01-02, 19:18:05
Ich hoffe wirklich das einige Hersteller so klug sind und auch Thunderbolt 3 mit Renoir-Laptops anbieten (hat Intel ja für alle freigegeben), ist ja eigentlich kein Problem das anzubinden, gibt es auch vereinzelnt bei X570-Mainboards. Und spätestens mit USB 4 wird es ohnehin Standard.


Was gibt es eigentlich an TB3-Hardware, was für irgendjemanden interessant sein könnte?


Mir würden schon USB-C, USB3.2x2, DP und entsprechende Dockingstations für Notebooks reichen. Gibt es darüber hinaus nutzbare Hardware für TB3 ausserhalb von Spezialanwendungen?

Th3o
2020-01-02, 19:21:25
Wir haben in der Firma HP Notebooks mit TB Dockingstations, die zicken nur rum. Ich vermisse die alten Dockingstationen.

Unicous
2020-01-02, 19:23:36
Ein Thunderbolt NAS ist schon ganz nett.:wink:

BoMbY
2020-01-02, 19:27:50
Statt TB3 sollen die mal lieber Gas bei USB4 geben, das sollte ja auch zu TB3 kompatibel sein.

mironicus
2020-01-02, 19:36:06
Ich habe ein externes GPU-Gehäuse mit Thunderbolt 3, funktioniert einwandfrei.

Bei einem Notebook über 1500 Euro würde ich schon erwarten, dass sie mindestens eine Schnittstelle dieser Art implementieren. Mir würde ein Renoir-Notebook ohne dedizidierte Grafikkarte reichen, ein XPS 2-1 in 15 Zoll und Oled wäre perfekt.

Mit den technischen Daten und 8/16 Kernen erwarte ich auch nicht, dass die künftigen Renoir-Notebooks nur in Low-Budget Geräten und in Plastikgehäusen verbaut werden, sondern da erwarte ich von den Herstellern das sie richtig auf die Kacke hauen und equivalente Geräte zu den Intel-Versionen anbieten werden.

Meine Erwartungshaltung ist hoch und genau so wie niemand damit gerechnet hat das z.B. die Mainboardhersteller so enorm teure und hoch gezüchtete Mainboards mit X570-Chipsätzen bringen, erwarte ich jetzt auch hochpreisige Luxus-Notebooks mit Renoir.

bloodflash
2020-01-02, 19:51:37
Mein Arbeitsnotebook hat eine USB-C-Dockingstation ohne TB3.



Da geht USB3.1 bzw. 3.2 drüber, HDMI und DP bis 4k60, sowie LAN.
Wofür jetzt TB3?

mironicus
2020-01-02, 19:59:03
Habe ich doch geschrieben, externe GPUs lassen sich über Thunderbolt 3 nutzen.

Es gibt auch externe NVME-SSDs über Thunderbolt die die gleiche Geschwindigkeit erreichen wie interne NVME SSDs, hervorragend für Videoschnitt.

10 GB-Ethernet ist auch nur über Thunderbolt 3 möglich.

mboeller
2020-01-02, 20:50:20
Nicht nur auf dem Level, das Ganze bei geringerem (Turbo-)Takt.



und nur 35W. Die bisherigen "H"-CPUs haben zumindest alle 35W und haben laut AMD Homepage auch nur 12-35W cTDP

https://www.amd.com/en/products/apu/amd-ryzen-7-3750h

Unicous
2020-01-02, 20:55:23
Das stimmt so leider nicht.

https://www.amd.com/de/products/apu/amd-ryzen-5-2600h
https://www.amd.com/de/products/apu/amd-ryzen-7-2800h

Aber mit dem "Umstieg" auf 12nm haben sie es wohl auf 35W begrenzt. Eine CPU mit bis 54W wollte wohl niemand wirklich verbauen. ;)

Ob es wirklich nur 35 Watt sind wird sich also noch herausstellen.

mboeller
2020-01-02, 21:37:24
Das stimmt so leider nicht.

https://www.amd.com/de/products/apu/amd-ryzen-5-2600h
https://www.amd.com/de/products/apu/amd-ryzen-7-2800h

Aber mit dem "Umstieg" auf 12nm haben sie es wohl auf 35W begrenzt. Eine CPU mit bis 54W wollte wohl niemand wirklich verbauen. ;)

Ob es wirklich nur 35 Watt sind wird sich also noch herausstellen.


upps. Ich habe nur bei den neuen H-APUs geschaut

davidzo
2020-01-03, 02:03:20
Was gibt es eigentlich an TB3-Hardware, was für irgendjemanden interessant sein könnte?


Mir würden schon USB-C, USB3.2x2, DP und entsprechende Dockingstations für Notebooks reichen. Gibt es darüber hinaus nutzbare Hardware für TB3 ausserhalb von Spezialanwendungen?

Ist schon ganz geil mit nem 5 Jahre alten macbook noch aktuelle games zu zocken. Habe ne 1060 und ne SSD mit steam bibliothek und maus und tastatur per thunderbolt angebunden, externer monitor hängt an der egpu. Mein 4850HQ+16gb ram reichen noch locker, die 1060 verliert durch TB kaum an Leistung und TB2 macht auch keinen messbaren Unterschied zu tb3.
Tagsüber ist das dann mein Arbeitsgerät und ich schleppe keine Spiele und stromfressende GPU mit mir herum...

Also ich würde definitiv wieder zu einem Notebook mit TB greifen. Eventuell in Zukunft für ein DAS mit nem SSD Raid5 oder so zum 4K Videoschnitt (man wird ja träumen dürfen). Oder eben gleich ein NAS mit 10Gbe, Mein jetziges hat nur 1Gbe, das bremst manchmal deutlich. Aber 10GB switches und NAS gehäuse werden gerade erschwinglich...

Wex
2020-01-03, 19:23:37
7nm AMD Ryzen 4000 (Renoir) APUs to Feature up to 65% Faster Graphics

https://www.reddit.com/r/Amd/comments/ejhnb0/7nm_amd_ryzen_4000_renoir_apus_to_feature_up_to/

https://gpu.userbenchmark.com/Compare/AMD-RX-Vega-10-Ryzen-iGPU-vs-AMD-Radeon-Graphics/m432559vsm1005641

HAMMER!

y33H@
2020-01-03, 20:04:56
Lief mit DDR4-3200, dennoch unrealistisch ... ist halt ein einziger Benchmark-Wert nur.

https://www.userbenchmark.com/UserRun/23316225

mironicus
2020-01-03, 20:34:33
@y33H@
Du weißt doch bestimmt schon mehr als wir, oder? AMD bzw. diverse Hersteller haben doch sicherlich bereits schon Referenz-Notebooks an viele Redaktionen verschickt.

davidzo
2020-01-03, 23:13:16
Lief mit DDR4-3200, dennoch unrealistisch ... ist halt ein einziger Benchmark-Wert nur.

https://www.userbenchmark.com/UserRun/23316225

:eek: Wow, die CPUleistung bis 4 Threads ist absolut auf 3700X Niveau, erst darüber scheint der Turbo zu limitieren (wohl TDP bedingt). 8T liegt 16% zurück, 64T dann 37%. Da kann sich Intel aber warm anziehen...


Was mich doch sehr wundert ist aber die Cache latency Ladder. Das sieht ja fast nach nur 8MB Cache aus :freak:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=68884&stc=1&d=1578089583

Unicous
2020-01-03, 23:20:40
Wieso fast? AMD halbiert traditionell bei den APUs den L3. :wink:

davidzo
2020-01-03, 23:23:55
7nm AMD Ryzen 4000 (Renoir) APUs to Feature up to 65% Faster Graphics

https://www.reddit.com/r/Amd/comments/ejhnb0/7nm_amd_ryzen_4000_renoir_apus_to_feature_up_to/

https://gpu.userbenchmark.com/Compare/AMD-RX-Vega-10-Ryzen-iGPU-vs-AMD-Radeon-Graphics/m432559vsm1005641

HAMMER!

Das wäre in der Tat eine Überraschung wenn es nicht die lange kolportierten 13CUs sondern 16 davon gibt.
Da hätte uns AMD schön monatelang an der Nase herumgeführt, zuerst hieß es ja auch 6 cores und es hat lage gedauert bis wir den 8C Leak bekamen. 13CU mag beim Ryzen 7 ja zutreffen über den es schon frühe Gerüchte gab. Vom Ryzen9 gab es eben erst sehr spät überhaupt Leaks und Gerüchte. Guter Trick, AMD!

Wieso fast? AMD halbiert traditionell bei den APUs den L3. :wink:

Das wäre dann aber keine Halbierung, sondern eine Viertelung, 8Mb statt 32. Schon möglich dass man das machen würde, für die Diesize in 7nm, aber dann wundert mich das hohe Leistungsniveau (wie gesagt 1-4T auf 3700x Niveau und das für eine mobile CPU).

SKYNET
2020-01-04, 00:11:03
Das wäre in der Tat eine Überraschung wenn es nicht die lange kolportierten 13CUs sondern 16 davon gibt.
Da hätte uns AMD schön monatelang an der Nase herumgeführt, zuerst hieß es ja auch 6 cores und es hat lage gedauert bis wir den 8C Leak bekamen. 13CU mag beim Ryzen 7 ja zutreffen über den es schon frühe Gerüchte gab. Vom Ryzen9 gab es eben erst sehr spät überhaupt Leaks und Gerüchte. Guter Trick, AMD!



Das wäre dann aber keine Halbierung, sondern eine Viertelung, 8Mb statt 32. Schon möglich dass man das machen würde, für die Diesize in 7nm, aber dann wundert mich das hohe Leistungsniveau (wie gesagt 1-4T auf 3700x Niveau und das für eine mobile CPU).

16 mit weniger takt = weniger stromverbrauch, wäre natürlich auch nett, wenn die sich dann auf 2GHz treten lassen, kann man damit dann sogar viele aktuelle titel in FHD ohne verzicht auf sämtliche features zocken.

Berniyh
2020-01-04, 08:16:09
Das wäre in der Tat eine Überraschung wenn es nicht die lange kolportierten 13CUs sondern 16 davon gibt.
Da hätte uns AMD schön monatelang an der Nase herumgeführt, zuerst hieß es ja auch 6 cores und es hat lage gedauert bis wir den 8C Leak bekamen. 13CU mag beim Ryzen 7 ja zutreffen über den es schon frühe Gerüchte gab. Vom Ryzen9 gab es eben erst sehr spät überhaupt Leaks und Gerüchte. Guter Trick, AMD!
Steht das nur in dem Artikel, dass es 16 CU sind?
Dann muss es ja leider noch lange nicht stimmen.

Zudem muss man hier auch aufpassen, da bei den APUs manchmal die GPU und CPU Cores zusammen gezählt werden. Gerade bei APUs die noch nicht vernünftig in die Datenbanken eingepflegt wurden muss man da vorsichtig sein.
Wobei 8C + 8CU auch unerwartet wäre, aber evtl. sind es ja auch 6C + 10CU, das würde schon wieder mehr Sinn machen.

SKYNET
2020-01-04, 08:43:18
Steht das nur in dem Artikel, dass es 16 CU sind?
Dann muss es ja leider noch lange nicht stimmen.

Zudem muss man hier auch aufpassen, da bei den APUs manchmal die GPU und CPU Cores zusammen gezählt werden. Gerade bei APUs die noch nicht vernünftig in die Datenbanken eingepflegt wurden muss man da vorsichtig sein.
Wobei 8C + 8CU auch unerwartet wäre, aber evtl. sind es ja auch 6C + 10CU, das würde schon wieder mehr Sinn machen.

dann würde der CPU part wohl kaum als 8C/16T ausgelesen werden....

Berniyh
2020-01-04, 08:55:24
Das stimmt. Die Info konnte ich da zunächst nicht finden, jetzt schon. ;)

Die Grafikeinheit wird mit 103CU ausgelesen. Das ist dooferweise auch noch eine Primzahl.
Scheint mir jedenfalls nicht zu stimmen bzw. macht irgendwie wenig Sinn.

Zossel
2020-01-04, 11:03:15
Die Grafikeinheit wird mit 103CU ausgelesen. Das ist dooferweise auch noch eine Primzahl.
Scheint mir jedenfalls nicht zu stimmen bzw. macht irgendwie wenig Sinn.

Wieso sind in dem Zusammenhang Primzahlen schlecht?

Complicated
2020-01-04, 11:12:44
Weil man sie nicht teilen kann um auf irgendeine sinnvolle Zahl der CUs zu kommen.

unl34shed
2020-01-04, 11:47:13
Wie kommst ihr eigentlich auf die 103? Wegen den 103C in der ID? Das ist doch nur die HP Geräte ID (https://www.amd.com/de/support/kb/faq/gpu-55)

Und btw Picasso hat doch auch 11CUs, was auch eine Primzahl ist...

Berniyh
2020-01-04, 12:06:23
Ja, die 11 muss man aber auch nicht mehr teilen. ;)

mboeller
2020-01-04, 12:44:43
der Vergleich mit einem 3700u ist IMHO schon extrem:

Average:
https://cpu.userbenchmark.com/SpeedTest/765724/AMD-Ryzen-7-3700U-with-Radeon-Vega-Mobile-Gfx

bester Wert:
https://www.userbenchmark.com/UserRun/23353102


Vor allem die CPU-Werte sind beim 4800u sehr hoch; beim 64-Thread Wert sind es +95%, beim 1-Thread Wert 24% gegenüber dem besten Wert beim 3700u


Mal zum Vergleich Intel i9 9880H und i7-10710u:
https://cpu.userbenchmark.com/Compare/Intel-Core-i9-9880H-vs-Intel-Core-i7-10710U/m750169vsm900004

der 4800u ist schneller als die "H"-CPU von Intel

mironicus
2020-01-04, 13:12:07
der 4800u ist schneller als die "H"-CPU von Intel

Bei gleicher Frequenz ist Zen 2 schon schneller als Intel, und bei gleicher TDP im Notebook sollte die AMD-CPU eine höhere Taktrate aufrechterhalten können. Das wird dann bei Dauertests noch besser ausfallen.

mboeller
2020-01-04, 13:40:47
Bei gleicher Frequenz ist Zen 2 schon schneller als Intel, und bei gleicher TDP im Notebook sollte die AMD-CPU eine höhere Taktrate aufrechterhalten können. Das wird dann bei Dauertests noch besser ausfallen.


4800u = 15w bzw. 25w(*)

9880H = 45w

Das userbenchmark Ergebnis ist für mich deshalb "etwas" surreal.


(*): die Ergebnisse sind von einem HP 845 G7 Notebook. Die HP Notebooks mit AMD CPU haben zumindest bisher nicht gerade mit einem guten Ergebnis geglänzt weil HP die Leistungsaufnahme ziemlich begrenzt hat (AFAIR!!)

mironicus
2020-01-04, 13:59:54
Ja, die Hersteller könnten es wieder verderben mit ihren Designs, oder wieder Singlechannel-RAM verwenden, oder nur den billigen DDR4-2400 statt 3200 und höher.

LasterCluster
2020-01-04, 14:57:49
Vor allem die CPU-Werte sind beim 4800u sehr hoch; beim 64-Thread Wert sind es +95%, beim 1-Thread Wert 24% gegenüber dem besten Wert beim 3700u


Das dürfte man doch prozessbedingt erwarten. 7nm vs 14nm waren doch ca 50% weniger Strom bei gleicher Performance (also kann man 2x4 Kerne statt 1x4 nehmen) oder 20% mehr Performance bei gleichem Strom, also 15W@1C. Es ist zwar 12nm und nicht 14, dafür gibt es noch architektonische Vorteile.

BlacKi
2020-01-04, 15:05:33
4700U mit scheinbar DDR4-1866 (https://twitter.com/_rogame/status/1211684443846586368):
leider skaliert der physics test mit besserem arbeitsspeicher gleich null. deshalb sagt der test leider nichts über die tatsächliche gaming performance aus.

LasterCluster
2020-01-04, 15:05:34
Ja, die Hersteller könnten es wieder verderben mit ihren Designs, oder wieder Singlechannel-RAM verwenden, oder nur den billigen DDR4-2400 statt 3200 und höher.

Ich hoffe auf eine Aufwärtsspirale. APU besser => AMD kann höheren Preis verlangen, höherer Preis => OEMs wollen den Wert nicht durch billige Komponenten ruinieren.

Auf teuren Grundstücken werden selten Bruchbuden gebaut.

basix
2020-01-04, 16:47:34
4800u = 15w bzw. 25w(*)

9880H = 45w

Das userbenchmark Ergebnis ist für mich deshalb "etwas" surreal.


(*): die Ergebnisse sind von einem HP 845 G7 Notebook. Die HP Notebooks mit AMD CPU haben zumindest bisher nicht gerade mit einem guten Ergebnis geglänzt weil HP die Leistungsaufnahme ziemlich begrenzt hat (AFAIR!!)

Hier ein Test des HP 850 G5 mit i5-8250U:
https://www.notebookcheck.com/Test-HP-EliteBook-850-G5-i5-8250U-FHD-Laptop.299214.0.html (https://www.notebookch eck.com/Test-HP-EliteBook-850-G5-i5-8250U-FHD-Laptop.299214.0.html)

Der Prozessor darf 28s lang mit 44W arbeiten, danach mit 18W und bei sehr langandauernder Last mit 15W. Wenn AMD mit einer ähnlichen Konfiguration arbeitet, können die durchschnittlich 3.65 GHz während des Userbenchs schon stimmen. Aber dann mit meistens 44W, weil Userbench nicht so lange dauert oder sich zumindest immer wieder Erhohlungsphasen zwischen den Belastungsphasen befinden. Ich habe mal mit einem 3600er gespielt, der schaffte auch ca. 3.65 GHz bei 45W. Jetzt fällt etwas Cache und der I/O Die weg und wir erreichen die selben Taktraten bei 8C anstatt 6C. Aber eben, bei 40-45W.

Ich kann mir fast nicht vorstellen, dass der 4800U mit 15W einen 9880H mit 45W zersägt. Wenn doch, wäre es wirklich surreal.

dildo4u
2020-01-04, 16:48:28
Intels Mobile specs sind noch nutzloser als im Desktop,das Top 45 Watt Modell soll bis 5Ghz Boosten hab aber weniger Single Core Punkte als der 4800U.

CrazyIvan
2020-01-04, 16:54:15
Ich kenne die Laufzeit des Benchmarks nicht, aber falls er eher "peaky" sein sollte, sind die Werte erst einmal nicht völlig unrealistisch.
Siehe dazu auch meine Milchmädchenrechnung (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12175735#post12175735) von vor ein paar Seiten.
Mindestens genau so spannend wird die Frage, was im idle und bei H.264 passiert.

4800u = 15w bzw. 25w(*)

9880H = 45w

Das userbenchmark Ergebnis ist für mich deshalb "etwas" surreal.


(*): die Ergebnisse sind von einem HP 845 G7 Notebook. Die HP Notebooks mit AMD CPU haben zumindest bisher nicht gerade mit einem guten Ergebnis geglänzt weil HP die Leistungsaufnahme ziemlich begrenzt hat (AFAIR!!)

CrazyIvan
2020-01-04, 16:56:23
Bei einem angenommenen Turbo von >= 4,5Ghz durchaus drin.

Intels Mobile specs sind noch nutzloser als im Desktop,das Top 45 Watt Modell soll bis 5Ghz Boosten hab aber weniger Single Core Punkte als der 4800U.

basix
2020-01-04, 17:28:07
Bei einem angenommenen Turbo von >= 4,5Ghz durchaus drin.

Boost ist eher 4.3 GHz. Der 4700U soll 4.2 GHz Boost haben. Ausserdem stimmt der Single Core Score mit dem eines 8700K überein, welcher auf 4.7 GHz takten sollte. Was wiederum mit den ca. +10% IPC von Zen 2 im Userbench passen sollte.

Aber man sieht, wie genial der User Bench ist (Achtung Ironie): Position 8 im Ranking, noch vor einem 3970X.

Ausserdem 8700K im Gleichschritt mit einem 4800U ;D
https://cpu.userbenchmark.com/Compare/Intel-Core-i7-8700K-vs-AMD-Ryzen-7-4800U-Graphics/3937vsm1005639

davidzo
2020-01-04, 23:19:54
Steht das nur in dem Artikel, dass es 16 CU sind?
Dann muss es ja leider noch lange nicht stimmen.


Das steht im hardwaretimes Artikel, vermutlich Spekulation. Aber die Gründe sind nicht von der Hand zu weisen.

Da sind zum einen die Benchmarks: Durchschnittlich 60% mehr Leistung bekommt man mit 2 CUs mehr, +66% Bandbreite (DDR4 3200 vs 2133) und etwas mehr Takt vielleicht gerade noch so hin, aber wie erklärt man es dass die neue IGP in einigen Benchmarks gar 113% schneller ist?
https://gpu.userbenchmark.com/Compare/AMD-RX-Vega-10-Ryzen-iGPU-vs-AMD-Radeon-Graphics/m432559vsm1005641

Zum einen ist da die immer noch die cache-Architektur von GCN5 die gegen 13CUs spricht und 15CU wahrscheinlicher macht:
Je 3 CUs teilen sich einen Cache slice. Für die 13te CU müsste man also ein ganzen Cache slice mit nur einer CU verbauen. Macht irgendwie keinen Sinn...
https://twitter.com/Locuza_/status/1190629881794703360

CrazyIvan
2020-01-04, 23:38:11
@basix
Woher hast Du die Info zu den Taktraten? War mir bisher entgangen.

Darüber hinaus tue ich mich mit der Interpretation der Userbenchmark Werte schwer. Gelten die von Dir verlinkten für Stock 4,7Ghz oder 5,3Ghz bei Best Bench?

reaperrr
2020-01-04, 23:45:14
Zum einen ist da die immer noch die cache-Architektur von GCN5 die gegen 13CUs spricht und 15CU wahrscheinlicher macht:
Je 3 CUs teilen sich einen Cache slice. Für die 13te CU müsste man also ein ganzen Cache slice mit nur einer CU verbauen. Macht irgendwie keinen Sinn...
https://twitter.com/Locuza_/status/1190629881794703360
Nö, man kann auch 3x3 und 2x2 CUs an je einen Slice anbinden. Bisher hat noch jeder Vega-Chip (außer der 2c/3CU Mini-APU) im Vollausbau CU-Zahlen je SE gehabt, die nicht zu dem "3 CUs je Cache-Slice" passen. Dass Vega 4 CUs je Slice nicht mehr unterstützt glaube ich auch nicht, zumindest in der Disziplin ist GCN mMn ziemlich flexibel.


Da sind zum einen die Benchmarks: Durchschnittlich 60% mehr Leistung bekommt man mit 2 CUs mehr, +66% Bandbreite (DDR4 3200 vs 2133) und etwas mehr Takt vielleicht gerade noch so hin, aber wie erklärt man es dass die neue IGP in einigen Benchmarks gar 113% schneller ist?
https://gpu.userbenchmark.com/Compare/AMD-RX-Vega-10-Ryzen-iGPU-vs-AMD-Radeon-Graphics/m432559vsm1005641
Da könnte die Krux schon liegen:

Die IGP taktet bei den mobilen Picasso unter Vollast teils nur bei 550-600 MHz. Kann also gut sein, dass wir hier von ca. doppeltem Takt reden.
Abgesehen davon, dass gegen Vega 10 getestet wurde und es deshalb 3 CUs mehr gewesen sein könnten.
Zu guter letzt wissen wir auch noch nicht, ob nicht evtl. die Zahl der ROPs und Größe des L2$ verdoppelt wurde und der IPC-Sprung dadurch in manchen Disziplinen überproportional groß ausfällt.

basix
2020-01-05, 01:11:06
@basix
Woher hast Du die Info zu den Taktraten? War mir bisher entgangen.

Darüber hinaus tue ich mich mit der Interpretation der Userbenchmark Werte schwer. Gelten die von Dir verlinkten für Stock 4,7Ghz oder 5,3Ghz bei Best Bench?

Die 4.2 GHz kommen von einem 3DMark Ergebnis des 4700U. Aber man könnte mit einem Desktop Ryzen den Single Core Wert Quervergleichen. Habe ich jetzt nicht gemacht. Evtl. kann man da draus noch etwas lesen.

Die average Werte gelten normalerweise für in etwa Stock (besser wäre der Median anstatt der Durchschnitt). Du kannst ja mal auf den Best Case Wert klicken, dort sind es dann deutlich mehr Punkte und zufälligerweise genau der Unterschied 5.3 GHz zu 4.7 GHz ;)

Tarkin
2020-01-05, 09:47:48
Wenn das tatsächlich ein 15w Chip ist... wonach es aussieht, dann wird das einschlagen wie eine BOMBE - da kann Intel Tiger Lake gleich einpacken und die nachfolgende 2021er Generation ebenfalls. Nach Desktop und HEDT folgt nun AMDs Frontalangriff auf Mobile. 2020 und 2021 werden düstere Jahre für Intel.

Ich gehe davon aus, dass es nicht mehr lange dauern wird, bis Intel Apple als Kunden verliert.

dildo4u
2020-01-05, 09:52:06
Tiger Lake kann auch einpacken wenn die Werte nicht stimmen,es wird erstmal keine 6 oder 8 Core Mobile Modelle geben.

Ryzen 4600H 6 Core 12 Thread 85%

https://cpu.userbenchmark.com/SpeedTest/1007568/AMDR-RyzenTM-5-4600H-Graphics-CPU---260GHz


Core i7-9750H 6 Core 12 Thread 77%

https://cpu.userbenchmark.com/SpeedTest/766364/IntelR-CoreTM-i7-9750H-CPU---260GHz

BoMbY
2020-01-05, 10:51:23
Ryzen 4600H 6 Core 12 Thread 85%

https://cpu.userbenchmark.com/SpeedTest/1007568/AMDR-RyzenTM-5-4600H-Graphics-CPU---260GHz


Das ist ein Fake. "Device: BFEBFBFF000906EA" ist ein Intel.

basix
2020-01-05, 10:56:17
Das ist ein Fake. "Device: BFEBFBFF000906EA" ist ein Intel.

Wie man solche Dinge wie Device-IDs weiss :D

CrazyIvan
2020-01-05, 12:27:51
Danke für die Aufklärung zur Interpretation.
Was den Takt angeht: Da erwarte ich bei Single threaded auf jeden Fall mehr. Mir fällt jetzt spontan kein Grund ein, warum Renoir niedriger takten sollte als im Desktop.
Takt für Takt vergleichbar werden Matisse und Renoir sowieso nicht sein - Caches und uncore werden da schon Einfluss haben.
Morgen Abend wissen wir mehr.

Die 4.2 GHz kommen von einem 3DMark Ergebnis des 4700U. Aber man könnte mit einem Desktop Ryzen den Single Core Wert Quervergleichen. Habe ich jetzt nicht gemacht. Evtl. kann man da draus noch etwas lesen.

Die average Werte gelten normalerweise für in etwa Stock (besser wäre der Median anstatt der Durchschnitt). Du kannst ja mal auf den Best Case Wert klicken, dort sind es dann deutlich mehr Punkte und zufälligerweise genau der Unterschied 5.3 GHz zu 4.7 GHz ;)

CrazyIvan
2020-01-05, 12:39:07
Ergänzung:
Obwohl ich den Sinn eines solchen Vergleichs angezweifelt habe, habe ich ihn mal angestellt:
3800X vs. 4800U (https://cpu.userbenchmark.com/Compare/AMD-Ryzen-7-3800X-vs-AMD-Ryzen-7-4800U-Graphics/4047vsm1005639)
Und siehe da: 1-core & 2-core nahezu identisch.
Entweder ist die IPC von Renoir höher als bei Matisse, oder er boostet mit min. 4,5Ghz.

Slipknot79
2020-01-05, 12:49:09
Wie man solche Dinge wie Device-IDs weiss :D

Du solltest dir überlegen, dass Phorum hier zu verlassen, wenn du solche Dinge nicht weißt. :redface: :biggrin:

mironicus
2020-01-05, 13:03:50
Ergänzung:
Obwohl ich den Sinn eines solchen Vergleichs angezweifelt habe, habe ich ihn mal angestellt:
3800X vs. 4800U (https://cpu.userbenchmark.com/Compare/AMD-Ryzen-7-3800X-vs-AMD-Ryzen-7-4800U-Graphics/4047vsm1005639)
Und siehe da: 1-core & 2-core nahezu identisch.
Entweder ist die IPC von Renoir höher als bei Matisse, oder er boostet mit min. 4,5Ghz.

Im mobilen Bereich landen wohl auch etwas bessere Chips, die bei weniger Strom höhere Taktraten ermöglichen.

LasterCluster
2020-01-05, 13:25:47
Wenn das tatsächlich ein 15w Chip ist... wonach es aussieht, dann wird das einschlagen wie eine BOMBE - da kann Intel Tiger Lake gleich einpacken und die nachfolgende 2021er Generation ebenfalls. Nach Desktop und HEDT folgt nun AMDs Frontalangriff auf Mobile. 2020 und 2021 werden düstere Jahre für Intel.

Ich gehe davon aus, dass es nicht mehr lange dauern wird, bis Intel Apple als Kunden verliert.

Gibt Mobile aber deutlich mehr Faktoren als im Desktop Retail Markt. Um Intel zu f***** muss der Idlevebrauch runter, TB her und sichergestellt werden, dass RAM/WLAN/SDD/.... ausreichende Quali haben. Wenn dann noch die Beziehung zu den OEMs passt könnten einige Marktanteile richtung AMD gehen. Renoir könnte/wird der nächste Schritt werden, aber viel mehr erwarte ich da noch nicht.

Nightspider
2020-01-05, 13:31:55
Man erinnere sich Mal zurück an die ersten Threadripper,welche schon 1-2 Verbesserungen beim Cache hatten,welche es nicht mehr in Zen1 geschafft hatten und erst später mit Zen+ kamen.
Wenn die CPU Kerne in Renoir jetzt schon winzige Verbesserungen hätten, welche es nicht in Matisse geschafft haben, wäre das schon sehr geil aber das ist mehr Wunschdenken als Spekulationen.
;)

Hoffentlich wird kommende Tage ein Surface Update mit Renoir angekündigt.

BoMbY
2020-01-05, 13:44:23
Wie man solche Dinge wie Device-IDs weiss :D

AMD:

Device: 178BFBFF00000F30
Device: 178BFBFF00860F01
Device: 178BFBFF00830F10

Intel:

Device: BFEBFBFF000906EA
Devices: BFEBFBFF000906EC
Device: BFEBFBFF000906E9

Ziemlich einfach zu erkennen das Muster ... Ich glaube die rechte Hälfte ist der EAX-Wert von CPUID Funktion 1, bei der linken Hälfte bin ich mir nicht ganz sicher. Edit: Die linke Hälfte ist EDX von CPUID Funktion 1.

LasterCluster
2020-01-05, 14:04:11
Man erinnere sich Mal zurück an die ersten Threadripper,welche schon 1-2 Verbesserungen beim Cache hatten,welche es nicht mehr in Zen1 geschafft hatten und erst später mit Zen+ kamen.
Wenn die CPU Kerne in Renoir jetzt schon winzige Verbesserungen hätten, welche es nicht in Matisse geschafft haben, wäre das schon sehr geil aber das ist mehr Wunschdenken als Spekulationen.
;)

Hoffentlich wird kommende Tage ein Surface Update mit Renoir angekündigt.

Optimierungen im MC und Boostverhalten dürften wohl klar sein. AMD lobte ja die Zusammenarbeit mit MS bei der Surface APU. Vielleicht kommen von der Seite irgendwie Verbesserungen beim Thread/Core-Management.

basix
2020-01-05, 16:37:15
Du solltest dir überlegen, dass Phorum hier zu verlassen, wenn du solche Dinge nicht weißt. :redface: :biggrin:

Hehe :D

AMD:

Device: 178BFBFF00000F30
Device: 178BFBFF00860F01
Device: 178BFBFF00830F10

Intel:

Device: BFEBFBFF000906EA
Devices: BFEBFBFF000906EC
Device: BFEBFBFF000906E9

Ziemlich einfach zu erkennen das Muster ... Ich glaube die rechte Hälfte ist der EAX-Wert von CPUID Funktion 1, bei der linken Hälfte bin ich mir nicht ganz sicher. Edit: Die linke Hälfte ist EDX von CPUID Funktion 1.


OK, Danke für die Info. Das kann helfen :up:

robbitop
2020-01-05, 17:50:19
Ich bin gespannt wie schnell Renoir im CPU Limit in Spiele taktnormiert ist (sieht man sicher erst sauber wenn Desktop APUs raus sind und mit dGPUs kombiniert werden). Immerhin hat man offenbar nur 1/4 des L3 (4 mib statt 16 mib) und man ist ja bis dato davon ausgegangen, dass ein guter Teil der Performancesteigerung vom L3 kommt.

mironicus
2020-01-05, 18:07:12
Keine Ahnung warum, aber vielleicht hängt es damit zusammen das Renoir eine APU ist und möglicherweise gibt es hier auch keinen getrennten IO/Die mehr, der ja bekannt dafür ist beim Zen2 schon nicht wenig Strom zu verbraten. Und viel L3 frisst wohl auch mehr Strom und Fläche.

Unicous
2020-01-05, 18:17:40
Ich verstehe deine Obsession mit dem L3 nicht. Bei Raven Ridge waren es auch nur 4MB, wie kommst du darauf, dass sie bei einem Mainstream-Chip der monolithisch ist, so viel Fläche verbraten würden. Klar würde es Leistungssteigerungen geben und ich schätze die iGPU würde davon auch deutlich profitieren, aber die eingesparte Fläche und auch der Fakt, dass L3 sehr "hungrig" ist stehen dem entgegen. (btw. wer ist davon ausgegangen, dass der L3 dafür verantwortlich wäre?)

edit:

mironicus war schneller.

mironicus
2020-01-05, 18:32:05
Was ich mich frage ist, ob Renoir-Notebooks auch Highendfeatures vom X570 besitzen werden. Wird man also eine oder gleich zwei PCIe 4.0-SSD in ein entsprechendes Notebook stecken können (inkl. Raid) und damit jeden Macbook Pro-Besitzer vor Neid erblassen lassen und das noch zur Hälfte des Preises? :D

Diese Chance darf AMD sich nicht entgehen lassen, sie können mit Renoir jeden Bereich bis zum High-End abdecken. :)

Grendizer
2020-01-05, 18:37:12
Werden die nicht extrem warm ? sehe ich im Notebook eher kritisch.

robbitop
2020-01-05, 18:39:05
Cache spart idR Leistungsaufnahme. Zugriffe aus dem Cache verbrauchen weniger Energie als außerhalb des Dies. (RAM)
Wenn die SRAM Zelle weder gelesen noch geschrieben wird, wird sie gepowergatet und verbraucht praktisch keinen Strom. Aber Fläche kostet ein großer Cache - ja. Und da die 7nm Waferstarts pro Monat arg begrenzt sind, ist es nachvollziehbar, dass man hier spart.

Je nach Spiel ist die Latenz auf die Daten wichtig. Je schlechter die Speicherlatenz desto wichtiger die Hitrate. Das ist keine Obsession sondern ein einfacher Fakt. Das wurde schon oft genug durch Messungen belegt.

Unicous
2020-01-05, 20:06:35
Ich glaube das Verhältnis ist/war 1:3:6:30 (L1/L2/L3/DRAM). Dennoch verkennst du wie viel diese 16MB verbraten: an Fläche, an Energie und daraus entstehender Abwärme, die abgeführt werden muss.

Das sind alles wichtige Faktoren für einen Chip der für den Mobile-Sektor ausgelegt ist. Dass die APUs so wenig L3 bieten ist ein tradeoff und ich schätze unter anderem der Tatsache geschuldet, dass sie RAM mit deutlich höheren Bandbreiten unterstützen und durch Flächenersparnis ein oder zwei CUs bzw. Kerne mehr unterbringen können. Raven Ridge/Picasso schon ein ziemlich großer Chip für das Segment das er bedient. Renoir wird vermutlich "nur" ein shrink mit verbesserten und mehr Kernen. Bislang sieht es ja nicht danach aus, als würden sie mehr CUs verbauen.

Nightspider
2020-01-05, 20:39:42
Hätte jetzt auch gedacht das mehr Cache im Sweetspot auch eher hilft die Effizienz zu verbessern.

Wie ist die Latenz von LPDDR4 eigentlich verglichen mit DDR4? Auf gleicher Höhe?

SKYNET
2020-01-05, 21:08:59
Was ich mich frage ist, ob Renoir-Notebooks auch Highendfeatures vom X570 besitzen werden. Wird man also eine oder gleich zwei PCIe 4.0-SSD in ein entsprechendes Notebook stecken können (inkl. Raid) und damit jeden Macbook Pro-Besitzer vor Neid erblassen lassen und das noch zur Hälfte des Preises? :D

Diese Chance darf AMD sich nicht entgehen lassen, sie können mit Renoir jeden Bereich bis zum High-End abdecken. :)

in nem notebook wäre AMD gut angeraten, auf ein chipset zu verzichten... die CPUs selber können ja schon alles nativ und brauchen ein chipset im mobile sektor nichtmal, genau wies theoretisch auf ITX auch kein chipset brauch... mehr als PCIe 16x, 2x NVMe und 4x SATA haben die eh nicht... und das kann die CPU nativ, inkl. lan.

robbitop
2020-01-05, 21:11:31
Wie gesagt: Fläche kostet es. Ja und da muss man schon abwegen ob man die nicht besser in CUs investiert. Sehe ich auch so.
Aber zum Punkt Energie: Cache spart Energie. ;)

CrazyIvan
2020-01-05, 21:36:06
Was ich spannend finde: Anhand von Renoir wird man gut erkennen, wie groß der Chiplet Tradeoff wirklich ist. Denn eines ist klar: Matisse performt nicht wegen sondern trotz der Inter-Die-Kommunikation sehr gut. Glaube mittlerweile ernsthaft an einen IPC-Uplift im mittleren einstelligen Bereich.

AlterSack
2020-01-05, 21:38:18
Ich bin gespannt wie schnell Renoir im CPU Limit in Spiele taktnormiert ist (sieht man sicher erst sauber wenn Desktop APUs raus sind und mit dGPUs kombiniert werden). Immerhin hat man offenbar nur 1/4 des L3 (4 mib statt 16 mib) und man ist ja bis dato davon ausgegangen, dass ein guter Teil der Performancesteigerung vom L3 kommt.

Hab ich was verpasst? Sind es nicht 32Mb pro DIE?
...bin schon hier: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-45-januar-2020 drübergestolpert.

basix
2020-01-05, 21:42:58
Hab ich was verpasst? Sind es nicht 32Mb pro DIE?
...bin schon hier: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-45-januar-2020 drübergestolpert.

Es ist etwas missverstndlich formuliert, aber es ist das CCX gemeint und nicht der komplette Die.

Unicous
2020-01-05, 22:07:57
@robbitop

Das ist ein Allgemeinplatz wie er nicht allgemeiner sein kann.:rolleyes:

Es steht außer Frage, dass schneller und viel Cache Energie spart, du tust aber so als hätte AMD mal besser auf dich gehört und die vollen 16MB reingepfeffert und alles wäre gut. Ich bin mir sicher, dass sie den trade-off besser einschätzen können als du. Zudem ist es ein "kompletter" SoC im Gegensatz zu Ryzen Desktop und Intel allgemein. Intel muss ihre Chips auch immer weiter aufblasen um Kerne und EUs unterbringen zu können. Sie können sich das u.a. leisten weil sie einen Teil der I/O weiterhin auslagern. Wenn man jedoch sieht, dass Ice Lake U iirc so groß ist wie der Vorgänger wird es langsam schwierig das beizubehalten, insbesondere bei den miserablen Ergebnissen, die 10nm weiterhin abzuliefern scheint. Dass es bei Intel seit Längerem schon keinen L4 mehr gibt und sie stattdessen die anderen Caches deutlich vergrößern, damit aber teilweise die Latenz wieder erhöhen mussten ist auch Testament dafür, dass man nicht immer Cache hinter ein Problem werfen kann sondern eine Balance finden muss. Die Balance ist hier offensichtlich mehr Cache, höhere Latenz.


edit:
Ja, es geht ums CCX.

Denniss
2020-01-05, 22:48:05
Zen2 kann durchaus für die APU ein wenig aufgehübscht worden sein, vielleicht ist der 8-Kern CPU-Teil nur noch ein CCX.

SKYNET
2020-01-05, 22:48:09
btw. die neue vega IGP liegt auf leistungsniveau der radeon 280(non X)

nur falls es wen interessiert :)

mironicus
2020-01-05, 23:19:19
btw. die neue vega IGP liegt auf leistungsniveau der radeon 280(non X)

Radeon 280 ist auch vergleichbar mit GTX 1050 Ti. Damit macht man manche diskrete Grafikoptionen schon überflüssig.

Brillus
2020-01-05, 23:37:28
Ich bin gespannt wie schnell Renoir im CPU Limit in Spiele taktnormiert ist (sieht man sicher erst sauber wenn Desktop APUs raus sind und mit dGPUs kombiniert werden). Immerhin hat man offenbar nur 1/4 des L3 (4 mib statt 16 mib) und man ist ja bis dato davon ausgegangen, dass ein guter Teil der Performancesteigerung vom L3 kommt.

Naja da war eher davon ausgegangen worden das der größere L3 Cache die erhöhte Latenz zum RAM wegen IO-DIE ausgleicht. Kein IO-Die -> kein Ausgleich nötig.

y33H@
2020-01-06, 00:46:22
Bin gespannt wann was leakt :freak:

spotz
2020-01-06, 00:49:31
Radeon 280 ist auch vergleichbar mit GTX 1050 Ti. Damit macht man manche diskrete Grafikoptionen schon überflüssig.

Die Desktop Vega IGP von Raven Ridge und Picasso waren doch bisher grob auf GT 1030 Niveau. Das wäre bei Renoir aber ein großer Sprung wenn sie grob auf GTX 1050 Ti Niveau käme.

Lehdro
2020-01-06, 00:51:05
Bin gespannt wann was leakt :freak:
Du weisst doch schon wieder längst bescheid! :mad:

;)

y33H@
2020-01-06, 00:55:05
GT 1030 ist klar schneller als Vega11 in Picasso, zumindest mit GDDR5.

Unicous
2020-01-06, 01:07:16
Kann sich nur um Stunden handeln bis jemand VCZ die slides schickt. :wink:

Screemer
2020-01-06, 01:42:35
Sollte das ganze wirklich auf 1050ti Level sein, dann wird das Ding der Renner.

Deinorius
2020-01-06, 02:01:39
Nie und nimmer. Wie soll das ohne passende Bandbreite geschehen?

Screemer
2020-01-06, 02:03:47
Das frag ich mich auch.

Deinorius
2020-01-06, 02:11:25
Ich warte nur darauf, dass hier jemand mit einem Ryzen 9 inkl. HBM daherkommt.

Leonidas
2020-01-06, 03:14:11
Hab ich was verpasst? Sind es nicht 32Mb pro DIE?
...bin schon hier: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-45-januar-2020 drübergestolpert.


Es ist etwas missverstndlich formuliert, aber es ist das CCX gemeint und nicht der komplette Die.


Ich schreibe es genauer.




btw. die neue vega IGP liegt auf leistungsniveau der radeon 280(non X)


In diesem singulärem Test, richtig?

Der kann natürlich auch über Feature-Dinge zugunsten der neuen Gfx verfälscht sein. Grob aus dem Kopf dürften die besten APUs der letzten Generation kaum das Niveau einer GeForce GT 1030 (170%) knacken. Wenn Renoir nicht deutlich mehr APU-Power bringt, fehlt da immer noch viel zur Radeon R9 280 (340%).

Unicous
2020-01-06, 04:02:54
Habe ich gerade gefunden. Ist wohl von Chiphell:

https://s2.ax1x.com/2020/01/06/lrKlTI.png

Etwas weird, besonders das mit dem Chiplets, aber sonst durchaus plausibel.

Lässt sich aber natürlich auch gut faken.

Hier der Thread.

https://www.chiphell.com/forum.php?mod=viewthread&tid=2175962&fromguid=hot&extra=&mobile=no


late edit, weil das Forum mal wieder abgekackt ist: Vermutlich ein feuchter Traum des OP. Leider ist die Übersetzung zu schlecht um herauszubekommen ob er es selbst erstellt hat.

Leonidas
2020-01-06, 07:33:03
Es macht keinen Sinn, im Chiplet-Design für so was die bestehenden Core-Chiplets nicht mit zu verwenden - und stattdessen extra Core-Chiplets nur für den APU-Bereich aufzulegen. Wozu dann die Modularität, wenn man sie nicht nutzt?

Berniyh
2020-01-06, 08:12:35
Ich hatte mir gestern das neue Video von adoredtv angeschaut, wo er einige Rechnungen zum Waferverbrauch von AMD für 7nm aufstellt.
Manches davon ist ziemlich hanebüchen (z.B. der letzte Teil zu den Konsolen, wo er komplett unterschlägt, dass diese mit einem RDNA2-Äquivalent daher kommen werden, sowie die Tatsache, dass im 2 HJ vieles auf 7nm+ laufen wird, was ja die Die Size wieder ein bisschen reduziert (und das macht schon einen signifikanten Unterschied).
Auch die Berechnungen zur Navi Serie finde ich nicht 100%ig schlüssig.

Der erste Teil aber behandelt quasi den Status-Quo bzgl. Zen und das basierend auf halbwegs realistischen Zahlen.
Demnach hätte AMD aktuell etwa 15000 Wafer/Monat bei TSMC geordert.
Auf Basis der Chiplet Fläche und (prognostiziertem) Marktanteil würden darauf entfallen:
EPYC (und Threadripper): 2 Mio CPUs, 1359 Wafer/Monat
Ryzen Desktop: 20 Mio CPUs, 2718 Wafer/Monat

Das muss nun natürlich nicht zu 100% stimmen, ist ja nur eine Abschätzung, aber auf Grund der Annahmen die getroffen wurden wird diese Abschätzung auch nicht komplett daneben liegen.
Jedenfalls würden die Zen 2 Chiplets dann nicht mal 1/3 des Waferverbrauchs von AMD ausmachen …
Klar, ein etwas größeres Chiplet würde dann schon mehr kosten, aber ich denke so viel macht das dann auch nicht aus.

Zudem – wenn man danach geht – dürfte AMD in Bezug auf Zen 2 eigentlich nicht wirklich durch TSMC limitiert sein.
(wenn man die 15000 Wafer/Monat falsch verteilt hat ist man ja letztendlich selbst schuld)
Und, wenn das Marktinteresse da ist kann AMD sicherlich noch deutlich mehr EPYC und Ryzen verkaufen. Die Kapazitäten dafür sind zumindest in Bezug auf den 7nm Prozess da. TSMC könnte den Markt regelrecht mit Zen 2 Chiplets zuschei**en, wenn die Notwendigkeit bestünde.
Wie das bzgl. IO Die und Packaging aussieht weiß man natürlich nicht, würde mich aber nicht wundern, wenn da eher die Limitierung liegt.

Edit: im 2 HJ hat AMD wohl auf 30000 Wafer/Monat erhöht (vermutlich inkl. 7nm+), wobei die zusätzlichen Wafer wohl hauptsächlich für die Konsolen drauf gehen dürften. Aber um letzteren Punkt einzusehen muss man nun wirklich kein Video von adoredtv anschauen. xD

dildo4u
2020-01-06, 09:18:26
Intels letztes Aufbäumen vor Heute Abend.

https://www.notebookcheck.net/Intel-offers-a-sneak-peek-at-10th-gen-Comet-Lake-H-and-Ghost-Canyon-NUC-possibly-to-steal-some-limelight-before-AMD-s-keynote-tomorrow.449314.0.html

Wenn ich so überlege sind gute CPUs im Notebook wichtiger als im Desktop,da dort fast alle Gameing Displays nur 1080p nutzen.

MR2
2020-01-06, 09:26:12
"Doch der Gegenschlag dürfte binnen Stunden erfolgen: Dann tritt AMD mit acht Kernen auch in der U-Serie an und wird in einigen Bereichen dank Zen-2-Architektur mit höherer IPC als Intel Coffee Lake nicht nur aufholen, sondern vorbeiziehen."

https://www.computerbase.de/2020-01/intel-tiger-lake-comet-lake-h-amd/

mironicus
2020-01-06, 09:44:20
Was spricht eigentlich dagegen das es mehrere Versionen von Renoir gibt, also Standard und einmal mit HBM-Speicher? Damit hat AMD doch schon massiv Erfahrung. Kaby Lake-G oder Vega 16/20 mit HBM für Apple Macbooks.

Theoretisch könnte das so aussehen: Kabylake-G. Der linke Teil ist die AMD-GPU mit HBM, Renoir könnte insgesamt noch kleiner sein.
https://static.techspot.com/articles-info/1654/images/2018-07-03-image.jpg

dildo4u
2020-01-06, 09:46:05
Niemand kauft 2000€ AMD Laptops da muss erstmal das Image deutlich besser werden.
Ich würde überhaupt erstmal Tests abwarten wie die ersten Umsetzungen von Ryzen 4000 im Notebook sind.

BoMbY
2020-01-06, 10:03:25
Habe ich gerade gefunden. Ist wohl von Chiphell:

https://s2.ax1x.com/2020/01/06/lrKlTI.png

Etwas weird, besonders das mit dem Chiplets, aber sonst durchaus plausibel.

Lässt sich aber natürlich auch gut faken.

Hier der Thread.

https://www.chiphell.com/forum.php?mod=viewthread&tid=2175962&fromguid=hot&extra=&mobile=no


Also wenn da nicht Chiplet stünde würde ich sagen das wäre in etwa genau der Mono-Die-Renoir den ich erwartet hätte.

mironicus
2020-01-06, 10:06:00
Das einzige was AMD im Mobilebereich bremsen kann sind von Intel bestochene Hersteller, die mittels massiven Rabatten dazu gebracht werden, keine Notebooks mit Renoir oder nur mit großer Verzögerung auf den Markt zu bringen.

Grendizer
2020-01-06, 10:30:17
In der Preisklasse bis 1000 Euro wird AMD jetzt Fuss fassen können. Im Businessbereich wird es noch etwas dauern. Sobald sich die Consumernotebooks als schnell , leise und stabil erweisen, wird auch im Businessbereich die Nachfrage steigen.

basix
2020-01-06, 10:34:46
Ich hatte mir gestern das neue Video von adoredtv angeschaut, wo er einige Rechnungen zum Waferverbrauch von AMD für 7nm aufstellt.
Manches davon ist ziemlich hanebüchen (z.B. der letzte Teil zu den Konsolen, wo er komplett unterschlägt, dass diese mit einem RDNA2-Äquivalent daher kommen werden, sowie die Tatsache, dass im 2 HJ vieles auf 7nm+ laufen wird, was ja die Die Size wieder ein bisschen reduziert (und das macht schon einen signifikanten Unterschied).
Auch die Berechnungen zur Navi Serie finde ich nicht 100%ig schlüssig.

Der erste Teil aber behandelt quasi den Status-Quo bzgl. Zen und das basierend auf halbwegs realistischen Zahlen.
Demnach hätte AMD aktuell etwa 15000 Wafer/Monat bei TSMC geordert.
Auf Basis der Chiplet Fläche und (prognostiziertem) Marktanteil würden darauf entfallen:
EPYC (und Threadripper): 2 Mio CPUs, 1359 Wafer/Monat
Ryzen Desktop: 20 Mio CPUs, 2718 Wafer/Monat

Das muss nun natürlich nicht zu 100% stimmen, ist ja nur eine Abschätzung, aber auf Grund der Annahmen die getroffen wurden wird diese Abschätzung auch nicht komplett daneben liegen.
Jedenfalls würden die Zen 2 Chiplets dann nicht mal 1/3 des Waferverbrauchs von AMD ausmachen …
Klar, ein etwas größeres Chiplet würde dann schon mehr kosten, aber ich denke so viel macht das dann auch nicht aus.

Zudem – wenn man danach geht – dürfte AMD in Bezug auf Zen 2 eigentlich nicht wirklich durch TSMC limitiert sein.
(wenn man die 15000 Wafer/Monat falsch verteilt hat ist man ja letztendlich selbst schuld)
Und, wenn das Marktinteresse da ist kann AMD sicherlich noch deutlich mehr EPYC und Ryzen verkaufen. Die Kapazitäten dafür sind zumindest in Bezug auf den 7nm Prozess da. TSMC könnte den Markt regelrecht mit Zen 2 Chiplets zuschei**en, wenn die Notwendigkeit bestünde.
Wie das bzgl. IO Die und Packaging aussieht weiß man natürlich nicht, würde mich aber nicht wundern, wenn da eher die Limitierung liegt.

Edit: im 2 HJ hat AMD wohl auf 30000 Wafer/Monat erhöht (vermutlich inkl. 7nm+), wobei die zusätzlichen Wafer wohl hauptsächlich für die Konsolen drauf gehen dürften. Aber um letzteren Punkt einzusehen muss man nun wirklich kein Video von adoredtv anschauen. xD

Ja, die Berechnungen sind nicht wirklich belastbar. Ich finde es aber als Abschätzung gar nicht mal so schlecht (ausser das 4-5 Mio GPUs in der Rechnung fehlen, ausser das wären 14nm Derivate).

Zu deinen 15kwpm: Es sind laut detaillierteren Artikeln momentan bei 21k und soll auf 30k steigen in H2/2020. Die Verdopplung ist ein falsches Gerücht. Das macht auch Sinn. Dann hätten sie momentan etwas Überkapazität für EPYC etc. und können einige Chiplets usw. ans Lager legen. Die Rechnung von AdoredTV legt nämlich eines offen (auch wenn er nicht gross darauf eingeht): Wenn AMD nun den grössten Teil der CPUs, GPUs, APUs und Konsolen auf 7nm umlagert, wird die Kapazität eng. Auch bei 30k Wafern pro Monat. Erst wenn ein paar GPUs und CPUs auf 5nm wechseln (irgendwann 2021) wird sich die Lage entspannen. Der Grund ist ganz einfach die hohe Nachfrage nach Zen und allenfalls RDNA1/2 und die hohen Stückzahlen der Konsolen.

mironicus
2020-01-06, 10:44:34
Ich hoffe auf einen Preiskrieg. Wahrscheinlich wird es ein wenig dauern und erst mal müssen auch die alten Intel-Modelle abverkauft werden, bevor etablierte Premium-Laptop Marken auf AMD umgestellt werden. Damit meine ich z.B. das HP ein Spectre X360 oder Dell ein XPS 13/15 auf AMD-Basis vorstellt, kann noch ein wenig dauern. Aber bei Microsoft rechne ich mit einer schnellen Vorstellung eines Surface Laptop mit Renoir.

ChaosTM
2020-01-06, 10:46:58
Das einzige was AMD im Mobilebereich bremsen kann sind von Intel bestochene Hersteller, die mittels massiven Rabatten dazu gebracht werden, keine Notebooks mit Renoir oder nur mit großer Verzögerung auf den Markt zu bringen.


Das nennt man "historisch gewachsene Verbindungen zwischen Firmen" und nicht Bestechung .. ;)

dildo4u
2020-01-06, 10:57:22
Das einzige was AMD im Mobilebereich bremsen kann sind von Intel bestochene Hersteller, die mittels massiven Rabatten dazu gebracht werden, keine Notebooks mit Renoir oder nur mit großer Verzögerung auf den Markt zu bringen.
Hä AMD sagt selber das Vega alter Trash und Navi die neue Hotness ist wie willst du da massiv überteuerte HBM Laptops mit Vega in 2020 Loswerden?
Davon abgesehen das fast alle Professionelle PC Software auf Nvidia ausgelegt ist,du kannst es also nicht mal als Pro Modell verkaufen.

Vega 7 = RTX 2060

https://www.pugetsystems.com/labs/articles/Premiere-Pro-GPU-Roundup-NVIDIA-SUPER-vs-AMD-RX-5700-XT-1564/

Die Vega + Intel Laptops sind komplett gefloppt,du bist wesentlich besser gefahren Intel + eine Low End Nvidia GPU zu nutzen.

mironicus
2020-01-06, 11:00:24
Ich hege ja große Hoffnung in Apple, denn da sehe ich eine Chance das sie auf AMD-CPUs wechseln könnten, z.B. ab Zen 4 in 5 nm. MacOS ist ja schon komplett auf AMD-GPUs optimiert.

ChaosTM
2020-01-06, 11:02:48
Apple geht eher in Richtung ARM...

mironicus
2020-01-06, 11:09:21
Apple geht eher in Richtung ARM...

So eine Umstellung dauert aber viele Jahre inkl. der gesamten Software, das merkt Microsoft selbst mit ihren ARM-Windows Laptops.

Eine CPU-Umstellung auf AMD kann ziemlich schnell erfolgen, wenn Apple sich von anderen Herstellern absetzen will, und AMD baut schon ziemlich viele Sachen exklusiv für Apple. AMD könnte Apple auch eine exklusive CPU bauen und Apple behauptet dann das wäre nach ihren Design-Richtlinien entstanden.

Berniyh
2020-01-06, 11:09:47
Ja, die Berechnungen sind nicht wirklich belastbar. Ich finde es aber als Abschätzung gar nicht mal so schlecht (ausser das 4-5 Mio GPUs in der Rechnung fehlen, ausser das wären 14nm Derivate).

Zu deinen 15kwpm: Es sind laut detaillierteren Artikeln momentan bei 21k und soll auf 30k steigen in H2/2020. Die Verdopplung ist ein falsches Gerücht. Das macht auch Sinn. Dann hätten sie momentan etwas Überkapazität für EPYC etc. und können einige Chiplets usw. ans Lager legen. Die Rechnung von AdoredTV legt nämlich eines offen (auch wenn er nicht gross darauf eingeht): Wenn AMD nun den grössten Teil der CPUs, GPUs, APUs und Konsolen auf 7nm umlagert, wird die Kapazität eng. Auch bei 30k Wafern pro Monat. Erst wenn ein paar GPUs und CPUs auf 5nm wechseln (irgendwann 2021) wird sich die Lage entspannen. Der Grund ist ganz einfach die hohe Nachfrage nach Zen und allenfalls RDNA1/2 und die hohen Stückzahlen der Konsolen.
Dass die Rechnung (also inkl. der Konsolen und Navi etc.) insgesamt zweifelhaft ist habe ich ja auch schon angedeutet. Das sehe ich absolut genauso.
In seiner Rechnung fehlen zudem die MI50/MI60 Chips bzw. dann MI100 (Arcturus), welche sicherlich auch noch einige Wafer wegnehmen (da das wohl die Chips mit der größten Fläche sein dürften).

Aber mir ging es hier ja nur um Zen 2 und wenn es dann 21000 Wafer/Monat sind, dann trifft mein wesentlicher Punkt ja noch mehr zu: die Zen 2 Chiplets nehmen nur einen relativ geringen Anteil der Wafer weg (in dem Fall dann grob 20%).
Die GPUs und APUs hauen da wesentlich mehr rein.

Aus der Sicht macht dann auch die Strategie von AMD die APUs nach zu ziehen (also wenn mehr Kapazität verfügbar ist) Sinn.

robbitop
2020-01-06, 11:10:15
Hab ich was verpasst? Sind es nicht 32Mb pro DIE?
...bin schon hier: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-45-januar-2020 drübergestolpert.
Was im CCX liegt zählt. Denn nur auf das kann ein einzelner Kern sinnvoll zugreifen. ;)

Berniyh
2020-01-06, 11:11:46
Ich hoffe auf einen Preiskrieg.
Hast du dir das gut überlegt?

Ein Preiskrieg zum jetzigen Zeitpunkt würde AMD mittelfristig wohl endgültig über die Klippe springen lassen (nämlich dann, wenn Intel wieder halbwegs auf die Beine gefunden hat).
Kurzsichtig betrachtet wäre es natürlich zu deinem individuellen Vorteil, aber mittel- und langfristig betrachtet wäre es wahrscheinlich eine Katastrophe.

Hammer des Thor
2020-01-06, 11:18:26
Was im CCX liegt zählt. Denn nur auf das kann ein einzelner Kern sinnvoll zugreifen. ;)

So kann man nicht rechnen, da ja viele Programme viele Kerne nutzen. Also auch mehr nutzbarer L3. Nur bei Programmen die wenige Kerne nutzten kann man so rechnen, denke mal dass Zen 3 genau auch deshalb deutlich mehr SingleThread hat weil nen einzelner Kern dann doppelt so viel L3 hat!

SKYNET
2020-01-06, 11:22:35
Hast du dir das gut überlegt?

Ein Preiskrieg zum jetzigen Zeitpunkt würde AMD mittelfristig wohl endgültig über die Klippe springen lassen (nämlich dann, wenn Intel wieder halbwegs auf die Beine gefunden hat).
Kurzsichtig betrachtet wäre es natürlich zu deinem individuellen Vorteil, aber mittel- und langfristig betrachtet wäre es wahrscheinlich eine Katastrophe.


wird eh nicht passieren, AMD weiss das sie das bessere produkt haben, und müssen darum auch nicht mit dem preis runter... siehe intel, hatten das bessere -aber massiv teurere- produkt über jahre, und wurde trotzdem gekauft.

robbitop
2020-01-06, 11:28:47
@robbitop

Das ist ein Allgemeinplatz wie er nicht allgemeiner sein kann.:rolleyes:
Wirklich freundlich ist das nicht gerade. Wenn ich will, kann ich auch jedes Posting auseinanderklauben und nach Allgemeinplätzen suchen und abfällig die Augen rollen. Finde ich aber nicht produktiv. Genau wie die anderen Dinge, die du in meine Postings interpretierst. Du weißt wie es gemeint war. Bitte schön sachlich und freundlich bleiben. Alles andere ist nicht gut für eine objektive Diskussion mit vernünftigem Umgang.


Es steht außer Frage, dass schneller und viel Cache Energie spart, du tust aber so als hätte AMD mal besser auf dich gehört und die vollen 16MB reingepfeffert und alles wäre gut. Ich bin mir sicher, dass sie den trade-off besser einschätzen können als du.
Das ist eine Unterstellung die ich bewusst verneine. Ich habe überhaupt nicht so getan als hätte AMD auf einen Laien wie mich gehört.

Natürlich ist es ein Trade-off und natürlich kann AMD das besser einschätzen. Alles andere wäre traurig. Gerade ich proklamiere oft genug, dass die Erhöhung einer Größe zu Auswirkungen anderer Größen führt und man schauen muss, dass das Gesamtergebnis passt. Bitte weniger interpretieren.


Dass es bei Intel seit Längerem schon keinen L4 mehr gibt und sie stattdessen die anderen Caches deutlich vergrößern, damit aber teilweise die Latenz wieder erhöhen mussten ist auch Testament dafür, dass man nicht immer Cache hinter ein Problem werfen kann sondern eine Balance finden muss. Die Balance ist hier offensichtlich mehr Cache, höhere Latenz.

Mehrere Punkte:

1.) Der L4 war teuer und relativ langsam. ~40 ns IIRC. Haswell/Broadwell lagen out of the Box mit gängigem 1600er DDR3 bei ~55-60 ns Memorylatency. Da hat das je nach Anwendung/Spiel/Spielszene schon was gebracht, wenn man 30% weniger auf Daten für die Instruktion warten muss. Seit Skylake liegt man mit halbwegs gutem DDR4 bei ~40...45ns. Da lohnt sich der L4 wie er war nicht mehr (man hätte den sicherlich schneller bekommen - aber irgendwo greift das Gesetz des sinkenden Grenzertrags nunmal). Er war einfach zu teuer und nicht mehr nötig. [Gesamtmemorylatenz setzt sich zusammen aus den Einzellatenzen der Fabric, dem IMC und des RAMs. Der Ringbus war schon immer sehr schnell - ein hoher IMC Takt brachte gerade hier nochmal ordentlich Teillatenz]

2.) Absolute Zustimmung. Am Ende kommt es auf das Gesamtergebnis an. Und auch oft genug ist die Latenz nicht der Flaschenhals sondern ein anderer Teil der CPU (Decoder, Backend etc). Bei AMD war aber seit Zen1 erkennbar, dass die IF die CPU ziemlich aus der Balance in Spielen gedreht hat. Dort wurde die uArch leider häufig durch Warterei auf Instruktionen limitiert. Unschön, wenn diese mühevoll auf Leistung getrimmt wird und dann durch Warten gebremst wird. Da man Skalierbarkeit brauchte, braucht und brauchen wird (und das AMD mit ihrer Produktgestaltung am Ende auch die entscheidenden Vorteile ggü Intel gab), gab es nunmal kein einfaches Heilmittel dafür. Man musste mit besserer Cachehitrate gegensteuern. Das Problem sehe ich bei Intel auch kommen, wenn sie vom Ringbus weggehen. Und sie scheinen mit Sunny- und Willowcove, wie du es beschreibst, ja bereits daran zu arbeiten (L2 und L3 wachsen). AMD hatte bereits relativ große L2s und hat mit dem größeren L3 und dem besseren Prefetching in Zen 2 sehr effektiv dieses Manko bekämpft. Und das sieht man in den entsprechenden Spielen sehr stark.
Eine Kürzung auf 25% bei Renoir war hier auffällig - deshalb habe ich meine Neugier bekundet, wie groß der Nachteil auf die APU ist. Jedoch nicht behauptet, es besser zu wissen. Natürlich sind 7 nm Kapazitäten knapp und natürlich muss man einen Trade-off mit dem GPU Teil machen. Das ist mir genauso klar wie dir. Etwas anderes wollte ich mit dem "Allgemeinplatz" nicht ausdrücken.

Für Zen 3 erwarte ich durch die Vergrößerung der CCX (sofern es die in der Form noch gibt) unterm Strich auch mehr Leistung. Mehr Teilnehmer in einem CCX bedeuten wahrscheinlich, dass die Latenz zwischen den Kernen und zum L3 ein wenig steigt. Jedoch könnte es sein, dass ein wenig Latenz zum IMC gut gemacht wird und die Hitrate wird auch nochmal besser durch den größeren L3, den jeder Kern innerhalb eines CCDs zugreifen kann. Ist aber auch hier ein trade-off.

YfOrU
2020-01-06, 11:44:38
Aber bei Microsoft rechne ich mit einer schnellen Vorstellung eines Surface Laptop mit Renoir.

Mit einem Refresh (Renoir zusammen mit Tiger Lake) würde ich nicht vor Herbst (Zyklus von einem Jahr) rechnen. Zum einen ist Microsoft meist etwas langsamer als die großen OEMs (Implementierung) und zum anderen liefert AMD eine "Custom" APU. Die SKUs wird man kaum für nur zwei Quartale aufgelegt haben.

Hinzu kommt das Microsoft beim Surface Laptop 3 mit Blick auf die Varianten effizient vorgegangen ist. Es gibt nur ein Mainboard Format für 13, 15 Zoll und AMD sowie Intel. Also praktisch zwei PCBs (AMD/Intel). Trotzdem gibt es keine 13 Zoll Variante mit dem AMD PCB obwohl das mit geringen Aufwand möglich gewesen wären. Ein weiteres PCB nur für 13 Zoll zur Mitte der Laufzeit des Produktes mit Renoir ist da nicht gerade wahrscheinlich.

mironicus
2020-01-06, 12:04:14
Der Preis des Surface Laptop 3 wird sich halbieren müssen. Das wird niemand mehr kaufen, wenn ich ein 13 oder 14 Zoll-Gerät mit 8/16 Kerner und 25/35 Watt TDP im Frühjahr erhalten kann.

Complicated
2020-01-06, 12:05:34
Etwas weird, besonders das mit dem Chiplets, aber sonst durchaus plausibel.

Nur hat das 2x-Chiplet 8 MB L3 Cache und keine 4 MB wie in dem Benchmark ausgewiesen;)

Man sollte auch nicht vergessen, dass APUs vor Raven Ridge überhaupt keinen L3-Cache hatten.
Niemand kauft 2000€ AMD Laptops da muss erstmal das Image deutlich besser werden.

Ach? https://amzn.to/2ZWiM00

Davon abgesehen das fast alle Professionelle PC Software auf Nvidia ausgelegt ist,du kannst es also nicht mal als Pro Modell verkaufen.
Und welche Software soll das sein auf die du dich da beziehst?
Ich weiß ja nicht zu welcher Geräteklasse deine selektive Wahrnehmung das MacBook Pro sortiert:
https://www.notebookcheck.com/Test-Apple-MacBook-Pro-15-2018-2-9-GHz-i9-Vega-20-Laptop.396856.0.html
Während die beiden bisherigen Radeon-Pro-Modelle (555X & 560X) noch auf der älteren GCN4-Architektur basieren, ist es bei den beiden Radeon-Pro-Vega-GPUs die GCN5-Architektur. Allerdings bleibt die Verlustleistung vermutlich identisch (35 Watt), wie groß der Leistungsvorteil ist, müssen daher die Benchmarks zeigen. Apple bietet die beiden neuen GPUs nur als Upgrade zu der teureren Basisversion an, zu den 3.299 Euro kommen also noch einmal 300 Euro (Radeon Pro Vega 16) bzw. 420 Euro (Radeon Pro Vega 20) hinzu.

YfOrU
2020-01-06, 12:31:49
Der Preis des Surface Laptop 3 wird sich halbieren müssen. Das wird niemand mehr kaufen, wenn ich ein 13 oder 14 Zoll-Gerät mit 8/16 Kerner und 25/35 Watt TDP im Frühjahr erhalten kann.

Irgendein Gerät reicht halt nicht. XPS, Surface, Spectre, MBP etc. werden aufgrund des Gesamtpakets gekauft. Also Panel, Eingabegeräte, Gewicht, Verarbeitung, Laufzeit, Performance und Gehäuse. Wer sowas haben will kauft nicht wegen zwei Kernen mehr ein Mainstream Consumer Gerät. AMD hat mit Renoir gute Chancen in mehr Premium und auch Business Serien zu landen als bisher. Von heute auf morgen wird das aber nicht passieren. Siehe Surface Laptop 3 mit Picasso im Oktober 2019.

mironicus
2020-01-06, 12:53:11
Das erwarte ich auch nicht sofort. Zum Start kann man wohl eher mit Mid-Range Spielenotebooks rechnen, in denen Renoir den üblichen Core i7-9750H ersetzt, zu einem attraktiveren Preis.

mboeller
2020-01-06, 13:13:24
Das erwarte ich auch nicht sofort. Zum Start kann man wohl eher mit Mid-Range Spielenotebooks rechnen, in denen Renoir den üblichen Core i7-9750H ersetzt, zu einem attraktiveren Preis.

der hier durchgekaute userbenchmark war von einem HP 845 G7

Opprobrium
2020-01-06, 13:19:58
Niemand kauft 2000€ AMD Laptops da muss erstmal das Image deutlich besser werden.

Das Image wird aber nicht besser, wenn man nur in Billighardware verbaut wird ;) Zumal die Picasso Thinkpads recht gut bewertet wurden und je nach Konfiguration bereits an der 2000€ Marke kratzen. Auch ist AMDs Image schlicht bereits deutlich besser geworden in den letzten Jahren, das Argument verliert also langsam an Validität

Ich hoffe auf einen Preiskrieg.

Hier könnte ein Problem vorhanden sein: Die Notebookhersteller werden sich vermutlich, ähnlich wie Intel, an die netten Margen gewöhnt haben. Und ein stillschweigendes Einverständnis der großen Hersteller untereinander halte ich nicht für ausgeschlossen. Ein Preiskampf dürfte die Margen verringern, da die Hersteller dann ja nicht mehr nur in Konkurrenz miteinander, sondern letztlich sogar in Konkurrenz mit sich selbst stünden.

Was fehlt ist theoretisch ein AMD exklusiver Hersteller der keine Rücksicht auf seine Intelmodelle nehmen muss und den eingeschlafenen Notebookmarkt mal kräftig durcheinander wirbelt.

mironicus
2020-01-06, 13:26:17
der hier durchgekaute userbenchmark war von einem HP 845 G7

Und diese HP EliteBook-Reihe sind ziemlich hochpreisige Business-Geräte mit hochwertiger Verarbeitung und guten Bildschirmen. Die gibt es schon mit Ryzen 2/3000. Also gibt es bereits schon eine gute Grundlage für 2000 Euro-Geräte mit Renoir. Und Lenovo hat auch viele schöne Laptops dieser Art. :freak:

Es gibt bei Dell übrigens noch keinen Nachfolger für das Dell XPS 15 2-1, seit Frühjahr 2018 bietet es Dell mit Kaby Lake-G an. Das Modell läuft im März 2020 aus. Wie gemacht für ein Referenz Renoir-System.