Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)
][immy
2019-01-08, 09:18:08
Hätte man das gleiche Problem nicht auch wenn man massig Arbeitsspeicher hätte?
ja und nein. Zum einen ist der Arbeitsspeicher doch um einiges flotter. Zum anderen würde man in den Arbeitsspeicher wohl eher per Streaming voll bekommen und nicht extra einen Cache vor dem Arbeitsspeicher anlegen.
Das mit so einem SSD-Cache (außer für das OS) halte ich wirklich für grenzwertig.
Zum einen erhöht es die kosten zum anderen um die kosten niedrig zu halten würde wohl ein Speicher eingesetzt werden, der schnell gelesen aber langsam beschrieben werden kann (z.B. wie in den aktuellen SSDs mit 4D (4 bit pro zelle). Die maximale Anzahl der schreibzyklen ist bei SSDs inzwischen derart groß das man diese vernachlässigen können sollte (zur not mit ein wenig ausgleichs-Speicher).
Was Datenstrukturen vs assets etc angeht, Datenstrukturen sehe ich eher nicht mehr als Problem. Die PS3 & x360 kamen mit weniger als 512 MB speicher für alles aus. Das einzige was sich wirklich massiv vergrößert hat sind die Texturen etc. Die Datenstrukturen sind doch relativ klein geblieben. Klar kann man sich mit mehr speicher einiges an Optimierungen sparen, aber z.B. Skyrim mit all seinen möglichen Objekten etc war auch schon auf den alten Konsolen möglich. Ich sehe da wirklich nicht so das Problem, eher Optimierungspotential :). Und besonders Daten auf die man nicht all zu häufig zugreifen lassen sich auch mal relativ einfach auslagern. Ist zwar nicht optimal, meist aber auch nicht tragisch.
gravitationsfeld
2019-01-08, 11:06:38
Deine Artists sehen das sicherlich anders.
Der Texture-Pool dimensioniert sich primaer mit der Aufloesung ausser fuer Magnification. Da seh ich keinen riesigen Bedarf fuer einen grossen Sprung. Details kann man mit prozeduralen Techniken machen.
Geometrie brauchen wir jetzt auch nicht wirklich riesig viel mehr.
xyleph
2019-01-08, 13:02:23
Der Texture-Pool dimensioniert sich primaer mit der Aufloesung ausser fuer Magnification. Da seh ich keinen riesigen Bedarf fuer einen grossen Sprung. Details kann man mit prozeduralen Techniken machen.
Geometrie brauchen wir jetzt auch nicht wirklich riesig viel mehr.
Und dann, meinst du, sollen es doch 32GiB werden?
Schwer vorstellbar.
BoMbY
2019-01-08, 13:34:10
Eine mehrstufige Texture-Cache Hierarchie ala HBCC würde für Konsolen sicher eine Menge Sinn machen, zumal hier die Optimierung für die Software ja recht einfach ist. Man könnte neben NVMe eventuell sogar mehrere Speicherarten in Betracht ziehen. GDDR6 + kleiner HBM2 Cache, oder sowas (wobei das von den Kosten her natürlich eher unwahrscheinlich ist).
mr coffee
2019-01-08, 13:41:58
Eine mehrstufige Texture-Cache Hierarchie ala HBCC würde für Konsolen sicher eine Menge Sinn machen, zumal hier die Optimierung für die Software ja recht einfach ist. Man könnte neben NVMe eventuell sogar mehrere Speicherarten in Betracht ziehen. GDDR6 + kleiner HBM2 Cache, oder sowas (wobei das von den Kosten her natürlich eher unwahrscheinlich ist).
Letztendlich wird die Frage nach Preisleistung entscheidend sein. Ist es einfacher und billiger mehr ram reinzuklatschen oder rechnet es sich mit mehr Hierarchien zu arbeiten.
gravitationsfeld
2019-01-08, 19:05:41
Und dann, meinst du, sollen es doch 32GiB werden?
Schwer vorstellbar.
Kommt auf die DRAM-Situation an. Sie planen mit mindestens 32GB, aber es kann gut sein dass sie Pokern und es 64GiB werden weil einer den anderen überbieten will. Ist letztes Mal passiert, PS4 war mit 4GB geplant.
Alles unter 32 können sie bleiben lassen. Dann braucht man keine neue Gen, die Rechenleistung würde verpuffen.
Ich gebe HBM2 mit HBCC und DDR4 eine ~50% Chance um die Kosten unten zu halten. Z.B. 4GB HBM plus 32GB DDR.
Gipsel
2019-01-08, 20:04:41
Ich gebe HBM2 mit HBCC und DDR4 eine ~50% Chance um die Kosten unten zu halten. Z.B. 4GB HBM plus 32GB DDR.Falls HBM kommt, dann wohl nicht nur mit 4GB (sondern mindestens 8GB). Man benötigt ja vermutlich 2 Stacks, um eine im Verhältnis zur voraussichtlichen Rechenleistung annehmbare Bandbreite (mindestens 512 GB/s) hinzubekommen (One X hat 326GB/s für 6 TFlop/s, PS4Pro hat 218GB/s für 4,2 TFlop/s). Und baut irgendwer Stacks mit <4GB? Oder glaubt wer an einen einzelnen 4GB HBM3 Stack mit 4 GT/s? Warum dann nicht einen 8GB-HBM3-Stack nehmen (vier 16Gbit-Dies sollten ab 2020 als Mindestgröße für einen Stack drin sein, die 4GT/s müssen wir dann mal sehen). Die Kosten sind nur der Knackpunkt, den ich da sehe. Irgendwie halten sich ja alle Beteiligten sehr bedeckt, was die Yields für die TSVs und das Zusammenbauen der Stacks angeht, so daß sich das schwer einschätzen läßt.
Tesseract
2019-01-08, 20:32:35
warum sollte man die speichertypen überhaupt mischen? da kommt doch viel weniger bandbreite raus als wenn man stattdessen einen typ breiter auslegt. eine hierarchie macht doch nur sinn wenn eine stufe wesentlich schneller als die darunter ist.
Iterator
2019-01-08, 21:22:48
Wenn man auf zwei Speichertypen setzt, ist es in den meisten Fällen doch eine Verlegenheitslösung, siehe Xbox One. Ich denke mal den Fehler macht Microsoft nicht noch einmal. Ich könnte mir wie Gravitationsfeld auch vorstellen das MS diesmal zur Sicherheit aus dem vollen Schöpfen wird und keine Zweifel aufkommen lassen wird. Noch einmal werden die sich nicht die Butter vom Brot nehmen lassen.
Slashman
2019-01-08, 22:16:01
Also zur ganzen Diskussion füge ich mal was hinzu.
Ich denke eine SSD wird nicht in die billigste PS5 reinkommen. Ich denke keine PS5 Version wird eine SSD bekommen. Weder 64 noch 256 GB SSD Speicher. Aber Sony wird sicher einer 2 TB HDD einbauen. Die sind ja von Haus aus schneller als 500 GB HDDs. Zusätzlich wird Sony wieder erlauben eine SSD/HDD nachzurüsten. Das war ja bei der PS4 auch so wo ich eine HDD mit 2x Speed eingebaut habe und die auch noch mehr Speicher hat.
Also wer ne SSD will wird die wieder selbst einbauen müssen.
Was den RAM angeht denke ich nicht an Mischram bei einer APU. Ich denke nicht das Sony sagen wir mal 16 GB HBM2 und 24-32 GB DDR4 RAM verwenden wird. Ich denke das beste ist gleich 32-48 GB GDDR6 RAM entweder 256 Bit oder 384 Bit wie die Xbox One X. Sony hat ja nicht ohne Grund das Ramsystem so gemacht das es einen gemeinsamen Pool gibt. So kann jeder Entwickler selbst entscheiden wieviel er als Vram und was er nur als RAM nutzen will. Nicht jedes Game lastet 8-16 GB Vram aus, dann liegen ohne Grund Reserver frei.
Wie gesagt das war der Wunsch der Entwickler nicht der von Sony. Sony fragte Entwickler was ihnen lieber ist. Ein RAM für alles war die Antwort.
Bei der CPU hoffe ich noch immer auf mindestens 8 Kerne des Typs Zen2 und 4 extra Kerne egal ob AMD jaguar oder was kleineres nur fürs OS. Wenn die PS4 gerade so 8 schwache Kerne mit je nur geringen 1,6 GHz brachte als Next Gen (damals) war es klar das Multicore Support bis 8 Kerne selten da ist. 8 Zen Kerne mit je 16 Threats + 4 extra Kerne wäre auch für PC Spieler ein Vorteil, weil dann die Spiele gezwungenermaßen mit 8 Kernen umgehen müssen. Dann wird es auch öfter mal Games mit bis zu 16 Kernen als Support geben.
Bei der GPU ist mein Wunsch ja klar entweder 4096 Shader mit 1,5 GHz (neue Navi Shader mit besserer Lastenverteilung) oder 6144 Shader mit 1,0 GHz (für die 384 Bit Bus Idee). Auch sollte der Rest wie ROPs und TMUs auch groß vorhanden sein.
Bei der Disk gehe ich Fest von einem UHD BD Player des schnellsten Typs (12x wäre toll) und falls doch Flashkarten, dann auch da mindestens 128 GB pro Karte. Aber ich Rechne fest mit einem BD Player, weil das Teil auch PS4 Games abspielen sollte.
Beim Preis hoffe ich auf 500-600€ weil noch mal ein kleiner Sprung bei der Leistung (2x CPU, 16x RAM menge und 12-16x GPU Leistung von PS3 zur PS4) ist wenig, aber wenn jetzt nur 4x RAM und 8x Leistung geboten wird ist 4K und 60 FPS leider selten der Regelfall. Ich hoffe auf 10-12x Leistung und 6-8x RAM Menge und das ist eher was für die 500-600€ Preisregion.
Grendizer
2019-01-08, 22:39:16
HD bringt knapp 180 mb/sec ... 3 Min um 32 Gb von der HD zu laden.... ist halt schon langsam, oder ?
gravitationsfeld
2019-01-08, 22:42:10
Die sind ja von Haus aus schneller als 500 GB HDDs.
Datenrate ja, aber nicht Latenz.
Zusätzlich wird Sony wieder erlauben eine SSD/HDD nachzurüsten. Das war ja bei der PS4 auch so wo ich eine HDD mit 2x Speed eingebaut habe und die auch noch mehr Speicher hat.
Wenn die Standard-Variante eine HDD hat, dann bringt eine SSD nichts ausser fuer Ladezeiten.
Bei der GPU ist mein Wunsch ja klar entweder 4096 Shader mit 1,5 GHz (neue Navi Shader mit besserer Lastenverteilung) oder 6144 Shader mit 1,0 GHz (für die 384 Bit Bus Idee). Auch sollte der Rest wie ROPs und TMUs auch groß vorhanden sein.
Kommt hin, 12 TFLOP/s muessen es schon sein. ~7x Leistung einer PS4.
Nightspider
2019-01-09, 01:32:18
Also zur ganzen Diskussion füge ich mal was hinzu.
Ich denke eine SSD wird nicht in die billigste PS5 reinkommen. Ich denke keine PS5 Version wird eine SSD bekommen. Weder 64 noch 256 GB SSD Speicher. Aber Sony wird sicher einer 2 TB HDD einbauen. Die sind ja von Haus aus schneller als 500 GB HDDs. Zusätzlich wird Sony wieder erlauben eine SSD/HDD nachzurüsten. Das war ja bei der PS4 auch so wo ich eine HDD mit 2x Speed eingebaut habe und die auch noch mehr Speicher hat.
Also wer ne SSD will wird die wieder selbst einbauen müssen.
Was den RAM angeht denke ich nicht an Mischram bei einer APU. Ich denke nicht das Sony sagen wir mal 16 GB HBM2 und 24-32 GB DDR4 RAM verwenden wird. Ich denke das beste ist gleich 32-48 GB GDDR6 RAM entweder 256 Bit oder 384 Bit wie die Xbox One X. Sony hat ja nicht ohne Grund das Ramsystem so gemacht das es einen gemeinsamen Pool gibt. So kann jeder Entwickler selbst entscheiden wieviel er als Vram und was er nur als RAM nutzen will. Nicht jedes Game lastet 8-16 GB Vram aus, dann liegen ohne Grund Reserver frei.
Wie gesagt das war der Wunsch der Entwickler nicht der von Sony. Sony fragte Entwickler was ihnen lieber ist. Ein RAM für alles war die Antwort.
Bei der CPU hoffe ich noch immer auf mindestens 8 Kerne des Typs Zen2 und 4 extra Kerne egal ob AMD jaguar oder was kleineres nur fürs OS. Wenn die PS4 gerade so 8 schwache Kerne mit je nur geringen 1,6 GHz brachte als Next Gen (damals) war es klar das Multicore Support bis 8 Kerne selten da ist. 8 Zen Kerne mit je 16 Threats + 4 extra Kerne wäre auch für PC Spieler ein Vorteil, weil dann die Spiele gezwungenermaßen mit 8 Kernen umgehen müssen. Dann wird es auch öfter mal Games mit bis zu 16 Kernen als Support geben.
Bei der GPU ist mein Wunsch ja klar entweder 4096 Shader mit 1,5 GHz (neue Navi Shader mit besserer Lastenverteilung) oder 6144 Shader mit 1,0 GHz (für die 384 Bit Bus Idee). Auch sollte der Rest wie ROPs und TMUs auch groß vorhanden sein.
Bei der Disk gehe ich Fest von einem UHD BD Player des schnellsten Typs (12x wäre toll) und falls doch Flashkarten, dann auch da mindestens 128 GB pro Karte. Aber ich Rechne fest mit einem BD Player, weil das Teil auch PS4 Games abspielen sollte.
Beim Preis hoffe ich auf 500-600€ weil noch mal ein kleiner Sprung bei der Leistung (2x CPU, 16x RAM menge und 12-16x GPU Leistung von PS3 zur PS4) ist wenig, aber wenn jetzt nur 4x RAM und 8x Leistung geboten wird ist 4K und 60 FPS leider selten der Regelfall. Ich hoffe auf 10-12x Leistung und 6-8x RAM Menge und das ist eher was für die 500-600€ Preisregion.
Die Zeit ist einfach reif für NAND in Konsolen. 2020 eine Konsole ohne NAND zu bringen ist imo Bullshit.
Wenigstens als kleine Cache-Lösung, weil das mit wenig Aufwand einen riesigen Effekt hat.
Das Betriebssystem auf einer HDD laufen zu lassen ist einfach sowas von 2005.
Und das was gravitationsfeld meinte war sicherlich kein getrenner Speicherpool wie im PC sondern im Sinne von HBCC, das die Daten, die eben hohe Bandbreiten brauchen in den HBM Speicher kommen und die anderen Daten eben in den langsamen DDR4. Und das gilt für CPU und GPU!
Was mit Festplatte klappt, klappt mit DDR4 erst recht.
Mich würde es auch nicht mal wundern wenn es in irgendeiner Art ein big.LITTLE Prinzip oder einen ARM Co Prozessor für 0,5W standby gibt, so das die Konsole nicht mal "hochfahren" muss, wenn man zocken will.
xyleph
2019-01-09, 12:15:20
Kommt auf die DRAM-Situation an. Sie planen mit mindestens 32GB, aber es kann gut sein dass sie Pokern und es 64GiB werden weil einer den anderen überbieten will. Ist letztes Mal passiert, PS4 war mit 4GB geplant.
Alles unter 32 können sie bleiben lassen. Dann braucht man keine neue Gen, die Rechenleistung würde verpuffen.
Ich gebe HBM2 mit HBCC und DDR4 eine ~50% Chance um die Kosten unten zu halten. Z.B. 4GB HBM plus 32GB DDR.
Klingt bei dir, als wenn 32GiB definitiv sind. Aktuell ist der Tenor eher, dass es wegen den Preisen zwischen 16 - max 24 GiB werden.
disap.ed
2019-01-09, 16:03:41
Ich denke auch, dass 16 - 24GB wahrscheinlicher sind (bei getrennten Pools 16GB DDR und 8GB GDDR/HBM2), alleine schon wegen der Kosten, dass unter 32GB die Leistung verpuffen würde sehe ich überhaupt nicht.
gravitationsfeld
2019-01-09, 18:31:53
Klingt bei dir, als wenn 32GiB definitiv sind. Aktuell ist der Tenor eher, dass es wegen den Preisen zwischen 16 - max 24 GiB werden.
Dann brauchen sie keine neuen Konsolen rausbringen.
Ich denke auch, dass 16 - 24GB wahrscheinlicher sind (bei getrennten Pools 16GB DDR und 8GB GDDR/HBM2), alleine schon wegen der Kosten, dass unter 32GB die Leistung verpuffen würde sehe ich überhaupt nicht.
Wenn ihr keinen Grafiksprung sehen wollt dann ist das richtig. Du kannst nicht Next-Gen-Grafik haben ohne mehr Speicher. Ist einfach so. Faktor 2 beim Speicher nach 6 (!) Jahren waere absolut laecherlich.
basix
2019-01-09, 18:38:41
Vor allem hätte man das weitere 6 Jahre an der Backe
Crazy_Bon
2019-01-09, 19:10:58
Die Xbox One hat bereits 8Gb eMMC NAND Flash, für welchen Nutzen ist das Internet aber nicht ganz schlüssig bzw. ich habe nicht weiter danach gesucht.
pixelguy
2019-01-09, 19:16:24
Dann brauchen sie keine neuen Konsolen rausbringen.
Wenn ihr keinen Grafiksprung sehen wollt dann ist das richtig. Du kannst nicht Next-Gen-Grafik haben ohne mehr Speicher. Ist einfach so. Faktor 2 beim Speicher nach 6 (!) Jahren waere absolut laecherlich.
Ich glaube hier sehen es einige zu sehr aus heutiger Sicht und auf Basis irgendwelcher Speicherpreise aus dem Internet...
Wir hatten es doch vor einigen Seiten schon, wie damals die Speicher-Situation am PC war und was für die PS4 maximal erwartet wurde.
Iterator
2019-01-09, 19:20:13
Im MMC Baustein ist ein Duplikat des OS untergebracht. Es dient hauptsächlich (offiziell) für Wiederherstellung und Reset Funktionen.
xyleph
2019-01-09, 19:29:13
Dann brauchen sie keine neuen Konsolen rausbringen.
Meine ja nur, bei dir klang es so als wenn es fix ist und selbst die Option zu 64GiB existiert.
Verstehe mich nicht falsch, mich freut es nach all dem Pessimismus hier ^^
tobor
2019-01-10, 01:37:11
an den Flop mit der ps3 erinnern wir uns ja alle noch..
Das Problem war hier eher, dass die Ps3 trotz deutlich höherem Preis schlechtere Ports als die Xbox bekommen hat, weil die Hardware eben kaum besser, wenn überhaupt, und dann auch noch schwer zu programmieren war.
gravitationsfeld
2019-01-10, 01:59:17
Sony hat IBM Milliarden fuer Cell bezahlt, das war wirklich daemlich.
Nightspider
2019-01-10, 06:06:55
Klingt bei dir, als wenn 32GiB definitiv sind. Aktuell ist der Tenor eher, dass es wegen den Preisen zwischen 16 - max 24 GiB werden.
Der Tenor? gravitationsfeld ist Spieleentwickler und die meisten anderen Leute haben nunmal keine Ahnung.
16GB sind so wahrscheinlich wie Donald Trumps Wahl zur Miss California 2020.
Ich bitte dich. Selbst die kack Xbox One X hat schon popelige 12GB und die ist noch weit von einer NextGen2020/21 entfernt.
Während sich Nvidia die 8GB GDDR6 vergolden lässt bringt AMD zum gleichen Preis 16GB HBM2. Bitch please.
drkohler
2019-01-10, 13:27:30
Sony hat IBM Milliarden fuer Cell bezahlt, das war wirklich daemlich.Was soll der Quatschpost?
Die Entwicklung des Chips hat etwa $400Mio gekostet, die Hauptlast davon trug IBM selbst, zu einem kleineren Teil Toshiba, der Rest Sony.
Natürlich hat Sony danach für die tatsächlichen Chips "Milliarden gezahlt", aber das ist doch kein Argument, da sie für jeden anderen Chip die gleichen Beträge gezahlt hätten.
drkohler
2019-01-10, 13:30:26
Während sich Nvidia die 8GB GDDR6 vergolden lässt bringt AMD zum gleichen Preis 16GB HBM2. Bitch please.Weil sie nur über den Preis mit Nvidia mithalten können? Technisch sind sie nicht konkurrenzfähig, da die AMD Dinger einfach krasse Heizungen sind im direkten Vergleich.
robbitop
2019-01-10, 13:49:34
Wobei V20 schon ein Stück rohleistungsnormiert zuzulegen scheint. Man scheint grob auf 90% von Pascal zu kommen, oder?
V20 hat ähnliche Taktraten wie die 1080 ti und ähnliche Performance. Die ti hat 90% der ALUs. Schaut nicht so schlecht aus, wenn es auch außerhalb der Sonderfälle so ist. (mehr ROPs, mehr Bandbreite aber ggf auch win paar hw bugfixes)
Allerdings ist Turing/Volta da ja schon einen Schritt weiter.
Navi (auch wenn es zunächst nur midrange wird) wird in dieser Hinsicht sicherlich noch etwas interessanter.
THEaaron
2019-01-10, 13:55:33
Was könnte midrange Navi denn so erreichen spekulativ? Wenn man von einer Midrange GPU ausgeht die dann noch beim Takt den Sweet Spot anpeilt dürfte man ja kaum mehr als 12-13tf erwarten, oder?
xyleph
2019-01-10, 18:24:47
Der Tenor? gravitationsfeld ist Spieleentwickler und die meisten anderen Leute haben nunmal keine Ahnung.
16GB sind so wahrscheinlich wie Donald Trumps Wahl zur Miss California 2020.
Ich bitte dich. Selbst die kack Xbox One X hat schon popelige 12GB und die ist noch weit von einer NextGen2020/21 entfernt.
Während sich Nvidia die 8GB GDDR6 vergolden lässt bringt AMD zum gleichen Preis 16GB HBM2. Bitch please.
Alles Kewl, ich hatte mich über seine Aussage zu dem Thema gefreut xD
Bisher lass man eher Richtung 16-24, was mich nun auch nicht gerade Saltos vollführen ließ. Da war es eine willkommende Abwechslung, dass jemand aus der Branche gänzlich anderer Meinung ist.
Die Aussage, die Konsolenhereteller planen mit mindestens 32GiB und pokern gar mit 64 GiB Klang war sehr definitiv. Wie Informationen/ Leak, die ich bisher verpasst hatte.
Also, alles locker ;-)
drkohler
2019-01-10, 21:06:12
Alles Kewl, ich hatte mich über seine Aussage zu dem Thema gefreut xD
Die Aussage, die Konsolenhereteller planen mit mindestens 32GiB und pokern gar mit 64 GiB Klang war sehr definitiv. Wie Informationen/ Leak, die ich bisher verpasst hatte.
Mein Verdacht ist, dass er absichtlich surreale Specs postet, damit er nachher über die (seiner Meinung nach) miese neue Konsolengeneration lästern kann.
Wer von >=64GByte Ram in einer Konsole träumt hat schlicht nicht alle Tassen im Schrank.
robbitop
2019-01-10, 22:39:49
Was könnte midrange Navi denn so erreichen spekulativ? Wenn man von einer Midrange GPU ausgeht die dann noch beim Takt den Sweet Spot anpeilt dürfte man ja kaum mehr als 12-13tf erwarten, oder?
Ich tippe darauf, dass man irgendwo auf 2060 Level herauskommen möchte.
Wenn V20 mit 60 CUs in etwa 2080 Niveau erreicht, braucht man maximal 2/3 der CUs (hoffentlich weniger, da davon auszugehen ist, dass die mArch stärker wird - sonst bräuchte man sie nicht). Also irgendwo zwischen 30 und 40 CUs. Also irgendwo zischen 1920 und 2560 alus. Ggf wieder 36 wie bei Polaris? Nur halt mehr Takt und mehr IPC...?
sulak
2019-01-10, 22:44:40
Von den Desktop Modellen darf man ja nicht mehr auf die Konsolen GPU schließen. Die PS4Pro ist schon sehr eigen und fortgeschritten vom FeatureSet.
Hoffe auf eine 7nm APU, da kann was gehn, 350mm für die GPU :cool:
Der RAM is nur Arschteuer...
Ravenhearth
2019-01-10, 23:51:44
Ich tippe darauf, dass man irgendwo auf 2060 Level herauskommen möchte.
Wenn V20 mit 60 CUs in etwa 2080 Niveau erreicht, braucht man maximal 2/3 der CUs (hoffentlich weniger, da davon auszugehen ist, dass die mArch stärker wird - sonst bräuchte man sie nicht). Also irgendwo zwischen 30 und 40 CUs. Also irgendwo zischen 1920 und 2560 alus. Ggf wieder 36 wie bei Polaris? Nur halt mehr Takt und mehr IPC...?
Laut Gerüchten soll der ja 40 CUs bekommen. Das würde - je nachdem wie groß die Verbesserungen an der mArch ausfallen - für eine Leistung im Bereich 2060 - 2070 reichen.
danarcho
2019-01-11, 10:44:15
Ich tippe darauf, dass man irgendwo auf 2060 Level herauskommen möchte.
Wenn V20 mit 60 CUs in etwa 2080 Niveau erreicht, braucht man maximal 2/3 der CUs (hoffentlich weniger, da davon auszugehen ist, dass die mArch stärker wird - sonst bräuchte man sie nicht). Also irgendwo zwischen 30 und 40 CUs. Also irgendwo zischen 1920 und 2560 alus. Ggf wieder 36 wie bei Polaris? Nur halt mehr Takt und mehr IPC...?
Thema IPC:
Im engeren Sinne würde ich mir hier nichts von versprechen, was die CUs angeht. GCN kann theoretisch im Peak jeden Takt bis zu 5 Instruktionen ausführen (+ bis zu je einen NOP/waitcnt etc per wave), was schon extrem ist.
Im weiteren Sinne könnten natürlich bessere caches, bandwidth, occupancy und front-end zu einer besseren Ausnutzung der theoreitschen Rechenleistung führen (und darauf bezieht sich die Kritik an GCN ja auch sehr häufig), wobei man sagen muss, dass bei Konsolen durch die offline-compilation die Rechenleistung in der Regel eh schon deutlich besser genutzt wird als am PC.
][immy
2019-01-11, 13:00:05
Von den Desktop Modellen darf man ja nicht mehr auf die Konsolen GPU schließen. Die PS4Pro ist schon sehr eigen und fortgeschritten vom FeatureSet.
Hoffe auf eine 7nm APU, da kann was gehn, 350mm für die GPU :cool:
Der RAM is nur Arschteuer...
nicht wirklich eigen. Wenn überhaupt ist sie einfach mehr oder minder ein halber schritt hin zu Vega + register für checkerboard. Ist und bleibt halt GCN.
Ähnlich wird es dann wohl auch bei den neuen Konsolen aussehen. Irgendein Zwischenschritt oder halt "alte" Hardware.
Ob wohl noch eine 7nm Xb1X und PS4p rauskommen? Könnte zumindest bei der one X die Kühllösung vereinfachen, die ja doch recht teuer für eine Konsole ist.
unl34shed
2019-01-11, 13:26:00
Das geld muss auch wieder reinkommen und mit immer mehr Gerüchten und Mutmaßungen zur PS5 und Xbox 2? bezweifle ich dass es sich lohnt.
Gipsel
2019-01-11, 14:50:01
Thema IPC:
Im engeren Sinne würde ich mir hier nichts von versprechen, was die CUs angeht. GCN kann theoretisch im Peak jeden Takt bis zu 5 Instruktionen ausführen (+ bis zu je einen NOP/waitcnt etc per wave), was schon extrem ist.Kleiner Nitpick: Im Peak sind es 5 in einem Takt (+ NOPs, waitcnt und sowas), aber eben nicht in jedem. Sustained liegt die Grenze wohl eher bei 3 pro Takt:
1.0x vALU
1.0x sALU/Branch/sMemory
0.5x LDS
0.25 vMemory
0.25 Export/GDS
Ändert aber nichts daran, daß diese Werte eigentlich nicht so schlecht sind und eher nicht der begrenzende Faktor für die Performance im wahren Leben ist.
gravitationsfeld
2019-01-11, 19:23:50
Mein Verdacht ist, dass er absichtlich surreale Specs postet, damit er nachher über die (seiner Meinung nach) miese neue Konsolengeneration lästern kann.
Wer von >=64GByte Ram in einer Konsole träumt hat schlicht nicht alle Tassen im Schrank.
Ich sag's gerne immer wieder, das waere historisch gesehen der erwartete Sprung. Wir sind von 32MB nach 512MB nach 8GB. Jedes Mal 16x.
Ihr geht immer von Markt-Preisen aus. Microsoft und Sony verbauen soviel DRAM, dass sie direkt zu den Herstellern gehen und die notfalls auch eine komplett eigene Fab fuer sie bauen. Sony hat IBM Milliarden fuer Cell bezahlt. Das sind ganz andere umstaende.
DRAM ist nicht teuer wegen der Produktion, sondern wegen der Nachfrage im Moment.
AffenJack
2019-01-11, 20:49:12
Ich sag's gerne immer wieder, das waere historisch gesehen der erwartete Sprung. Wir sind von 32MB nach 512MB nach 8GB. Jedes Mal 16x.
Ihr geht immer von Markt-Preisen aus. Microsoft und Sony verbauen soviel DRAM, dass sie direkt zu den Herstellern gehen und die notfalls auch eine komplett eigene Fab fuer sie bauen. Sony hat IBM Milliarden fuer Cell bezahlt. Das sind ganz andere umstaende.
DRAM ist nicht teuer wegen der Produktion, sondern wegen der Nachfrage im Moment.
Erstens vergleichst du die Sprünge als Moores Law noch in Intakt war und auch größtenteils für Transistorkosten galt, gegenüber jetzt wo Moores Law langsamer wird und in Sachen Kosten praktisch tot ist. Realistisch gesehen sollte bei gleichen Produktionskosten ein Faktor 4 aber möglich sein 2020.
Zweitens hast du eine völlig verquere Einschätzung, wieviel Ram Sony und MS abnehmen. Die Ramhersteller würden eher einen Lachkrampf kriegen, wenn denen ne eigene Fabrik vorgeschlagen wird. Auch die großen Player die im Monat soviel Ram kaufen, wie Sony und MS im Jahr benötigen, kriegen keine eigene Fabrik oder verbauen solche Rammengen, die darauf hindeuten würden, dass die Rampreise für sie völlig anders als beim Rest wären. Die Marktmacht liegt bei den Ramherstellern und die diktieren die Preise völlig.
gravitationsfeld
2019-01-11, 21:07:04
Sony und Microsoft verkaufen ~30 Millionen PS4 und Xboxes im Jahr. Das sind keine Peanuts. Damit kannst du mit Sicherheit mindestens eine Speicher-Fab auslasten.
Verlangsamung des Moore's Law ist ein valider Punkt, ich finde aber Null Daten wie das DRAM betrifft. Was gegen deine These spricht ist, dass DRAM teurer geworden ist in den letzten Jahren, die Fertigung aber ganz sicher zumindest ein wenig billiger.
Grendizer
2019-01-11, 21:15:34
RAM ist teurer geworden, weil die Smartphone Hersteller so extrem viel davon brauchen.
Deshalb ist auch Sony und MS nur ein kleinerer Player, wenn man den Bedarf von Apple, Samsung, Huawei usw. bedenkt.
gravitationsfeld
2019-01-11, 21:23:32
Nicht unbedingt wahr. Apple verkauft 200 Millionen iPhones im Jahr, aber die haben auch nur 2-4GB RAM. Da sind die Konsolen schon in vergleichbaren Regionen.
Grendizer
2019-01-11, 21:29:26
Nicht unbedingt wahr. Apple verkauft 200 Millionen iPhones im Jahr, aber die haben auch nur 2-4GB RAM. Da sind die Konsolen schon in vergleichbaren Regionen.
ok hast da recht ... die brauchen eher die Flash kapazitäten ..
AffenJack
2019-01-11, 21:47:34
Sony und Microsoft verkaufen ~30 Millionen PS4 und Xboxes im Jahr. Das sind keine Peanuts. Damit kannst du mit Sicherheit mindestens eine Speicher-Fab auslasten.
Verlangsamung des Moore's Law ist ein valider Punkt, ich finde aber Null Daten wie das DRAM betrifft. Was gegen deine These spricht ist, dass DRAM teurer geworden ist in den letzten Jahren, die Fertigung aber ganz sicher zumindest ein wenig billiger.
Ne kleine Fab mit 30K Wafer/Month. Samsung etc. haben aber eher ihre Gigafabs mit 100k Wafern/Months. Aber ist auch nicht so wichtig.
DRAM trifft die gleichen physikalischen Probleme, wie die gesamte Halbleiterindustrie. Insgesamt landet man 2020 bei ~2 Full Nodes seit 2013:
https://www.semiwiki.com/forum/content/7392-cleaning-trends-advanced-nodes.html
Daher wäre eine Vervierfachung des Rams zu erwarten. Nur bringen auch bei DRAM die letzten Nodes nicht mehr die volle Kostenskalierung. Selbst wenn man das Kartell, was die Hersteller praktisch bilden, außer acht lässt, wird die 4-fache Menge nur möglich sein, wenn MS und Sony bereit sind zumindest 20-30% mehr für den Ram auszugeben, als bei der letzten Gen.
gravitationsfeld
2019-01-11, 21:54:53
Ne kleine Fab mit 30K Wafer/Month.
Bitte Quelle angeben. Wieviel Die-Space brauchen 8GiB GDDR5 im Moment? DRAM-Packages haben in der Regel mehrere Die-Layer.
So ich hab das jetzt mal ausgegraben:
Konsolen 30 Million pro Jahr = 1.920 PBit an Speicher. Uebliche Fertigungsverfahren bis letztes Jahr war ungefaehr 0,15 GBit/mm2 [1]. Ein 300mm Wafer hat 70.695 mm2. Ohne Verschnitt einzurechnen sind das also ~180.000 Wafer. Das ist mehr als eine Fab.
Das war auch schon mal mehr uebrigens weil die Vertigungsverfahren schlechter waren.
Kurz: Laber nich.
[1] https://www.eetimes.com/author.asp?section_id=36&doc_id=1333289
AffenJack
2019-01-11, 22:49:47
Bitte Quelle angeben. Wieviel Die-Space brauchen 8GiB GDDR5 im Moment? DRAM-Packages haben in der Regel mehrere Die-Layer.
So ich hab das jetzt mal ausgegraben:
Konsolen 30 Million pro Jahr = 1.920 PBit an Speicher. Uebliche Fertigungsverfahren bis letztes Jahr war ungefaehr 0,15 GBit/mm2 [1]. Ein 300mm Wafer hat 70.695 mm2. Ohne Verschnitt einzurechnen sind das also ~180.000 Wafer. Das ist mehr als eine Fab.
[1] https://www.eetimes.com/author.asp?section_id=36&doc_id=1333289
Das war auch schon mal mehr uebrigens weil die Vertigungsverfahren schlechter waren.
Kurz: Laber nich.
Tja, self-owned würde ich mal sagen. Danke, dass du mir die Rechnung vorweg nimmst, um meinen Standpunkt zu bestätigen. 180.000 Wafer pro Jahr sinds nämlich, also 15K pro Monat. Noch deutlich weniger als ich genannt hatte. Da wirds nichtmal mehr ne kleine Fab, die gefüllt wird.
Kurz: Laber nich, ich hab recht.
Slashman
2019-01-12, 15:24:18
Bitte Quelle angeben. Wieviel Die-Space brauchen 8GiB GDDR5 im Moment? DRAM-Packages haben in der Regel mehrere Die-Layer.
So ich hab das jetzt mal ausgegraben:
Konsolen 30 Million pro Jahr = 1.920 PBit an Speicher. Uebliche Fertigungsverfahren bis letztes Jahr war ungefaehr 0,15 GBit/mm2 [1]. Ein 300mm Wafer hat 70.695 mm2. Ohne Verschnitt einzurechnen sind das also ~180.000 Wafer. Das ist mehr als eine Fab.
Das war auch schon mal mehr uebrigens weil die Vertigungsverfahren schlechter waren.
Kurz: Laber nich.
[1] https://www.eetimes.com/author.asp?section_id=36&doc_id=1333289
Ich bin mir sicher das die PS5 nicht unter 32 GB RAM haben wird... wer denkt es seien nur 16 (4 GB bloß mehr als eine XbonX) oder 24 GB (nur das 2x) der irrt sich. Es muss keine 128 GB RAM haben (was der übliche Sprung ist), aber 32-64 GB (vorzugsweise 48 GB RAM) sind schon drin.
Sony zahlt sicher nicht unsere Preise bei Dram und Chips. Wir zahlen für ein 150 Dollar Iphone (Produktionskosten) gut 700-900€ Warum, weil Apple stark Gewinn machen will. Sony hat die PS4 für 390 Dollar Produziert und für 400 Dollar verkauft. Sprich an der Hardware wollen die nicht gewinnen. Die ist nur Mittel zum Zweck (Softwarelizenzen). Sony verdient pro verkauftes PS4 Spiel 15-20€ macht bei 10 Spielen locker 150€.
Sony wird die PS5 für 500-600€ anbieten um sicher zu stellen das die Hardware auch was leistet.
Tja, self-owned würde ich mal sagen. Danke, dass du mir die Rechnung vorweg nimmst, um meinen Standpunkt zu bestätigen. 180.000 Wafer pro Jahr sinds nämlich, also 15K pro Monat. Noch deutlich weniger als ich genannt hatte. Da wirds nichtmal mehr ne kleine Fab, die gefüllt wird.
Kurz: Laber nich, ich hab recht.
Wie gesagt was wieviel wo Produziert wird ist egal. Fakt ist Sony kann doch keine PS5 bringen die nur 2-4x so stark ist wie der Vorgänger... Das wäre lachhaft und wäre Peinlich.
AMD hat die Vega 2 raus gebracht mit 16 GB HBM2 Vram. Ein Gamer PC von heute hat mindestens 16 GB RAM und 8 GB Vram. Also schon jetzt 24 GB RAM. Ein ordentlicher Gamer PC hat 32 GB RAM und 16 GB Vram. Soll also eine PS5 2020 weniger können als ein Gamer PC 2018? Ich denke nicht.
mr coffee
2019-01-12, 15:52:39
Davon zu sprechen, dass ein ordentlicher Gamer PC von 2018 16 GB VRAM und 32 GB RAM hat, ist ja wohl ein Witz. Das ist eher das maximal technisch machbare bei einem heutigen Gamer PC.
aufkrawall
2019-01-12, 15:55:28
Ist aber wohl anzunehmen, dass der enorme Leistungssprung auf der CPU-Seite auch Begehrlichkeiten bei der RAM-Größe wecken wird. Dann wird der RAM-Verbrauch der Konsolen-Ports auch mal eben explodieren.
mr coffee
2019-01-12, 16:01:40
Interessant wird die Sache auf jeden Fall für den PC. Angenommen die PS5 bekommt 32 GB welche ausschließlich für Spiele reserviert sind. Der Entwickler nutzt 20 GB als VRAM und 12 GB als RAM. Das würde PC-Grafikkarten ganz schön in's Schwitzen bringen.
Slashman
2019-01-12, 16:07:01
Davon zu sprechen, dass ein ordentlicher Gamer PC von 2018 16 GB VRAM und 32 GB RAM hat, ist ja wohl ein Witz. Das ist eher das maximal technisch machbare bei einem heutigen Gamer PC.
Habe ich gesagt es sei ein Mittelklasse PC? Habe ich gesagt es sei ein normaler Gamer PC. Ich sagte ein ordentlicher Gamer PC das hat. Aber Fakt ist ein normaler Gamer PC hat schon 16 GB RAM und 8 GB Vram (stand 2017(2018). Also erwarte ich 2020 mindestens 32 GB in einer PS5.
drkohler
2019-01-12, 16:22:29
Ich bin mir sicher das die PS5 nicht unter 32 GB RAM haben wird... wer denkt es seien nur 16 (4 GB bloß mehr als eine XbonX) oder 24 GB (nur das 2x) der irrt sich. Es muss keine 128 GB RAM haben (was der übliche Sprung ist), aber 32-64 GB (vorzugsweise 48 GB RAM) sind schon drin.
Hört doch endlich auf mit diesem Schwachsinn.
Eine Konsole ist KEIN GAMER PC.
Eine Konsole ist KEIN GAMER PC.
Eine Konsole ist KEIN GAMER PC.
Schreibt Euch das 1000 Mal auf ein Papier.
Eine Konsole ist ein Beruhigungsmittel für genervte Eltern, damit der Sohnemann Ruhe gibt. Das ergibt unter dem Strich einene Preisbereich von max. 400 Euro.
Nebenbei:
Wie willst du überhaupt 64GByte anbinden an den SoC? Ihr wisst schon, wie schweineteuer die gddr ram Interfaces im SoC sind? Schaut Euch doch den Dieshot der PS4 an, da ist ein nicht unerheblicher Teil mit den vier Controllern belegt. Und Ihr wollt jetzt mindestens acht davon? Dazu kommt, gddr Interfaces lassen sich schlecht shrinken, das heisst der "prozentuale Verlust" an Diefläche wird noch grösser werden.
Ich sehe 6 Interfaces mit 24GByte gddr6 gerade noch so machbar, WENN die Preise noch fallen in naher Zukunft. Und die Zukunft ist nahe, denn allgemein werden Chips mindestens 1-2 Jahre im Voraus geordert, und wenn man 2020 raus will, ist das Fallbeil für endgültige Entscheide schon jetzt da, wo die Preise eben noch nicht gefallen sind. Das ist da grosse Dilemma für MS/Sony.
amdfanuwe
2019-01-12, 17:10:03
Machbar ist vieles. Es kommt allein darauf an, was die Software Entwickler sagen, dass sie benötigen. Da wird dann abgerundet und die Menge verbaut.
Aktuelle PCs kommen mit 8GB RAM /8GB Vram schon gut aus, gibt nur wenige Spiele die einen Mehrwert liefern bei mehr RAM.
Mehr RAM macht die Spiele nicht unbedingt schneller oder besser. Da fehlt momentan die Innovation bei der Software, die wirklich nach mehr RAM schreit. RT wäre solch eine Innovation, dürfte aber noch kein Thema für die nächste Generation werden.
Also, es wird soviel RAM verbaut, wie benötigt wird und nicht aus Spaß mal eben mehr reingekloppt, weil es mal gebraucht werden könnte. Wenn der RAM dann doch nicht reichen sollte, gibt es eben in 4 Jahren ein Upgrade der Konsole.
robbitop
2019-01-12, 18:05:20
Man kann pro Memory Controller mehrere BGAs anbinden. ;)
Kennt man übrigens auch von CPUs. Dual Channel und trotzdem 4 Module mit sogar bis zu 8 ranks. Und nochmal wie viele bgas pro Modul verbaut sind ist dem IMC auch egal.
Davon abgesehen halte ich es für sinnvoll, billigen RAM für OS und Videoaufnahme zu verbauen.
Interessant wird aufh ob man niedrig taktenden Speicher mit breiter Anbindung wählt oder hoch taktenden mit schmaler Anbindung. Ggf auch davon abhängig welcher Speichertyp wie teuer ist.
spotz
2019-01-12, 19:01:36
Ich glaube nicht an 32 GB Speicher oder mehr. Eher 16 GB als 24 GB. Nach den Erfahrungen der letzten Konsolengenerationen haben sich hohe Subventionen für die Hardware und hohe Anfangspreise für die Hersteller nicht ausgezahlt. Weder bei der PS3 noch Kinect bei der XBox. Auch jetzt verkauft sich die mit preiswerterer Hardware ausgerüstete PS4 Pro besser als die XBox One X. Daher glaube ich das MS und Sony wenig Bereitschaft für finanzielle Risiken zeigen werden. Das wurde vom Kunden zu wenig gewürdigt.
gravitationsfeld
2019-01-12, 19:08:18
Die PS4 und Xbox One waren nicht subventioniert und hatten auch mehr RAM als die allermeisten PCs als sie veroeffentlicht wurden.
spotz
2019-01-12, 19:14:59
Sony subventioniert Hardware der Playstation 4 (https://www.computerbase.de/2013-09/sony-subventioniert-hardware-der-playstation-4/)
Monsta
2019-01-12, 19:33:07
Der Sony Ceo hat aber was anderes gesagt.
http://www.gamezone.de/Playstation-4-Konsolen-220102/News/PlayStation-4-Sony-macht-mit-jeder-verkauften-PS4-bereits-Profit-Haelfte-aller-Nutzer-hat-PS-Plus-Abo-1122210/
Gipsel
2019-01-12, 19:36:18
Sony subventioniert Hardware der Playstation 4 (https://www.computerbase.de/2013-09/sony-subventioniert-hardware-der-playstation-4/)
Unbestätigte Gerüchte. Und andere Quellen sagen was Anderes (https://news.ihsmarkit.com/press-release/design-supply-chain-media/sony-nears-breakeven-point-playstation-4-hardware-costs) (Herstellungskosten von angeblich 381$ zum Start).
Dabei muß man auch bedenken, daß mit den 399$ der Preis in den USA auch praktisch am niedrigsten war. In anderen Märkten hat Sony umgerechnet mehr genommen. Die deutschen 399€ sind nach Abzug der Mehrwertsteuer nach dem damaligen Kurs z.B. umgerechnet etwas über 450$ wert gewesen. Mehr oder weniger offiziell ist soweit ich weiß nur die Aussage von Sony, daß sie bei einer PS4, die mit einem Spiel zusammen gekauft wurde, auch am Anfang (wo ja wohl kaum einer eine Konsole ohne Spiel erwirbt) keinen Verlust gemacht haben. Wenn subventioniert wurde, dann höchsten minimal (bzw. nur in einigen Märkten, so daß sich das weltweit wohl wieder ausgeglichen hat).
Ist im Endeffekt hier für die PS5 aber auch ziemlich egal. Große Subventionen wird es bei der sicher auch nicht geben.
Edit: Zu viel geschrieben.
Unicous
2019-01-12, 19:37:10
Das war ein halbes Jahr nach Release. Zuvor hat Sony noch ein wenig drauf gezahlt. Bei der PS3 hat man fast den gesamten Zyklus draufgezahlt, afaik.
Wir hatten die Diskussion schon vor ein paar Wochen keine Ahnung warum das jetzt wieder vorgekaut wird?:confused:
edit:
@Gipsel Keine Ahnung ob du deine Quelle gelesen hast aber ich schätze du hast es maximal überflogen
When other expenses are tallied, Sony initially will still take a loss on each console sold. But the relatively low BOM of the PlayStation 4 will allow the company to break even or attain profitability in the future as the hardware costs undergo normal declines.
Gipsel
2019-01-12, 19:54:15
@Gipsel Keine Ahnung ob du deine Quelle gelesen hast aber ich schätze du hast es maximal überflogenIn den USA mit 399$ Verkaufspreis vielleicht. Wie gesagt nicht in anderen Regionen mit höherem Preis wie Deutschland (umgerechnet 450$, der Kurs lag damals bei ~1,35 $/€). Und wenn Du noch die vermutlich ~15$ oder so einrechnest, die Sony mit jedem verkauften Spiel einnimmt (und berücksichtigst, daß zum Marktstart ja wohl praktisch immer mindestens ein Spiel pro Konsole gekauft wird), dann kommt die Schlußfolgerung raus, wie oben.
Edit:
Und der Sony CEO hat das zwar ein halbes Jahr nach dem Start der Konsole gesagt, aber über die Vergangenheit geredet. ;)
Unicous
2019-01-12, 20:34:14
Sorry, aber so einfach ist das nicht. Die Preise die hierzulande verlangt werden sind ja wohl nicht aus der Luft gegriffen. Da z.T. je nach Land Einfuhrsteuern, unterschiedlich hohe MwSt. etc. fällig werden. In Lateinamerika gibt es afaik fiese Einfuhrsteuern für Unterhaltungselektronik, deswegen haben Sony und MS z.B. in Brasilien Produktionsstätten. Daher ist das im Endeffekt eh eine Mischkalkulation auch wenn der Fokus auf den USA liegt.
Die Analysten gingen davon aus, dass Sony deutlich schneller einen break even point erreichen und potentiell auch an der Hardware!!! Geld verdienen bzw. keines mehr verlieren werden. Die erste Monate war das aber mit großer Wahrscheinlichkeit nicht der Fall. Es ging also nicht um ein Bundle mit einem Spiel sondern um die nackte Konsole mit Controller.
Das kann man einfach mal so akzeptieren. Oder alternativ kann man zur Einsicht gelangen, dass nur Sony die ganze Wahrheit kennt und die Diskussion ergebnislos bleibt.
spotz
2019-01-12, 20:44:03
Wenn subventioniert wurde, dann höchsten minimal (bzw. nur in einigen Märkten, so daß sich das weltweit wohl wieder ausgeglichen hat).
Ist im Endeffekt hier für die PS5 aber auch ziemlich egal. Große Subventionen wird es bei der sicher auch nicht geben.
Zugegeben, ob und wenn ja wie lange die PS4 von Sony bezuschusst wurde - weiß ich nicht. Wahrscheinlich hast du recht, dass sie spätestens nach einem halben Jahr rentabel wurde.
So wie du jetzt, so schrieb ich in meinem ersten Beitrag das ich auch nicht an große Subventionen seitens der Hersteller glaube und daher annehme, das in der nächsten Konsolengeneration keine 32 GB RAM/Video Speicher oder mehr sein werden. Eben weil das wohl zu teuer wird.
Kartenlehrling
2019-01-12, 20:50:52
Es war sogar so das nur der US-Preis der PS4 subventioniert wurde, die GB, rest EU und
JP Version sollen in der Gewinnmarge gelegen haben.
Unicous
2019-01-12, 22:01:17
Japan Release war 3 Monate später das ist also durchaus möglich dass man die supply chain schon besser im Griff hatte, im "Rest der Welt" wurde auch graduell released.
Und zu den Aussagen zur "Gewinnmarge" hätte ich dann auch gerne mal Quellen.
Kartenlehrling
2019-01-12, 22:37:12
Kann man in 2 Sec. ergoogle, aber schon zum Release wurde es gesagt, das nur auf US version draufgezahlt wurde.
When asked if the PlayStation 4 at the price point of €400 is profitable for Sony, Jim Ryan, smilingly,
replied that at least in Europe, the PlayStation 4 is profitable from the start.
Die Produktionskosten der bei Foxconn produzierten[35] Konsole beliefen sich laut einer Schätzung des US-amerikanischen Unternehmens IHS auf 381 US-Dollar und lag damit 18 Dollar unter dem Einführungspreis in den USA.[36]
Sony gab zum damaligen Zeitpunkt bekannt, die Konsole mit leichtem Defizit zu verkaufen.[37] Auf dem europäischen Markt konnte über „das gesamte Ökosystem“ des Produkts von Beginn an Gewinn erwirtschaftet werden.[38]
Inzwischen konnten die Produktionskosten der Konsole verringert werden.[39]
https://de.wikipedia.org/wiki/PlayStation_4
Unicous
2019-01-12, 22:52:46
Warum Wikipedia und nicht die Primärquelle?:confused:
Nochmals das Zitat vom Gear Nuke Autor:
When asked if the PlayStation 4 at the price point of €400 is profitable for Sony, Jim Ryan, smilingly, replied that at least in Europe, the PlayStation 4 is profitable from the start.
Es wird also behauptet Jim Ryan sagt in Europa wäre die PS4 von Anfang an profitabel. Im Zitierten steht dann Folgendes:
That’s, uh, top-top-top-secret information, uhm, but what I’d say is that Sony is, uhm, Sony is in difficult times at the moment and PlayStation is one of the pillar businesses that Sony’s leader, Kazuo Hirai, has identified as pivotal to sustaining Sony’s business, while he regenerates it and restructures.
And therefore it’s really important that across our ecosystem that we generate cash and profitability.
The €399 price point, which I’m really thrilled about, allows us to to do that.
https://gearnuke.com/scees-jim-ryan-talks-eu-xbox-one-delay-resulted-ps4-pre-orders-gaikai/
Da wird meiner Meinung nach mehr in die Aussage hinein interpretiert als was am Ende aussagt. Zumal er einleitend sagt, dass das top secret ist.:rolleyes:
Da steht noch nicht einmal etwas über "at least in Europe", was ja bedeuten würde er hätte sich auch zu der Situation in anderen Märkten geäußert.
Entschuldige aber das ist mir persönlich etwas zu vage und vor allem wurde der getätigten Aussage deutlich mehr Interpretationsraum eingeräumt. Es kann natürlich sein, dass Ryan noch deutlich mehr gesagt hat, aber davon gehe ich nicht aus wenn er direkt zitiert wird und auch andeutet, dass er darüber eigentlich nicht sprechen darf.
Kartenlehrling
2019-01-12, 23:08:53
Warum Wikipedia und nicht die Primärquelle?
Was willst du eigentlich, die Quellenangeben sind doch dabei.
Ich bin mir sogar sicher das der Sony Europa Manager das in einem Video gesagt
hatte auf einer dieser Sony Veranstaltunge die in England oder Europa stattfand.
Du windes dich jetzt hier rum das alles "alternative Fakten" wären. :tongue:
Unicous
2019-01-12, 23:41:35
Ich winde mich nicht, du präsentierst ein englisches "Zitat" und verlinkst dann die deutsche Wikipedia, WTF?
Was soll mir jetzt die Info sagen, dass es aus einem Video stammt?:confused:
Was bringt mir die Information, dass das Event in England oder Europa stattfand?
btw. die Quelle ist dieses Interview. Das habe ich leider auch nicht bemerkt, wobei ich auch nur auf den money quote geachtet hatte.
https://www.rtlnieuws.nl/geld-en-werk/video/2290321/hoge-vraag-naar-playstation-4
Das im Artikel Zitierte ist genau das was er auch im Interview sagt.
Und laut meiner Interpretation sagt er "lediglich", dass das gesamte Ökosystem profitabel sein muss und die 399 Euro würden das erlauben. Dass er damit meint die Hardware wäre mit diesem Preispunkt profitabel ist zumindest Ansichtssache. Meiner Meinung nach sagt er das jedenfalls nicht und imho hat der Autor des Artikels deutlich mehr interpretiert als er sollte.
arcanum
2019-01-13, 13:06:46
in diesen rechnungen sind viele bekannte variablen. zum einen sind die produktionskosten nur schätzungen. zustätzlich ist in dieser rechnung der ganze vertrieb nicht miteingerechnet und zu guter letzt ist der verkaufspreis nicht gleich der einkaufspreis vom handel.
die ps4 war anfangs sehr preisstabil und wurde die ersten 3 monate sogar deutlich über uvp gehandelt. wenn ich mich recht erinnere, war sie mindestens 6 monate lang nicht unter uvp zu kriegen. man kann jetzt spekulieren, ob die hohe nachfrage oder der knapp kalkulierte einkaufspreis der grund dafür war. die ps4 pro z.b. hat eine uvp von 399€ und trotzdem gab es die letzten monate angebote die unter 300€ lagen.
drkohler
2019-01-13, 14:48:42
in diesen rechnungen sind viele bekannte variablen. zum einen sind die produktionskosten nur schätzungen. zustätzlich ist in dieser rechnung der ganze vertrieb nicht miteingerechnet und zu guter letzt ist der verkaufspreis nicht gleich der einkaufspreis vom handel.Das ist richtig, vergisst aber einige Tatsachen.
Erst mal gibt es für das Produkt PS4 die Herstellungskosten, die mit $381 zitiert werden (das ist etwas zu hoch, weil bei der IHS_Milchmädchenrechnung einige Sachen zu teuer angesetzt sind. Meine Milchmädchenrechnung, ohne Quellen und Beweise aber mit Kenntnissen in Massenfabrikation war in der Gegend $340).
Das Produkt PS4 hat allerdings einige Kosten, die man oft vergisst. Zum Beispiel:
-Lizenzen
-Vertriebsorganisation
-Techniker, Softwareingenieure (Systemsoftware). Die Kosten auch noch wenn das Produkt fertig ist.
-Demokonsolen. Das ist eine nicht unerhebliche Anzahl "Totverkäufe".
-Amortisationskosten. Irgend wie muss R&D wieder reinkommen. Das heisst, jede Konsole wird mit einem Betrag "bestraft", damit diese Kosten wieder hereinkommen (und weitere Kosten in diesem Zusammenhang).
-R&D Kosten für die nächste Generation.
Sony entschied, wie schnell die Amortisationskosten wieder reinkommen sollen. Wenn sie innerhalb 2 Jahre im Grünen sein wollten, dann werden die ersten 15-20 Mio Konsolen "mit Verlust" verkauft. Wenn sie den zeitraum verlängert haben auf sagen wir mal 4 Jahre, dann wurde pro Konsole nur ein kleiner "Strafbetrag" fällig bei 55-60 mio Konsolen.
Letzten Endes weiss kein Aussenseiter, wie hoch insgesamt die Entwicklungskosten waren und wie die Amortisation geplant war von Sony. Eine Diskussion ob/wann die Konsolenverkäufe Gewinne eingefahren hatten ist deshalb relativ sinnlos da einfach zu viele Daten nicht bekannt sind.
MadPenguin
2019-01-13, 16:04:45
Wie groß ist die Wahrscheinlichkeit, dass die neue Xbox November 2019 erscheint?
Platos
2019-01-13, 16:17:17
Wie groß ist die Wahrscheinlichkeit, dass die neue Xbox November 2019 erscheint?
Gleich Null.
krötenfresse
2019-01-13, 16:32:15
Gleich Null.
er fragt wahrscheinlich deshalb, weil mal wieder blödsinnige gerüchte im netz die runde machen
msilver
2019-01-13, 16:47:14
Wie groß ist die Wahrscheinlichkeit, dass die neue Xbox November 2019 erscheint?
2020, wird dieses Jahr angekündigt.
Platos
2019-01-13, 17:24:55
er fragt wahrscheinlich deshalb, weil mal wieder blödsinnige gerüchte im netz die runde machen
http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/News/Scarlett-Phil-Spencer-Zusammenarbeit-AMD-Zen-Navi-1273009/
https://www.playm.de/2019/01/xbox-scarlet-ps5-analyst-lewis-ward-geht-von-praesentationen-auf-der-e3-2020-aus-434505/
Nicht aber deswegen oder ?
Wobei das ja dann ja ganz klar 2019 verneint. Abgesehen davon braucht man weder Analysten noch offizielle Aussagen seitens Microsoft, um sagen zu können, dass der XBox Nachfolger ganz sicher nicht 2019 kommt. Das sollte klar sein nach dem Release der One X Ende 2017.
Release Datum beider Konsolen wird Weihnachtsgeschäft 2020 oder 2021 sein. Das kann man eigentlich mit keinen rationalen Gründen abstreiten. Die Wahrscheinlichkeit auf ein anderes Datum ist gleich null. Man kann (nur) noch streiten, welches der beiden Jahre.
2020 erscheint mir wahrscheinlicher für Sony. Und ich denke, man wird beide Konsolen zur etwa der selben Zeit bringen. Also wird Microsoft automatisch den Kürzeren ziehen. Oder dann eben 2021, was für Sony recht unwahrscheinlich ist m.M.n. Also ich würde auf 2020 spekulieren (beide Konsolen und Weihnachtsgeschäft ist sicher).
MadPenguin
2019-01-13, 18:28:52
Danke. Marktreif wären Ryzen und Navi 7nm doch auch End 2019, oder reicht eine Vorproduktion Frühjahr - Sommer 2019 nicht für einen hypothetischen Launch Ende 2019?
Ernst gemeinte Frage. :)
Windi
2019-01-13, 20:01:03
Danke. Marktreif wären Ryzen und Navi 7nm doch auch End 2019, oder reicht eine Vorproduktion Frühjahr - Sommer 2019 nicht für einen hypothetischen Launch Ende 2019?
Ernst gemeinte Frage. :)
Das ist viel zu knapp,
für einen Konsolenstart braucht man ja mehrere Millionen Stück wenn man die Kunden nicht verärgern will.
Mitte 2019 kommt erst Zen2.
Irgenwann im Herbst dann Navi.
Und für die Konsolen muss erst noch ein eigener Chip entwickelt werden, der kommt dann wahrscheinlich erst im Q4/2019.
Dann muss man aber erst die Stückzahlen produzieren und diese nach China liefern. Dort werden dann die Konsolen von Foxcom oder einer anderen Firma zusammengebaut. Und dann müssen die Konsolen auch noch mit dem Containerschiff weltweit verteilt werden.
Mitte 2020 wäre der frühst mögliche Zeitpunkt für die neuen Konsolen.
Aber dann kann man sich lieber noch ein wenig mehr Zeit lassen und sie erst zum Weihnachtsgeschäft bringen. In den paar extra Monaten kann man sich dann noch einmal um die Kinderkrankheiten kümmern und sich gründlich auf den Release vorbereiten.
Ravenhearth
2019-01-13, 20:30:53
Könnte es nicht ohnehin sein, dass Sony und Microsoft auf 7nm EUV warten? Zeitlich würde es passen, oder? Erste 7nm EUV Chips dieses Jahr, für PC-Produkte dann 2020 (AMD hat "7nm+" auf den Roadmaps), Konsolen Ende 2020. War bei 14/16nm vergleichbar; dort gabs erste Handychips in 2015, GPUs dann 2016 und Konsolen (PS4 Slim, Pro, One S) Ende 2016. EUV würde schließlich auch Sinn machen, da Konsolen natürlich durch Kosten beschränkt sind. 7nm ist bisher sehr teuer und EUV soll die Kosten für Design usw., aber auch die Produktionskosten, drücken. TSMC verspricht für 7nm+ zudem mehr Effizienz und Packdichte.
Platos
2019-01-13, 20:56:02
Danke. Marktreif wären Ryzen und Navi 7nm doch auch End 2019, oder reicht eine Vorproduktion Frühjahr - Sommer 2019 nicht für einen hypothetischen Launch Ende 2019?
Ernst gemeinte Frage. :)
Kurz nein, weil a) ist ein neuer Fertigungsprozess zu teuer für Konsolen und b) ist ja gerade der 7nm Prozess besonders teuer. Und zu allem gibt es ja momentan auch nur einen Fertiger mit 7nm und somit ist eig. das ganze Jahr ausgebucht.
Könnte es nicht ohnehin sein, dass Sony und Microsoft auf 7nm EUV warten? Zeitlich würde es passen, oder? Erste 7nm EUV Chips dieses Jahr, für PC-Produkte dann 2020 (AMD hat "7nm+" auf den Roadmaps), Konsolen Ende 2020. War bei 14/16nm vergleichbar; dort gabs erste Handychips in 2015, GPUs dann 2016 und Konsolen (PS4 Slim, Pro, One S) Ende 2016. EUV würde schließlich auch Sinn machen, da Konsolen natürlich durch Kosten beschränkt sind. 7nm ist bisher sehr teuer und EUV soll die Kosten für Design usw., aber auch die Produktionskosten, drücken. TSMC verspricht für 7nm+ zudem mehr Effizienz und Packdichte.
Frage: Wird dann eig. 7nm "normal" und 7nm EUV paralell betrieben/produziert ?
Daredevil
2019-01-13, 21:00:49
Wie viel teurer ist 7nm denn eigentlich?
Bei der Vega II spart man knapp 36% der Fläche im Vergleich zur Vega I.
Die Produktion eines 7nm Chips müsste also 56% teurer sein als bei der Vorgänger Version, trotzdem hat man ja auch eine viel höhere Ausbeute, weil mehr auf den Wafer passen.
Sehe ich das richtig, oder ist das mal wieder zuviel vom Milchmädchen gerechnet? :D
AMD wird so ein riesen Kunde bei TSMC, die werden sicherlich gute Preise aushandeln können. :)
Konsolen, GPUs, CPUs....... da kommt doch nicht mal Apple mit, oder?
Ravenhearth
2019-01-13, 21:04:14
Wie viel teurer ist 7nm denn eigentlich?
Bei der Vega II spart man knapp 36% der Fläche im Vergleich zur Vega I.
Die Produktion eines 7nm Chips müsste also 56% teurer sein als bei der Vorgänger Version, trotzdem hat man ja auch eine viel höhere Ausbeute, weil mehr auf den Wafer passen.
Sehe ich das richtig, oder ist das mal wieder zuviel vom Milchmädchen gerechnet? :D
Laut AMD kostet 7nm pro mm² doppelt so viel wie 14nm. Einen Chip von 14nm auf 7nm zu shrinken und die Fläche zu halbieren, hat also keine Kostenvorteile. Oder, Milchmädchen: Vega20 ist so teuer wie ein 14nm-Chip mit 662mm².
SpielerZwei
2019-01-13, 21:04:23
Wenn die Konsolen Ende 2020 rauskommen wird der Hardwaredeal schon stehen. Launch Titel braucht es ja auch und da sind wir jetzt schon spät dran wenn man von knapp 2 Jahren Entwicklungszeit ausgeht... Gehen wir mal von PC naher Technologie aus würde ich auch behaupten da gings schon los. Das ist jedenfalls meine Erfahrung mit Launchtiteln in meiner Game-Dev Erfahrungshistorie...
Windi
2019-01-13, 21:06:05
Theoretisch möglich ist natürlich vieles.
Daran glauben kann ich aber nicht, das wäre verdammt knapp.
Der Chip müsste ja nicht erst Ende 2020 fertig sein, sondern spätestens im Q2 damit man schon etwas produzieren kann.
Wenn man die Vorteile von 7nm +EUV wirklich nutzen will, dann müssen ja eigentlich alle Schaltungen von der CPU und GPU an den neuen Fertigungsprozess angepasst werden. Ansonsten verschenkt man Potential bei der Taktrate, Packdichte, Energieverbrauch, .....
Das ist halt nicht nur eine Herausforderung für TSCM und Samsung, sondern auch eine Menge Arbeit für AMD. Und die haben 2019 wirklich schon sehr viel zu tun.
Ich würde sagen:
mögliche Konsole mit 7nm in 2020
mögliche Konsole mit 7nm +EUV in 2021
Ravenhearth
2019-01-13, 21:11:44
Theoretisch möglich ist natürlich vieles.
Daran glauben kann ich aber nicht, das wäre verdammt knapp.
Der Chip müsste ja nicht erst Ende 2020 fertig sein, sondern spätestens im Q2 damit man schon etwas produzieren kann.
Wenn man die Vorteile von 7nm +EUV wirklich nutzen will, dann müssen ja eigentlich alle Schaltungen von der CPU und GPU an den neuen Fertigungsprozess angepasst werden. Ansonsten verschenkt man Potential bei der Taktrate, Packdichte, Energieverbrauch, .....
Das ist halt nicht nur eine Herausforderung für TSCM und Samsung, sondern auch eine Menge Arbeit für AMD. Und die haben 2019 wirklich schon sehr viel zu tun.
Ich würde sagen:
mögliche Konsole mit 7nm in 2020
mögliche Konsole mit 7nm +EUV in 2021
Samsung hat die "mass production" von 7nm EUV offiziell im Oktober gestartet, TSMC hat das erste Tape Out relativ zeitgleich verkündet. Klar, kaufbare Produkte wirds wohl erst zum Ende diesen Jahres geben. Aber ein Prozess muss ja nicht perfekt laufen, um dafür Chips zu designen. AMD plant für 2020 ja bereits Produkte in 7nm+, damit hätten sie ihre Architekturen ohnehin schon für 7nm EUV angepasst...
Windi
2019-01-13, 21:32:44
AMD plant für 2020 ja bereits Produkte in 7nm+, damit hätten sie ihre Architekturen ohnehin schon für 7nm EUV angepasst...
Aber auch schon für das Q2 2020?
Und dann müßte man daraus auch noch die Konsolenchips designen. Also müßte man die Anpassungen für 7nm+ am besten schon Anfang 2020 fertig haben.
Theoretisch ist 7nm+ sicher möglich.
Aber in der Praxis halte ich das für sehr sehr knapp.
Daredevil
2019-01-13, 21:40:42
Laut AMD kostet 7nm pro mm² doppelt so viel wie 14nm. Einen Chip von 14nm auf 7nm zu shrinken und die Fläche zu halbieren, hat also keine Kostenvorteile. Oder, Milchmädchen: Vega20 ist so teuer wie ein 14nm-Chip mit 662mm².
Danke. :)
Da könnte man dann noch gegensetzen, dass er dafür aber ( potentiell ) leistungsfähiger ist und man deswegen die Marge ebenfalls erhöhen kann, ohne großartig Geld für eine neue Architektur ausgeben zu müssen.
Radeon VII ist ja das beste Beispiel dafür. ( Mal schauen was die wirklich kostet )
Und wichtig wäre natürlich auch, wie viel % vom Preis überhaupt durch die Herstellung kommt.
Unicous
2019-01-13, 21:48:40
Kurz nein, weil a) ist ein neuer Fertigungsprozess zu teuer für Konsolen und b) ist ja gerade der 7nm Prozess besonders teuer. Und zu allem gibt es ja momentan auch nur einen Fertiger mit 7nm und somit ist eig. das ganze Jahr ausgebucht.
Frage: Wird dann eig. 7nm "normal" und 7nm EUV paralell betrieben/produziert ?
Also erst einmal: Wie teuer ein Chip in der Fertigung ist hängt nicht nur davon ab ob der Fertigungsprozess "teuer" und "neu" ist, sondern wie komplex und wie groß der Chip ist und ob es wirtschaftlich ist den Chip herzustellen, logischerweise.
Das kann man schon allein daran festmachen, dass die One S bzw. PS4 Slim in 16nm gefertigt wurden und man muss bedenken, dass erst wenige Monate zuvor die neue GPU-Generation, basierend auf 14nm und 16nm Chips, released wurde. Im August 2015 hatte TSMC angekündigt mit 16nm in Massenproduktion zu gehen.
Darüber hinaus wurde vor einem Monat erst von Digitimes berichtet/behauptet, dass bei TSMC die Kapazitäten nicht ausgeschöpft sind.
Ob und wie ein Prozess ausgebucht ist oder nicht, weiß niemand, denn das ist ein Geschäftsgeheimnis. Außerdem hat Samsung vor 3 Monaten verlautbart, sie hätten die Massenproduktion ihres 7nm EUV Prozesses aufgenommen.
Es gibt also theoretisch zwei Fertiger, auch wenn die Prozesse verschieden sind. Aber das ist nicht wichtig. Denn solange genug Kapazitäten frei sind, braucht man eh nur einen Fertiger.
Mehrere Prozesse können und werden parallel betrieben, zumal man auch eine riesige Fab nicht von einem Tag auf den anderen umstellen kann, außer man nimmt sie komplett außer Betrieb. Ich glaube Intel macht das zum Teil, aber eher aus wirtschaftlichen Gründen (zu geringe Auslastung und zukünftige Nutzung mit einem neueren Prozess).
Ich behaupte also, es wäre nicht unmöglich 2019 Chips herstellen zu lassen.
Aber ich gehe davon aus, dass sie erst 2020 oder gar 2021 die neue Generation launchen.
Herr Doktor Klöbner
2019-01-13, 21:57:20
Zeitdruck hat zumindestens Sony nicht, die Verkaufszahlen sind für das 5te Jahr einer Konsole verdammt gut und konstant, das läuft so in Richtung 110-120 Millionen für diese Generation also Platz 2 insgesamt in der Geschichte der Konsolen, soviel zu den Analzysten, Korektur, Analysten die meinten die Zeit der Konsolen sei vorbei.
Ich denke so Spätherbst 2020 mit Ankündigung im Frühjahr.
Nightspider
2019-01-13, 22:31:01
Ich behaupte also, es wäre nicht unmöglich 2019 Chips herstellen zu lassen.
Aber ich gehe davon aus, dass sie erst 2020 oder gar 2021 die neue Generation launchen.
Genau. Alles andere macht auch keinen Sinn.
Die PS4 Pro und die Xbox One X sind noch nicht wirklich lange am Markt und Speicher ist noch viel zu teuer.
Zudem wird man Ende 2020/Anfang 2021 dank 7nm EUV bzw. 7nm+ noch einen besseren Prozess zur Verfügung haben.
Eine PS5 Ende 2019 hätte einfach zu wenig Fortschritt und müsste wirklich mit popeligen 16GB auskommen.
Und wenn Sony und MS Glück haben, wird AMD bis Ende 2020 eine nochmals verbesserte GPU Architektur zur Verfügung haben.
Wie wir wissen hat AMD ja schon mehr Personal zur GPU Abteilung gezogen und investiert dort gerade auch mehr in R+D als die letzten Jahre.
Zen 2 wird zwar im CPU Bereich schon ein riesiger Sprung sein aber die aktuelle Vega Architektur ist halt nicht wirklich marktführend. Ob Navi ein großer Sprung wird muss sich zeigen. Vielleicht kann AMD aber schon 1-1,5 Jahre eine optimiertere Version der Navi Architektur bereitstellen, das wissen wir nicht.
Auf jeden Fall macht Ende 2019 keinen Sinn. Der Speicher ist noch viel zu teuer. Selbst NAND soll sich 2019 beim Preis halbieren.
Im Vergleich zu Ende 2019 könnte man Ende 2020/Anfang 2021 mindestens doppelt so viel NAND und RAM verbauen.
MadPenguin
2019-01-13, 22:47:36
Danke an alle :)
Platos
2019-01-13, 23:28:24
Ich weiss nicht, ob man die alten Konsolen, also die alte ps4 und one, noch so lange mitschleppen will und erst 2021 eine neue Konsole raus bringt. Das wären immerhin 9 Jahre und das ist schon extrem lange. Ich denke, es wird 2020, ist aber schwer zu sagen.
Laut AMD kostet 7nm pro mm² doppelt so viel wie 14nm. Einen Chip von 14nm auf 7nm zu shrinken und die Fläche zu halbieren, hat also keine Kostenvorteile. Oder, Milchmädchen: Vega20 ist so teuer wie ein 14nm-Chip mit 662mm².
Die Produktion oder der schlussendliche Preis für AMD ? Denn bei doppelten Produktionskosten wäre ja immer noch der Flächenvorteil, also bessere Ausbeute und auch weniger Waferkosten. Also rein von dem Standpunkt her, müsste es dann immer noch günstiger sein.
Also erst einmal: Wie teuer ein Chip in der Fertigung ist hängt nicht nur davon ab ob der Fertigungsprozess "teuer" und "neu" ist, sondern wie komplex und wie groß der Chip ist und ob es wirtschaftlich ist den Chip herzustellen, logischerweise.
Das kann man schon allein daran festmachen, dass die One S bzw. PS4 Slim in 16nm gefertigt wurden und man muss bedenken, dass erst wenige Monate zuvor die neue GPU-Generation, basierend auf 14nm und 16nm Chips, released wurde. Im August 2015 hatte TSMC angekündigt mit 16nm in Massenproduktion zu gehen.
Darüber hinaus wurde vor einem Monat erst von Digitimes berichtet/behauptet, dass bei TSMC die Kapazitäten nicht ausgeschöpft sind.
Ob und wie ein Prozess ausgebucht ist oder nicht, weiß niemand, denn das ist ein Geschäftsgeheimnis. Außerdem hat Samsung vor 3 Monaten verlautbart, sie hätten die Massenproduktion ihres 7nm EUV Prozesses aufgenommen.
Es gibt also theoretisch zwei Fertiger, auch wenn die Prozesse verschieden sind. Aber das ist nicht wichtig. Denn solange genug Kapazitäten frei sind, braucht man eh nur einen Fertiger.
Mehrere Prozesse können und werden parallel betrieben, zumal man auch eine riesige Fab nicht von einem Tag auf den anderen umstellen kann, außer man nimmt sie komplett außer Betrieb. Ich glaube Intel macht das zum Teil, aber eher aus wirtschaftlichen Gründen (zu geringe Auslastung und zukünftige Nutzung mit einem neueren Prozess).
Ich behaupte also, es wäre nicht unmöglich 2019 Chips herstellen zu lassen.
Aber ich gehe davon aus, dass sie erst 2020 oder gar 2021 die neue Generation launchen.
Bezüglich 2019:
Das mit der One s und PS4 Slim kann man so nicht als Vergleich nehmen. Das eine ist eine neue Gen mit besserer Hardware, die One S und Slim hingegen haben gleich starke Hardware wie die alte PS4 3 Jahre zuvor und deswegen lohnt sich das auch viel mehr, da man dieselbe Leistung mit dem neuen Prozess auf eine sehr viel kleinere Fläche bringt. Hätte man eine neue Gen produziert, wäre das ganz anders gewesen. Der Flächenvorteil wäre dahin gewesen und der Preis oben (siehe XBox One X 360mm2 selbst ein Jahr später und trotzdem teuer). Und dazu kommt ja noch, dass der 7nm Prozess verhältnismässig viel teurer ist. Kann man also alles nicht mit früheren Prozessen vergleichen.
Und die Situation damals war dazu auch einfach noch anders. Es gab mehr Fertiger an der Spitze.
Und rein aus historischer Sicht kann man das auch ausschliessen. Budget Hardware wird einfach nicht in einem neuem Prozess gefertigt. Das kannst du gerne Historisch nachverfolgen und das gilt nicht nur für Konsolen, auch für Smartphones. Es gibt Gründe, warum die günstigeren im alten Prozess gefertigt werden. Die machen das nicht einfach so aus Laune, sondern aus finanziellen Gründen. Und das mit der Slim und One S habe ich ja schon oben geschrieben.
Und warum sind denn die Kapazitäten nicht ausgeschöpft bei TSMC (3 Monate alte Quelle, inzwischen könnte das Loch schon längst gestopft sein) ? Mir fällt nur einen ein bzw. laufen alle schlussendlich darauf aus, dass es sich finanziell nicht lohnt. Gerade dann wird sicher keine Konsole produziert. Und falls der Prozess noch nicht gut genug ist, dann ist die Konsole sowieso auch draussen.
Aber selbst wenn Sony stark subventionieren würde oder einfach Wahnsinnig ist (oder Microsoft), dann käme immer noch vieles anderes ins Spiel. Der technisch mögliche bzw. notwendige Leistungssprung bei Konsolenpreise (bezogen auf GPU und CPU), mögliche RAM-Mengen usw. usw.
Also nein, ich sehe das anders. 2019 ist einfach höchst unrealistisch. Die Chance ist nahezu Null.
Nightspider
2019-01-13, 23:36:00
Was sind denn realistische Taktraten für 8 Zen 2 Cores in der PS4 bei 7nm ?
3,2 Ghz? Glaube 3,5 wird zu viel, wenn ich mir die popeligen 1,6Ghz der PS4 anschaue.
Das wären immerhin 100% mehr Takt als bei der PS4 und 3 (?) fache IPC, also 6 mal mehr CPU Leistung.
Linmoum
2019-01-13, 23:56:19
The Stilt hatte das ja mal für Zen veranschaulicht, die Spannung skalierte da iirc bis 3.3GHz linear und erst ab dann fing es an, dass man (deutlich) mehr draufgeben musste.
Jetzt ist natürlich die Frage, inwiefern da der 14LPP reingespielt hat und wie das mit 7nm (und natürlich auch Zen2 selbst) aussehen wird. Ich denke aber, dass wir irgendwas um die +-3GHz sehen werden.
Unicous
2019-01-14, 00:38:32
@Platos
Das ist natürlich alles Unsinn was du erzählst. Die Xbox 360 Chips wurden 2005 anfangs in 90nm gefertigt (Launch Ende 2005), zum Vergleich Mitte/Ende 2004 hatte z.B. AMD erste 90nm Chips gelaunched. Logischerweise haben sie mit der Produktion nicht erst im November zum Launch angefangen.
Die Xbox (Launch Ende 2001) hatte sogar eine Intel CPU, also sozusagen leading edge Prozess, 180nm. Intels 130nm Prozess war Anfang 2001 verfügbar. Die Nvidia GPU kam im 150nm half node.
Die PS3 kam Ende 2006 heraus, der 65nm Prozess ging erst Anfang 2007 in Massenproduktion.
PS2 - Launch Anfang 2000, verfügbarer Prozess -> 250nm, Start 180nm Fertigung - Mitte 2000
Und natürlich gab es für all diese Chips die shrinks auf die neuesten Prozesse.
Warum man keine neuen Chips (One S und Slim) die ein neues Hardware Design benötigen vergleichen kann würde ich auch gerne mal erläutert haben.
Warum die Situation eine andere sein soll, wenn die PS4 und XOX von genau einem Hersteller, nämlich TSMC gefertigt wurde und unter Umständen das auch wieder so geschehen wird verstehe ich im Übrigen auch nicht.
Und nur so zur Info, Kapazitäten bei Fabs werden Monate (also nicht zwei oder drei sondern eher so halbes Jahr und mehr) im Voraus gebucht, der Artikel 1 Monat alt und nicht 3 (keine Ahnung wie du darauf kommst?) und es ging in der Meldung nicht um 3 Monate sondern um das gesamte erste Halbjahr 2019.:rolleyes:
Zum Rest will ich eigentlich gar nichts sagen. Du wirfst mit so vagen Behauptungen um dich, dass man gar nicht weiß wo man anfangen soll.
@Linmoum
3 GHz war bei Ryzen1 sweet spot für GFs 14LPP. TSMC hat anscheinend einen deutlich "taktfreudigeren" Prozess (siehe Vega II), da würde ich 3 GHz schon als sehr konservativ erachten. 3,5GHz und u.U. eine Turbo-Mechanik. Je nach gesetztem TDP Target könnte ich mir auch 4GHz vorstellen.
Platos
2019-01-14, 02:00:54
@ Unicous
Diese Prozesse sind ja schon ziemlich steinzeitlich, die du da nennst. Die sind ja bezüglich Preisentwicklung in keinster Weise mit 7nm zu vergleichen. Es ist ja auch bekannt, dass die Prozesse (sehr viel) teurer werden.
Die Verluste, die Sony mit der PS3 (Konsolenverkauf) machte, sind ja bekannt, also ist ja auch das kein Argument. Bei der 360 war der Zeitunterschied zwischen Konsole und AMD Launch über 1 Jahr. Aber wie gesagt. Das ganze ist einfach steinzeitlich. Das ist 14 Jahre her und die neuen Fertigungsprozesse waren damals preislich nicht mit heutigen zu vergleichen. Es gab doch erst kürzlich mal ein Kurvendiagramm in einem von Leonidas' Artikeln, in dem man sah wie krass das beim 7nm Prozess ist.
Und inwiefern werfe ich mit vagen Behauptungen um mich ? Zusammengefasst war das meine Aussage:
- 7nm kann man nicht mit früheren vergleichen (ergo fallen deine uralten Argumente weg)
- Es kommen auch zuerst die anderen dran (Smartphone, GPU , CPU ), weil die mehr zahlen können. (Somit ist die Zeitspanne zwischen erste Verfügbarkeit eines Prozesses und "für Konsolen verfügbar" einfach zu hoch um noch in 2019 Konsolen zu launchen)
- Slim und S zählt nicht, wieso habe ich schon gesagt.
- Erforderliche Leistung wäre zu gering für eine neue Konsole
- Zu wenig RAM möglich
Also inwiefern ist das "natürich alles Unsinn" ?
Mir ist übrigens klar, dass Fabs im voraus gebucht werden. Gerade das macht das Ganze ja noch unwahrscheinlicher im Bezug auf 2019. AMD oder nvidida wird vermutlich genau dann fertigen lassen, wenn es eigentlich die Konsolen müssten (für einen Launch in 2019)
Warum man One S und Slim nicht vergleichen kann, habe ich doch erwähnt. Die Chips fallen sehr klein aus, weil die Leistung nicht höher sein muss, als die von 3 Jahren zuvor. Das umdesignen auf einen neuen Prozess ist immer noch billiger, als es ein komplett neu designter Chip auf einem neuem Prozess mit viel grösserer Fläche wäre.
Das mit den 3 Monaten habe ich wirklich falsch gelesen, mein Fehler.
" Warum die Situation eine andere sein soll, wenn die PS4 und XOX von genau einem Hersteller, nämlich TSMC gefertigt wurde und unter Umständen das auch wieder so geschehen wird verstehe ich im Übrigen auch nicht."
Wo habe ich das geschrieben ? Ich habe geschrieben, dass es heute weniger Fertiger an der Spitze gibt, die produzieren und es somit zu wenig Kapazitäten gibt. Laut digitimes ist TSMC aber nicht ausgebucht. Nun gut, da liege ich anscheinend falsch, aber warum sind die Aufträge von Apple und CO geringer ausgefallen als erwartet (ernsthafte Frage) ? Ich würde sagen, weil der Prozess so extrem teuer ist. Und das würde nicht für einen Konsolen-Auftrag sprechen, oder wie siehst du das ?
Aber der 2. Grund wäre eben eine Bewegung hin zu einer (quasi) Monopol Stellung. Meines Wissens nach hat Samsung nicht die Kapazitäten wie TSMC, also kann TSMC ordentlich die preise Bestimmen (da aus Kapazitätsgründen eben viele zu TSMC gehen müssten, wenn sie 7nm wollen).
Unicous
2019-01-14, 05:28:59
Bei der 360 war der Zeitunterschied zwischen Konsole und AMD Launch über 1 Jahr.
Du checkst schon, dass die Konsolen vorproduziert werden müssen, es zig Testversionen/Dev Kits, Vorserienmodelle gibt (und das beinhaltet natürlich nicht nur die Chips)?:confused:
Was heißt 7nm kann man nicht vergleichen? Was soll das für eine Aussage sein?:confused: Was für "uralte Argumente":freak:
Zuerst kommt der ran, der für Kapazitäten bezahlt und das "Risiko" auf sich nimmt. Das Risiko eines noch nicht ausgereiften Prozesses und geringer Yields. Apple z.B. zahlt dafür sicherlich fürstlich die ersten zu sein. Hinzu kommt, dass Mobile Chips meist deutlich kleiner sind und die Ausbeute deutlich höher ist, wenn der Yield gering ist.
Was zählt und was nicht, hast du nicht zu bestimmen.:rolleyes:
Welche erforderliche Leistung?:confused: Völlig wirre Aussage
Was heißt "zu wenig RAM möglich" Das ist weder ein kompletter Satz noch macht es irgendeinen Sinn:rolleyes:
Zur "Fab-Buchung": Du weißt doch gar nicht, wer wann und wo bei TSMC oder Samsung oder jeglichem anderen Zulieferer etwas bestellt hat, noch weniger weißt du für welchen diese Kapazitäten gebucht wurden.:confused:
Du stellst Behauptungen auf und hast keinerlei Anhaltspunkte dafür.
Zur Die Size der shrinks. Der Xbox One S Chip ist wohl 240mm² groß, das ist gerade mal ein 1/3 kleiner als der 28nm Chip mit 360mm². Ich wüsste also gerne was du mit "Die Chips fallen sehr klein aus" meinst.:uponder:
Warum Apple die Aufträge zurückschraubt? Weil der Markt nicht mehr so wächst wie erhofft und das schon seit einer ganzen Weile. Apple hat unlängst die Produktionszahlen für ihre iPhone X und Derivate u.a. zurückgefahren, das war großes Thema und deswegen sind sie nicht mehr 1 Billion Dollar wert.:freak:
Und was hat TSMCs Quasimonopol mit irgendetwas zu tun? Das ist doch kein valides Argument. TMSC fertigt für jeden der bereit ist das Geld dafür hinzublättern und TSMC ist schon seit vielen, vielen Jahren Lieblings-Zuliefer für Sony MS und auch Nintendo. Die Frage die sich also stellt ist nicht, wie teuer ist der Prozess sondern ist Sony/Ms generell bereit Geld in die Hand zu nehmen. Denn die Kosten verringern sich nicht auf magische Weise. Die Designkosten bleiben hoch. Die Validierungskosten bleiben hoch und die Kosten für einen Wafer werden auch nicht so schnell sinken. Die Mobile Chips bzw. generell kleine Chips fungieren auch als "pipe cleaner" um den Prozess von Kinderkrankheiten zu befreien und weiter zu optimieren besonders im Hinblick auf die Ausbeute um bei zukünftigen größeren Chips eine gute Basis zu haben. Der Fakt dass AMD schon so einen "großen" Chip (331m²) kurz nach Start der Massenproduktion fertigen lässt ist ein guter Indikator dafür, dass der Prozess schon gut vorangeschritten ist.
Ich möchte übrigens nochmals betonen, dass ich nicht davon ausgehe, dass 2019 eine neue Konsole herauskommt bzw. gelaunched wird. Es ging mir lediglich um die theoretische Möglichkeit.
danarcho
2019-01-14, 10:34:23
@Linmoum
3 GHz war bei Ryzen1 sweet spot für GFs 14LPP. TSMC hat anscheinend einen deutlich "taktfreudigeren" Prozess (siehe Vega II), da würde ich 3 GHz schon als sehr konservativ erachten. 3,5GHz und u.U. eine Turbo-Mechanik. Je nach gesetztem TDP Target könnte ich mir auch 4GHz vorstellen.
Eine Turbo-Mechanik bezweifle ich stark, da es zu unzuverlässig ist für Entwickler. Stell dir vor, es wird für zB 60fps bei 4K entwickelt und ohne Turbo hast du Framedrops auf 50, trifft aber nur zu, wenn die Sonne scheint. Sowas ist Müll.
Das gleiche bei der GPU. Die PS4 pro hat meines Wissens auch kein Turbo, obwohl das alle GPUs dieser Generation können.
Ich glaube auch eher an sehr konservative Taktraten von knapp über 3Ghz, um mehr TDP für die GPU freizuhalten. Außerdem wird bestimmt AVX nur mit 128bit ausgeführt, da es selten gebraucht wird, ordentlich Fläche kostet, und auch viel Strom verbraucht. Der Sprung ist so schon gewaltig und die Entwickler haben sich auf mehrere schwache Kerne schon eingestellt.
Unicous
2019-01-14, 10:56:32
Ein flexibler "Turbo", der bei Spielen die nicht so rechenlastig sind, wenige Kerne hochtaktet wäre mMn keine große Sache, solange es einfach vom Entwickler konfigurierbar ist.
Von der GPU sprach ich gar nicht, aber auch hier wäre es sicherlich interessant die GPU flexibler takten lassen zu können und in Szenarien wo viel bzw. wenig Leistung benötigt wird entsprechend reagieren zu können.
Man hat von der jetzigen Generation viel gelernt und wird höchstwahrscheinlich wieder auf das PC-ähnliche Konzept zurückgreifen. Dennoch muss man ja nicht alles nach Schema F designen und die Technik hat sich auch nochmals deutlich weiterentwickelt.
drkohler
2019-01-14, 11:39:14
Was sind denn realistische Taktraten für 8 Zen 2 Cores in der PS4 bei 7nm ?
3,2 Ghz? Glaube 3,5 wird zu viel, wenn ich mir die popeligen 1,6Ghz der PS4 anschaue.
Die Clocks in der PS4 sind fix auf 2:1 (CPU:GPU), also 800MHz für die GPU. Wenn das weiter so bleibt (ist wahrscheinlich vom Design her einfacher), dann gehe ich von etwa 2.5GHz aus für die PS5. Man sieht ja gerade auf der Frontpage, dass der VegaVII bei 1450 MHz 300W verbrät. Also bei 2:1 liefe das auf 1250MHz hinaus. Ob das noch in die TDP passt, wer kann's wissen.
Im besten Fall sehen sie ab von der 2:1 Einstellung ab und man könnte so etwa mit 3Ghz CPU, 1200MHz GPU rechnen.
Nightspider
2019-01-14, 11:45:14
2:1 war doch Zufall oder? Oo
Unicous
2019-01-14, 11:47:10
Wie kommst du auf solch einen Quark?:confused:
Vega II hat einen Basistakt von 1450 MHz und boostet auf bis zu 1800MHz. Nix 1450MHz@300 Watt.:rolleyes:
@Nightspider
Ja natürlich war es Zufall. Sieht man allein daran, dass die "Refreshes" anders takten.
Platos
2019-01-14, 13:15:57
@ Unicous
- Was bitte ist an "zu wenig Ram möglich" nicht zu verstehen, zumal ich das einen Post vorher erklärt habe (und du somit beweist, dass du meine Posts gar nicht (richtig) liest. In diesem Jahr könnte Sony/Microsoft nicht so viel Speicher verbauen, wie es benötigt wäre, um eine neue Konsole zu launchen. Dass das eine Anspielung auf Preise war, könntest du wissen, wenn du diesen Thread hier lesen würdest.
- Das sage ich doch schon die ganze Zeit und genau das ist mein Argument. Apple und co zahlen mehr, ergo kommen sie zuerst drann. Da der 7nm Prozess so extrem viel teurer ist, ist es nicht vergleichbar, denn somit können sich sony/miscrosoft die erhöten Kosten noch weniger Leisten, als es früher der Fall gewesen wäre, wenn der Prozess neu war. Dass du es ernsthaft in Betracht ziehst, dass Sony für Konsolen die Preise stemmt, um die anderen "Big Player" zu überbieten, glaubst du nicht wirklich ?? Klar wäre das "theoretisch" möglich, aber realistisch betrachtet wird sowas nicht passieren.
- Wirre Aussage bezüglich erforderliche Leistung ? Würdest du den Thread hier lesen, wüsstest du, was gemeint ist und allgemein ist das eine klare Aussage. Das Wort "erforderlich" impliziert hier, dass die Leistung zu gering ausfallen würde. Das ich dieses Jahr meine, ist ja selbst erklärend, denn es geht ja hier um 2019. Das Wort Leistung muss ich nicht auch noch näher erläutern?? Da ich den RAM extra sondere, sollte klar sein, dass ich CPU und GPU meine, zumal ich das 2 Posts zuvor so wortwörtlich erwähnt habe. (wieder ein Beweis, dass du meine Posts nicht liest)
- Du sagst, die Frage wäre, ob Sony/microsoft bereit ist, genug Geld in die Hand zu nehmen und es nicht auf die Zulieferer ankommt....Wirklich? Genau das argumentiere ich doch die ganze Zeit. Sie werden nicht so viel Geld in die Hand nehmen. Dass ich das auch noch wörtlich erwähnen muss, ist lächerlich. Und natürlich ändert eine quasi-Monopolstellung was. Nämlich den Preis und somit ist es noch unwahrscheinlicher, dass Sony/microsoft die Kosten tragen können. Deshalb hat das auch Einfluss.
Aber ich sehe, du liest meinne Posts nicht (richtig).Und dass ich nicht ganze Sätze schreibe bei einer Aufzählung kommt voer und auch deshalb, weil es nur ein Resumé war und ich alles schon ein Post vorher erklärt habe. Was wieder beweist, dass du nicht liest.
Ergo diskutiere ich nicht mit dir. Abgesehen davon ist es sinnlos über das Thema zu diskutieren, wenn wir beide von 2020/21 ausgehen und beide 2019 verneinen.
Unicous
2019-01-14, 16:02:10
Wenn du die immer gleichen
Argumente in semantisch nicht zu entziffernde Wortketten kleidest und dann verlangst, dass man daraus eine kohärente Botschaft zusammensetzt hast
du meiner Meinung nach das Konzept einer Diskussion nicht verstanden. Anstatt neue Argumente in die Diskussion einzubringen um die alten zu unterstützen bewegst du dich die ganze Zeit gedanklich im Kreis und beschwerst dich wenn der Empfänger dem keinen Sinn entlocken kann.
Platos
2019-01-14, 17:07:37
Wie gesagt, die Diskussion ist sowieso sinnlos, da wir schlussendlich für einen Launch die selben Jahre anpeilen.
Anfeindung ist unnötig.
tobor
2019-01-15, 20:02:03
Next Gen Physik? Gabs diese Generation überhaupt Fortschritte bezüglich zerstörbarer Umgebungen etc?
mr coffee
2019-01-15, 22:21:36
Woran liegt es eigentlich, dass sich über die Jahre so wenig in dem Bereich getan hat?
bbott
2019-01-16, 21:23:26
Physik war durch den Alleingang von nv dem Tode geweiht, der Aufwand im Verhältnis zum Nutzen ist schon schlecht und wenn ich dann zwei Physik Varianten anbieten will/muss wird wird es uninteressant.
Was meint Ihr kommt noch ein PS4 Pro Shrink (auf 7nm)? Wenn die PS5 erst 2021 kommt?
Platos
2019-01-16, 22:14:47
Physik war durch den Alleingang von nv dem Tode geweiht, der Aufwand im Verhältnis zum Nutzen ist schon schlecht und wenn ich dann zwei Physik Varianten anbieten will/muss wird wird es uninteressant.
Was meint Ihr kommt noch ein PS4 Pro Shrink (auf 7nm)? Wenn die PS5 erst 2021 kommt?
Du meinst eine Art 2. Slim oder noch ein Hardwareupgrade ? Letzteres natürlich nicht. Bei ersterem wäre ich so kurz vor dem Launch aber auch nicht so überzeugt.
Gab es jemals eine Slim mit einem Abstand zur nächsten Konsole unterhalb von einem Jahr ?
Woran liegt es eigentlich, dass sich über die Jahre so wenig in dem Bereich getan hat?
Wir haben für schnellere Fortschritte bei der Grafik immer mehr Rechenleistung in Vorberechnungen verlagert und so die Dynamik der Umgebung immer mehr reduziert. Dazu ist der Detailgrad so stark gestiegen, dass triviale Modifikation der Umgebung einen immer größeren Immersionsbruch darstellen würde.
bbott
2019-01-16, 22:54:08
Du meinst eine Art 2. Slim oder noch ein Hardwareupgrade ? Letzteres natürlich nicht. Bei ersterem wäre ich so kurz vor dem Launch aber auch nicht so überzeugt.
Gab es jemals eine Slim mit einem Abstand zur nächsten Konsole unterhalb von einem Jahr ?
Ich meine eine PS 4 Pro Slim. Nur weil die PS5 2021(?) erscheint, heißt das noch lange nicht, dass die PS 4 (Pro) nicht mehr verkauft wird.
das_Apo
2019-01-17, 21:33:12
Du meinst eine Art 2. Slim oder noch ein Hardwareupgrade ? Letzteres natürlich nicht. Bei ersterem wäre ich so kurz vor dem Launch aber auch nicht so überzeugt.
Gab es jemals eine Slim mit einem Abstand zur nächsten Konsole unterhalb von einem Jahr ?
Neue Revisionen der aktuellen Konsolengeneration kurz vor dem Release der nächsten Konsolengeneration sind nicht unbedingt ungewöhnlich.
2004: PS2 Slim
2005: Xbox 360
2006: PS3
2011: Wii 2. Revision
2012: Wii U
2013: Wii mini
2012: PS3 Super Slim
2013: PS4 / Xbox One / Xbox 360 E
2017: New Nintendo 2DS XL / Nintendo Switch
Die alten Konsolen verkaufen sich ja noch eine ganze Weile weiter, setzen Spiele ab und decken aufgrund des günstigeren Preises einen Teil des Marktes mit ab, den die neuen Konsolen mit ihrem höheren Preis noch nicht erreichen.
https://twitter.com/TUM_APISAK/status/1086084891039608832
AMD Gonzalo: Konsolen-SoC mit acht Zen-Kernen und Navi-Grafik (https://www.computerbase.de/2019-01/amd-gonzalo-next-gen-konsolen-soc-zen-kernen-navi-grafik/) (oder auch nicht)
Ist ziemlich wahrscheinlich, dass die Konsolen SoCs jetzt samplen. Dann braucht man sicherlich noch 1 1/2 Jahre um das gesamte Hardware/Software-Ökosystem verkaufsfertig zu bekommen. Die Spielehersteller brauchen dann auch recht bald ihre ersten Entwicklungsumgebungen, wenn die in 2020 was releasen wollen.
Unicous
2019-01-18, 15:08:38
Das kann alles Mögliche sein. Relativ sicher dürfte sein, dass es ein Semi-Custom Chip ist (außer AMD will einen eigenen Kaby Lake G herausbringen). Ich sehe erst einmal keine eindeutigen Indizien, dass das ein Konsolenchip ist.
edit:
Ich möchte noch anmerken, dass die Semi Custom/Konsolen Chips einer anderen "Nomenklatur" folgen und der Decoder wie er hier verwendet wird keinen Sinn macht. Die 160 müssen z.B. nicht zwangsweise den Grundtakt darstellen, genausowenig wie die 32 den Boost darstellen müssen. Außerdem weist dieses hohe Delta (vorausgesetzt es sind Taktraten) eher darauf hin, dass das ein Chip ähnlich dem Fenghuang ist.
Nightspider
2019-01-18, 16:19:58
3,2 Ghz boost, nailed it. ^^
Unicous
2019-01-18, 16:24:05
Nailed what?
Du weißt doch gar nicht was das für ein Chip ist.:rolleyes:
gravitationsfeld
2019-01-18, 16:39:19
Bei Konsolen gibt es keinen Boost. Man muss sich auf die Frequenzen verlassen koennen.
Tesseract
2019-01-18, 17:01:27
eine möglichkeit wären verschiedene profile die der entwickler explizit nutzen kann, z.B. profil 1: 3,8GHz CPU, 1,2GHz GPU; profil 2: 3,2GHz CPU 1,5GHz GPU usw. (jeweils gleiche TDP). wär irgendwie naheliegend wenn wahrscheinlich weder CPU noch GPU auch nur annähernd den max clock ausnutzen können bei dem zu erwartenden powerbudget.
Unicous
2019-01-18, 17:06:11
Ja, an so etwas hatte ich ja auch schon gedacht, Turbo war da als Stichwort vllt. falsch gewählt.
mr coffee
2019-01-18, 18:41:56
Angenommen das wär der PS5 SOC, wär da die angegebene tdp von 95 watt realistisch?
Unicous
2019-01-18, 18:59:29
Die relevante "Zahl" ist die obere. Dieser Twitter Typ sucht diese Engineering Samples heraus, hat aber keine Ahnung worüber er redet.
Er hat die AMD OPN (Ordering Part Number) genommen und über einen "Decoder" gelegt. Der funktioniert aber nur mit "normalen" Chips (Server, Desktop, Mobile) und auch dann sind nicht alle Infos richtig bzw. unvollständig. (Besonders in Bezug auf Chips mit Grafikeinheit.)
Zossel
2019-01-18, 18:59:58
Bei Konsolen gibt es keinen Boost. Man muss sich auf die Frequenzen verlassen koennen.
Warum? Auf PCs mit Boost kann ja auch gezockt werden.
Ravenhearth
2019-01-18, 19:04:57
Ich meine eine PS 4 Pro Slim. Nur weil die PS5 2021(?) erscheint, heißt das noch lange nicht, dass die PS 4 (Pro) nicht mehr verkauft wird.
Eine PS4 Pro mit den Maßen/der Lautstärke der Slim wäre in der Tat sexy und ist wohl auch nötig, um den Preis evtl. drücken zu können.
Platos
2019-01-18, 19:24:44
Wie sieht es eig. mit Sony und mobiles Gaming aus ? Da gabs doch mal eine Aussage von Sony, dass man Mobiles Gaming nicht mehr getrennt von den Konsolen betrachtet, also ähnlich wie bei der Switch.
Bei der PS5 könnte ich mir durchaus was Switch-ähnliches (optional) vorstellen, bei dem aber gestreamt wird über die Konsole und man dann die Konsole von untwergs mit dem Ding dann starten und abschalten kann (also energiesparmodi). Also quasi einen Mobilen Monitor mit Gamepad.
das_Apo
2019-01-18, 20:55:58
Wie sieht es eig. mit Sony und mobiles Gaming aus ? Da gabs doch mal eine Aussage von Sony, dass man Mobiles Gaming nicht mehr getrennt von den Konsolen betrachtet, also ähnlich wie bei der Switch.
Bei der PS5 könnte ich mir durchaus was Switch-ähnliches (optional) vorstellen, bei dem aber gestreamt wird über die Konsole und man dann die Konsole von untwergs mit dem Ding dann starten und abschalten kann (also energiesparmodi). Also quasi einen Mobilen Monitor mit Gamepad.
Die PS4 bietet doch schon Remote Play für Windows PCs & Macs:
https://www.playstation.com/de-at/get-help/help-library/apps---features/playstation-apps---features/ps4--remote-play-for-pc-and-mac/
https://remoteplay.dl.playstation.net/remoteplay/lang/de/index.html
Und die PS Vita kann man auch für Remote Play nutzen:
https://www.playstation.com/de-de/explore/ps4/features/remote-play/
Und alternativ gibt es noch den Streaming Dienst PS Now.
Platos
2019-01-18, 21:27:18
Naja, ich meinte eher mehr sowas wie einen Controller mit Bildschirm. Also kein eigenes System, wie es die Vita ist. Also mehr sowas wie bei der Wii-U das Gamepad (einfach bessere Qualität) und mit Straming. Wobei das eig. schwierig wird, denn man kann ja nicht vorladen wie bei Netflix.
Also alles in einem System integriert und nicht so, dass man zusätzlich ein anderes System kaufen muss, wenn man eig. nur streamen möchte. (Vor allem auch Preislich gesehen).
Und ist es nicht so, dass man die PS Vita nur mit W-Lan Verbindung nutzen kann ? Also ist eben nicht wirklich unterwegs sondern trotzdem stationär.
Edit: Wobei für die hohen Abokosten für unlimitierte Datenmenge, wäre es vlt. sogar günstiger die Hardware gleich mit einzubauen um unabhängig von der PS5 Hardware zocken zu können.
Edit2: Und abgesehen davon ist die Vita doch schon längst tot
Nightspider
2019-01-18, 22:18:23
Bei Konsolen gibt es keinen Boost. Man muss sich auf die Frequenzen verlassen koennen.
Kann man doch.
Warum aber nicht manche Kerne stark runtertakten bei wenig Teillast einiger Kerne? Wäre doch Stromverschwendung und ist nicht mehr up to date.
3,2 Ghz Boost entsprechen den 1,6 Ghz der PS4. Jeder weiß das Zen deutlich mehr schaffen würde. 3,2 Ghz sind schon extrem konservativ.
Gipsel
2019-01-19, 10:55:35
3,2 Ghz Boost entsprechen den 1,6 Ghz der PS4. Jeder weiß das Zen deutlich mehr schaffen würde. 3,2 Ghz sind schon extrem konservativ.Das waren die 1,6GHz der Jaguar-Kerne auch. Die hätten auch locker 2 GHz mitgemacht (die boosten in 28nm bis 2,4Ghz in anderen Prozessoren). Dann hätten die aber mehr Strom gefressen und das Powerbudget für die Grafik hätte um 25W oder so gekürzt werden müssen. Das hielt man offenbar für das Gesamtpaket für nicht hilfreich.
Und genauso wird es bei der PS5 (und auch dem XB1X Nachfolger) auch laufen. Über 150W Stromverbrauch für den Hauptchip in einer Konsole wird es langsam eng. Und am effizientesten ist es da, mit moderaten Takten an die Sache ranzugehen.
Milchmädchen:
Jaguar maximaler Boost in Notebooks-APUs: 2,4GHz
Takt in der PS4 war 1,6GHz, also 2/3 davon.
Zen2 angenommener Boostakt im Desktop: ~5GHz
2/3 von 5GHz sind 3,33GHz.
Das scheint als Faustregel nah am Effizienz-Sweetspot zu liegen.
Zwei Drittel der Performance bei vielleicht 40% des Verbrauchs (je nachdem, wo man auf der Spannungs-Frequenz-Kurve liegt, sogar noch weniger).
Unicous
2019-01-19, 15:15:10
Du vergisst bequemerweise, dass die PS4 Pro Kerne mit 2,13 GHz und die XOX mit 2,3 GHz takten.
Auch wenn die PS4 Pro real keine Leitungsaufnahme von 310 Watt hat, wurde sie dafür spezifiziert, die PS4 ist/war für 165 Watt ausgelegt. Man hat das Budget also fast verdoppelt.
https://www.playstation.com/de-de/explore/ps4/tech-specs/
Die PS4 Pro zieht daher in anspruchsvollen Spielen bzw. hochaufgelösten Spielen mehr als die Vanilla PS4.
https://www.eurogamer.net/articles/digitalfoundry-2016-playstation-4-pro-review
Die Xbox One zieht hier bis zu 175 Watt.
https://www.eurogamer.net/articles/digitalfoundry-2017-microsoft-xbox-one-x-review_1
Da weder Sony noch MS in ihrer Entwicklung ihre Augen auf die Launch Konsolen richten werden sollte man meiner Meinung nach so ehrlich sein und die Specs der aktuellen Versionen vergleichen.
Beider Hersteller waren bereit, dass power budget deutlich zu erhöhen um mehr Leistung zu ermöglichen.
Ob beide eine Zen CPU von der Stange nehmen oder Anpassungen vornehmen lassen wissen wir auch noch nicht.
Locuza
2019-01-19, 16:38:06
Die PS4 Pro und Xbox One X kamen aber auch mehrere Jahre nach den Vanillakonsolen und unter 16nm FinFET und nicht 28nm.
Das ist ja kein direkter Vergleich mehr zu AMDs eigenen Angeboten, die es nur unter 28nm gab, mit teils deutlich mehr als 2Ghz.
Bezüglich dem Takt und Verbrauch haben die Hersteller natürlich etwas Spielraum, genauso wie viel sie sich leisten möchten, bezüglich Subventionierungen, wenn sie nicht deutlich höhere Ladenpreise aufrufen wollen mit entsprechend kleinerem Marktvolumen und langsamerer Adaption.
Es ergibt jedenfalls wenig Sinn aggressiv beim CPU-Takt zu sein und mit hohen Taktraten zu starten.
gravitationsfeld
2019-01-19, 16:40:21
Kann man doch.
Warum aber nicht manche Kerne stark runtertakten bei wenig Teillast einiger Kerne? Wäre doch Stromverschwendung und ist nicht mehr up to date.
3,2 Ghz Boost entsprechen den 1,6 Ghz der PS4. Jeder weiß das Zen deutlich mehr schaffen würde. 3,2 Ghz sind schon extrem konservativ.
Es wird keine Konsole mit variablen Taktraten geben.
Du willst alles auslasten und dabei höchste Performance. Niemand braucht single core boosts. Das sind keine Desktop-Maschinen.
robbitop
2019-01-19, 16:49:03
Aufgrund der Yields laufen die SoCs vermutlich auch nicht mit der minimal möglichen Spannung sondern vermutlich mit einem festen Wert, der über die gesamte Streubreite funktioniert + Reserve. Soll ja schön günstig sein. Entsprechend wird auch die Kühllösung dinensioniert. Entsprechend konservativ sind auf Konsolen schon immer die Taktraten. Wird nächstes Mal nicht anders sein.
Mein Tip: deutlich unter 4 GHz. 3....3,7 GHz wäre mein Erwartungsbereich.
Gleiches Prinzip gilt wohl auch für die GPU. Mehr als 1.5 GHz würden mich wundern (trotz 7 nm und vermutlich längerer Pipelines - vgl Vega)
Locuza
2019-01-19, 16:53:10
Wird es nicht endlich Zeit das die Entwickler auch bei den Konsolen den Spaß genießen dürfen, mit einem völlig dynamischen Power- und Taktbudget auf beiden Seiten ihre Algorithmen auch bezüglich der Energieeffizienz zu profilen und die Balance zwischen CPU und GPU so zu wählen, um das Maximum aus dem System zu bekommen?
Mit fixen CPU- und GPU-Taktraten lastet man selbst auf Konsolen das System wohl kaum optimal aus.
Es erscheint mir eher so, dass niemand wirklich Lust auf das Level der Komplexität hätte und lieber feste Timings hat.
robbitop
2019-01-19, 17:00:03
Naja die Erfahrung muss ja reproduzierbar sein und muss auf jeder Konsole egal wo die steht und wie gut der SoC ist gleich gut sein. Ergo muss der Takt fix sein.
Nett wäre es aber wenn bessere Chips wüssten wie gut sie sind und die Spannung entsprechend anpassen und dadurch nicht alle Modelle laut sind. Je besser der Prozess (Reife) desto besser sie Chips desto weniger Spannung desto leiser...
Unicous
2019-01-19, 17:16:05
@Locuza
AMDs eigene Angebote? Ich wüsste nicht, dass AMD jemals einen 8-Core Cluster Chip mit Jaguar Kernen veröffentlicht?
Und AMDs "eigene Angebote" unter 28nm umfassten u.a. Kabini/Temash, Beema/Mullins, Carrizo-L und Stoney Ridge.
Bei Kabini gab es bereits Chips die einen Takt von 2,2 GHz erreichten (25W).
Bei Beema waren wir schon bei 2GHz Basistakt und 2,4GHz Turbo angelangt (15W). Carrizo-L hat das auf 2,2GHz und 2,5GHz Turbo erhöht.
Alles in "28nm".
Wie sich eine "Konsolen-APU" in 14nm verhält können wir auch schon einigermaßen beurteilen:
https://www.eurogamer.net/articles/digitalfoundry-2018-hands-on-with-subor-z-plus-ryzen-vega-chinese-console
3GHz für die CPU-Kerne und 1300MHz für die GPU. Das ist doch schon mal ordentlich für einen 14nm Chip. Ich weiß nicht ob Crysis 3 jetzt das System bis zum Schmelzen bringt aber 185W bewegt sich im Bereich der XOX.
Natürlich ist die Leistung nicht unbedingt vergleichbar mit PS4 Pro und XOX aber man hat schon mal Indizien wo sich das Ganze hinbewegt. 3 GHz halte ich daher für zu konservativ.
@robbitop
Ich ging von 3,5GHz, du gehst noch mal darüber.:freak:
Locuza
2019-01-19, 17:53:48
@ robbi
Bezüglich der dynamischen Verwaltung kann man den Gürtel bei Bedarf natürlich auch enger schnallen, um die Variation abzuschwächen und effektiv vernachlässigbar zu gestalten.
Natürlich ist es verständlich, wieso solch eine Lösung nicht für jeden attraktiv erscheint oder überhaupt von Entwicklerseite aus.
Es gibt aber Potential bei den Konsolen den Entwicklern mehr Auswahl anzubieten.
Einige VR und Indie-Games wären vermutlich froh darüber, wenn sie zumindest ein anderes Taktprofil, mit weniger Kernen verwenden könnten um MT-Leistung für bessere ST-Leistung zu opfern.
Oder allgemein ein festes Verhältnis zwischen CPU und GPU manipulieren zu können, je nachdem wo man gerne noch etwas mehr Leistung hätte.
@ Uni
Mit 8 Kernen ändert sich am prinzipiellen Sweetspot bezüglich Takt/Leistungsaufnahme ja wenig (Sekundäres Zeug wie Wärmedichte mal unterschlagen).
Und beim Ursprungskontext ging es zuerst um 3,2Ghz, die als zu konservativ angesehen worden sind und Gipsels Milchmädchenrechnung hat pauschal einfach 2/3 von der voraussichtlichen Topfrequenz bei Desktop-Modellen genommen, ~3,3Ghz.
Persönlich sehe ich das aber so oder so als Kleinzeug an, selbst zwischen 3 oder 3,5 Ghz sind es "nur" 17% Unterschied, nicht signifikant genug aus meiner Perspektive, wenn man das auch in die GPU investieren könnte.
Ein weitere Milchmädchenrechnung, mit doppelter IPC, 3Ghz bzw. 3.5 Ghz und 8 Kernen bei der Next-Gen; entweder es ist 3,75 mehr Leistung da oder 4,4 mal soviel.
Das ist massiver Sprung so oder so, ob dann etwas mehr oder weniger Takt anliegt, tangiert dann deutlich weniger und ist es höchstens wert wenn die Marketingabteilung das Gefühl hat, dass man für Kräftevergleiche mit der Konkurrenz Effizienz oder GPU-Budget dafür opfern könnte.
Bezüglich Zen1 lag laut The Stilt eine lineare Kurve bei Summit Ridge bis 3,3 Ghz (14nm GloFo) an und bei Pinnacle Ridge bis zu 3,5 Ghz (12nm GloFo).
http://i.imgur.com/8Rch6JF.png
https://i.imgur.com/YRWrsuc.png
Dank Zen 2 und 7nm (HPC oder Mobile Version?) wird es wahrscheinlich noch etwas Luft nach oben geben, aber ich denke Sony und MS werden versuchen das Power-Budget nicht über PS4 Pro und Xbox One X zu schieben, entsprechend würde ich von 20-30W für die CPU ausgehen, wobei das laut dieser dieser Taktkurve von Pinnacle Ridge gut zu 3,2-3,5Ghz passen könnte:
https://i.imgur.com/CGSdAWF.png
Windi
2019-01-19, 18:37:34
Die möglichen Taktraten hängen doch ganz massiv vom Ausschuß ab.
Bei einem Konsolenchip muss jeder Kern die nötige Taktrate schaffen. Fällt dabei nur ein Einziger durch, kann man gleich den ganzen Chip wegschmeißen.
Mit einem Zen2 in 7nm sollten häufig Taktraten im Bereich von 4Ghz möglich sein (auch ohne zuviel Stromverbrauch). Wenn das dann aber 20% nicht schaffen, hat man den Ausschuß drastisch erhöht. Und das kommt nochmals zusätzlich zu dem normalen Ausschuß dazu, wo wirklich Teile des Chips defekt sind.
Das ist ein spezielles Konsolenproblem, da man die schlechten Chips nicht zweitverwerten kann. Auf dem Desktop verkauft AMD dann halt ihren 8Kerner als 6Kerner und/oder mit reduzierten Takt.
Eine Möglichkeit dagegen ist bei den Konsolen halt generell den Takt zu senken, die Spannung zu erhöhen oder einen Kern immer deaktiviert zu lassen.
Und genau hier bekommen plötzlich die Standard-Chiplets eine reale Chance in den Konsolen. MS/Sony könnten AMD dafür bezahlen, das sie nur die Chiplets bekommen, die genau ihre Ansprüche erfüllen. Alle Chips die zu schlecht sind, muss AMD dann selbst als Athlon verkaufen. Es wäre sogar logisch, wenn AMD die Chips einbehielte, die zu gut für eine Konsole sind, um sie dann selber deutlich teurer zu vermarkten.
Die Vorteile für MS/Sony wären also ein höherer Takt, reduzierter Stromverbrauch und geringerer Ausschuß.
Der Nachteil wäre halt, das das Standard-Chiplet etwas größer ist, als wenn man einen Monolithischen Chip verwendet. Vor allem wenn man dafür die Zen Kerne überarbeitet und etwas einschrumpft. (Cache reduzieren)
Das erzeugt aber auch wieder Extra Kosten fürs Anpassen und um eine eigene Maske zu erstellen. (Die sehr teuer ist)
PS: Und dabei ist die CPU in einer Konsole noch nicht einmal das Wichtigste. Es wäre schon sehr ärgerlich, wenn man auch den viel größeren GPU Teil wegschmeißen muss, nur weil ein Kern nicht ganz so hoch takten kann.
Windi
2019-01-19, 19:02:54
Zum Boost/Turbo
Es wäre natürlich sehr interessant, wenn die Spiele-Entwickler selbst bestimmen könnten, wo die verfügbare Leistung genau genutzt wird.
Mehr Leistung für die CPU oder der GPU.
Oder zwei Kerne auf Maximaltakt betreiben und die restlichen sechs deutlich reduziert.
Oder, oder, oder,....
Das ist sicherlich sehr nützlich. Schließlich hat jedes Spiel, jede Spieleengine und jedes Spielegenere andere Anforderungen.
ABER, das muss die Entscheidung des Programmierers sein.
Und nicht davon abhängen ob es gerade Sommer oder Winter ist. Oder man Glück beim Chip hatte, die Konsole etwas verstaubt ist, senkrecht oder waagerecht betrieben wird, ....
Der Spiele Entwickler muss sich zwingend darauf verlassen können, wieviel Leistung ihm zu Verfügung steht.
Unicous
2019-01-19, 19:17:48
@Locuza
Vom 14/12nm Prozess von GF auf den 7nm Prozess von TSMC zu extrapolieren halte ich für etwas ungeschickt. Das kann man schon am Vergleich 16nm zu 14nm sehen. TSMC ist deutlich taktfreudiger.
Im Übrigen war Ausgangslage eher 3GHz. Die 3,2GHz sind erst durch den Gonzalo Chip hinzukommen (bzw. Nightspider hatte die Zahl zuvor in den Ring geworfen) und der angeblichen Verdoppelung des Taktes im Vergleich zu den Vanilla Konsolen-Chips um die Kompatibilität zu wahren:rolleyes:, weil ja schon klar ist dass das einer der neuen Konsolechips ist und nicht etwa ein Semi-Custom Chip á la Subor Z+ (Die Möglichkeit, dass das u.U. nur der Nachfolger/Weiterentwicklung dieses Chips ist, kommt irgendwie keinem in den Sinn:uponder:).
Und natürlich ist es im Endeffekt unwichtig ob es 2,9GHz sind oder 5,1. Es ging mir nur darum, dass hier kategorisch ausgeschlossen wird, dass der Chip möglicherweise noch deutlich höher taktet, dabei haben wir jetzt schon einen 8-Kerner der mit 3,2GHz taktet, mit einer TDP von 65 Watt, 20MB Cache, 24 (bzw. 32) PCIe Lanes, ordentlich I/O, einem beefigen IF-Mesh, und anderem, das für eine Konsole zum Teil overkill ist oder zumindest redundant.
Allein hier kann man schon deutlich sparen. Ob die Konsolen-Chips 8 bzw. 16MB L3 Cache bekommen ist nämlich auch nicht sicher, bei Raven Ridge hat man den auch auf 4MB halbiert. Wie die Cache-Struktur aussieht wissen wir auch nicht. Wie CPU und GPU interagieren. Wie und was sie sich teilen, wie kohärent die Speicherstruktur ist.
Zudem muss man schauen was das Infinity Fabric macht. Das ist momentan noch an die Frequenz gebunden. Ob und was sich ändert könnte auch ausschlaggebend sein für das power budget. Denn im Moment nimmt sich das IF bei Ryzen einen relativ großen Teil des budgets aber was passiert wenn man das auf den gesamten Chip also CPU und GPU ausweitet wie AMD es ja schon iirc mit Raven Ridge macht und auch in Zukunft ausbauen will.
https://images.anandtech.com/doci/13124/IF%20Power%202700X.png
Ich finde es daher etwas merkwürdig hier schon genaue TDP Budget Einteilungen vorzunehmen, wenn wir eigentlich gar keine Vorstellung haben wie der Chip am Ende aussieht und man lediglich Jaguar Cluster gegen Ryzen CCX austauscht und SI/Polaris gegen Navi?.
Tesseract
2019-01-19, 19:58:59
dabei haben wir jetzt schon einen 8-Kerner der mit 3,2GHz taktet, mit einer TDP von 65 Watt
und was haben die 8 jaguar-kerne? 15W?
Unicous
2019-01-19, 20:03:08
und was haben die 8 jaguar-kerne? 15W?
Sagt wer?:confused:
edit:
Im Übrigen finde ich es "interessant", dass du ein Zitat aus dem Zusammenhang reißt obwohl ich explizit darauf eingehe was in diesen 65 Watt so alles enthalten ist, während man bei den Konsolenchips gar nicht weiß wie viel Budget für die Kerne, Uncore und I/O, GPU etc. draufgehen. Ryzen ist in der Tat ein SoC, das Jaguar Cluster nicht.
Tesseract
2019-01-19, 20:11:20
ist geschätzt. ein A4-5100 hat einen ähnlichen takt und TDP von 15W. sind zwar nur 4 kerne, dafür inkl. GPU.
Im Übrigen finde ich es "interessant", dass du ein Zitat aus dem Zusammenhang reißt
was ist da aus dem zusammenhang gerissen? ich wollte damit sagen, dass selbst die hälfte von 65W wahrscheinlich noch zu viel für den formfaktor ist, ergo wird die CPU wohl kaum höher takten.
Unicous
2019-01-19, 20:21:45
Also vergleichst du jetzt gerade wirklich Kabini als SoC mit Ryzen als SoC sehe ich das richtig?:freak:
Lässt dabei die offensichtliche Diskrepanz zwischen den beiden Chips seitens Konfiguration (Uncore, I/O, PHYs etc.) außen vor und findest das ist ein legitimer Vergleich?:freak:
edit:
Welcher Formfaktor? Behauptest du gerade ich hätte vorgeschlagen eine 65W CPU in die Konsole zu pflanzen?:confused:
Ich habe irgendwie das Gefühl du hast gar nicht verstanden was ich aussagen wollte, dass du das Zitat völlig aus dem Kontext gerissen hast ist ein starkes Indiz dafür.
Sardaukar.nsn
2019-01-19, 20:25:26
...Bei einem Konsolenchip muss jeder Kern die nötige Taktrate schaffen. Fällt dabei nur ein Einziger durch, kann man gleich den ganzen Chip wegschmeißen...
Ich möchte kurz anmerken das die Konsolen aber nicht nur als Neuware bei Kunden in Nord-Amerika oder Europa laufen sollen. Sondern auch als 2nd oder 3rd-Hand Gerät in Schwellenländern irgendwo in Afrika oder Südostasien, mit völlig anderm Klima und Rahmenbedingungen immer noch ihren Dienst verrichten. Was meint ihr wie viele alte Playstation 2 oder 3 noch in Ländern wie Indien, Malaysia oder Kenia die Leute unterhalten.
Tesseract
2019-01-19, 20:34:43
Also vergleichst du jetzt gerade wirklich Kabini als SoC mit Ryzen als SoC sehe ich das richtig?:freak:
nein, das siehst du nicht richtig. du hast gefragt wo die ~15W für 8C jaguar herkommen, ich habe den vergleich zu kabini herangezogen.
Behauptest du gerade ich hätte vorgeschlagen eine 65W CPU in die Konsole zu pflanzen?:confused:
nein.
Ich habe irgendwie das Gefühl du hast gar nicht verstanden was ich aussagen wollte, dass du das Zitat völlig aus dem Kontext gerissen hast ist ein starkes Indiz dafür.
ich habe die aussage so verstanden, dass ein abgespeckter ryzen sparsam genug ist um unter umständen doch mehr takt fahren zu können. mein einwand war, dass die jaguars so viel weniger verbrauchen, dass die einsparungen das sicher nicht ausgleichen können und man auf 3,0-3,3GHz wohl sowohl die entschlackung als auch den 7nm-vorteil braucht um mit ach und krach das powerbudget einzuhalten, das man wahrscheinlich haben will.
Zossel
2019-01-19, 20:45:46
Der Spiele Entwickler muss sich zwingend darauf verlassen
können, wieviel Leistung ihm zu Verfügung steht.
Das wird über die TDP bzw. das Kühlsystem definiert. Das Ding darf eine bestimme elektrische Leistung verballern und fertig. Egal ob das Ding im Kühlschrank oder in der Sonne liegt.
Unicous
2019-01-19, 20:58:17
@Tesseract
Du nimmst für diesen Kunsttrick an, dass das 8-Core Cluster 15W power budget hat, extrapoliert aus einem 4-Kern SoC plus GPU und vergleichst das mit einem 65 W SoC. Das ist einfach nur unaufrichtig.
Du lässt offenbar bewusst außen vor was ich jetzt zum zigsten Mal wiederhole, Uncore, I/O etc. haben auch ein Budget. Das sollte man dementsprechend gegenrechnen und ist in den 15 Watt für die Kerne nicht enthalten.
Finde auf die Schnelle nichts Passenderes:
https://images.techhive.com/images/article/2013/08/xbox-one-system-diagram-100051500-orig.png
Im Diagram sieht man unter anderem auch noch die dedizierte South Bridge, die es auch bei der PS4 gibt.
Tesseract
2019-01-19, 21:12:58
Du lässt offenbar bewusst außen vor was ich jetzt zum zigsten Mal wiederhole, Uncore, I/O etc. haben auch ein Budget. Das sollte man dementsprechend gegenrechnen und ist in den 15 Watt für die Kerne nicht enthalten.
weil das mit meiner argumentation überhaupt nichts zu tun hat. ich habe nicht von der PS4-TDP runtergerechnet also was spielt es für eine rolle was in dem chip außer den jaguars noch alles drin ist? wenn dann verstärkt das mein argument sogar weil IO usw. in den 15W vom kabini dabei ist (wobei IO usw. deutlich weniger heizt als die arithmetik).
robbitop
2019-01-19, 21:32:13
Ich würde mal einen (auch nicht ganz sauberen!) Vergleich führen.
Leider gibt es für die 15W Ryzen Plattform kein Thunderbolt - somit schwierig zu schauen, was passiert, wenn die GPU nichts vom TDP Budget abhaben darf. Aber KBL-R kann das. Da die Skylake Kerne ganz grob ähnlich viel leisten und relativ grob ähnlich takten (wobei die IF bei ryzen mobile wohl relativ viel schlucken soll), kann ich hier zumindest ein grobes Indiz liefern. Aber wirklich nur sehr grob.
In meinem XPS13 ist ein KBL-X 15W 4C/8T i7. Mittels Thunderbolt (pcie 3.0 4x) habe ich eine gtx1070 dran. Die CPU kann also fast alles von den 15W haben.
Im CPU Limit in Witcher 3 und soziemlich allen anderen modernen Spielen laufen die 4C bei rund 3 GHz (bei voller/hoher Auslastung!). Mit 0.1V undervolting sind es rund 500 MHz mehr.
Ich vermute, dass Ryzen mobile da nicht völlig anders läuft.
Doppelt so viele Kerne bei 3.X GHz sollten auch grob doppelt so viel TDP brauchen.
30W sind aber für 8 moderne und schnelle CPU Kerne immer noch wahnsinnig gut!
7 nm kann da nochmal 5...10W abziehen oder etwas mehr Takt liefern.
Ehrlich gesagt: Jaguar liess sich damals einfach bescheiden takten (schlechte Betriebspunkte dann) und war damals einfach alternativlos bei AMD. Insofern hat man dann die niedrige Leistungsaufnahme sicherlich nicht ungern mitgenommen.
Sind ~15W mehr bezogen auf 150-200W es nicht wert, signifikant!! mehr CPU Leistung zu haben? Auch wenn es nun 30W statt 15W sind, ist der Deal IMO ein sehr guter. Bezogen auf die gesamt TDP sind das gerade mal 10%.
Tesseract
2019-01-19, 21:55:07
Sind ~15W mehr bezogen auf 150-200W es nicht wert, signifikant!! mehr CPU Leistung zu haben?
zwischen 3,3Ghz und 3,6Ghz beispielweise liegen nicht mal 10% performance und selbst mit ultrakonservativem takt ist ein 8C ryzen um schon um ein vielfaches schneller als ein 8C jaguar. ich könnte mir gut vorstellen, dass selbst die paar watt in der GPU noch besser angelegt sind als in der CPU.
Unicous
2019-01-19, 22:02:51
@Tesseract
Weil "I/O dabei" ist, ist der Vergleich automatisch zulässig? WTF?:confused:
Also weil, überspitzt gesagt, ein SATA-Port und eine PCIe Lane im SoC enthalten ist kann ich den Vergleich mit einem fetten Ryzen SoC bzw. einem Konsolen Chip anstellen.
Warum listest du nicht alles was Uncore ist feinsäuberlich auf und ziehst dann den Vergleich, ich glaube dann kommst du schnell zu dem Ergebnis dass man, als Beispiel, 4 DRAM PHYs nicht mit einem DRAM PHY vergleichen kann und dann die Aussage treffen kann: Ja das ist exakt dasselbe.:rolleyes:
Du machst dir das meiner Meinung nach sehr einfach und gehst nicht einmal darauf ein, dass sich das power budget offensichtlich nicht nur aus CPU 15 Watt, Rest GPU zusammensetzt.
robbitop
2019-01-19, 22:27:22
zwischen 3,3Ghz und 3,6Ghz beispielweise liegen nicht mal 10% performance und selbst mit ultrakonservativem takt ist ein 8C ryzen um schon um ein vielfaches schneller als ein 8C jaguar. ich könnte mir gut vorstellen, dass selbst die paar watt in der GPU noch besser angelegt sind als in der CPU.
Solange man in einem linearen Arbeitspunkt ist (also Takt/Leistung kosten nur linear mehr TDP) sind die 10% Takt ja nur in etwa 2-3W. Das solte sicherlich bis gut 3.5-3.8GHz der Fall sein bei Zen 2 (wenn man sich die Entwicklung der Kennlinie von SR zu PR anschaut ist das sicherlich eher konservativ).
Mir ging es darum, dass 15W bei 8C trotz 7nm wohl nur mit sehr sehr niedrigen Taktraten möglich sein werden. 3.X werden wohl eher beim 1.5-2x liegen. Insofern sind 10...15W mehr für die CPU bei einem 8C Zen2 sicher gut investiert.
mczak
2019-01-20, 00:06:34
Solange man in einem linearen Arbeitspunkt ist (also Takt/Leistung kosten nur linear mehr TDP) sind die 10% Takt ja nur in etwa 2-3W.
Den linearen Arbeitspunkt gibt es quasi nicht, der wäre jedenfalls bei Zen so vielleicht bei 2 Ghz...
Wirklich effizient ist Zen bis vielleicht 2.5Ghz (die Server-Chips haben nicht umsonst einen noch tieferen Basistakt). Bis 3 (oder meinetwegen 3.2) Ghz ist es auch noch ganz in Ordnung (obwohl der Stromverbrauch da auch schon viel schneller zunimmt als die Mehrleistung) - soweit boosten auch die Server-Chips.
Bei Zen2 liegt dank 7nm sicher etwas mehr drin, aber ich glaube kaum dass die Konsolen da mehr als 30W oder so des Power-Budget in die CPU investieren wollen (haben sie noch nie getan), deswegen wird es wohl bei Taktraten um die 3 Ghz bleiben (es sei denn man nutzt Turbo, aber das will man wohl nicht).
Unicous
2019-01-20, 00:53:51
Also der Grund warum die Epyc Chips nur bis 3,2GHz takten liegt nicht darin begründet, dass es bis zu 8 Speichercontroller in einem Package sind mit bis zu 32 Kernen, 64MB L3 Cache und 128 PCIe Lanes, Infinity Fabric und I/O Gedöns sondern weil der Prozess nur bis 2,5GHz effizient ist.
Interessant.:uponder:
Wo wir gerade bei Serverparts sind: Ein Epyc 3251 mit 8 Kernen, 16MB, 32 PCIe Lanes, Dual Channel, Basistakt 2,5GHz, Turbo 3,1 GHz hat eine TDP von 50 Watt.
Wenn ich auch mal eine komplett bescheuerte Milchmädchenrechnung aufmache, könnte ich sagen AMD portiert diesen 14nm GF Chip auf den 7nm Prozess von TSMC und wir nehmen einfach mal an die 40% Reduzierung der Leistungsaufnahme schlagen komplett durch ohne weitere Leistungszugewinne, weil es ja eh entweder oder ist, dann sind wir bei 30 Watt angelangt.:eek:
Für einen kompletten SoC, mit zigfach redundantem I/O, 32 PCIe Lanes die niemand braucht, weil die GPU intern über das Fabric angeschlossen ist (das wiederum auch Energie benötigt aber welchem power budget ist das nun zugerechnet CPU, oder GPU?:uponder:) nur 30 Watt. Das ist doch schon mal gar nicht mehr so viel. Und zudem gibt es noch so viele Möglichkeiten das power budget zu senken... wie wäre es zum Beispiel die ganzen redundanten PCIe Lanes loszuwerden und vllt. nur ein paar zu behalten für die Anbindung von Zusatzchips, Ethernet und Co. Ich denke man kann hier und da noch ein paar Watt abscheiden und dann hat man u.U. noch ein wenig Budget übrig um die Taktraten anzuheben. Und das alles mit einem hypothetischen und unoptimierten Chip.
Was könnte man wohl erreichen wenn man explizit darauf hinarbeitet den Chip effizient und frei von redundaten Features zu designen?
Und wenn ich dann noch einen Vergleich anstrengen dürfte. Was würde passieren wenn ich analog zu der Kabini-Milchmädchenrechnung einen 2400GE (4K/8T, 35W) nehme die GPU herausnehme und ein weiteres CCX hinzunehme. Der Chip boostet bis 3,8GHz, Basistakt 3,2GHz. Das Milchmädchen macht aus 35 Watt@14nm 21Watt@7nm.
Das ist doch dann nicht mehr so weit entfernt von den mystischen 15 Watt, oder?:uponder:
edit:
Den 2700E gibt es ja auch noch.:eek:
45 Watt TDP
2,8GHz Base
4,0GHz Turbo
mczak
2019-01-20, 01:04:05
Wo wir gerade bei Serverparts sind: Ein Epyc 3251 mit 8 Kernen, 16MB, 32 PCIe Lanes, Dual Channel, Basistakt 2,5GHz, Turbo 3,1 GHz hat eine TDP von 50 Watt.
Und? Sind eben auch bloss 2.5Ghz Basistakt.
Und wenn ich dann noch einen Vergleich anstrengen dürfte. Was würde passieren wenn ich analog zu der Kabini-Milchmädchenrechnung einen 2400GE (4K/8T, 35W) nehme die GPU herausnehme und ein weiteres CCX hinzunehme. Der Chip boostet bis 3,8GHz, Basistakt 3,2GHz.
Das funktioniert so leider nicht ganz, weil die APUs bei gleichzeitiger CPU/GPU-Last den Basistakt nie halten. Nur wenn die Kerne allein aktiv sind ist garantiert dass die sicher den Basistakt erreichen. (Na gut eine offizielle Definition von diesem Verhalten habe ich nie gesehen, ist aber in der Praxis eigentlich immer so. Bei den 65W-Typen sollte das allerdings weniger ein Problem sein.)
Unicous
2019-01-20, 01:16:10
Wie, also bei Tesseract geht es, er kann einfach die GPU entfernen und einen zweiten 4-Kerner einpflanzen, aber wenn ich so eine Milchmädchenrechnung mache geht es auf einmal nicht mehr?:eek:
Im Übrigen du siehst ja, ich habe schon den 2700E gefunden, Basistakt liegt bei 2,8GHz. :up:
mczak
2019-01-20, 01:18:35
Den 2700E gibt es ja auch noch.:eek:
45 Watt TDP
2,8GHz Base
4,0GHz Turbo
Von dem Teil würde ich gerne mal ein Review sehen...
Daran kann man übrigens auch schön sehen dass der TDP-Unterschied da schon für wenige 100Mhz schon sehr gross ist auch bei Frequenzen um die 3Ghz (2700E 2.8Ghz 45W, 2700 3.2Ghz 65W, 2700X 3.7Ghz 105W). (Gut der 2700E spart wohl noch etwas weil der nur 2666 Speicher unterstützt und nicht 2933 - wenn ich das richtig im Kopf habe benötigt letzteres eine höhere SoC-Spannung was ziemlich ungünstig ist, weil ja das ganze IF-Zeugs damit läuft.)
Und ja ausgehend von dem Teil sind 8 Zen Kerne in 7nm mit 2.8Ghz sicher machbar für eine Konsole (wären dann wohl so um die 20W für die Kerne). Hat auch keiner bestritten :biggrin:.
Unicous
2019-01-20, 01:39:23
Ist es nicht irrelevant für diese Diskussion was diese Retail-SKU für eine Speichergeschwindigkeit unterstützt wenn der SoC höchstwahrscheinlich eh GDDR5/6 oder gar HBM als Hauptspeicher nutzt?
Fakt ist doch, wir wissen gar nicht was ein auf die Bedürfnisse einer Konsole abgespeckter 8-Core Ryzen für ein power budget hat bzw. was AMD/Sony/MS der CPU für ein Budget zugestanden haben.
Wir wissen im Übrigen auch nicht was für ein Budget die CPU-Kerne bei den aktuellen Konsolen haben auch wenn auf einmal 15 Watt als neuer Kanon eingeführt wird. Ich kann mich noch erinnern, dass seinerzeit über 25-30 Watt power budget gesprochen wurde aber das hat sich auf magische Weise im Jahre 2019 halbiert.
Ich denke 3GHz ist deutlich zu konservativ gewählt was erreichbare Taktraten in einem hypothetischen (bis zu) 30 Watt@7nm power budget betrifft. Und ich wiederhole es gerne nochmals, es geht um die nackten Kerne ohne Uncore und I/O, etc..
edit: LOL:freak:
http://www.pcgameshardware.de/Xbox-One-Konsolen-232351/Specials/Xbox-One-und-PS4-Hardware-im-Vergleich-1070849/
Die auf Effizienz getrimmten Jaguar-Kerne haben eine TDP von 25 Watt pro Viererpack, womit 50 Watt für die GPU bleiben.
https://www.hardwareluxx.de/index.php/artikel/consumer-electronics/konsolen/26429-xbox-one-ein-blick-auf-die-hardware.html
Der Chip, im 28-nm-Verfahren gefertigt, wird auf einen Gesamt-Verbrauch von 100 W kommen, wobei je 4 Cores der Jaguar-Architektur laut AMD 25 Watt Verlustleistung bringen; somit bleiben rund 50 Watt für den Grafikteil der APU übrig.
mczak
2019-01-20, 02:13:12
Ist es nicht irrelevant für diese Diskussion was diese Retail-SKU für eine Speichergeschwindigkeit unterstützt wenn der SoC höchstwahrscheinlich eh GDDR5/6 oder gar HBM als Hauptspeicher nutzt?
Klar, das war bloss zum Illustrieren dass von den 20W Unterschied zwischen dem 2700E und 2700 nicht ganz alles dem Unterschied zwischen 2.8 Ghz und 3.2 Ghz zuzuschreiben ist.
Fakt ist doch, wir wissen gar nicht was ein auf die Bedürfnisse einer Konsole abgespeckter 8-Core Ryzen für ein power budget hat bzw. was AMD/Sony/MS der CPU für ein Budget zugestanden haben.
Das ist natürlich richtig. Fakt ist aber dass nun mal dass die CPUs an Effizienz verlieren bei hohen Takten, und das ist bei Zen2 bei 7nm sicher auch schon bei 3Ghz der Fall. Und schon fast traditionell hatten die Konsolen noch nie wirklich auf hohe Single-Thread Leistung gesetzt (es gibt ja auch kein Turbo) - auf dem PC ist das was anderes, wenn da für 40% höheren Stromverbrauch 15% mehr Leistung herausschauen macht man das eben (und für Turbo nimmt man auch schon mal 50% höheren Stromverbrauch für 10% mehr Leistung in Kauf...).
Aber gut, so genau weiss das auch noch keiner wie sich Zen 2 da verhält. Wenn es am Ende 3.5 Ghz sein sollten statt nur 3 Ghz ist das ja auch kein Wahnsinnsunterschied. Müsste ich mich festlegen würde ich aber auf einen Wert näher 3 Ghz als 3.5 Ghz setzen.
robbitop
2019-01-20, 07:47:42
Den linearen Arbeitspunkt gibt es quasi nicht, der wäre jedenfalls bei Zen so vielleicht bei 2 Ghz...
Wirklich effizient ist Zen bis vielleicht 2.5Ghz (die Server-Chips haben nicht umsonst einen noch tieferen Basistakt). Bis 3 (oder meinetwegen 3.2) Ghz ist es auch noch ganz in Ordnung (obwohl der Stromverbrauch da auch schon viel schneller zunimmt als die Mehrleistung) - soweit boosten auch die Server-Chips.
Bei Zen2 liegt dank 7nm sicher etwas mehr drin, aber ich glaube kaum dass die Konsolen da mehr als 30W oder so des Power-Budget in die CPU investieren wollen (haben sie noch nie getan), deswegen wird es wohl bei Taktraten um die 3 Ghz bleiben (es sei denn man nutzt Turbo, aber das will man wohl nicht).
Da gab es doch aber ein Diagramm von the Stilt, was etwas anderes sagt.
edit: es war frequenz über Takt - ergo P~f x U^2
Danke für die Korrektur @Gipsel :)
Slashman
2019-01-20, 10:47:26
Ich denke man kann Jaguar und Zen2 überhaupt nicht vergleichen.
AMDs Jaguar war nie für höhere Taktraten gemacht und eher was für sparsame Notebooks oder Netbooks gewesen. Auch darf man wohl kaum denken nur weil die PS4 in 28nm 1,6 GHz CPU Takt hatte ist das ein indiz für die PS5... Weil die PS3 immerhin in 90nm gut 3,2 GHz beim CELL BE hatte.
Sprich Taktrate hängt nicht unbedingt vom Fertigungsprozess ab, weil einige CPUs für den Dual Cores schon 3,7 GHz geboten haben. Ich denke da an Pentium 4 HT oder einen AMD K8 der mit 3 GHz lief. Es gibt Handy SOCs die schon mit über 2 GHz laufen bei 8 Kernen und das seid Jahren (auch in 28nm).
Ich denke die PS5 wird einen CPU Takt von 3 GHz sicher bieten. Noch mal werden es keine 1,6 oder 2,3 GHz sein. 2,8-3,2 GHz halte ich für realistisch. Damit das Teil gut und sparsam bleibt. Wenn ein Ryzen 2700 bei 3,2 GHz nur 65 Watt braucht ist bei 3 GHz wohl möglich 55-60 Watt die passende TDP. Damit wäre die CPU noch immer Safe 4-5x schneller als der Jaguar in der PS4.
Beim GPU Takt denke ich an 1,3-1,5 GHz und hoffe auf 4096 Navi Shader und vorzugsweise ohne FP64 Fähigkeiten. Ich denke daher ist auch AMDs Vega20 keine Option, weil das Teil A zu viel Strom braucht und B eigentlich eine Profi GPU ist mit hoher FP64 Leistung (was beim Gaming eher unwichtig ist).
Platos
2019-01-20, 12:38:56
Wie, also bei der PS4 brauchte der SoC 100W und der CPU-Teil die Hälfte davon??
Dann sind 3.2GHz locker drinn in 7nm, wenn jetzt schon der 2700 in 12nm dafür nur 15W mehr braucht.
Gipsel
2019-01-20, 13:06:27
Da gab es doch aber ein Diagramm von the Stilt, was etwas anderes sagt.
Das Diagramm von TheStilt bestätigt mczaks Aussage:
http://i.imgur.com/8Rch6JF.png
Zwischen 2,1GHz und etwa 3,3GHz geht die benötigte Spannung U etwa linear mit dem Takt f hoch, was bedeutet, daß die Verlustleistung P ~ f³ geht (allgemein P ~ f*U²), nicht linear. Unterhalb von 2,1GHz scheint das vielleicht auszuleveln (minimale Spannung, mit der überhaupt ein Betrieb möglich ist, skaliert nur noch minimal mit der Frequenz). Also bis 2GHz könnte man eventuell ein grob lineares Verhalten von Verlustleistung zur Frequenz erwarten (Spannung muß dazu konstant bleiben).
Gesagtes betrifft natürlich die dynamische Verlustleistung. Die statische skaliert etwas anders (exponentiell mit der Spannung) und addiert sich. Diese sollte im betrachteten Bereich aber deutlich kleiner als die dynamische sein.
basix
2019-01-20, 13:13:43
Da gab es doch aber ein Diagramm von the Stilt, was etwas anderes sagt.
Soweit ich weiss ist das Spannung vs. Takt. Das kann man als linearen Bereich betrachten. Da Leistungsaufnahme aber quadratisch mit der Spannung zunimmt, ist es eben bei der vorrangig interessanten Metrik nicht linear.
Hier von The_Stilt bei Pinnacle Ridge:
https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/page-72#post-39391302
https://i.imgur.com/CGSdAWF.png
Edit:
Gipsel war schneller :)
robbitop
2019-01-20, 13:24:52
OK. Danke für die Korrektur :) - hatte das falsch in Erinnerung. Ich hatte es dunkel mit Leistungsaufnahme über Takt in Erinnerung.
Slashman
2019-01-20, 13:25:52
Das Diagramm von TheStilt bestätigt mczaks Aussage:
http://i.imgur.com/8Rch6JF.png
Zwischen 2,1GHz und etwa 3,3GHz geht die benötigte Spannung U etwa linear mit dem Takt f hoch, was bedeutet, daß die Verlustleistung P ~ f³ geht (allgemein P ~ f*U²), nicht linear. Unterhalb von 2,1GHz scheint das vielleicht auszuleveln (minimale Spannung, mit der überhaupt ein Betrieb möglich ist, skaliert nur noch minimal mit der Frequenz). Also bis 2GHz könnte man eventuell ein grob lineares Verhalten von Verlustleistung zur Frequenz erwarten (Spannung muß dazu konstant bleiben).
Gesagtes betrifft natürlich die dynamische Verlustleistung. Die statische skaliert etwas anders (exponentiell mit der Spannung) und addiert sich. Diese sollte im betrachteten Bereich aber deutlich kleiner als die dynamische sein.
Aus dem Aspekt heraus denke ich wird es wohl bei nur 3,2 GHz bleiben. Zwar erlaubt die 7nm Fertigung sicher das in 50 Watt TDP für die CPU mehr drin ist (bei 8 Kernen), weil in 12nm schon in 65 Watt TDP ein 8 Kerner gut 3,2 GHz packt (Ryzen7 2700). Aber Sony wird wohl kaum 50 Watt der CPU geben eher nur 40-45 Watt und den Rest in die GPU packen. Also eine 100-120 TDP APU wo die CPU nur 40-45 Watt einnimmt und die GPU gut 60-80 Watt bekommt. Da ist dann auch kein GPU Takt von 1,5 GHz drin denke ich. Eines halte ich für sicher noch mal werden es keine 2,3 GHz sein eher 2,8 GHz+ Es kann auch sein das Sony eine 150 Watt APU plant und die Konsole gesamt 200 Watt schluckt. Die PS4 hat als ganzes auch 150 Watt geschluckt.
Ich rechne ja eh mit einer 500€+ Konsole und keiner weiteren 400€ billig Konsole. Sony will das es wirklich wie Next Gen wirkt.
basix
2019-01-20, 13:49:36
Bei Pinnacle Ridge sind es bei 8C @ 3.0GHz ca. 33W nur für die Cores + Cache (siehe Stilt Messungen). Mit etwas Spannungsreserve sind wir bei ca. 40W. In 7nm könnten daraus also 20W werden. Klingt für mich ziemlich vernünftig. Auch wenn ich immer noch auf 12C hoffe :D Aber das ist wohl eher ein Die Size Problem.
robbitop
2019-01-20, 14:01:29
IMO sind 30W für 8 moderne starke CPU Kerne mit SMT wirklich moderat und gut eingesetzt.
Ich hoffe, dass Navi ebenso ein gutes Perf/W Verhältnis liefert (und das nicht nur aus dem Betriebspunkt heraus).
IC3M@N FX
2019-01-20, 16:04:57
Was meint ihr wird AMD für Sony die PS5 der Navi+ GPU eine Secret Sauce spendieren, bzw. einige Modifikationen an der GPU vornehmen.
Die normalerweise der Navi Nachfolger bekommt wie bei der Polaris/Navi Light GPU der PS4 Pro?
In Form von noch mehr Compute Einheiten und dedizierte Chips oder Hardware Blöcke auf dem DIE für VR, AI (NPUs) und Raytracing?
Argo Zero
2019-01-20, 16:08:31
Da Sony bei der nächsten GPU von AMD für die PS5 mitgewirkt haben soll, gehe ich schwer davon aus.
robbitop
2019-01-20, 16:13:22
IMO:
RT, AI vermutlich eher nicht. Kostet aktuell zu viele Transistoren für zu wenig Mehrwert.
Wenn secret sauce dann etwas was herkömmliches Rendering beschleunigen kann.
mczak
2019-01-20, 16:17:30
Beim GPU Takt denke ich an 1,3-1,5 GHz und hoffe auf 4096 Navi Shader und vorzugsweise ohne FP64 Fähigkeiten. Ich denke daher ist auch AMDs Vega20 keine Option, weil das Teil A zu viel Strom braucht und B eigentlich eine Profi GPU ist mit hoher FP64 Leistung (was beim Gaming eher unwichtig ist).
Also beim GPU-Takt würde ich mich nicht festlegen, dafür wissen wir zu wenig über Navi.
Vega war ja angeblich taktoptimiert, hat bloss nur wenig gebracht, vor allem nicht im Bereich in dem die GPU vernünftig arbeitet (also bei Spannungen unter 1.0V). Denn sicher ist sowas wie auf dem Desktop bei RX 580 oder Vega 64, bei denen man einfach mal so 50% Energieeffizienz opfert um bestenfalls 10% schneller zu sein werden wir nicht sehen.
Wenn also Navi da nicht weiter optimiert ist, wird es vermutlich bei Frequenzen um die 1.3 Ghz bleiben. Vielleicht ist das Design aber nochmals taktoptimiert, diesmal aber richtig (hat nvidia mit Pascal ja auch gemacht, erreicht schliesslich fast 2 Ghz bei 1.0V), dann könnte der Takt auch höher sein.
robbitop
2019-01-20, 16:43:14
Die Taktoptimierung von Vega war nicht so erfolgreich wie bei Pascal aber sie hat bei gleichem Prozess den maximalen Takt schon ordentlich nach oben gebracht. Sicherlich gute 300 MHz ggü P10. Aber wie du schon andeutest stieg die Leistungsaufnahme sehr stark.
Fertigungsprozesse scheinen wie man bei P30 und V20 sieht ja auch nochmal einiges zu bringen. V20 taktet nun ja auch nochmal ein gutes Stück höher als V10.
Allerdings ist er mit 300W schon kein Kostverächter.
Wenn Navi ähnlich viele CUs hat wie V20 und nicht drastisch energieeffizienter geworden ist, ist durchaus anzunehmen dass die Taktrate deutlich unter 1.5 GHz liegen wird.
mboeller
2019-01-20, 16:50:33
IMO:
RT, AI vermutlich eher nicht. Kostet aktuell zu viele Transistoren für zu wenig Mehrwert.
Wenn secret sauce dann etwas was herkömmliches Rendering beschleunigen kann.
ich glaube nicht, das AI so viele Transistoren benötigt. Ansonsten würde es nicht so oft in Smartphones eingesetzt. IMG zB. hat MultiCore-Lösungen bis 160TOPS (ich denke 4bit). SingleCore Lösungen gehen bis 10TOPS:
https://www.anandtech.com/show/13673/imagination-announces-powervr-series3nx-neural-network-accelerator
basix
2019-01-20, 17:03:24
AI wird sicher in irgendeiner Form kommen. Raytracing je nach Aufwand / Ertrag (z.B. bei nur +5% GPU-Fläche für RT würde es sich wohl lohnen, gab mal ein Paper dazu mit Basis Hawaii).
Dedizierte HW-Blöcke wären vermutlich effizienter bezüglich Stromverbrauch. Verbindet man CUs mit z.B. AI und RT hat man evtl. Vorteile, da man bestehende Caches und Register unter Umständen reusen kann. Ausserdem verteilt man die Last über den ganzen Chip (vorteilhaft bezüglich allfälliger Hotspots).
robbitop
2019-01-20, 17:07:17
AI in Form von neuronalen Netzwerken habe ich bis dato noch nicht mal ansatzweise in Spielen gesehen (außerhalb von denoising für rt). Bis dato waren Konsolen nicht gerade die Pionierplattformen für neue HW.
Soweit ich weiss nehmen die AI Anteile schon ein gutes Stück von den Mobilprozessoren ein. Und die haben heutzutage schon eine Menge Transistoren.
Ich wette dagegen. Die Transistoren sind besser in Ausführungseinheiten investiert.
Nightspider
2019-01-20, 17:38:53
Denke ich auch. Dann würden sich die Entwickler vielleicht auch noch eher GPU Leistung für Physik oder Spiele-KI Berechnungen abzweigen.
Mich würde es übrigens auch nicht wundern wenn die PS5 nicht nur 100 Euro teurer wird sondern auch noch ~30% mehr Saft zieht als die PS4.
Man hats ja bei der XoneX gesehen: Großer, leiser Kühler geht heutzutage auch in Masse.
Nvidia bedeckt ganze Grafikkarten mit Vapor-Chamber Lösungen. Und die Leute kaufen sich immer größere Fernseher, die immer mehr Strom ziehen.
Solange der Kühler stark genug dimensioniert ist und nicht zu laut ist, würde es die meisten Leute sicherlich nicht stören wenn die Konsole beim Gaming 50W mehr zieht.
Die Sprünge bei den Fertigungsprozessen werden ja auch immer kleiner, bzgl. Effizienz. Von nix kommt halt auch nix. ^
Bei einem Konsolenchip muss jeder Kern die nötige Taktrate schaffen. Fällt dabei nur ein Einziger durch, kann man gleich den ganzen Chip wegschmeißen..
Außer es wird ein Chiplet Design und man kann die schlechteren weiterverwenden.
DrFreaK666
2019-01-20, 18:41:10
IMO:
RT, AI vermutlich eher nicht. Kostet aktuell zu viele Transistoren für zu wenig Mehrwert.
Wenn secret sauce dann etwas was herkömmliches Rendering beschleunigen kann.
DLSS dürfte aber nicht so massiv viele Einheiten benötigen, oder? Also nur DLSS.
Um Upscaling wird man auch bei der PS5 nicht herumkommen
robbitop
2019-01-20, 19:14:02
DLSS ist nicht gerade der Renner. Bringt nur 20% mehr Leistung ggü nativem 4K und sieht auch ein gutes Stück schlechter aus.
Ich denke, dass gute Checkerboardumsetzungen (Horizon Zero Dawn) oder temporales Upscaling (Spiderman, Ratchet and Clank) hier ähnlich gut aussehen aber weniger kosten.
Selbst herkömliches 1800p mit Upsampling (wenn ein anständiger Filterkernel genutzt wird) in Kombination mit einem Schärfefilter macht es dlss schon schwer IMO.
Ich finde es ist einfach für das Gebotene zu lahm.
DrFreaK666
2019-01-20, 19:26:22
Bietet sich wahrscheinlich eher für sehr niedrige Auflösungen an (720p)
AffenJack
2019-01-20, 19:57:43
DLSS dürfte aber nicht so massiv viele Einheiten benötigen, oder? Also nur DLSS.
Um Upscaling wird man auch bei der PS5 nicht herumkommen
DLSS basiert schlicht auf AI, da gibts keine Unterscheidung. Aber die nächsten Konsolen werden sowieso AI Beschleunigung kriegen, auch wenn der Großteil der AI Sachen im Moment für Content Creation gemacht werden. Alleine das Risiko, dass der Konkurrent viel schneller darin ist, zwingt beide dazu es einzubauen.
Man stelle sich vor, Konsole B kann auf 8K upscalen, mit besserer Physik und intelligenteren Gegnern im Spiel, nur weil man meinte 5% an Die Space zu sparen auf einem extrem schnell entwickelten Gebiet, dem von vielen hohes Potential zugesprochen wird.
basix
2019-01-20, 20:17:32
Ausserdem hat Mark Cerny schon bei der PS4 gesagt: Man möchte HW Features haben, mit welchen die Entwickler über die Zeit wachsen können. D.h. nicht schon bei Release-Games das volle Potential der Konsole ausgeschöpft wird. Das wäre vermutlich bei AI und RT gegeben, da noch neu. Bei AI ist das Anwendungsgebiet einfach deutlich breiter. Deswegen: Falls entweder / oder, dann meiner Meinung nach AI. Aber grundsätzlich sind beide Technologien schöne Checklistenfeatures, welche man auf die Packung drucken kann.
robbitop
2019-01-20, 20:25:36
Jeder weiß, dass der wesentliche Teil der Konsolenkäufer etwas auf Checklistfeatures gibt.
Herr Doktor Klöbner
2019-01-20, 20:50:53
Also alle mir bekannten Konsolenbesitzer haben keine Ahnung was in den Kästen drin ist. Das könnten auch 100000 Zwerge mit Rechenschiebern sein, keine technischen Details sind ihnen bekannt. Im Gegensatz zu so manchen Vierbeiner bei dessen Anblick man die Straßenseite wechselt wollen die tatsächlich nur spielen.
Außerhalb von Nerdforen wo die Hälfte der Mitglieder eh nie eine Konsole anfassen würde interessiert sich keine Sau für die dahinterstehende Technik, da gibt es keine Checklistfeatures, sondern nur die Frage: Wann erscheint TLOU 2 ?
Gipsel
2019-01-20, 21:16:03
Der Ironiedetektor benötigt eine Neukalibrierung. ;)
robbitop
2019-01-20, 21:23:53
So ist es. ;)
][immy
2019-01-20, 22:33:04
DLSS ist nicht gerade der Renner. Bringt nur 20% mehr Leistung ggü nativem 4K und sieht auch ein gutes Stück schlechter aus.
Ich denke, dass gute Checkerboardumsetzungen (Horizon Zero Dawn) oder temporales Upscaling (Spiderman, Ratchet and Clank) hier ähnlich gut aussehen aber weniger kosten.
Selbst herkömliches 1800p mit Upsampling (wenn ein anständiger Filterkernel genutzt wird) in Kombination mit einem Schärfefilter macht es dlss schon schwer IMO.
Ich finde es ist einfach für das Gebotene zu lahm.
Ich sehe da auch keinen Sinn drin Silizium/Platz dafür zu verschwenden. Checkerboard-Rendering z.B. sieht ebenfalls gut aus und die Qualität steigt auch mit steigender Auflösung und der Geschwindigkeitsvorteil ist ebenfalls vorhanden.
AI ist unzuverlässig und produziert Fehler. Mag sein das FF XV nicht unbedingt die beste Implementierung aufweisen mag, aber artefaktbehaftetes AA in dieser Form (sogar bei Still stehenden Bildern) geht überhaupt nicht. Da sehe ich überhaupt keinen Vorteil zu anderen AA-Möglichkeiten die auch ohne spezielle Hardware funktionieren.
Und ich glaube hier verstehen einige etwas falsch unter AI-Beschleunigung. Das was nvidia da verbaut hat lässt sich nicht für viel andere Dinge nutzen, also wozu kostbaren Platz für ein unzuverlässiges Feature verschwenden.
Hat was von den ersten Tesslations-Experimenten "n-patches" und … komme grad nicht drauf wie das bei ATi damals hieß. Der Entwickler konnte es zwar einbauen, aber nicht wirklich steuern, was zu seltsamen Effekten führte. Z.b. Serious Sam, dieses extrem gewölbte "Erzähl-Buch".
Ray Tracing gehört gewiss auch in die Kategorie. Aktuell kein Vorteil, besonders bei Hardware die auf niedrige kosten getrimmt ist. Und wenn es nötig sein sollte, bekommt man ein ähnlich gutes Ergebnis über die bestehende Hardware zustande, das zwar nicht so performant sein wird, aber den geringen Anforderungen einer Konsolen-Version gerecht werden sollte.
Demirug
2019-01-20, 22:50:29
[immy;11905931']Hat was von den ersten Tesslations-Experimenten "n-patches" und … komme grad nicht drauf wie das bei ATi damals hieß. Der Entwickler konnte es zwar einbauen, aber nicht wirklich steuern, was zu seltsamen Effekten führte. Z.b. Serious Sam, dieses extrem gewölbte "Erzähl-Buch".
TruForm
basix
2019-01-20, 23:15:46
@robbitop: Klar, genaue technische Details sind für viele irrelevant. Aber wie war das beim Fernseher mit HD Ready, Full HD, 4k, 4k/60 und HDR? Alles Dinge die auch Leute "wollen", weil es eben neu und "gut" ist. Latest and greatest, besser als das vorherige, der neue Standard.
Bei den Konsolen war es bei Release dann so: PS4 hat die bessere HW als die XBox. Nehmt nicht die XBox. Viele Male gelesen. Was genau besser war, haben vermutlich viele nicht verstanden. Aber mittlerweile is AI aufgrund der Smartphones auch im Mainstream Bewusstsein angelangt. Das werden sich die Marketingfritzen nicht entgehen lassen, dass herauszustreichen: "Die Gegner sind nun 10x schlauer, dies aufgrund revolutionärer neuer KI" usw. Die andere Konsole kann das viel schlechter. Wenn man es nicht hat und der andere schon: verloren. Wenn man es wie der andere hat aber nicht auf den Karton schreibt: verloren. Wenn es beide nicht haben: unentschieden, aber längerfristig wird man verlieren, wenn jedes Smartphonespiel die überlegenen KI-Funktionen anpreist.
Das hat alles nur wenig mit Technik zu tun, nur mit Marketing ;)
robbitop
2019-01-21, 07:16:16
[immy;11905931']Ich sehe da auch keinen Sinn drin Silizium/Platz dafür zu verschwenden. Checkerboard-Rendering z.B. sieht ebenfalls gut aus und die Qualität steigt auch mit steigender Auflösung und der Geschwindigkeitsvorteil ist ebenfalls vorhanden.
AI ist unzuverlässig und produziert Fehler. Mag sein das FF XV nicht unbedingt die beste Implementierung aufweisen mag, aber artefaktbehaftetes AA in dieser Form (sogar bei Still stehenden Bildern) geht überhaupt nicht. Da sehe ich überhaupt keinen Vorteil zu anderen AA-Möglichkeiten die auch ohne spezielle Hardware funktionieren.
Und ich glaube hier verstehen einige etwas falsch unter AI-Beschleunigung. Das was nvidia da verbaut hat lässt sich nicht für viel andere Dinge nutzen, also wozu kostbaren Platz für ein unzuverlässiges Feature verschwenden.
Hat was von den ersten Tesslations-Experimenten "n-patches" und … komme grad nicht drauf wie das bei ATi damals hieß. Der Entwickler konnte es zwar einbauen, aber nicht wirklich steuern, was zu seltsamen Effekten führte. Z.b. Serious Sam, dieses extrem gewölbte "Erzähl-Buch".
Ray Tracing gehört gewiss auch in die Kategorie. Aktuell kein Vorteil, besonders bei Hardware die auf niedrige kosten getrimmt ist. Und wenn es nötig sein sollte, bekommt man ein ähnlich gutes Ergebnis über die bestehende Hardware zustande, das zwar nicht so performant sein wird, aber den geringen Anforderungen einer Konsolen-Version gerecht werden sollte.
Richtig. DLSS ist halt einfach nur eine Grafikanwendung für die TC, die NV für andere Märkte (Datacenter) entworfen hat. Dediziert fürs Spielen allein ist das kein besonders guter Einsatz von Transistoren.
robbitop
2019-01-21, 07:24:00
@robbitop: Klar, genaue technische Details sind für viele irrelevant. Aber wie war das beim Fernseher mit HD Ready, Full HD, 4k, 4k/60 und HDR? Alles Dinge die auch Leute "wollen", weil es eben neu und "gut" ist. Latest and greatest, besser als das vorherige, der neue Standard.
Bei den Konsolen war es bei Release dann so: PS4 hat die bessere HW als die XBox. Nehmt nicht die XBox. Viele Male gelesen. Was genau besser war, haben vermutlich viele nicht verstanden. Aber mittlerweile is AI aufgrund der Smartphones auch im Mainstream Bewusstsein angelangt. Das werden sich die Marketingfritzen nicht entgehen lassen, dass herauszustreichen: "Die Gegner sind nun 10x schlauer, dies aufgrund revolutionärer neuer KI" usw. Die andere Konsole kann das viel schlechter. Wenn man es nicht hat und der andere schon: verloren. Wenn man es wie der andere hat aber nicht auf den Karton schreibt: verloren. Wenn es beide nicht haben: unentschieden, aber längerfristig wird man verlieren, wenn jedes Smartphonespiel die überlegenen KI-Funktionen anpreist.
Das hat alles nur wenig mit Technik zu tun, nur mit Marketing ;)
Eher nicht. Die PS3 war mit Cell deutlich innovaiver. Hat offenbar kaum jemanden interessiert. Interessant ist sicherlich wie gut die Grafik aussieht (Leistung) und wie gut die Spiele sind und auch die Bindung an die Marke. In den USA haben wesentlich mehr Leute Xbox. Gerade die Onlinespieler werden mit hoher Wahrscheinlichkeit bei der Marke bleiben, weil sie im Onlineservice angemeldet sind, dort monatliche Ausgaben haben, ihre digitalen Spiele, ihre Trophäen und all ihre Freunde dort sind.
Xbox 1 (da war sie noch nicht bekannt) floppte (nach heutigen Maßstäben) soziemlich trotz modernster HW. Dreamcast floptpte, obwohl sie zum Erscheinen die mit Abstand modernste Konsole war. PS2/Xb/GC kamen erst Jahre später.
Die Wii war die meist verkaufteste Konsole in ihrer Gen. Bis auf die Fuchtelcontroller (auf die viele standen) war es die unmodernste Konsole und hatte nichtmal hdready.
Die Switch hat nur ein Bruchteil der Leistung ihrer Kontrahenten und verkauft sich pro Woche besser als sie.
Gibt einfach zu viele Beispiele die zeigen, dass Erfolg nicht an irgendwelche einzelnen HW Features gekoppelt ist.
Ich behaupte, dass Features selbst einen nahezu irrelevanten Effekt haben.
Spiele und Markenbindung sind wesentlich wichtiger.
amdfanuwe
2019-01-21, 08:04:16
Spiele und Markenbindung sind wesentlich wichtiger.
Dazu noch Preis, Lautstärke, Spieleangebot und Spaßfaktor.
robbitop
2019-01-21, 08:10:23
Spieleangebot und Spaßfaktor ist mit Spiele gemeint. Lautstärke war bis dato iirc für noch keine Konsole erfolgsentscheidend. Die x360 war, insbesondere zu Anfang, grenzwertig. Hat sich dennoch hervorragend verkauft.
Und ja Preis spielt wie bei jedem Produkt eine Schlüsselrolle. Ist allerdings selbsterklärend. :)
basix
2019-01-21, 09:07:45
Eher nicht. Die PS3 war mit Cell deutlich innovativer. Hat offenbar kaum jemanden interessiert. Interessant ist sicherlich wie gut die Grafik aussieht (Leistung) und wie gut die Spiele sind und auch die Bindung an die Marke.
Cell war vielleicht innovativ, hat aber folgende Probleme: Erstens hat die Mehrleistung am Schluss nichts gebracht, da komplexe Programmierbarkeit. Zweitens ist Cell als Prozessor viel zu abstrakt, um das einem 08/15 Kunden zu erklären. Super Computer on a Chip war so der O-Ton. Nur was ist ein Super Computer? Ein sehr schneller Computer, aber wieso sehen die Spiele dann nicht besser aus? Das hat der Technik-Argumentation ziemlich schnell den Boden unter den Füssen weggezogen.
Was man braucht sind gute Fallbeispiele, um die technologischen Vorzüge darstellen zu können. Da ist eben bessere Grafik und höhere Auflösung relativ einfach darzustellen. Bei AI geht das ebenfalls deutlich besser als vielleicht bei Cell: z.B. Gesichtsanimationen gegenüberstellen oder was auch immer. Und wie gesagt, momentan wir eh die AI-Sau durchs Dorf getrieben. Alles was nicht irgendwo AI drin hat, klingt irgendwie veraltet etc.
Spiele und Markenbindung sind wesentlich wichtiger.
Sicher der wichtigste Punkt. Will man Kunden von der Konkurrenz gewinnen, muss man aber eher mehr als nur das bieten.
robbitop
2019-01-21, 09:10:49
AI und anderer Schnulli gehört IMO wahrscheinlich aber nicht dazu. ;)
Sony hat bei der PS4 riesen Erfolg gehabt. Und dabei war es eine bezahlbare 0815 Konsole mit der Performance und dem Featureset eines damaligen Mainstream PCs. Spiele und Preis passten halt.
Zu AI in Spielen. Neuronale Netzwerke (und dessen Training und Inferencing) sind IMO noch eine ganze Weile davon entfernt die konventionelle AI abzusetzen. Nicht nur seitens der SW auch seitens der HW.
deekey777
2019-01-21, 09:26:50
Jeder weiß, dass der wesentliche Teil der Konsolenkäufer etwas auf Checklistfeatures gibt.
Ich würde eher sagen, dass diejenigen, die doch was auf die Checklistfeatures geben, keine Ahnung haben, sich aber in ihrem Selbstwertgefühl bestätigt fühlen.
robbitop
2019-01-21, 09:35:10
Ironie blieb unbemerkt? :)
deekey777
2019-01-21, 09:49:48
Ironie blieb unbemerkt? :)
Die habe ich schon gemerkt. Und bin bei dir:
Die Nichte bekommt zu Weihnachten eine Switch, der Neffe ist neidisch, obwohl im Keller und im Spielzimmer je eine Xbox One steht. Natürlich versucht er die Switch schlechtzureden, sie habe eine deutlich schlechtere HW usw. Ich frage ihn, welche Hardware sie im Vergleich zu der One so hat...
Die Switch wurde an den Wohnzimmerfernseher angeschlossen und die Nichte ging dann mit dem Papa die vielen Minispiele durch.
Was habe ich als Besitzer einer Xbox One von einem ausführlichen Artikel, wie ein Spiel auf der One im Vergleich zu der PS4, Pro der X läuft? Und trotzdem werden diese Artikel gelesen, die entsprechenden Videos geschaut und diskutiert. Und wenn jetzt ein Spiel auf der PS4 Pro und der X gleich gut läuft, dann fühlt man sich sofort minderwertig, obwohl man weder eine Pro noch die X hat. Das gleiche sieht man hier im Forum, wenn jemand unbedingt ein Video posten muss, wie ein Spiel auf der RTX 2080TIGTXSUPERPLUS läuft, obwohl weder er noch der überwiegende Teil des Forums die Grafikkarte nicht hat.
Sprich: Den überwiegenden Teil der Konsolenbesitzer interessiert es nicht wirklich, was drin steckt. Doch es gibt auch Leute, die es interessiert und sich dann bestätigt fühlen, wenn das Spiel auf ihrer Konsole besser läuft. Und diese Leute werden von der Konsolenindustrie noch direkter angesprochen als andere.
basix
2019-01-21, 10:35:12
AI und anderer Schnulli gehört IMO wahrscheinlich aber nicht dazu. ;)
Sony hat bei der PS4 riesen Erfolg gehabt. Und dabei war es eine bezahlbare 0815 Konsole mit der Performance und dem Featureset eines damaligen Mainstream PCs. Spiele und Preis passten halt.
Zu AI in Spielen. Neuronale Netzwerke (und dessen Training und Inferencing) sind IMO noch eine ganze Weile davon entfernt die konventionelle AI abzusetzen. Nicht nur seitens der SW auch seitens der HW.
Ich bin da anderer Meinung was AI angeht aber gut, die Zeit wird es zeigen ;)
AI hat das Potential, in einigen Bereichen einen Generationensprung zu vollziehen. Und das unabhängig von der eigentlichen Grafik. Beispiel schlechte Animationen oder Wegfindung. Da gibt es sehr interessante Forschungsprojekte. Nur wenige Spiele überzeugen hier, was die Immersion doch sehr oft trübt. Ergo: AI hat das Potential, bessere Spiele zu ermöglichen, ohne zwingend den Entwicklungsaufwand in Mannstunden explodieren zu lassen (da Offloading auf Machine Learning). Deswegen fahre ich hier voll auf der Pro-AI Schiene :) Wenn es die Konsolen-Hersteller dann nicht auf die Packung drucken, ist mir persönlich eigentlich egal. Das Resultat ist entscheidend: Gute Spiele.
PS:
Ob jetzt der Neffe neidisch ist oder nicht, ist ein ganz anderer Grund. Das könnte auch das neue Fahrrad der Nichte sein ;)
Zu AI in Spielen. Neuronale Netzwerke (und dessen Training und Inferencing) sind IMO noch eine ganze Weile davon entfernt die konventionelle AI abzusetzen.
Das kann auch garnicht das Ziel sein. Allerdings kann man viele Dinge, die bisher mit "AI" nichts zu tun hatten, damit massiv beschleunigen.
Demirug
2019-01-21, 10:54:59
Gamedesigner mögen ML nicht besonders.
1. Es ist unheimlich schwer für ein Spiel das gerade entwickelt wird überhaupt genügend Datensätze zu bekommen um das Netz zu trainieren.
2. Kein Mensch weiß am Ende was so ein Netz überhaupt gelernt hat. Entsprechend passieren dann auch ganz schnell sehr merkwürdige Sachen wenn es neue Situationen gibt oder sich bei einem Patch die Regeln etwas ändern.
Bei Spielen wie Schach, Go etc funktioniert das ganze nur deshalb relativ gut weil die Regeln statisch sind und es große Mengen an aufgezeichneten Spiele für das Grundtraining gibt.
deekey777
2019-01-21, 10:57:41
Ist es den Spieleentwicklern nicht lieber, wenn die Hardware der eigentlichen Konkurrenten ähnlich ist?
Demirug
2019-01-21, 11:07:36
Ist es den Spieleentwicklern nicht lieber, wenn die Hardware der eigentlichen Konkurrenten ähnlich ist?
Wenn man 3rd Party ist und Multiplattform macht auf jeden Fall. In der Regel werden dann Features welche nur einer hat und für die es keine brauchbare "Emulation" auf den anderen Plattformen gibt einfach ignoriert. Ein klassisches Beispiel dafür ist ja Audiomixing. Ist die spezielle Hardware der Zielplattformen dafür zu unterschiedlich wird es eben mit einer der CPU Kerne gemacht.
Mit entsprechenden überzeugenden Argumenten ($$$) lässt sich ein Entwickler natürlich trotzdem auch von einem Hardwarefeature einer Plattform überzeugen. ;)
.
Crazy_Bon
2019-01-21, 11:10:46
Die Hardware wird ähnlich sein, auch wenn MS und Sony für ihre eigenen SoC etwas dazu buttern. Eigenkreationen wie die EE und Cell haben sich für zu kostspielig und riskant erwiesen.
Demirug
2019-01-21, 12:45:23
Bei nahezu identischen Plattformen werden solche Dinge aber noch eher ignoriert. Bei einem Multiplattformspiel haben die Entwickler nun mal in der Regel gar kein Interesse daran das es auf einer Plattform besser als auf einer anderen ist.
robbitop
2019-01-21, 14:19:22
Ich bin da anderer Meinung was AI angeht aber gut, die Zeit wird es zeigen ;)
AI hat das Potential, in einigen Bereichen einen Generationensprung zu vollziehen. Und das unabhängig von der eigentlichen Grafik. Beispiel schlechte Animationen oder Wegfindung. Da gibt es sehr interessante Forschungsprojekte. Nur wenige Spiele überzeugen hier, was die Immersion doch sehr oft trübt. Ergo: AI hat das Potential, bessere Spiele zu ermöglichen, ohne zwingend den Entwicklungsaufwand in Mannstunden explodieren zu lassen (da Offloading auf Machine Learning). Deswegen fahre ich hier voll auf der Pro-AI Schiene :) Wenn es die Konsolen-Hersteller dann nicht auf die Packung drucken, ist mir persönlich eigentlich egal. Das Resultat ist entscheidend: Gute Spiele.
PS:
Ob jetzt der Neffe neidisch ist oder nicht, ist ein ganz anderer Grund. Das könnte auch das neue Fahrrad der Nichte sein ;)
IMO: Irgendwann einmal vielleicht. Bis dahin vergeht sicherlich aber noch etwas Zeit. Wie gesagt: erfolgreiche Konsolen waren eigentlich nie/selten Tech Pioniere.
basix
2019-01-21, 18:03:15
Gamedesigner mögen ML nicht besonders.
1. Es ist unheimlich schwer für ein Spiel das gerade entwickelt wird überhaupt genügend Datensätze zu bekommen um das Netz zu trainieren.
2. Kein Mensch weiß am Ende was so ein Netz überhaupt gelernt hat. Entsprechend passieren dann auch ganz schnell sehr merkwürdige Sachen wenn es neue Situationen gibt oder sich bei einem Patch die Regeln etwas ändern.
Bei Spielen wie Schach, Go etc funktioniert das ganze nur deshalb relativ gut weil die Regeln statisch sind und es große Mengen an aufgezeichneten Spiele für das Grundtraining gibt.
Schön meldet sich einer vom Fach :)
Zu 1:
Bei "normalen" Dingen wie Menschen die sich bewegen spielt der Entwicklungsstand wohl keine grosse Rolle. Ein Mensch bleibt ein Mensch. Ein Tier ein Tier. Oder kann man das ML Zeugs zu wenig von der eingesetzten Engine etc. entkoppeln / abstrahieren?
Zu 2:
Hat man das nicht eh schon bei heutigen Engines auch ohne AI? Und ist nicht potentiell eines der Vorzüge von AI, dass sich ein AI-Modell an neue Gegebenheiten anpassen kann (nicht mal zwingend neu trainiert, falls nicht zu grosse Unterschiede)? Es müssen ja nicht hunderte AI-Netze pro Spiel sein, falls man sie im Ernstfall neu trainieren muss. z.B. AlphaZero mit relativ guter Performance wird innerhalb von Stunden trainiert, aber kommt natürlich auf die Training-HW an.
Demirug
2019-01-21, 20:04:51
Schön meldet sich einer vom Fach :)
Zu 1:
Bei "normalen" Dingen wie Menschen die sich bewegen spielt der Entwicklungsstand wohl keine grosse Rolle. Ein Mensch bleibt ein Mensch. Ein Tier ein Tier. Oder kann man das ML Zeugs zu wenig von der eingesetzten Engine etc. entkoppeln / abstrahieren?
Was meinst du in diesem Zusammenhang mit bewegen? Die AI welche den Weg zwischen bei Punkt auf der Map findet? Das ist ein schon lange gelöstes Problem. Und schon bei Pacman musste man die Geister mit Absicht blöd machen weil der menschliche Spieler sonst immer zu schnell verloren hätte.
Das sich die AI in diesem Punkt auch bei aktuellen Spielen teilweise einfach dämlich verhält kommt daher das darüber liegende Schichten den Verfahren nicht genügend Daten geben. Sagt man der Wegfindung das sie keine kürzeren Wege bevorzugen soll die direkt durch den Sicht und Schussbereich des Spielers führen wird sie das auch tuen. Es ist sogar relativ einfach eine AI zu schreiben die wenn möglich dir immer in den Rücken fällt. Macht aber halt auf Dauer keinen Spaß wenn man so ständig eliminiert wird.
Zu 2:
Hat man das nicht eh schon bei heutigen Engines auch ohne AI? Und ist nicht potentiell eines der Vorzüge von AI, dass sich ein AI-Modell an neue Gegebenheiten anpassen kann (nicht mal zwingend neu trainiert, falls nicht zu grosse Unterschiede)? Es müssen ja nicht hunderte AI-Netze pro Spiel sein, falls man sie im Ernstfall neu trainieren muss. z.B. AlphaZero mit relativ guter Performance wird innerhalb von Stunden trainiert, aber kommt natürlich auf die Training-HW an.
Bei einer von Hand programmierten AI weiß man relativ genau wie sie sich verhalten wird.
Ich fürchte du überschätzt die Möglichkeiten von ML. Was dort in der Regel gemacht wird ist in einer großen Datenmenge Muster zu erkennen so das man diese Muster auch in Daten welche das Netz bisher nicht gesehen hat wieder erkennt. Kommt ein Spieler nun mit einem völlig neuen "Muster" welches die AI noch nie gesehen hat wird sie ein mehr oder weniger zufälliges Resultat liefern. Der momentane stand für Spiele die keine große Datenbank an bekannten Partien haben ist eher auf dem Level einfacher Arcade Spiele wie Snake oder das gute alte Mario. Und selbst dort müssen die Entwickler schon zu Tricks greifen weil die Netze sonst dazu neigen sich auf einem relativ geringen Level zu stabilisieren. Das größte Problem ist aber das man in der Regel viele tausenden Netze spielen lassen muss bis man eines findet welches ein Level schaffen kann und wenn es dann dumm läuft versagt es beim nächsten völlig und man fängt wieder von vorne an.
basix
2019-01-21, 22:19:28
OK, danke für die Ausführungen :up:
Bei Bewegungen meinte ich Animationen, also generell den Bewegungsapparat, körperliche Bewegungen von Armen, Beinen etc. und nicht xy Bewegungen auf einer Karte. Bei vielen Spielen mit "Handanimationen" sieht das einfach nicht gut aus, auch heute noch. Natürlich gibt es auch gute Beispiele und es ist im Schnitt sicherlich deutlich besser als vor 10 Jahren. Der Immersionsgewinn durch gute Animationen ist enorm. Aber soweit ich mich erinnere, kosten gute Animationen viel Aufwand von Entwicklern. Hier sich das Bewegungsmuster von realen Personen oder Tieren abzukupfern wäre doch ein Paradebeispiel für ML. Die Variabilität ist auch eher klein und verändert sich auch in den nächsten 100 Jahren nicht wesentlich: Proportionen, Grösse, Gewicht und vielleicht noch Muskelmasse und man kann schon sehr gut nachempfinden wie ein Mensch oder ein Tier sich bewegen kann. Einmal entsprechende Netze angelernt und man kann es die nächsten Jahre nutzen (überspitzt formuliert). Daten hat man auch genug aus der Natur / Filmaufnahmen / Motion Capturing.
Wie gesagt, es geht nicht unbedingt darum das Rad neu zu erfinden. Vielmehr würde ich mir erhoffen, das mit weniger Entwicklungsaufwand ein besseres Ergebnis in einigen Bereichen erzielt wird. Animationen sind ein Gebiet. Es gibt aber z.B. auch ML-Modelle, welche die Physik von Rauch reproduzieren sollen wie z.B. folgendes:
https://www.youtube.com/watch?v=L50fXkStQso
Demirug
2019-01-21, 23:37:05
OK, danke für die Ausführungen :up:
Bei Bewegungen meinte ich Animationen, also generell den Bewegungsapparat, körperliche Bewegungen von Armen, Beinen etc. und nicht xy Bewegungen auf einer Karte. Bei vielen Spielen mit "Handanimationen" sieht das einfach nicht gut aus, auch heute noch. Natürlich gibt es auch gute Beispiele und es ist im Schnitt sicherlich deutlich besser als vor 10 Jahren. Der Immersionsgewinn durch gute Animationen ist enorm. Aber soweit ich mich erinnere, kosten gute Animationen viel Aufwand von Entwicklern. Hier sich das Bewegungsmuster von realen Personen oder Tieren abzukupfern wäre doch ein Paradebeispiel für ML. Die Variabilität ist auch eher klein und verändert sich auch in den nächsten 100 Jahren nicht wesentlich: Proportionen, Grösse, Gewicht und vielleicht noch Muskelmasse und man kann schon sehr gut nachempfinden wie ein Mensch oder ein Tier sich bewegen kann. Einmal entsprechende Netze angelernt und man kann es die nächsten Jahre nutzen (überspitzt formuliert). Daten hat man auch genug aus der Natur / Filmaufnahmen / Motion Capturing.
Wie gesagt, es geht nicht unbedingt darum das Rad neu zu erfinden. Vielmehr würde ich mir erhoffen, das mit weniger Entwicklungsaufwand ein besseres Ergebnis in einigen Bereichen erzielt wird. Animationen sind ein Gebiet.
Ich bin nun kein Animator. Ich habe allerdings schon mehrmals den Code dafür geschrieben um Animationen welche von den Artists kommen zur Laufzeit abzuspielen und auch zu verblenden. Da ich aber mit der Erstellung selbst nicht so viel zu tun habe kann ich dir da leider nicht sagen was der technische Stand bezüglich Handanimationen ist.
Im Bezug auf ML sehe ich da allerdings auch wieder das Problem genügend Datensätze zum trainieren zu bekommen und wie unvorhersehbar das Netz auf unbekannte eingaben reagieren würde. Die Frage bei ML ist ja häufig nicht wie gut sind die Resultate wenn das Netz richtig liegt sondern wie schlimm kann es werden wenn das Netz nicht die richtige Lösung liefert und kann ich mit solchen Ergebnisse tolerieren. Ein einfaches Beispiel hier wäre zum Beispiel das man zum Beispiel bei 99% der benötigen Positionen des Körpers fast perfekte Daten für alle Gelenke bekommt aber 1% liefert völligen Mühl. Denn Spielern werden diese sporadisch auftretenden Fehler aber auffallen und dann steht man vor der Frage ob man das als Entwickler wirklich will.
Es gibt aber z.B. auch ML-Modelle, welche die Physik von Rauch reproduzieren sollen wie z.B. folgendes:
https://www.youtube.com/watch?v=L50fXkStQso
Ich habe mir das Paper dazu mal durchgelesen. Soweit ich das verstehe ist die Aufgabe des ML-Models nicht direkt die Physik sondern das optische Hochrechnen eines low Res Partikelsystems so das es aussieht als wäre es als Highres system berechnet worden. Es gibt da ja ähnliche Ansätze um aus einem low res Bild ein mögliches Highres Bild zu erzeugen. nvidia arbeitet da ja gerade an einer Lösung um bei alte N64 Spiele die Auflösung der Texturen zu erhöhen.
In dem Paper werden nun aber auch Rechenzeiten für diese Rauchsysteme angegeben. Da diese im Bereich von Sekunden pro Frame liegen ist das ganze noch nicht ganz für Spiele geeignet sondern eher etwas für Effekte in Filmen.
basix
2019-01-22, 00:54:16
Ein einfaches Beispiel hier wäre zum Beispiel das man zum Beispiel bei 99% der benötigen Positionen des Körpers fast perfekte Daten für alle Gelenke bekommt aber 1% liefert völligen Mühl. Denn Spielern werden diese sporadisch auftretenden Fehler aber auffallen und dann steht man vor der Frage ob man das als Entwickler wirklich will.
Das ist richtig, wäre sehr störend. Nun gibt es drei Möglichkeiten:
- Modell länger trainieren oder mittels Reinforced Learning die Trainingszeit reduzieren
- Modell anpassen
- Dem Modell den Bewegungsradius einschränken (eine Limite definieren, welcher Art auch immer), um entsprechend unrealistische Resultate zu unterbinden. Zum Beispiel ich kann meinen Ellbogen nur um maximal Winkel Beta beugen.
Ob das praktikabel ist kann ich schlecht beurteilen. Ich sehe das aber so: Solange mit der ML Methode im Schnitt bessere Resultate als bei herkömmlichem Handwerk erreicht wird, wäre für mich alles OK. Es gibt in fast jedem Spiel Fälle, wo der oben genannte 1% Fall irgendwo eintritt. Wenn eine Verbesserung mittels ML nicht der Fall ist, dann lieber herkömmliche Methoden.
Ich habe mir das Paper dazu mal durchgelesen. Soweit ich das verstehe ist die Aufgabe des ML-Models nicht direkt die Physik sondern das optische Hochrechnen eines low Res Partikelsystems so das es aussieht als wäre es als Highres system berechnet worden. Es gibt da ja ähnliche Ansätze um aus einem low res Bild ein mögliches Highres Bild zu erzeugen. nvidia arbeitet da ja gerade an einer Lösung um bei alte N64 Spiele die Auflösung der Texturen zu erhöhen.
In dem Paper werden nun aber auch Rechenzeiten für diese Rauchsysteme angegeben. Da diese im Bereich von Sekunden pro Frame liegen ist das ganze noch nicht ganz für Spiele geeignet sondern eher etwas für Effekte in Filmen.
Das ist beides richtig. Dennoch ist der Ansatz an sich nicht falsch. Man verwendet ein LowRes Physikmodell und hübscht es optisch auf. Für Spiele (welche ja keinen zwingenden Anspruch auf absolut perfekte Genauigkeit legen) also ein Annäherungs- und Optimierungsansatz, wie er für Spiele eben schon immer angewendet wurde. Momentan wird Raytracing auch mit reduzierter Auflösung und/oder Anzahl Rays berechnet. Ist nicht perfekt aber ein Schritt in die "richtige" Richtung. Ob ein ML Ansatz jeweils die besseren Resultate erzielt als ein von einem Programmierer gesschriebener Algorithmus, sei mal dahingestellt. Aber viele Resultate aus Forschungsarbeiten lassen den Schluss zu, dass man mit ML in vielen Bereichen einfach schneller vorankommt.
Hier nochmal was zur Rauchsimulation (der YT Channel ist allgemein sehr interessant was ML etc. anbelangt):
https://www.youtube.com/watch?v=Mu0ew2F-SSA
Zufällig gerade auf selbem Channel gefunden: Animationen, welche auch noch relativ robust sind. Nicht perfekt, aber dennoch ziemlich ansprechend ;) Das sind genau die Beispiele, die mich auf AI/ML in den nächsten Konsolen hoffen lassen. Ob es dafür dedizierte AI-Einheiten braucht? Vermutlich je nach Komplexität und Anzahl der DNN.
https://www.youtube.com/watch?v=ozUzomVQsWc
https://www.youtube.com/watch?v=Mnu1DzFzRWs
Aber ich glaube wir driften hier ein wenig vom Kernthema ab. Gibt ja noch den AI/ML Technologie Thread.
pixelguy
2019-01-22, 08:42:26
Aber muss so etwas zwingend auf der Konsole laufen?
Animationen kann man doch gut im Vorfeld bauen, oder?
basix
2019-01-22, 12:29:49
Training kann und wird in den meisten Fällen Offline berechnet. Inference muss aber auf der Konsole laufen, wenn man ein DNN nutzen will. Das ist ja die Anwendung des neuronalen Netzes in der Applikation. Das kann aber auch auf der CPU oder allenfalls via GPU-Shader laufen. Ist alles eine Frage der Zielperformance, Chipfläche und der Energieffizienz. Dedizierte Einheiten sind in den Performancemetriken meistens deutlich überlegen, kosten aber Chipfläche.
robbitop
2019-01-22, 12:53:49
Ja aber gerade Animationen sehen doch mit Mocap schon extrem gut aus. Gute Animationen sind handgemacht in AAA Spielen.
BoMbY
2019-01-22, 13:04:45
Naja zum Teil, zum Teil müssen die aber auch dynamisch sein und werden über ein Knochensystem, etc. gemacht. Siehe zum Beispiel die Füße: https://www.youtube.com/watch?v=Gh8UT0Ln2fk
Edit: Hier wird das ein wenig erklärt: https://www.youtube.com/watch?v=RdrGvTm6xDg
Ja aber gerade Animationen sehen doch mit Mocap schon extrem gut aus. Gute Animationen sind handgemacht in AAA Spielen.
Das ist eine falsche Denkweise. Man wird mit auch mit NN unterstützung nicht auf die handgemachten MoCap Daten verzichten.
Imo das massivste Problem für NN in Spielen, dass den Studios die Expertise für die Theorie und praktische Problemelösungen fehlt. Die wird erst mit einer neuen Generation von Entwicklern nachkommen.
BoMbY
2019-01-22, 16:46:22
Größtenteils ist das doch ehh im Moment verarsche (eigentlich nur Marketing-Sprech für herkömmliche Methoden) mit AI und NN, und was auch immer. Und wenn es dann tatsächlich doch mal echt ist, funktioniert es noch schlechter als auf herkömmliche Weise.
Ich würde vorschlagen mal damit anzufangen AI und NN für NPCs zu nutzen ... und nicht für Grafik, oder was auch immer.
Ich würde vorschlagen mal damit anzufangen AI und NN für NPCs zu nutzen
Genau dafür funktionieren NN aber noch richtig schlecht.
megachip800
2019-01-23, 18:22:38
Lol:freak: , Zen/Navi lite , 8tflops nur 16 gbyte ram laut den neusten Gerüchten zur Ps5, Scarlett soll 12 Tflops haben....Keine Raytraycing Hardware vermutlich eine Softwarelösung.
...prepare to Dissapointment.
pixelguy
2019-01-23, 18:40:55
Es ist ein Gerücht... kein Fakt :freak:
gravitationsfeld
2019-01-23, 18:43:35
Ist fuer manche Leute immer schwer verstaendlich. Ich kenne niemanden der wirklich Informationen hat bisher.
Iterator
2019-01-24, 15:30:38
Gehen wir jetzt einfach mal davon aus das die Specs stimmen, mit welcher Speicherbandbreite, bzw Durchsatz könnte man rechnen ?
Thoro
2019-01-24, 15:46:43
Gehen wir jetzt einfach mal davon aus das die Specs stimmen, mit welcher Speicherbandbreite, bzw Durchsatz könnte man rechnen ?
Warum sollte irgendwas davon stimmen, wenn nicht einmal Insider irgendwas Verlässliches haben?
BoMbY
2019-01-24, 15:49:07
Das aktuelle Gerücht: Anubis SoC (http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/News/Spezifikationen-samt-Raytracing-angeblich-bestaetigt-1273908/)
Ich verweise mal dezent auf Januar 2017: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11265978&postcount=418
Edit: Das ist zu 99.9% auch Anubis aus 2017:
AMD Eng Sample: 1G5211T8A87E9_/23/17/09_1561
Edit: Nein, gelogen, das Sample lief schon am 30.11.2016.
Iterator
2019-01-24, 16:03:40
Warum sollte irgendwas davon stimmen, wenn nicht einmal Insider irgendwas Verlässliches haben?
Schon alleine aus meiner Fragestellung sollte schon ersichtlich sein, das jene hypothetische Natur ist. Mich interessiert nur wenn es den stimmen sollte, mit welchem Speicherdurchsatz man rechnen könnte. ;)
@BoMbY
Na dann hat es sich ja schon erledigt.
dargo
2019-01-24, 19:04:16
Gehen wir jetzt einfach mal davon aus das die Specs stimmen, mit welcher Speicherbandbreite, bzw Durchsatz könnte man rechnen ?
Mal ins blaue geraten wenn die 16GB stimmen... 512GB/s an einem 256Bit SI mit 16Gbps GDDR6.
BoMbY
2019-01-25, 15:34:05
Genau dafür funktionieren NN aber noch richtig schlecht.
Oder auch nicht:
UuhECwm31dM
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
Das ist kein NPC sondern ein (Gegen)Spieler.
NPCs sollen probablistische Entscheidungen treffen, welche sie in der Welt glaubwürdig erscheinen lassen.
Das stelle ich mir deutlich schwieriger vor, denn womit trainiere ich die?
Die StarCraft AI wurde mit was trainiert, replays? Oder im skirmish? Auf jeden Fall gibt es jede Menge gelabelte Trainingsdaten.
Im Gegensatz zu NPCs, welche kein messbares Ziel haben.
Okay vielleicht doch. Es wäre interessant einen Bot zu trainieren, welcher gegen tatsächliche Spieler antritt (und natürlich u.a. durch Treffsicherheit gehandicappt ist).
Oder auch nicht:
Falls das ein NPC ist, haben wir aneinander vorbei geredet. Eine menschliche Spielweise darfst du von so einem System aber auch nicht erwarten.
mr coffee
2019-01-26, 07:56:30
Im Zen2 thread wird von möglichen „Monster-APUs“ mit 8 cores und 20 CUs (plus HBM) gesprochen.
20 CUs wären ja für die Konsolen zu wenig. Letztendlich schreit das doch fast nach chiplets, oder? Man könnte den gleichen IO Die nehmen wie für ryzen 2 und die ryzen 2 chiplets nehmen, welche nicht in den markt gehen, sprich niedriger getaktet sind als die niedrigste variante mit 8 cores welche AMD verkauft im PC Bereich.
Somit hätte man für die zwei Bereiche wohl schonmal billig eingekauft.
Ich hab nur technisch keine Ahnung ob das sinnvoll/möglich ist, dann noch ne große GPU dran zu klatschen ...?
amdfanuwe
2019-01-26, 09:14:07
Man könnte auch direkt Matisse nehmen und einen Navi Mobile dranhängen.
Möglich ist vieles. Die bisherigen monolithischen APUs wurden aus Kostengründen verwendet und weil wegen kundenspezifischen Wünschen hinsichtlich der RAM Anbindung, GPU und I/O sowieso ein eigener Chip entwickelt werden mußte.
Bei der nächsten Konsolengeneration könnte ich mir vorstellen, dass ein Kundenspezifischer 7nm GPU mit I/O Chip entwickelt wird und die CPU Chiplets angebunden werden.
Bei der GPU kann man ein paar CUs als Reserve einplanen um einen guten Yield zu erreichen.
Die CPU Chiplets kommen eh geprüft zum Festpreis, also kein Risiko.
Würde man alles als monolithischen Chip fertigen würde ein Fehler im CPU Teil den Chip unbrauchbar machen. Die Chiplet Lösung erscheint mir daher die günstigere Variante.
Ob eine Variante mit GPU Chiplets nicht noch günstiger ist? Wir werden es sehen.
Durch die hohen Bandbreitenanforderungen der GPU erscheint es mir sinnvoll den Memmory Controler bei der GPU zu verbauen. Wenn das der Fall ist, kann man die restlichen I/O auch noch dort unterbringen, also die Lanes zum Anbinden des companion chip und das IF für das CPU Chiplet.
Ein großes GPU Chiplet ohne Memmory Controler macht m.M. nach keinen Sinn, da ein IF Link nur ca. 20 MBit Bandbreite hat. Da müßte man ja schon 10 und mehr IF Links zur Anbindung eines reinen GPU Chiplets verbauen.
Ist eine reine Kostenfrage, wie der nächste Konsolenchip aufgebaut sein wird und wir können es nicht kalkulieren.
Ebenso ob HBM oder GDDR6 zum Einsatz kommt. Wenn AMD auf die HBM Schiene setzt und nur noch Nvidia GDDR6 verbaut, könnte HBM bald günstiger sein als GDDR6. Es wird ja auch schon an kostengünstigeren HBM Lösungen gearbeitet. Wer weiß, was da demnächst das Licht der Welt erblickt.
megachip800
2019-01-27, 15:00:10
Ist fuer manche Leute immer schwer verstaendlich. Ich kenne niemanden der wirklich Informationen hat bisher.
Das glaube nicht das noch keiner Informationen hat....wenn die neuen Konsolen 2020 erscheinen werden , müssen ja schon die Target Specs fertig sein bzw. diese an First Party Entwickler und den Chipproduzenten weitergegeben worden sein , am Ende also kurz vor Pruduktionsstart werden keine grossen Veränderungen an der Hardware möglich sein , vielleicht
noch Anpassung der Taktfrequenz und Ramgrösse . Viele sind eingeweiht , Marc Cerny sowieso , einige First Party Entwickler , die Verantwortlichen bei Amd, Tscm, Global Foundry . nur halten die alle dicht.
basix
2019-01-27, 19:48:17
Wenn sie 2020 erscheinen...wenn...
josefYY
2019-01-27, 22:03:26
Das glaube nicht das noch keiner Informationen hat....wenn die neuen Konsolen 2020 erscheinen werden , müssen ja schon die Target Specs fertig sein bzw. diese an First Party Entwickler und den Chipproduzenten weitergegeben worden sein , am Ende also kurz vor Pruduktionsstart werden keine grossen Veränderungen an der Hardware möglich sein , vielleicht
noch Anpassung der Taktfrequenz und Ramgrösse . Viele sind eingeweiht , Marc Cerny sowieso , einige First Party Entwickler , die Verantwortlichen bei Amd, Tscm, Global Foundry . nur halten die alle dicht.
Er hat nicht gesagt das es niemanden gibt der Informationen hat, sondern das er niemanden kennt.
Aber wenn er niemanden kennt, wird es wohl auch nicht sehr viele geben.
gravitationsfeld
2019-01-28, 01:53:50
Ja. Die Frage ist halt wie wahrscheinlich ein Leak ist im Moment. Eher gering.
Ich war bei der Xbox One an einem First Party Launch Title beteiligt und nicht mal wir wussten Specs bis weit in die Produktion hinein.
dargo
2019-01-28, 02:13:27
Ich war bei der Xbox One an einem First Party Launch Title beteiligt und nicht mal wir wussten Specs bis weit in die Produktion hinein.
Wie entwickelt mal ein Spiel ohne die Specs der Hardware zu kennen? Stelle ich mir extrem schwer vor.
gravitationsfeld
2019-01-28, 08:55:52
Schaetzen, crunch und die Aufloesung am Ende einstellen ;)
xyleph
2019-01-28, 17:44:10
Ja. Die Frage ist halt wie wahrscheinlich ein Leak ist im Moment. Eher gering.
Ich war bei der Xbox One an einem First Party Launch Title beteiligt und nicht mal wir wussten Specs bis weit in die Produktion hinein.
D.h. 12 - 18 Monate vor Release?
Iterator
2019-01-31, 18:45:31
Die nächsten angeblichen Dev Kit (Prototyp) Specs, der kommenden Xbox Scarlet:
https://www.pcgamesn.com/wp-content/uploads/2019/01/NextBox-900x506.jpg
Quelle: pcgamesn.com (https://www.pcgamesn.com/amd/next-gen-microsoft-xbox-sony-playstation-consoles-more-pc-than-ever)
Zossel
2019-01-31, 19:00:31
Wie entwickelt mal ein Spiel ohne die Specs der Hardware zu kennen? Stelle ich mir extrem schwer vor.
Spiele auf dem PC laufen auf unterschiedlichsten Konfigurationen, Eye Candiness ist ein Parameter den man zum Schluss anpassen kann, und der spielt wahrscheinlich nur für eine Minderheit der Spieler eine wirklich wichtige Rolle, erst recht auf Consolen.
Nightspider
2019-01-31, 19:18:46
Trueaudio mit an board? xD
Trueaudio ist tot. Lang lebe trueaudio. ^^
amdfanuwe
2019-01-31, 19:40:49
22 GB RAM? Da kommt die Radeon VII mit ihren 16GB für Entwicklerboards ja wie gerufen.
Fragman
2019-01-31, 19:51:18
Arcturus wäre dann ja auch der Highend Navi Nachfolger, oder?
So früh soll der schon in den Devkits sein? Realistischer wäre doch ein Navi Derivat, zum aktuellen Zeitpunkt.
Unicous
2019-01-31, 22:09:36
Das ist meiner Ansicht nach fake, aber nett gemacht. Das XOX Dev Kit hatte z.B. schon 24 GB RAM, das würde dann ja bedeuten, 3 im Sinn, 6x49+π... dass die kommende Xbox 11 GB RAM hätte.:wink:
1GB L4 Cache? WTF:confused:
Wofur so einen riesigen Cache? Und wie "schnell" soll der dann am Ende sein?
Was mit dem Hyper Scheduler Mode gemeint ist würde ich auch gerne wissen. Vllt. wird hier die etwas ältere Hypothese aufgenommen, dass Zen 2 (was ja schon entkräftet wurde) bzw. 3 zwei SMT Threads haben könnte.
TrueAudio als "Modul" während AMD gerade den Weg über die CUs gegangen ist?:confused:
Ich glaube hier hat jemand sich jemand ausgetobt und eine meiner Meinung nach völlig dämliche Spec zusammenzustellen, wenn man mal näher ins Detail geht. Bandbreite ist auch deutlich zu gering außer AMD ist auf einmal auf Nvidias Niveau bei der Bandbreitenausnutzung angelangt.
Der Codename Arcturus ist mir auch zu bequem, denn es ist der einzige Codename der im Moment bekannt ist, der nichts mit Navi zu tun hat.:rolleyes:
Argo Zero
2019-01-31, 22:14:46
So früh soll der schon in den Devkits sein? Realistischer wäre doch ein Navi Derivat, zum aktuellen Zeitpunkt.
Das denke ich auch.
Nicht zu vergessen, dass die Konsole bei Markteinführung einen Preis von 399$ anpeilen sollten.
Teurere Hardware bzw. Konsolen verkaufen sich eher mittelmäßig, siehe PS3.
icemanemp
2019-02-01, 21:39:50
Die nächsten angeblichen Dev Kit (Prototyp) Specs, der kommenden Xbox Scarlet:
https://www.pcgamesn.com/wp-content/uploads/2019/01/NextBox-900x506.jpg
Quelle: pcgamesn.com (https://www.pcgamesn.com/amd/next-gen-microsoft-xbox-sony-playstation-consoles-more-pc-than-ever)
https://www.reddit.com/r/PS5/comments/al524p/comment/efdh4d7?st=JRMIFYME&sh=cd0699b3
Kein SMT, sondern HyperSchedule? Was sollte das sein? Gibt es dazu schon irgendwo Infos aus Patenten oder alten Interviews?
Iterator
2019-02-01, 22:04:18
Ist bei GDDR6 die Latenz überhaupt so groß, das man da mit eDRam aushelfen müsste ?
Ich dachte man hatte früher immer eDRam eingesetzt, um geringe Speicherbandbreiten auszugleichen. Ich frage mich gerade auch wofür man bei einer Konsole 32Mb Cache in der CPU benötigt. Die müssten doch außerdem auch irre viel Platz auf dem die einnehmen, oder ?
Kein SMT, sondern HyperSchedule? Was sollte das sein? Gibt es dazu schon irgendwo Infos aus Patenten oder alten Interviews?
Vermutlich zuviel secret sauce im Döner.
gravitationsfeld
2019-02-02, 02:09:58
Ist bei GDDR6 die Latenz überhaupt so groß, das man da mit eDRam aushelfen müsste ?
Ich dachte man hatte früher immer eDRam eingesetzt, um geringe Speicherbandbreiten auszugleichen. Ich frage mich gerade auch wofür man bei einer Konsole 32Mb Cache in der CPU benötigt. Die müssten doch außerdem auch irre viel Platz auf dem die einnehmen, oder ?
Das Problem ist, dass die CPU der GPU ungefaehr ~10% Bandbreite wegklaut, obwohl sie selber gar nicht so viel Bandbreite braucht. Einfach nur weil der DRAM blockiert wird mit kurzen Reads/Writes.
1GB L4 Cache wuerden das wohl ziemlich stark vermeiden.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.