Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)
Gipsel
2020-03-03, 03:00:48
Wahrscheinlich ist es LP-DDR4, da sind 4GB Packages nicht ungewöhnlich.;)Ja, es gibt standardmäßig (von allen 3 großen Anbietern) 16, 24 und 32 Gbit LP-DDR4-Packages (also 2, 3 oder 4GB), die haben aber auch oft nur eine x16 Anbindung, weswegen man dann 8 Stück bräuchte, um auf 128Bit zu kommen (was also mindestens 16GB wären). Zumindest von Micron und Samsung gibt es aber auch eine größere Auswahl mit x32-Anbindung (SKHynix bietet die offenbar nicht an), was aber ebenfalls für 4GB-Gesamtkapazit verhältnismäßig kleine Chips erfordern würde. Einzige Alternative wäre wohl exklusiv von Micron (kein anderer bietet die offenbar an, schlecht für die Preise) Chips mit x64 Interface. Die 16Gbit x64 Chips (um 4GB an 128Bit damit hinzubekommen) sind aber noch nicht in Produktion (sondern nur die größeren, vermutlich sind das intern sowieso einfach mehrere parallel angebundene Dies in einem Package).
=> Halte ich ehrlich gesagt für unwahrscheinlich.
Wie gesagt: Wenn man schon viel Geld für ein 128Bit-Interface ausgibt, hängt man auch mehr Speicher ran. Oder man macht es schmaler und hängt trotzdem mehr ran. Mit LP-DDR4 (höhere Bandbreite und höhere Kapazität pro Chip) wird das Argument nicht schwächer.
Platos
2020-03-03, 05:24:24
Und 16GB VRAM (wenn sie dediziert sind) ist schon für PC-Desktop eindeutig mehr als das, was NVIDIA derzeit auf den Top-Gaming-SKUs verbaut. Nicht umsonst ist die Radeon VII auch so beliebt für einige gewesen.
Denn...und darf ich mal so frei sein? Die 11GB sind und waren für mich schon immer ein schlechter Witz für den Preis.
Das ist aber nur der Grafikspeicher. Ein PC hat ja auch noch RAM und da hat ja aber praktisch jeder Gaming PC wenigstens 8GB oder höher. Also 12GB hat dann wohl jeder Anfänger Gaming-PC (Grafikspeicher+RAM). Und viele werden dann 16GB RAM und 6-8GB Grafikspeicher haben.
Also ich würde sagen, bezüglich RAM Anforderungen gibt es diese Konsolengeneration (fast) gar keinen Sprung, wenn sie wirklich nur 16GB haben werden. Ich hoffe zwar dass sie mehr haben, aber man weiss ja nie.
Ghost1nTh3GPU
2020-03-03, 06:50:27
Sind Samsung K4Z803258C-HC16. Soweit ich weiss, ist steht das HC16 für 16GT/s. Bei den normalen 2080ern steht dort HC14.
Rennt aber in den meisten Fällen schon auf 18Gbps, sodass Samsung hier wohl auch höher binnen kann.
Wichtig ist wohl auch das PCB für solche Datenraten, bei Ampere soll man da laut Igor auch grossen Aufwand betreiben.
Aber vielleicht sind es ja auch nur die 9 TFLOPs und 16GB 14Gbps und der Leak ein Fake.
Wie gesagt: Wenn man schon viel Geld für ein 128Bit-Interface ausgibt, hängt man auch mehr Speicher ran. Oder man macht es schmaler und hängt trotzdem mehr ran. Mit LP-DDR4 (höhere Bandbreite und höhere Kapazität pro Chip) wird das Argument nicht schwächer.
Ja bei 4GB ist das nur eine Fortsetzung von den aktuellen 1GB DDR3 und für UI/Hintergrundaufgaben. Bandbreite wohl maximal 32-Bit.
robbitop
2020-03-03, 06:58:15
8GB 5.5Gbps waren für 2013 auch nicht gerade Mainstream. Bis Ende 2020 sind da 17.6Gbps nicht so hoch. Und "399" sind es diesmal wohl auch nicht.
5.5 gbps hatte schon die Radeon 6970 aus dem Jahr 2010. 7 gbps war in dem Jahr (mai 2013) bei der gtx770 bleeding edge.
17.6 Chips gibt es nicht - 18 gibt es. Aber bis dato ist mWn noch nicht 1x Produkt so hoch getaktet... Und die sind erstmals vor kurzem verbaut werden. Und es ist das beste vom besten, Serienproduktion für die Nextgen Konsolen ist sicherlich angelaufen oder wird es in kurzem. Und nun soll das beste vom bestem in großen Mengen verbaut werden? Kein Problem.
Der 1GB aus der currentgen ist mWn nur ein Ringspeicher für die kontinuierliche Recording des Spielgeschehens.
Custom-Zen2 inkl. potenter RDNA2-GPU und weitere Spielereien wie Raytracing auf 7nm, um mal die Prominentesten zu nennen, sind in der Tat ziemlich alter Schrott...absolut Schnee von gestern.
Bei der mit ziemlicher Sicherheit ultra-schnellen SSD geht es dann weiter...
Mal von den Spekulationen abgesehen.
Der Speicher mag nicht "bleeding-edge" sein, das ist er aber auch auf einer 2080Ti nicht (kein HBM2...), also, who cares? Solange die Bandbreite in Summe (inkl. breitem Interface) ordentlich dimensioniert ist, passt es doch.
Das war völlig wertungsfrei gemeint. Es ging ganz klar darum, wie unwahrscheinlich 18 gbps ram ist und keinesfalls „kein Problem“. Preis und geforderte Mengen und Validierungszeit zwingen nunmal dazu.
Ansonsten schauen wir mal: Zen 2 - gibt es seit Sommer 2019 - in 2020 (sicherlich ähnlicher Zeitraum wie Verkaufsstart der Nextgen) kommt Zen 3. Nicht bleeding edge.
3.x GHz - nicht bleeding edge.
8 Kerne in 2020? Gut - aber: Nicht bleeding edge.
PCIe nvme - erstaunlich dass man das macht aber vermutlich dem niedrigen ram (Menge) geschuldet. Ist im PC aber auch schon lange verfügbar.
16 gb ram in 2020 - nicht bleeding edge.
7nm duv - noch aktuell aber nicht bleeding edge. (Zum Verkaufsstart der Nextgen wird 7 nm euv das sein)
Raytracing. Bei AMD bleeding edge. Bei NV seit dann (Verkaufsstart der Nextgen) 2 Jahren in Serienprodukten erhältlich.
Am Ende sind beide Maschinen wahrscheinlich für den Preis erstaunlich stark und neue IP. Und in der Teilmenge der IP schon ein Stück bleeding edge. Aber nicht in Bezug auf Material oder Prozesse, die dann in Massen und wahrscheinlich zu niedrigen Kosten verfügbar sein müssen. MS und Sony liefern mMn schon mehr als vorher üblich für solche Massenprodukte in dem Preissegment.
drkohler
2020-03-03, 07:10:00
Ich wäre sehr überrascht, falls man zusätzlich zu einem 256Bit GDDR6-Interface noch ein 128Bit DDR4-Interface verbaut..
Ich wäre überrascht, wenn überhaupt irgendwo noch ddr Speicher rumliegt. Die PS3 und PS4 hatten das ja zum Auslagern (Streamen/Downloaden?). Mit der superschnellen ssd kommt man schon in Versuchung, das ganze Konstrukt einzusparen und die ssd dazu benützen.
Das sind dann schnell mal $3-$4 eingespart!
robbitop
2020-03-03, 07:22:15
Ich wäre überrascht, wenn überhaupt irgendwo noch ddr Speicher rumliegt. Die PS3 und PS4 hatten das ja zum Auslagern (Streamen/Downloaden?). Mit der superschnellen ssd kommt man schon in Versuchung, das ganze Konstrukt einzusparen und die ssd dazu benützen.
Das sind dann schnell mal $3-$4 eingespart!
Fürs dauerrecorden (dafür ist der 1gb in der lastgen) eher nicht. Damit verschleist man die ssd.
Außerdem ist eine ssd immernoch um Größenordnungen langsamer als RAM in Bezug auf Bandbreite (insbesondere bei nicht sequenziellem kram) und in Bezug auf Latenz. Das kann man nicht oder nur stark eingeschränkt ram-ähnlich nutzen. Ggf eine Entlastung beim Streaming des Contents.
Korvaun
2020-03-03, 07:41:28
16GB sind wohl am wahrscheinlichsten. Weninger praktisch ausgeschlossen, mehr eher unwahrscheinlich wegen Preis. 16GB sind ja auch nicht übel, da wäre dann für die GPU immer noch mehr übrig als bei so gut wie allen aktuell relevanten Grakas...
robbitop
2020-03-03, 10:27:56
16GB sind wohl am wahrscheinlichsten. Weninger praktisch ausgeschlossen, mehr eher unwahrscheinlich wegen Preis. 16GB sind ja auch nicht übel, da wäre dann für die GPU immer noch mehr übrig als bei so gut wie allen aktuell relevanten Grakas...
Nicht vergessen: PCs haben RAM und VRAM. Die Konsole muss sich das teilen.
Aktuelle PCs haben 8 GB VRAM und 16-32 GB RAM. Sind in Summe also 24 - 40 GB.
Monsta
2020-03-03, 10:43:45
Nicht vergessen: PCs haben RAM und VRAM. Die Konsole muss sich das teilen.
Aktuelle PCs haben 8 GB VRAM und 16-32 GB RAM. Sind in Summe also 24 - 40 GB.
Ich glaube so einfach lässt sich das nicht addieren.
Ein PC mit 4GB VRAM und 4GB RAM. Hat ja in der Summe 8GB, wird idR aber hinter einer PS4 PRO sein. Die ja in WQHD(checkerboard) und in einigen Titeln in 4K rendert.
Demirug
2020-03-03, 10:48:34
Am Ende sind beide Maschinen wahrscheinlich für den Preis erstaunlich stark und neue IP. Und in der Teilmenge der IP schon ein Stück bleeding edge. Aber nicht in Bezug auf Material oder Prozesse, die dann in Massen und wahrscheinlich zu niedrigen Kosten verfügbar sein müssen. MS und Sony liefern mMn schon mehr als vorher üblich für solche Massenprodukte in dem Preissegment.
Preissegment ist neben dem RAM aber ein anderes großes Fragezeichen. Dort sind zwar beide in der Vergangenheit schon mal auf die Nase gefallen. Nur muss das jetzt nicht zwingend heißen das beide vorsichtig sind. Man könnte sich auch auf über nicht ganz so offizielle Kanäle geeinigt haben das es an der Zeit ist das Level gemeinsam anzuheben.*
Nightspider
2020-03-03, 12:47:22
Nicht vergessen: PCs haben RAM und VRAM. Die Konsole muss sich das teilen.
Aktuelle PCs haben 8 GB VRAM und 16-32 GB RAM. Sind in Summe also 24 - 40 GB.
Pass auf sonst kommen gleich wieder welche um die Ecke und schreien das 70% aller PCs weniger als 16GB RAM haben.
Platos
2020-03-03, 14:06:09
Auch wenn man all' die LoL-Laptops ausschliest, wirds vermutlich immer noch viele geben, die 8+4/6GB haben. 16+6/8 GB werden aber sicherlich auch viele haben, vermutlich sogar mehr, wenn man die LoL-Krücken weg lässt.
32GB RAM halte ich dann aber für übertrieben. Das haben eher die wengisten, Enthusiasten mal ausgelassen (z.B Nightspider;)).
basix
2020-03-03, 15:16:11
16GB exklusiv für Spiele wäre ca. 3x so viel wie bei einer PS4. Nicht gerade berauschend aber die SSD kann da einen anderweitigen Boost geben. 24GB wären immer noch mein Favorit, 4-5x mehr DRAM + SSD sind sehr ordentlich und könnten noch im Preisrahmen liegen.
Ravenhearth
2020-03-03, 17:08:30
AMD Project Lead Reconfirms PS5 Will Support Hardware Raytracing (https://www.psu.com/news/amd-project-lead-reconfirms-ps5-will-support-hardware-raytracing/)
Speaking in a press briefing at the end of January (and only now coming to light), Chandrashekhar confirmed that hardware raytracing will be a common shared functionality in both PS5 and Xbox Series X consoles, allowing third-party developers to fashion multi-platform titles that leverage the technique across both platforms:
"AMD as a company…strongly believes in the value and capability of raytracing. RDNA 2, the next-gen, will support raytracing. Both the next-gen Xbox and PlayStation will support hardware raytracing with Radeon natively. We will be sure to have the content that gamers can actually use to run on those GPUs
We believe in our raytracing, and we will have it when the time is right."
Gebrechlichkeit
2020-03-03, 18:36:00
We believe in our raytracing, and we will have it when the time is right."
Also doch nicht so weit? Wann gedenken die denn mit der Produktion anzufangen, der SoC? Noch ein paar Monate abwarten oder wie? Wann ist "the time is right"?
mr coffee
2020-03-03, 18:39:46
Die Aussage ist von Januar. Vermutlich wollen sie den neuen Konsolen nicht das Wasser abgraben und warten auf deren Vorstellung.
Slashman
2020-03-05, 08:35:57
Pass auf sonst kommen gleich wieder welche um die Ecke und schreien das 70% aller PCs weniger als 16GB RAM haben.
Mal ehrlich, wenn einer in LOL in China, Indien oder sonst wo mit einem 10 Jahre alten PC (i7 2600, 8 GB RAM DDR3 1066, 2 GB Vram Graka ala GTX 550/560) Ist das kein Grund wegen diesen "Gamern" die PS5 zu drosseln.
Diese Leute würden sowieso keine aktuellen PS4 Ports spielen können und spielen meist eh nur LOL und co. Sony sollte sich nur an den AAA Käufern am PC orientieren.
Dort ist das Minimum:
6 Kerne i7 8700K oder 8 Kerne Ryzen 1700, 16 GB RAM und 6 GB Vram (GTX 1060/1660Ti). 8GB Vram ist seit der RX 480/RX 5500 XT kein Thema mehr.
https://www.alternate.de/ASRock/Radeon-RX-5500-XT-Challenger-D-8G-OC-Grafikkarte/html/product/1602814?
Wenn schon 220€ Grafikkarten 8 GB Vram haben ist das hoffentlich bei Sony angekommen.
Ich hoffe das der PS5 32GB RAM spendiert werden. Das ermöglicht echt viel.
Felixxz2
2020-03-05, 09:14:23
Halte ich nach aktuellem Stand für ausgeschlossen.
HotSalsa
2020-03-05, 11:03:15
Ich auch.
basix
2020-03-05, 13:32:19
Momentan sieht es ja nach 16-20GByte (256bit-320bit) aus. Lasse mich aber gerne überraschen. Wo ist denn nur der 24GBit GDDR6 (https://www.computerbase.de/2019-10/samsung-24-gbit-dram-12-gb-lpddr4x-umcp/)? Dann wären es evtl. 24-30GByte :D
Felixxz2
2020-03-05, 14:44:41
Passenderweise kommt hinter deinem Link „Seite nicht gefunden“ 😂
Ravenhearth
2020-03-06, 01:47:49
Die +50% Perf/W für RDNA2 erklären natürlich auch gut, wie die Series X auf 12 TFLOPs kommen kann, ohne dass der Stromverbrauch für eine Konsole zu hoch ist. Die 12 TFLOPs sind ziemlich genau 50% mehr als bei RX 5700, was dann ja beim gleichen GPU-Stromverbrauch möglich sein sollte.
basix
2020-03-06, 10:40:17
Passenderweise kommt hinter deinem Link „Seite nicht gefunden“ 😂
Korrigiert ;) Aber ja, passt :D
Felixxz2
2020-03-06, 13:54:36
Wenn man die 12 TFLOP RDN2 jetzt mal zu GCN in Relation setzt, sollten das doch >20 TFLOP GCN sein oder? Das wäre ein Monster!
y33H@
2020-03-06, 14:02:10
Wie groß ist der Sprung von RDNA v1 zu RDNA v2? ;-)
Monsta
2020-03-06, 14:03:13
Wenn man die 12 TFLOP RDN2 jetzt mal zu GCN in Relation setzt, sollten das doch >20 TFLOP GCN sein oder? Das wäre ein Monster!
Ich glaube das die Relation nicht stimmt, da auf den Konsolen die TFLOP tatsächlich auf die Straße kommt. Bei der Entwicklung wird auf alle Flaschenhälse Rücksicht genommen um die GPU max auszulasten.
Also die GCN TLOP der Konsole sind nicht mit denen vom PC vergleichbar.
Aber vielleicht irre ich mich auch, und RDN2 bietet ebenfalls viel Optimierungspotential.
Ravenhearth
2020-03-06, 14:36:35
Weiß nicht. Wie man am Video von Digital Foundry sieht, ist schon eine RX 5500 mit 4,3 TFLOPs fast auf Höhe der One X mit 6 TFLOPs, welche ziemlich ähnlich performt wie eine RX 290 oder 590 mit ebenfalls 6 TFLOPs und GCN.
Also gut möglich, dass 12 TFLOPs RDNA auch in Konsolen 15-16 TFLOPs GCN entsprechen, und wie viel RDNA2 da vielleicht zusätzlich bringt, ist auch noch nicht bekannt.
Felixxz2
2020-03-06, 14:55:36
Sicherlich sind die Konsolen hier und da etwas effizienter, wobei das im GPU Bereich deutlich weniger sein sollte als bei der CPU.
Aber RDNA1 auf GCN sind ja schon +50%. RDNA2 legt nochmal gut was obendrauf. Für 20TFLOP GCN müsste RDNA2 nur gut 10% schneller sein pro FLOP.
Also nach der Präsi gestern denke ich dass die Konsolen GPUs tatsächlich sehr leistungsfähig werden. Mehr als die reinen Zahlen es denken lassen.
basix
2020-03-06, 16:05:24
Sicherlich sind die Konsolen hier und da etwas effizienter, wobei das im GPU Bereich deutlich weniger sein sollte als bei der CPU.
Aber RDNA1 auf GCN sind ja schon +50%. RDNA2 legt nochmal gut was obendrauf. Für 20TFLOP GCN müsste RDNA2 nur gut 10% schneller sein pro FLOP.
Also nach der Präsi gestern denke ich dass die Konsolen GPUs tatsächlich sehr leistungsfähig werden. Mehr als die reinen Zahlen es denken lassen.
Als Richtwert dürfte 10x "Real-Leistung" einer Ur-PS4 gar nicht so verkehrt sein. Das wären 18 TFLOPs. Nimmt man noch Raytracing, RPM mit FP16, VRS, verbesserte Upscaling Techniken, Radeon Image Sharpening und allenfalls Mesh Shader(?) dazu, wäre es sogar noch mehr. Was ich mich aber Frage: Bandbreite steigt nur 2.5...3x - irgendwie eher knapp bemessen. Andererseits waren die 170 GB/s der PS4 relativ viel für die vorhandene Rechenleistung.
Felixxz2
2020-03-06, 16:16:17
Jo 10x halte ich auch für nen guten Richtwert, mal mehr, mal weniger. Das ist aber auf jeden Fall mehr als zumindest ich eig gedacht habe.
Bzgl Bndbreite wär für mich interessant was eig viel Bandbreite braucht. Auflösung? Raytracing? Shader?
Generell ist aber die Bandbreite in den letzten 10 Jahren deutlich langsamer gewachsen als die Shaderleistung.
][immy
2020-03-06, 16:49:32
Ich glaube das die Relation nicht stimmt, da auf den Konsolen die TFLOP tatsächlich auf die Straße kommt. Bei der Entwicklung wird auf alle Flaschenhälse Rücksicht genommen um die GPU max auszulasten.
Also die GCN TLOP der Konsole sind nicht mit denen vom PC vergleichbar.
Aber vielleicht irre ich mich auch, und RDN2 bietet ebenfalls viel Optimierungspotential.
Genau, das lässt sich so genau gar nicht sagen, da bei Konsolen viel stärker auf deren Stärken optimiert wird.
Allerdings kann man sagen, das dadurch wohl besonders die kleineren Entwickler noch viel Problemloser mit den Ressourcen auskommen werden. Hoffen wir mal, das nicht noch mal Pixel-Art Spiele kommen, die mit 10-30 fps laufen. So etwas sollte es wohl hoffentlich wirklich nicht mehr geben. Die Unity-Engine die da häufig die Ursache war, sollte mit der stärkeren Hardware viel Problemloser umgehen können. Hier hätten manche kleinere Entwickler viel mehr Zeit reinstecken müssen um gegen die kleinen Jaguar Kernchen zu optimieren, wozu denen natürlich meist Zeit & Ressourcen fehlen.
Könnte natürlich erneut passieren wenn die nächsten CPUs von Intel & AMD noch mal richtig Leistung drauf legen, aber nach den letzten Jahren kann man da wohl von ausgehen, das dort keine gigantischen Sprünge mehr kommen werden.
Und Spiele die viele Kerne Sinnvoll nutzen können, gibt es auch noch nicht viele.
Bzgl Bndbreite wär für mich interessant was eig viel Bandbreite braucht. Auflösung? Raytracing? Shader?
Generell ist aber die Bandbreite in den letzten 10 Jahren deutlich langsamer gewachsen als die Shaderleistung.
Bandbreite bekommt man ja durch die SSDs relativ viel im Verhältnis zu dem was vorher da war. Z.B. ist die Frage ob man noch seine Daten paketieren muss und ob es nicht sinnvoller wäre, die Daten 1:1 von der Platte zu lesen anstatt diese in den Speicher zu laden und zu entpacken etc. Vorher musste man hier Bandbreite des Speichers opfern um Daten zu bekommen, jetzt könnte man diese direkt von der Platte lesen.
Natürlich könnte man die SSD-Bandbreite noch besser nutzen, wenn man wieder paketiert (und die Daten noch mal komprimiert), würde aber dafür entsprechend andere Ressourcen verbraten wenn man sie wieder braucht.
Ghost1nTh3GPU
2020-03-06, 18:55:14
Wie groß ist der Sprung von RDNA v1 zu RDNA v2? ;-)
Von welchen Verbesserungen könnte den RDNA2 profitieren?
Paralleles INT32 wie bei Turing wäre wohl praktisch und eine verbesserte Kompression für Framebuffer (https://www.anandtech.com/show/14618/the-amd-radeon-rx-5700-xt-rx-5700-review/14)ist wohl auch möglich.
Auf jeden Fall sollte man die RDNA2 Flops wohl doch noch etwas höher einordnen als was man von RDNA1 prognostizieren kann.
[immy;12236695']
Bandbreite bekommt man ja durch die SSDs relativ viel im Verhältnis zu dem was vorher da war. Z.B. ist die Frage ob man noch seine Daten paketieren muss und ob es nicht sinnvoller wäre, die Daten 1:1 von der Platte zu lesen anstatt diese in den Speicher zu laden und zu entpacken etc. Vorher musste man hier Bandbreite des Speichers opfern um Daten zu bekommen, jetzt könnte man diese direkt von der Platte lesen.
Natürlich könnte man die SSD-Bandbreite noch besser nutzen, wenn man wieder paketiert (und die Daten noch mal komprimiert), würde aber dafür entsprechend andere Ressourcen verbraten wenn man sie wieder braucht.
Beim Instant-Gaming Feature wird wohl direkt der RAM in die SSD gedumpt bzw. daraus beladen, mit den aktuell spekulierten >4GB/s sind das nur 3-4s.
An sich wohl ein taktisches Feature um hier den Streaming-Angebot nicht nachzustehen.
TheGood
2020-03-06, 20:44:36
Sind die Konsolen wirklich RDNA2 ? Ich würde eher auf RDNA1 plus Raytracing + sonstige Wünscher der Anbieter tippen, da AMD das ja alles wie einen modularen Baukasten anbietet...
Ich glaube einfach nicht dass die Konsolen die aktuellste Technik einsetzen werden, welche dann auch noch erst später für den PC erscheint.
Linmoum
2020-03-06, 20:50:21
Sind die Konsolen wirklich RDNA2 ?Ja, zumindest die Xbox.
Xbox Series X is our most powerful console ever powered by our custom designed processor leveraging AMD’s latest Zen 2 and RDNA 2 architectures.https://news.xbox.com/en-us/2020/02/24/what-you-can-expect-next-generation-gaming/
Platos
2020-03-06, 20:52:34
Sind die Konsolen wirklich RDNA2 ? Ich würde eher auf RDNA1 plus Raytracing + sonstige Wünscher der Anbieter tippen, da AMD das ja alles wie einen modularen Baukasten anbietet...
Ich glaube einfach nicht dass die Konsolen die aktuellste Technik einsetzen werden, welche dann auch noch erst später für den PC erscheint.
Dazu habe ich gerade folgendes gefunden:
We have developed an all-new hardware-accelerated ray tracing architecture as part of RDNA 2. It is a common architecture used in the next-generation game consoles. With that, you will greatly simplify the content development -- developers can develop on one platform and easily port it to the other platform. This will definitely help speed up the adoption [of ray tracing].
https://wccftech.com/amd-xbox-series-x-ps5-rdna-2-ray-tracing-revealed/
Hört sich schon so an, als ob man vlt. beide gemeint haben könnte. Würde auch Sinn machen bzw. von Vorteil sein aus Sicht von beiden (Sony & Microsoft).
Microsoft hat's aber schon bestätigt, Sony selbst nicht.
Ghost1nTh3GPU
2020-03-06, 20:55:01
RDNA2 für dGPU muss halt warten.
Der Mainstream war bei AMD in der Vergangenheit bis Navi1X auch eher gering beachtet, die Teams hinter Vega bieten wohl jetzt die Basis für die CDNA Entwicklungen.
TheGood
2020-03-06, 21:35:27
Ja, zumindest die Xbox.
https://news.xbox.com/en-us/2020/02/24/what-you-can-expect-next-generation-gaming/
Das ist ziemlich eindeutig :) Was auch immer damit dann gemeint ist. Trotzdem überraschend. Da kann man ja echt von einem Vollangriff auf den PC reden. Ausser die konsole soll diesesmal 10 Jahre lang halten. Dafür ist ein Preis von 500 Euro vermutlich noch viel zu günstig....
tobor
2020-03-06, 22:31:51
Sind die Konsolen wirklich RDNA2 ? Ich würde eher auf RDNA1 plus Raytracing + sonstige Wünscher der Anbieter tippen, da AMD das ja alles wie einen modularen Baukasten anbietet...
Ich glaube einfach nicht dass die Konsolen die aktuellste Technik einsetzen werden, welche dann auch noch erst später für den PC erscheint.
Das war bei der Xbox 360 nicht anders. Diese war das erste Gerät mit Unified Shadern.
y33H@
2020-03-06, 23:27:16
Und die PS4 Pro hatte schon Vega Zeug vorab ...
Felixxz2
2020-03-07, 00:40:40
Denke auch dass das schon der latest shit sein wird. Und zwar auf beiden Konsolen. Ich glaube ja auch dass die sich da schon auch mehr oder weniger zu 3 besprochen haben. Wie AMD ja auch selber ausführt, ist das wahnsinnig vorteilhaft für die Penetration der neuen Technik, wenn beide grob das selbe benutzen.
Die Entwicklungskosten sind eh schon immens, da muss man es nicht schwerer machen als es ist. Glaube nicht, dass sich jemand ne PS3 zurückwünscht haha
Ergo mein Tipp: Beide RDNA2 und beide +-15% die selbe Horsepower!
Bin mir auch ziemlich sicher, dass nVidia ne schwere Zeit haben wird. Letzte Gen waren die Konsolen ja eher midrange und AMD auch zu schwach um die Stellung gut zu nutzen. Diese Gen ist das anders. In Sachen Raytracing wird sich nV nach AMDs Lösung orientieren müssen. Ähnlich wie es bei Freesync auch der Fall ist. Und ich glaube, dass auch generell Games mehr auf AMD zugeschnitten sein werden, einfach weil AMD mittlerweile auch das Geld/Manpower hat um dieses kleine Monopol in den PC Markt zu tragen.
Ravenhearth
2020-03-07, 00:57:28
Bin mir auch ziemlich sicher, dass nVidia ne schwere Zeit haben wird. Letzte Gen waren die Konsolen ja eher midrange und AMD auch zu schwach um die Stellung gut zu nutzen. Diese Gen ist das anders. In Sachen Raytracing wird sich nV nach AMDs Lösung orientieren müssen. Ähnlich wie es bei Freesync auch der Fall ist.
Durch DXR haben doch eh beide die gleiche "Lösung", nur die Implementierung ist verschieden.
Felixxz2
2020-03-07, 01:04:49
Davon spreche ich ja. Der Markt wird sich an den Stärken und Schwächen von AMDs Implementierung orientieren, nicht an nVs
woodsdog
2020-03-07, 07:03:21
Davon spreche ich ja. Der Markt wird sich an den Stärken und Schwächen von AMDs Implementierung orientieren, nicht an nVs
Die These hören wir seit XBONE und PS4 auf dem Markt sind - das ja ab da alles auf die Architektur von AMD optimiert wird usw... Für den PC ist das leider praktisch nie von Relevanz gewesen v0v
Ghost1nTh3GPU
2020-03-07, 07:13:05
Unter Windows hatte AMD bis Vulkan/DX12 Probleme mit dem Treiber, welcher die Leistung nicht so effizient wie auf den Konsolen-OS abrufen könnte.
Aber Kepler (und auch Maxwell) hat die Compute-Last der GCN-Titel zu spüren bekommen und Tesselation hat sich auch an der AMD Baseline orientiert, wenn NV nicht auf die Entwickler eingewirkt hat.
Ergo mein Tipp: Beide RDNA2 und beide +-15% die selbe Horsepower!
Oder Sony ist mutig und setzt auf einen CDNA/RDNA2 Hybrid mit Tensor-Erweiterung.;)
Beim RAM/SSD können beide spät/nachträglich reagieren, aber beim SoC wäre so eine Entscheidung eventuell ein Game-Changer.
Wenn man 1 Mio. der SoCs in Cloud-Server verbaut, eröffnet Tensor zusätzliche Use-Cases. Microsoft ist mit seiner diversifizierten Cloud nicht so darauf angewiesen. Eventuell ein "Cell done right".
Felixxz2
2020-03-07, 08:35:59
Die These hören wir seit XBONE und PS4 auf dem Markt sind - das ja ab da alles auf die Architektur von AMD optimiert wird usw... Für den PC ist das leider praktisch nie von Relevanz gewesen v0v
Wie gesagt ist das nicht vergleichbar. AMD ist heute ganz anders aufgestellt und auch die SoCs in den Konsolen sind ein anderes Kaliber.
TheAntitheist
2020-03-09, 09:38:45
Nicht vergessen: PCs haben RAM und VRAM. Die Konsole muss sich das teilen.
Aktuelle PCs haben 8 GB VRAM und 16-32 GB RAM. Sind in Summe also 24 - 40 GB.
nicht vergessen, viele Daten liegen deswegen auch doppelt vor...
megachip800
2020-03-09, 10:35:31
Was ist jetzt los mit Sony , null Kommunikation, Playstation Forum weltweit geschlossen, alle Meetings abgesagt oder verschoben, Sony neue Zensurpolitik , dann das Gerücht von einem Insider das Horizon Zero Dawn auch für den PC erscheint, angeblich soll das Spiel schon auf Amazon.fr gelistet sein, ich meine wenn das stimmt dann deutet das ja auf einen grundsätzlichen Strategiewechsel bei Sony hin, die eigene Userbase shit egal? Da wird nichts kommuniziert. Stattdessen solche lächerlichen Erklärungen:
https://www.playstation.com/en-us/explore/ps5/
We’ve begun to share some of the incredible features you can expect from PlayStation 5, but we’re not quite ready to fully unveil the next generation of PlayStation. Sign up below to be among the first to receive updates as we announce them, including news on the PS5™ release date, PS5 price and upcoming roster of PS5 launch games.
Weit hinter dem Zeitplan von Microsoft? Oh je oh je
https://www.polygon.com/2020/3/6/21168213/xbox-series-x-ps5-next-gen-microsoft-sony-marketing
Und dann das hier:
https://i.imgur.com/TKXMrni_d.jpg?maxwidth=640&shape=thumb&fidelity=medium
Köstlich...
arcanum
2020-03-09, 10:47:11
warum die ungeduld? ist doch egal wann die ps5 vorgestellt wird, schneller kommt sie dadurch auch nicht auf den markt.
][immy
2020-03-09, 12:13:33
Eben, ausverkauft wird die erste Charge so oder so sein. Dafür gibt es allein schon genug Sony Fans. Und Spiele werden auch schon für eine Ziel-Hardware entwickelt.
Meinetwegen können die die Specs auch erst einen Tag vor Veröffentlichung raus geben.
Nur wenn sich auch das Release nach hinten schieben würde, wäre das unschön. Könnte ich mir aber aktuell gut vorstellen (aufgrund der aktuellen Welt-Lage), das dies passieren könnte. Oder es wird halt nur sehr wenige Launch-Geräte geben.
starfish
2020-03-09, 12:19:51
Ich konnte den "Shut the fuck up" Post bis dato nicht finden.
Hat sich da jemand einen Spaß erlaubt?
robbitop
2020-03-09, 12:39:00
nicht vergessen, viele Daten liegen deswegen auch doppelt vor...
Aber eben nicht alle. Gibt es eine quantitative Aussage, wie viel redundant belegt ist?
urpils
2020-03-09, 12:56:53
Ich konnte den "Shut the fuck up" Post bis dato nicht finden.
Hat sich da jemand einen Spaß erlaubt?
sieht doch ein blinder mit Krückstock dass das "geshoppt" ist...
pixelguy
2020-03-09, 13:15:49
Ich konnte den "Shut the fuck up" Post bis dato nicht finden.
Hat sich da jemand einen Spaß erlaubt?
Ja, sieht man schon an der Schriftfarbe. Das ist ein Fake.
Edit: Hoppla, schon beantwortet
Rizzard
2020-03-09, 15:43:45
Was ist jetzt los mit Sony , null Kommunikation, Playstation Forum weltweit geschlossen, alle Meetings abgesagt oder verschoben, Sony neue Zensurpolitik , dann das Gerücht von einem Insider das Horizon Zero Dawn auch für den PC erscheint, angeblich soll das Spiel schon auf Amazon.fr gelistet sein, ich meine wenn das stimmt dann deutet das ja auf einen grundsätzlichen Strategiewechsel bei Sony hin, die eigene Userbase shit egal? Da wird nichts kommuniziert. Stattdessen solche lächerlichen Erklärungen:
Weit hinter dem Zeitplan von Microsoft? Oh je oh je
Wir als teils potentielle Kunden würden uns natürlich über neue Details freuen, aber für Sony ist es völlig egal ob sie jetzt was ankündigen, oder erst in ein paar Wochen. Es passiert ihnen ja nichts.
Die XSX ist nirgends zu kaufen, und nirgendwo zum vorbestellen.
Man verliert also eh keine Kunden.
Zudem kann es auch gewisse Gründe haben.
Ich hatte den Text noch auf der Platte, müsste aber noch die Quelle googeln falls gewünscht.
Dies möchte zumindest der Nutzer Luke Stephens erfahren haben und bezieht sich bei seinen Angaben auf Quellen bei Sony beziehungsweise Sony Interactive Entertainment, die mit der Sachlage vertraut sein sollen. Wie Stephens berichtet, sollte die offizielle Enthüllung der PS5 ursprünglich vor rund einer Woche über die Bühne gehen. Aufgrund des Coronavirus sollen sich die Verantwortlichen jedoch dazu entschlossen haben, die Vorstellung der Konsole auf ein nicht näher genanntes Datum zu verschieben.
Entsprechen die Angaben von Stephens den Tatsachen, dann werden uns noch in diesem Monat konkrete Informationen zu diesem Thema ins Haus stehen. Des Weiteren berichtet Stephens, dass nicht nur die Präsentation der PS5 vom Ausbruch des Coronavirus betroffen ist. Aufgrund von Bedenken hinsichtlich der Lieferkette wurde laut Stephens auch der Launch der PS5 nach hinten geschoben.
DrFreaK666
2020-03-09, 16:44:50
Ich konnte den "Shut the fuck up" Post bis dato nicht finden.
Hat sich da jemand einen Spaß erlaubt?
Traurig wenn man alles glaubt ohne die Quelle zu überprüfen. Ich bin auch gleich auf Twitter und habe nachgeschaut...
bbott
2020-03-09, 16:53:37
Es macht Sinn von Sony so wenig wie möglich zu publizieren, damit man die PS4 Verkäufe nicht noch weiter reduziert. Uninformierte sollen ruhig weiter schön die PS4 kaufen.
megachip800
2020-03-09, 17:59:20
Traurig wenn man alles glaubt ohne die Quelle zu überprüfen. Ich bin auch gleich auf Twitter und habe nachgeschaut...
Dann war es halt ein joke , mein gott es gibt schlimmeres.
Aber ehrlich sollen wir wirklich glauben das wegen dem
Coronavirus Sony uns nicht die Target Specs nennen darf?
Und die Ps4 Abverkäufe sind schon längst rückläufig da gibt es nichts mehr zu beschützen.
][immy
2020-03-09, 18:32:14
Dann war es halt ein joke , mein gott es gibt schlimmeres.
Aber ehrlich sollen wir wirklich glauben das wegen dem
Coronavirus Sony uns nicht die Target Specs nennen darf?
Und die Ps4 Abverkäufe sind schon längst rückläufig da gibt es nichts mehr zu beschützen.
Denke das hat mehr mkut Microsoft zu tun. Desto länger sie warten, desto eher muss MS mit dem Preis raus rücken und Sony kann dann noch Anpassungen machen. Wenn man die Specs kennt wüsste MS in welche Richtung der Preis bei Sony wandern wird.
Abgesehen davon, ohne große Veranstaltung wird man das nicht raushauen wollen, da das nicht so werbewirksam wäre.
Und die Lockhart-Gerüchte halten sich auch noch hartnäckig. Könnte also passieren das MS bei einem kleineren PS5 Preis noch damit im die Ecke kommt. Aber bei der letzten Xbox war auch schon von 2 Konsolen die Rede, woraus ja letztlich nur würde das es Mal 2 Designkonzepte gab.
Gebrechlichkeit
2020-03-10, 22:41:09
Warum hat AMD eigentlich keine eigene Console ins Rennen geschickt, geplant?
- SoC fuer LAU
- RAM von Samung
- Festplatte von Samsung
- Phil Harrison von Sony, Microsoft, Google verpflichten und gute Deals mit Publisher abschliessen
- Sony und MS keine Chips mehr beliefern (NGEN)
- Profit?
Subventioniert fuer €299? Aktuell dominiert AMD die Szene, CPU, GPU wie die Herzen von gepeinigten AMD Fanbois. Auf Linux basierend rausbringen, einfach eine GUI draufklatschen (Steambox gibt´s ja schon). Einfacher geht es kaum:
Valve kooperiert mit AMD exklusiv:
STEAMBOX 2020
CPU: 3700@35-65W
GPU: 5700 + dedz. RT chip
HD: M2 (1TB)
RAM: 32GB
this post, idea, concept, feverdreams are
https://s5.gifyu.com/images/copyright-symbol.th.png (https://gifyu.com/image/IC01)
][immy
2020-03-10, 23:44:22
Warum hat AMD eigentlich keine eigene Console ins Rennen geschickt, geplant?
- SoC fuer LAU
- RAM von Samung
- Festplatte von Samsung
- Phil Harrison von Sony, Microsoft, Google verpflichten und gute Deals mit Publisher abschliessen
- Sony und MS keine Chips mehr beliefern (NGEN)
- Profit?
Subventioniert fuer €299? Aktuell dominiert AMD die Szene, CPU, GPU wie die Herzen von gepeinigten AMD Fanbois. Auf Linux basierend rausbringen, einfach eine GUI draufklatschen (Steambox gibt´s ja schon). Einfacher geht es kaum:
Valve kooperiert mit AMD exklusiv:
STEAMBOX 2020
CPU: 3700@35-65W
GPU: 5700 + dedz. RT chip
HD: M2 (1TB)
RAM: 32GB
this post, idea, concept, feverdreams are
https://s5.gifyu.com/images/copyright-symbol.th.png (https://gifyu.com/image/IC01)
Zum einen hat AMD nicht die Mittel, zum anderen macht es den SOC nicht wirklich billiger. Konsolen Deals sind nicht wirklich großartig Gewinnbringend, aber nimmt ein Hersteller trotzdem gern mit.
Abgesehen davon, wer würde denn noch AMD Produkte kaufen wenn man mit der Kundschaft konkurriert?
Wo sollte denn AMD die Mittel für die nötige Spieleentwicklung her nehmen?
Crazy_Bon
2020-03-10, 23:49:35
Warum hat AMD eigentlich keine eigene Console ins Rennen geschickt, geplant?
Ganz einfach, AMD fehlt das nötige Geld auf der hohen Kante um so ein solches Unterfangen selbst zu stemmen. Ein SoC bzw. eine Konsole entwickelt sich nicht von selbst, hunderte Millionen US-Dollar, sogar Milliarden US-Dollar sind nötig. Geld, das AMD bei weitem nicht hat, daher die Partnerschaften/Auftragsarbeiten von MS/Sony.
Ghost1nTh3GPU
2020-03-11, 07:53:34
Abo und Spiele verkaufen finanziert so eine Konsole und beides wird AMD in den nächsten 5 Jahren nicht realisieren.
Eher könnte ich mir vorstellen, dass es Spiele geben wird, die nur noch exklusiv auf Nvidia(Nintendo IPs) oder AMD (Deals mit einzelnen Publisher) laufen, dazu braucht es aber noch etwas mehr Marktanteil bei AMD.
DrFreaK666
2020-03-11, 12:22:38
Abo und Spiele verkaufen finanziert so eine Konsole und beides wird AMD in den nächsten 5 Jahren nicht realisieren.
Eher könnte ich mir vorstellen, dass es Spiele geben wird, die nur noch exklusiv auf Nvidia(Nintendo IPs) oder AMD (Deals mit einzelnen Publisher) laufen, dazu braucht es aber noch etwas mehr Marktanteil bei AMD.
Das gibt es doch jetzt schon. Die ganzen Nintendo-Titel wirst du nur auf der Switch spielen. Andersherum gibt es für die Xbox und Playstation Spiele, die es nicht für die Switch gibt
Warum hat AMD eigentlich keine eigene Console ins Rennen geschickt, geplant?
- SoC fuer LAU
- RAM von Samung
- Festplatte von Samsung
- Phil Harrison von Sony, Microsoft, Google verpflichten und gute Deals mit Publisher abschliessen
- Sony und MS keine Chips mehr beliefern (NGEN)
- Profit?
Subventioniert fuer €299? Aktuell dominiert AMD die Szene, CPU, GPU wie die Herzen von gepeinigten AMD Fanbois. Auf Linux basierend rausbringen, einfach eine GUI draufklatschen (Steambox gibt´s ja schon). Einfacher geht es kaum:
[...]
An sich ein guter Gedanke, aber ein der kleinste Teil des Konsolenherstellens ist die Konsole. Die Software gibt den Ausschlag, da hat AMD kaum Infrastruktur, nur den Support, den man Spielehersteller angedeihen lässt im PC-Markt und neuerdings auch für Portierungen. Sony und M$ haben eine sehr große Softwareinfrastruktur geschaffen, die das Geld verdient.
Man sieht ja auch an Microsofts Strategiewechsel und auch Sony fängt langsam damit an, die Spiele zwar Exklusiv zu vermarkten, allerdings sehen beide den PC nicht mehr als Konkurrenzplattform, sondern als Marktvergrößerung für die eigene Software an. HZD ist ein Sony-eigener Titel und beweist genau das. Da findet ein Paradigmenwechsel statt - der PC war nie ne echte Konkurrenz für die Konsolen, im Gegenteil, man hat erkannt, dass man zusätzliches Geld verdienen kann. Dieser Vorgang zeigt ziemlich anschaulich, dass es gar nicht um die Konsole als solches geht und warum AMD des selber nicht könnte. Viele Konsolenfans haben keine Ahnung, wie die Plattform eigentlich monetarisiert wird, und es geht im Endeffekt nur genau darum. Da muss ja auch ein Riesen-Shitstorm ausgebrochen sein, dass Sony es gewagt hat das Exklusivspiel auf den PC zu bringen, das ist echt drollig :D.
Platos
2020-03-11, 14:26:55
Das gibt es doch jetzt schon. Die ganzen Nintendo-Titel wirst du nur auf der Switch spielen. Andersherum gibt es für die Xbox und Playstation Spiele, die es nicht für die Switch gibt
Das hat nichts mit der Hardware(-kompatibilität) zu tun. Das sind schlicht Exklusivtitel.
Gebrechlichkeit
2020-03-11, 15:38:57
Deswegen schrieb ich ja auch:
VALVE&AMD Cooperation
Produktion, R&D subventioniert*, dank Valve, Seasonic, Samsung kostet das ganze nurnoch ein paar €
30,000 Steam Games exklusiv auf der AMD BOX
nebenbei holt man sich noch ein paar Indies, macht sich paar Freunde, man eroeffnet Studios und andere springen auf den Zug
Steambox 2013 2020 Valve, AMD, Seasonic, Samsung
3700X, 5700, 32Gb, 2TB SSD, 500PSU = PC Preis um die €1,000 fuer €499.
*AMD duerfte das 0€ kosten, R&D faellt aus. Der Zen 3+? existiert bereits, da muss nix investiert werden. Gleiches gilt fuer Navi. Obendrauf koennte man noch die Steambox als "kostenguenstigesten PC-Console vermarkten fuer €500. Sohnemann bekommt eine Console und PC in einem (2 for 1)"
SteamOS habne die schon. Im PC Mode werden noch zus. apps nachinstalliert wie GIMP, Handbrake etc. Aus Versehen werden noch emulatoren mitinstalliert, aus 30,000 Steam Games werden schnell 50,000 Steam+Retro ... mind blown! (https://youtu.be/FYJ1dbyDcrI?t=131)
DrFreaK666
2020-03-11, 15:58:04
Das hat nichts mit der Hardware(-kompatibilität) zu tun. Das sind schlicht Exklusivtitel.
Gut, dann gab es das halt damals als Spiele nur mit einer Voodoo-Karte liefen (Glide-only)
robbitop
2020-03-11, 16:07:53
Keine gute Idee. Damit würde man in Konkurrenz zu seinen eigenen Kunden stehen. So wie 3dfx 1998 als sie STB gekauft haben.
Wichtig als Unternehmen ist es sich auf das Kerngeschäft konzentriert und dort performt. Natürlich kann man und muss man da auch mal heraus - aber an sich nur wenn es entsprechende Lücken in den Märkten gibt die man gut füllen kann. Ein potenzieller Markt der bereits mit starken Wettbewerbern gefüllt ist: eher nicht so gut.
Sowas kostet Invest, die Organisation muss wachsen und entsprechend wachsen die Kosten. Sowas will gut überlegt sein und das Chancen Risiko Verhältnis sollte besser sehr gut sein.
Silentbob
2020-03-11, 17:33:05
Neue Konsolen ende jahr und keine E3. Das gab es auch noch nie. Bin gespannt wann die beiden Player mal was zeigen.
][immy
2020-03-11, 18:39:38
Neue Konsolen ende jahr und keine E3. Das gab es auch noch nie. Bin gespannt wann die beiden Player mal was zeigen.
Nun, ich würde mal behaupten, das man eigentlich auf solche Messen wie die E3 inzwischen ganz gut verzichten kann. Dort wird selten etwas neues vorgestellt. Einzig Interviews entfallen, aber auch die kann man digital machen. Ist zwar nicht unbedingt immer das gleiche, aber besser als nix ;)
Linmoum
2020-03-11, 18:49:24
Sony wäre eh nicht auf der E3 gewesen, Microsoft wird es daher auch verkraften.
HotSalsa
2020-03-12, 10:24:14
hat vor allem MS seine Präsi nicht sowieso immer 1-2 Tage vor Start der eigententlichen E3 an so einem angemieteten Convention Ort gemacht ?? :confused:
Das könnten sie immer noch machen bzw. falls zu riskant dann halt als eine Art Online Panel inkl. Stream.
Gebrechlichkeit
2020-03-12, 15:29:44
Intermezzo: Every Video Game Console Ranked From WORST To BEST
https://www.youtube.com/watch?v=pI-JPlKROUk
Ghost1nTh3GPU
2020-03-13, 07:03:17
Wer will nur eine PS5, wenn man vielleicht bald auf mehreren gleichzeitig spielen kann, zumindest in der Cloud: http://www.freepatentsonline.com/y2020/0084267.html
][immy
2020-03-13, 10:03:40
Wer will nur eine PS5, wenn man vielleicht bald auf mehreren gleichzeitig spielen kann, zumindest in der Cloud: http://www.freepatentsonline.com/y2020/0084267.html
Naja an sich nix neues. Man versucht halt Ressourcen so gut es geht auszunutzen. Scheitert aber schon daran das wir kaum in der Lage sind viele Kerne sinnvoll auszulasten. Ein Netzwerk dazwischen würde das Problem nur verkomplizieren.
Doom war mal dazu in der Lage (so könnte man beispielsweise mehrere Monitore verwenden), war allerdings ein wenig was anderes.
Da will nur jemand was patentieren bevor es jemand anderes macht.
Ravenhearth
2020-03-14, 16:41:19
PS5 & Xbox Series X Release Dates May Be Coronavirus’ Next Victims (https://www.ccn.com/ps5-xbox-series-x-release-dates-may-be-coronavirus-next-victims/)
dildo4u
2020-03-16, 13:15:31
https://i.imgur.com/9kM9F1e.png
https://news.xbox.com/en-us/2020/03/16/xbox-series-x-tech/
1TB SSD Erweiterung
https://twitter.com/dark1x/status/1239525360796041220
https://live.staticflickr.com/65535/49665115558_a647c06790_h.jpg (https://flic.kr/p/2iEJGxQ)ETOtoejXsAEESRc (https://flic.kr/p/2iEJGxQ) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
qcY4nRHapmE
4cmclCjS5jg
7Fjn4GRw8qE
0eBaPS3uj-A
S82YvCtwfHY
Piefkee
2020-03-16, 13:25:56
Hm 7nm enhanced...
Komisch Navi10 hat schon 7P (Enhanced).
Also kein EUV für die Konselen
unl34shed
2020-03-16, 13:33:56
Das mit dem Speicher ergibt irgendwie keinen Sinn. Oder?
Die werden doch keine Mischbestückung aus 4x 1GB und 6x 2GB chips verbauen. 320bit @14Gb/s
Piefkee
2020-03-16, 13:37:24
Interessant! PowerSupply ist nur 300Watt
Ghost1nTh3GPU
2020-03-16, 13:39:34
Das mit dem Speicher ergibt irgendwie keinen Sinn. Oder?
Die werden doch keine Mischbestückung aus 4x 1GB und 6x 2GB chips verbauen. 320bit @14Gb/s
Offensichtlich. Sony könnte da mit 16GB >15Gbps 256-bit vielleicht besser dastehen.
Troyan
2020-03-16, 13:43:23
Mesh-Shading, DXR, VRS, DirectML - lustig, wie nVidia den Konsolen den Stempel aufdrücken kann ohne selbst beteiligt zu sein.
dildo4u
2020-03-16, 13:52:58
Minecraft RT auf XBox Series X.
https://youtu.be/qcY4nRHapmE?t=557
mironicus
2020-03-16, 13:57:15
Gears 5 soll in 4K mit Ultra-Texturen und 60 fps laufen. Das geht momentan nur mit einer RTX 2080 Ti.
disap.ed
2020-03-16, 13:57:40
Die Speicherkonfiguration ist wirklich seltsam. Jemand eine Idee, warum man das so auslegt?
dildo4u
2020-03-16, 13:59:58
Gears 5 soll in 4K mit Ultra-Texturen und 60 fps laufen. Das geht momentan nur mit einer RTX 2080 Ti.
Laut DF läuft es auf 2080 Level aber der Port ist erst zwei Wochen alt.
https://youtu.be/qcY4nRHapmE?t=478
Platos
2020-03-16, 14:07:50
Interessant ist vor allem auch, dass der Prozessor auf 3.8GHz bzw. 3.6GHz läuft (auf allen Kernen)
Und bezüglich der Perfomance: 04:34 im ersten Video, zeigt eig. das Potential von 12TF on RDNA2. Die Perfomance dürfte also, wie mal in einer früheren News von Leonidas dargelegt, deutlich höher sein, als man sich von der Zahl "12" erdenken würde. Sollte also rein von der Perfomance irgendwo höher als die 2080s sein und wenn man bedenkt, dass man bei Konsolen viel besser optimieren kann, dürfte das (optische) Resultat also schon an eine RTX 2080Ti rankommen.
Edit2: Also verglichen mit nvidida Karten sollte die Perfomance etwa Mittig zwischen 2080s-2080Ti sein. Bezogen auf eine "alte" XBox one X sollte es allerdings eher in Richtung einer (fast) 3-Facher "Gaming-Perfomance" liefern, wie nur die Doppelte.
Gears 5 soll in 4K mit Ultra-Texturen und 60 fps laufen. Das geht momentan nur mit einer RTX 2080 Ti.
Wer sagt Ultra, aus welcher Quelle kommt das ? Und vor allem, was heisst das schon, das "Konsolen-Setting" stimmt mit gar keinem PC-Setting überein. Es ist ein eigenes.
Ghost1nTh3GPU
2020-03-16, 14:22:32
Die Speicherkonfiguration ist wirklich seltsam. Jemand eine Idee, warum man das so auslegt?
20GB waren halt zu teuer und 10 zu wenig.
mironicus
2020-03-16, 14:27:34
Also ich bin schon ziemlich angetan von dem Teil. Wenn man so etwas in der Art als Mini-PC selbst bauen würde, wären das weit über >1000 Euro, wohl schon fast 2000 Euro. Dazu nur ein einziger Lüfter, die Konsole dürfte ziemlich leise sein.
Hm 7nm enhanced...
Komisch Navi10 hat schon 7P (Enhanced).
Also kein EUV für die Konselen
Würd mich auch wundern. Auf N7P kann man relativ leicht N6 machen mit etwas Arbeit, was die Konsolenhersteller doch sehr interessieren dürfte, weil N6 ein recht günstiger EUV-Standardprozess werden soll.
N7+ dürfte teurer als N6 sein, da Top-End-Prozess.
robbitop
2020-03-16, 14:37:29
Schon krass, dass das alles in 15,3 Mrd Transistoren passt.
Mal zum Vergleich:
N10 RDNA1 mit 40 CUs: 10,3 Mrd Transistoren
Zen 2 Chiplet von Matisse: 3,9 Mrd Transistoren OHNE I/O
I/O Chiplet: 2 Mrd
Klar beim I/O Chiplet kann man sicherlich eine Menge rausschmeißen.
Die 32 MiB bei Zen 2 sind ~1,5 Mrd Transistoren. Wenn man mal Renoir nimmt, dann wären 4 MiB pro CCX verbaut, also 8 MiB für 8 Cores. Kann man also 1,1 Mrd sparen. Beim I/O sicherlich auch ~1 Mrd.
CPU: 2,8 Mrd
I/O: 1 Mrd
GPU: 56/40xN10: 13,4 Mrd. (Milchmädchen!!)
-> 17,2 Mrd....
Und da sind noch keine neuen Features für RDNA2 eingerechnet. Also ich will nur sagen, dass ich verdammt überrascht von den 15,3 Mrd Transistoren in dem DF Video bin. Und auch, dass das in 360 sqmm passt.
Dass kein EUV verwendet wird, wundert mich nicht. Man nutzt wie schon mehrfach gesagt, Prozesse, die erwachsen und hoch verfügbar sind. Insbesondere bei den super langen Validierungszeiträumen und den Anforderungen an Stückzahl und Preis...
mironicus
2020-03-16, 14:43:18
Was wohl die externen Speicherweiterungskarten kosten werden...
robbitop
2020-03-16, 15:09:50
WTF 1x kompletter Kern wird für das OS verschwendet. Dafür reichte bei der Last Gen 1x Jaguar Kern mit 1,6 GHz. Ein Zen 2 Kern mit 3,6/3,8 GHz und SMT ist sicherlich 4-6x so schnell.
Ggf. sinnvoller, dass auf 30-50% eines Kerns festzutackern.
Platos
2020-03-16, 15:14:17
Ist doch viel einfacher, wenn man einfach eine feste Anzahl Cores zur Verfügung hat und nicht 7.6 :confused: Und vor allem kann man dann zu 100% darauf zählen, dass einem die zur Verfügung stehen. Und ausserdem macht es die Abwärtskompatibilität einfacher. Die alte Xbox hatte 7 Kerne - die neue hat auch 7 (physikalische) für's Gaming.
Weitaus mehr stört mich eher, dass 2.5GB für's OS reserviert ist.
Und an alle, die dachten, man könne ne X-beliebige SSD oder gar HDD als Speicherweiterung nutzen: hab's ja gesagt es gibt kein erweiterbarer Speicher, ausser irgendwelche Zertifizierte (oder gleich eigener Custom-Speicher).
Rein technisch muss man aber sagen, hat Microsoft dieses Mal schon ordentlich was zu bieten (Edit: Ausser der RAM ist dann, wie erwartet, aber nicht erhofft, ein bisschen wenig). Fragt sich natürlich, wie viel das ganze kosten soll. Ich bin mal gespannt, was Sony als Konter liefert.
mr coffee
2020-03-16, 15:15:41
Hauptsache schnell. Freue mich über die Art der Speichererweiterung. USB 3.1 extern gibt’s ja zusätzlich.
robbitop
2020-03-16, 15:17:53
Ist doch viel einfacher, wenn man einfach eine feste Anzahl Cores zur Verfügung hat und nicht 7.6 :confused: Und vor allem kann man dann zu 100% darauf zählen, dass einem die zur Verfügung stehen.
Das sollte schon gehen. Man kann die Rechenzeit für das OS für einen Teil eines Kerns festtackern. IIRC wurde das auch schonmal bei Konsolen gemacht.
Als Entwickler hat man idR eh wunderbare Performance Analyse Tools, so dass man einen 60% Core auch gut füllen kann. Sowas wird mit fester Hardware ja nicht automatisiert gefüllt.
Was soll denn die Speicherpartitionierung?
Devs haetten bestimmt nichts dagegen gehabt, wenn die Konsole stattdessen z.B. 12 GiB schnell und MS dann den lahmen Rest fuers OS behalten haette anstatt unterschiedliche 2 Pools mit insgesamt 13,5 GiB zu beruecksichtigen.
13,5 nutzbarer Speicher finde ich jetzt auch nicht gerade viel. Mal schauen, was Sony hinsichtlich des RAMs macht.
][immy
2020-03-16, 15:22:14
Wow, da hab ich ja was verpasst.
Das mit dem geteilten Speicherinterface finde ich nach wie vor eine Seltsame Entscheidung. Aber andererseits hat man so natürlich wieder weniger Konflikte zwischen GPU & CPU und trotzdem noch einen gemeinsamen Pool und vor allem mehr Bandbreite insgesamt.
Das sieht aber auch stark danach aus, das man hier den Preis (der ja bisher nicht genannt wurde) runter bringen wollte, gehe daher mal von $499 -> 499€ aus, sonst hätte man sich die Preisersparnis sparen können.
Erstaunlich auch, das sie schon so viele Details preisgeben. Die müssen ja komplett davon überzeugt sein das Sony nichts besseres im Petto hat, wenn sie die Specs so im Detail raushauen.
Man könnte ja fast denken der Launch wurde vorgezogen, denn so viele Details (vor allem den inneren Aufbau) erfährt man ja meist erst nach dem Launch wenn jemand as Ding auseinander nimmt.
Da bin ich auch mal gespannt, was die 1TB Sticks denn kosten sollen. Hab aktuell meine 8TB Platte an der xbox die mit ~5 TB gefüllt ist. Hoffe mal das ich diesen Speicher zumindest für alte Titel auch weiterhin nutzen kann.
Schon krass, dass das alles in 15,3 Mrd Transistoren passt.
Mal zum Vergleich:
N10 RDNA1 mit 40 CUs: 10,3 Mrd Transistoren
Zen 2 Chiplet von Matisse: 3,9 Mrd Transistoren OHNE I/O
I/O Chiplet: 2 Mrd
Klar beim I/O Chiplet kann man sicherlich eine Menge rausschmeißen.
Die 32 MiB bei Zen 2 sind ~1,5 Mrd Transistoren. Wenn man mal Renoir nimmt, dann wären 4 MiB pro CCX verbaut, also 8 MiB für 8 Cores. Kann man also 1,1 Mrd sparen. Beim I/O sicherlich auch ~1 Mrd.
CPU: 2,8 Mrd
I/O: 1 Mrd
GPU: 56/40xN10: 13,4 Mrd. (Milchmädchen!!)
-> 17,2 Mrd....
Und da sind noch keine neuen Features für RDNA2 eingerechnet. Also ich will nur sagen, dass ich verdammt überrascht von den 15,3 Mrd Transistoren in dem DF Video bin. Und auch, dass das in 360 sqmm passt.
Dass kein EUV verwendet wird, wundert mich nicht. Man nutzt wie schon mehrfach gesagt, Prozesse, die erwachsen und hoch verfügbar sind. Insbesondere bei den super langen Validierungszeiträumen und den Anforderungen an Stückzahl und Preis...
Wie schon schon geschrieben hast, im IO-Berech lässt sich ne menge sparen.
Hinzu kommt ja noch der Raytracing Part und was sie noch alles zusätzlich angeflanscht haben.
Bin erstaunt das, dass auch runter bis Int4 Unterstützung runter geht ... ich sehe schon die Clickbait-Artikel 96TF GPU ^^ (ohne Int4 zu erwähnen).
Aber RDNA2 wird dann wohl AMDs erste GPU sein, bei der alles Rausfliegt, was man nicht für Spiele braucht (schätze ich mal), denn anders ist diese Kompakte Bauweise kaum zu erklären.
Was soll denn die Speicherpartitionierung?
Devs haetten bestimmt nichts dagegen gehabt, wenn die Konsole stattdessen z.B. 12 GiB schnell und MS dann den lahmen Rest fuers OS behalten haette anstatt unterschiedliche 2 Pools mit insgesamt 13,5 GiB zu beruecksichtigen.
13,5 nutzbarer Speicher finde ich jetzt auch nicht gerade viel. Mal schauen, was Sony hinsichtlich des RAMs macht.
Streitereien zwischen GPU & CPU vermeiden. Grundsätzlich ist es gut, wenn diese beiden Komponenten ihren schnell verfügbaren Speicher haben (die PS4 leidet ja relativ stark unter Memory-Contention wie die Sony Folien das damals aufgezeigt haben). Dieses Problem würde man damit umgehen, hätte aber trotzdem noch eine Hohe Bandbreite und große Speicher. Ist ja nicht so, das sie diesmal mit mickrigen 32-MB schnellen Speicher ankommen würden (das wäre ja schon an Cache vorhanden) sondern der Pool ist groß genug um nicht in Probleme zu laufen. Und den SSD-Speicher gibt es ja auch noch.
robbitop
2020-03-16, 15:22:53
Die 6x2GB Module und 4x 1GB Module sorgen bestimmt auch für Sorgen bei der Optimierung. Ein 4 von 10x 32 bit Speichercontroller können dann nämlich nur 1 GB verwalten. Bedeutet, dass das SI nicht symetrische Last bekommt. Die Bandbreitenauslastung sollte also entsprechend sinken. Oh mann... was für ein Gefrickel damit man um das Problem der hohen RAM Kosten herum kommt.
edit: iuno war schneller...
Wobei 4/16 des eh schon knappen Speichers für Nicht-Spiele zu verschwenden (vorausgesetzt, es ist für das OS), wäre irgendwo auch pervers. Da hätte man sich eher billigen zusätzlichen DDR Speicher gewünscht.
edit: oh mann und dann auch noch unterschiedliche Taktraten? Und das nichtmal einheitlich: also im Sinne von 1 GB Module langsam und 4 GB Module schnell. Dann geht es ja mit 10 GB schnell vs 6 GB langsam nicht auf...
Platos
2020-03-16, 15:26:29
Ne Auflistung der Specs& Features (evtl. erklärt) wäre auch nicht schlecht. Wäre vlt. was für Leonidas :D
Edit: Ich hoffe wirklich, dass Sony das Netzteil endlich aus der Konsole raus nimmt. Aber das wird vermutlich nicht passieren.
Edit2: Wenn man sich den Kühlkörper ansieht bzw. dessen Lamellen, dann kann man die Konsole stehend oder liegend nutzen und die Wärme kann trotzdem noch nach oben steigen (aus dem Kühlerblock heraus) und dann nach aussen transportiert werden. Allerdings natürlich nur auf einer der 4 Seitenflächen. Man muss also noch die richtige Seite erwischen, wird aber vermutlich so gemacht sein, dass es aufgrund des Laufwerkschlitzes automatisch richtig ist.
dildo4u
2020-03-16, 15:27:18
Viehleicht hat man den Cache der CPU beschnitten so wie bei Renoir deshalb der schnelle Ram.
robbitop
2020-03-16, 15:29:42
Viehleicht hat man den Cache der CPU beschnitten so wie bei Renoir deshalb der schnelle Ram.
RAM ist vergleichen mit Cache extremst langsam. GDDR sowieso da für hohe Latenzen optimiert. Das eine hilft dem anderen kaum. Da muss dann der Entwickler handoptimieren für eine hohe Hitrate.
sChRaNzA
2020-03-16, 15:29:42
Was macht das Marketing Team von Sony eigentlich so beruflich?
robbitop
2020-03-16, 15:32:45
WTF ich verstehe nicht, wie 10 von 16 GB mit 560 GB/s laufen sollen. 14 MT/s bei 320 bit geht tatsächlich auf mit 560 GB/s. Aber dazu müssen dann alle Module mit 14 MT/s laufen.
Dann verstehe ich aber nicht, wie 6 von 16 GB mit nur 336 GB/s operieren sollen...
Ob man die entsprechenden Bandbreiten für entsprechende Zwecke einfach SoC intern "festtackert"?
dildo4u
2020-03-16, 15:36:44
Was macht das Marketing Team von Sony eigentlich so beruflich?
Die werden grad rotieren ob ein 2020 Launch überhaupt machbar ist,es ist relativ einfach für MS das ganze zu demonstrieren wenn man auf schon finale Games setzt.
Der große PR Knall bei Sony kommt zu 100% erst wenn sie sicher sind das sie PS5 Only Games zeigen können die es auch zum Launch schaffen.
robbitop
2020-03-16, 15:43:56
Sehr gut: Mesh Shading und VRS ist in Hardware. Beides sinnvolle Features (bereits in Turing erstmalig verwendet). Wenn das jetzt in Massenhardware in Form von Konsolen kommt, bedeutet das, dass es mittelfristig breit umgesetzt werden wird. Mehr Geometrie, bessere Effizienz! :up:
Gebrechlichkeit
2020-03-16, 15:45:05
Wie aus dem Nix, gibt es nun zig videos auf tube zur XSX.
https://www.youtube.com/watch?v=4cmclCjS5jg
][immy
2020-03-16, 15:49:17
Externes USB-Laufwerk kann für "alte" Spiele verwendet werden
https://twitter.com/dark1x/status/1239530179803754496
They do but not for Series X games. You can attached a USB drive and use it to play all BC titles (XO, 360 and Xbox) and you can backup Series X games on the USB drive. It's not fast enough for actually playing games, though - have to install to SSD.
Ich hoffe mal darauf, das man dort auch die neuen Spiele "parken" kann um nicht dauernd zu löschen und sie neu runterladen zu müssen.
Ghost1nTh3GPU
2020-03-16, 15:51:09
WTF ich verstehe nicht, wie 10 von 16 GB mit 560 GB/s laufen sollen. 14 MT/s bei 320 bit geht tatsächlich auf mit 560 GB/s. Aber dazu müssen dann alle Module mit 14 MT/s laufen.
Dann verstehe ich aber nicht, wie 6 von 16 GB mit nur 336 GB/s operieren sollen...
Ob man die entsprechenden Bandbreiten für entsprechende Zwecke einfach SoC intern "festtackert"?
Die zusätzlichen 6GB haben doch nur 192-Bit Anbindung. Effektiv kommt da wohl in Richtung 400GB/s wenn man es nicht managed. Immerhin weit besser als der Worstcase bei den ungeraden Design von Nvidia.
robbitop
2020-03-16, 15:52:52
Die zusätzlichen 6GB haben doch nur 192-Bit Anbindung. Effektiv kommt da wohl in Richtung 400GB/s wenn man es nicht managed. Immerhin weit besser als der Worstcase bei den ungeraden Design von Nvidia.
Nochmal: alle 10x Module mit je 32 bit Breite müssen mit 14 GT/s laufen, damit 560 GB/s für den GPU Speicherbereich möglich sind. Egal wie man es dreht.
---------------
Diesmal hat man jedenfalls eine Menge Hirnschmalz statt bruteforce investiert, um trotz relativ wenig Einsatz von Speicher und Transistoren doch einen guten Sprung zu schaffen.
(VRS, Mesh Shading, ML mittels beschleunigtem INT4/8 für upsclaing und retrofit von HDR, SSD zum Sparen von VRAM für Texturstreaming mit HW kompression/dekompression um nochmal mehr Bandbreite zu holen, diese Segmentierung des Speichers usw...)
Da haben MS und AMD sicherlich echt mit harter Arbeit geklotzt, um den Rückgang seitens Moores Law zu trotzen. IMO ein Stück weit beeindruckend!
Platos
2020-03-16, 15:53:46
Also wenn das Ding liegend ist, muss/sollte der Laufwerksschlitz näher am Boden sein, damit die Wärme vernünftig abgeführt werden kann. (Nur so als Info)
Ich finde die Segmentierung nicht so extrem tragisch.
Es ist ja nicht wie bei 360 als der EDRAM zu klein für nen Fatbuffer war.
Nightspider
2020-03-16, 16:06:45
So viel zu den Leuten die meinten man werde die SSD nicht erweitern können. :rolleyes:
https://www.computerbase.de/2020-03/xbox-series-x-specs/
Platos
2020-03-16, 16:14:50
So viel zu den Leuten die meinten man werde die SSD nicht erweitern können. :rolleyes:
https://www.computerbase.de/2020-03/xbox-series-x-specs/
Man kann auch nicht einfach irgend eine (NVME) SSD kaufen und darum gings ja damals.
Ghost1nTh3GPU
2020-03-16, 16:16:21
Bleibt die Frage ob Sony es auch so löst.
Auf jeden Fall kann man die Spiele auf dem USB3.2 Medium auslagern.
][immy
2020-03-16, 16:19:48
Man kann auch nicht einfach irgend eine (NVME) SSD kaufen und darum gings ja damals.
Genau. Hier wird vor allem wichtig, wie teuer die Erweiterung wird. Bei den aktuellen Preisen kann man wohl von 100-150€ je Erweiterungsmodul ausgehen.
Bei grad mal 1TB internen Speicher ist das recht wenig, vor allem da Spiele die starke Tendenz haben immer gigantischer zu werden. Wenn man allerdings die Paketierung diesmal sparen kann und Daten nicht x-Fach in allen Paketen vorliegen, lässt sich bestimmt eine Menge sparen. Das System wird sich sicherlich auch noch einen großen Teil reservieren schon wegen der Speicher-Abbilder. Ich hoffe wirklich das sich die Schreibleistung bei den SSDs verbessert hat, denn mit der Geschwindigkeit und dem Umschalten zwischen spielen, kann man recht schnell recht viel schreiben.
Ganon
2020-03-16, 16:21:59
Da hatten ja sogar die pessimistischsten Pessimisten in der Frage um den RAM-Ausbau zu hoch gepokert :D Es sind zwar 16GB, aber dafür sogar noch partitioniert in 10 / 6 GB. Und die 6GB sind noch mal aufgeteilt in 2.5GB für das OS und 3.5GB für Spiele. D.h. effektiv stehen für Spiele 13.5GB RAM zur Verfügung. Bim gespannt was die Entwickler daraus so machen.
Lurtz
2020-03-16, 16:24:53
Könnt ihr das hören? gravitationsfeld rotiert gerade :ugly:
robbitop
2020-03-16, 16:27:11
Könnt ihr das hören? gravitationsfeld rotiert gerade :ugly:
Sein Punkt ist ja nach wie vor valide. Dann wird eben der Sprung in Bezug auf den Content kleiner, was schade ist. Aber mehr ging eben aufgrund des relativ geringen Fortschritts in Bezug auf Speicherkosten offenbar nicht. Sicherlich spart man schon etwas VRAM dadurch, dass man weniger Texturen im VRAM halten muss - aber das ist dennoch nicht der übliche Sprung.
Platos
2020-03-16, 16:33:08
Bezüglich Preis: Also die Steckkarte wird sicherlich einiges kosten. Hat irgendwie Memorycard-Format aber kosten wirds dann sau viel. Immerhin muss das ding 2.4GB/s liefern, und das ohne einzubrechen, wenn ich das richtig verstanden habe. Wenn man sich die Preise von NVME-SSDs so anschaut, müsste das Ding ja mind. 150Euro kosten.
Dafür punktet man diesesmal (anscheinend) mit einigen neuen Features wie im DF Video schön erklärt. Und die deutlich stärkere CPU ist ja schon eine Revolution. Aber klar, schade ist es trotzdem.
Ich habe ja damals, als ich die Abstimmung gemacht habe, selbst 64GB angeklickt ;D Naja, so kann man falsch liegen. Gut, Sony kann's noch ein wenig richten :D
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=586118&highlight=speicher
Unicous
2020-03-16, 16:40:13
Ich lag einigermaßen richtig. 3,6 bzw. 3,8GHz bei den Kernen.:freak:
Alle die von 3GHz max. gesprochen haben und ewig darüber diskutiert haben was alles nicht geht unter 7nm.:ufinger:
(robbitop hatte sogar auf 3,7GHz getippt, die goldene Mitte.:biggrin:)
Derbinger
2020-03-16, 16:42:15
Wie ist die "RDNA2-GPU, 52 CUs (3.326 ALUs), 1.825 MHz" so einzuordnen?
Und 16GB waren ja abzusehen. Konsolen haben nie viel Ram.
dildo4u
2020-03-16, 16:44:01
Wie ist die "RDNA2-GPU, 52 CUs (3.326 ALUs), 1.825 MHz" so einzuordnen?
Und 16GB waren ja abzusehen. Konsolen haben nie viel Ram.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12247420&postcount=7836
Unicous
2020-03-16, 16:51:10
56 CUs (4 deaktiviert) auf 360mm² auch das wurde hier angezweifelt. Einige haben behauptet die von DF kolportierten 405mm² wären viel zu wenig.:freak:
Gebrechlichkeit
2020-03-16, 16:53:02
Gears 5 4K60 kein RT und Minecraft mit RT, was nicht ganz fluessig rennt. (https://youtu.be/Oeyu0xYQtrw?t=499)
Troyan
2020-03-16, 17:05:31
Jo, wundert nicht. Laut Microsoft bringe der RT-Beschleunigungsteil nur doppelt soviel Leistung. nVidia spricht von fast 10x zuviel.
Naja, ist das selbe wie "4K" in der jetzigen Generation. In drei Jahren bekommt man dann die richtigen Konsolen, die Raytracing in mehr als 1080p/60 FPS schaffen.
dildo4u
2020-03-16, 17:08:26
Volles Path Tracing ist eh selten das geht eh nur bei Games mit Minimal Optik,der Rest wird zwei bis drei RT Effekte mixen Control war dort schon recht erfolgreich.
gravitationsfeld
2020-03-16, 17:08:37
Jo, wundert nicht. Laut Microsoft bringe der RT-Beschleunigungsteil nur doppelt soviel Leistung. nVidia spricht von fast 10x zuviel.
Relativ zu was?
aufkrawall
2020-03-16, 17:11:43
Bei dem Minecraft-Beispiel gibts im Gegensatz zur PC-Preview jedenfalls noch keine Reflexionen zu sehen.
dildo4u
2020-03-16, 17:12:09
Relativ zu was?
Er reimt sich da was zusammen eine 2080 kommt oft nicht über 1080p60 hinaus so lange man kein DLSS nutzt.
https://www.computerbase.de/2019-08/control-benchmark-raytracing-test/3/#abschnitt_die_performance_von_raytracing
gravitationsfeld
2020-03-16, 17:13:55
Ja, aber relativ zu was? Zu Compute-Shader-Raytracing ohne sonstige GPU-Beschleunigung? Wo sagt Microsoft da irgend was dazu?
basix
2020-03-16, 17:15:40
Jo, wundert nicht. Laut Microsoft bringe der RT-Beschleunigungsteil nur doppelt soviel Leistung. nVidia spricht von fast 10x zuviel.
Relativ zu was?
Nvidia spricht von 10 GRay/sec und 10 TFLOPs pro GRay.
https://www.slideshare.net/NVIDIA/nvidia-geforce-rtx-launch-event --> Folie 19
Was aber nicht steht, ob das Compute Shader TFLOPs sind oder FP16 Tensor Cores FLOPs. Ich tippe auf letzteres. Wieso? 110 TFLOPs Tensor = 110 TFLOPs Raytracing auf der ein und der selben Folie.
Nur: Momentan verwendet kein Entwickler Tensor Cores für ihre RT Implementation, es verwenden alle Compute Shader.
dildo4u
2020-03-16, 17:17:06
MS wird vermutlich DXR 1.0 vs 1.1 meinen daher könnte die erwähnten 2X kommen.
Troyan
2020-03-16, 17:17:54
Relativ zu was?
Die Beschleunigung des RT-Teils:
RDNA 2 fully supports the latest DXR Tier 1.1 standard, and similar to the Turing RT core, it accelerates the creation of the so-called BVH structures required to accurately map ray traversal and intersections, tested against geometry. In short, in the same way that light 'bounces' in the real world, the hardware acceleration for ray tracing maps traversal and intersection of light at a rate of up to 380 billion intersections per second.
"Without hardware acceleration, this work could have been done in the shaders, but would have consumed over 13 TFLOPs alone," says Andrew Goossen. "For the Series X, this work is offloaded onto dedicated hardware and the shader can continue to run in parallel with full performance. In other words, Series X can effectively tap the equivalent of well over 25 TFLOPs of performance while ray tracing."
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
Das Minecraft-Video ist deutlich hinter dem PC-Build von vor 6 Monaten zurück.
Xbox SX: https://youtu.be/Oeyu0xYQtrw?t=572
Turing: https://youtu.be/1bb7wKIHpgY?t=10
Nvidia spricht von 10 GRay/sec und 10 TFLOPs pro GRay.
https://www.slideshare.net/NVIDIA/nvidia-geforce-rtx-launch-event --> Folie 19
Was aber nicht steht, on das Compute Shader TFLOPs sind oder FP16 Tensor Cores FLOPs. Ich tippe auf letzteres. Wieso? 110 TFLOPs Tensor = 110 TFLOPs Raytracing auf der ein und der selben Folie.
Compute-Shader, da nVidia Turing mit Pascal verglichen hat.
megachip800
2020-03-16, 17:19:51
Ich bin enttäuscht , CPU Top , GPU eher so lala da im Vergleich zu Nvidia eher schwache Raytraycing Performance , Busarchitektur und Ramspeicher total meh. Das passt hinten und vorne nicht zusammen , das ist so als würde man ein Ferrari bauen mit einem Hubraum eines VW Polo. Dh. in vielen Aspekten wird sich die Grafik nicht signifikant verbessern, der Farbraum wird nachwievor beschränkt sein, durch die schmale Busbandbreite ist man gezwungen viel mit Kompression unsw. zu arbeiten was die Grafik/Bildqualität verschlechtert. Definitiv keine echte Nextgenkonsole. Was ist mit HBM2/3 Speicher oder anderen wide I/O Lösungen? Hat Microsoft kein Geld mehr das man so eine billige und veraltete Ramtechnik verbauen musste?
dildo4u
2020-03-16, 17:20:37
Die Beschleunigung des RT-Teils:
https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
Das Minecraft-Video ist deutlich hinter dem PC-Build von vor 6 Monaten zurück.
Xbox SX: https://youtu.be/Oeyu0xYQtrw?t=572
Turing: https://youtu.be/1bb7wKIHpgY?t=10
No Shit eine 1000€ GPU rennt besser als ein 300€ Modell,in der Konsole steckt noch ein 8 Core Ryzen und eine SSD.
Das ganze ist nix anderes als der 5700 Nachfolger,Big Navi ist dann das 700€ Modell.
basix
2020-03-16, 17:22:48
Für 500$ ist die XBox Series X doch sehr potent ausgerüstet. Einzig beim RAM hätte ich mir mehr gewünscht, aber mehr erwarten konnte man nicht wirklich.
Wenn Microsoft das noch via vorinstalliertem Windows(-Light) zum HTPC / Wohnzimmer-PC macht wäre das nicht schlecht. Für 500$ einen sehr spieltauglichen PC zusammenbauen kann man sich heute nämlich nur begrenzt.
unl34shed
2020-03-16, 17:22:56
Nochmal: alle 10x Module mit je 32 bit Breite müssen mit 14 GT/s laufen, damit 560 GB/s für den GPU Speicherbereich möglich sind. Egal wie man es dreht.
4 Module sind nur 1GB groß, 6 Module 2GB.
Das heißt die "ersten" 10GB sind über alle Speicherchips verteilt.
Wenn du aus diesem Pool liest hast du die vollen 320bit@14Gb/s = 560GB/s, vorausgesetzt die Daten sind gleichmäßig verteilt.
Greifst du auf die oberen 6GB, also der oberen hälfte der 2GB Module, sind nur noch 6 Memorycontroller verfügbar. 6*32bit=192bit@14Gb/s = 336GB/s
Ein bisschen fraglich ist ob du während die CPU auf den Speicher zugreifst auf die 4 1GB Chips zugreifen kannst oder ob diese gesperrt sind. Falls es möglich ist, wäre die Frage ob man damit was anfangen kann, während man nicht auf den Rest des Speichers zugreifen kann.
Gebrechlichkeit
2020-03-16, 17:24:09
Das Teil wird €499 oder gar €599+ mit der 1TB "memkarte" kosten. 16gb bzw. "nur" 13.5 GB scheinen irgendwie nicht viel zu sein. Warum wieder zwei pools?
Jupiter
2020-03-16, 17:39:05
16 GB Speicher?! Da hatten schon einige Kumpels auf ihren 2011er PC für Crysis 2 insgesamt mehr.
][immy
2020-03-16, 17:39:10
Das Teil wird €499 oder gar €599+ mit der 1TB "memkarte" kosten. 16gb bzw. "nur" 13.5 GB scheinen irgendwie nicht viel zu sein. Warum wieder zwei pools?
Weil es sonst mehr Speicher hätte sein müssen (an einem 320 Bit Interface), was den Preis erhöht hätte (wo immer der sein wird).
Lieber 16 GB so aufgeteilt, als nur mit 256 Bit angebunden und dafür insgesamt langsamer.
Ich bin enttäuscht , CPU Top , GPU eher so lala da im Vergleich zu Nvidia eher schwache Raytraycing Performance , Busarchitektur und Ramspeicher total meh. Das passt hinten und vorne nicht zusammen , das ist so als würde man ein Ferrari bauen mit einem Hubraum eines VW Polo. Dh. in vielen Aspekten wird sich die Grafik nicht signifikant verbessern, der Farbraum wird nachwievor beschränkt sein, durch die schmale Busbandbreite ist man gezwungen viel mit Kompression unsw. zu arbeiten was die Grafik/Bildqualität verschlechtert. Definitiv keine echte Nextgenkonsole. Was ist mit HBM2/3 Speicher oder anderen wide I/O Lösungen? Hat Microsoft kein Geld mehr das man so eine billige und veraltete Ramtechnik verbauen musste?
Manche werden es nie lernen das es bei einer Konsole immer um eine Kompromisslösung geht und keine >1000€ Hardware drin sein kann.
Unicous
2020-03-16, 17:40:36
https://i.redd.it/7dld3abiw1n41.jpg
Was ist das eigentlich für ein krasses Packaging.:eek:
dildo4u
2020-03-16, 17:41:06
16 GB Speicher…. Da hatten schon ein paar Kumpels auf ihren 2011er PC für Crysis 2 insgesamt mehr.
GDDR6 ist Schweine teuer Nvidia verkauft dir Heute 8GB Karten für 700€.
Jupiter
2020-03-16, 17:42:40
Trotzdem. Die PCs waren von 2010 oder 2011. Jetzt sind wir 10 Jahre später.
Meinten hier nicht einige Nutzer, dass die nächsten Konsolen mindestens 32 oder gar 64 GB bekommen würden? Sonst wäre der Unterschied zu gering? Das mit der SSD ist klasse, aber die 16 GB sind ein Fehlschlag.
Beim nächsten PC wollte ich auch auf 32 oder 64 GB DDR 5 setzen plus eine schnelle Karte mit mehr als 12 GB. jetzt sieht es danach aus, als ob ich da weit weniger tun müsste.
dildo4u
2020-03-16, 17:45:23
Für was die Games haben Heute schon 100GB+,das ist schon über dem Limit von Blu Ray XL.
Was weniger auffallen wird ist das Streaming von Texturen etc,da es nicht mehr von HDD kommt.
Ex3cut3r
2020-03-16, 17:47:52
Trotzdem. Die PCs waren von 2010 oder 2011. Jetzt sind wir 10 Jahre später.
Meinten hier nicht einige Nutzer, dass die nächsten Konsolen mindestens 32 oder gar 64 GB bekommen würden? Sonst wäre der Unterschied zu gering? Das mit der SSD ist klasse, aber die 16 GB sind ein Fehlschlag.
Beim nächsten PC wollte ich auch auf 32 oder 64 GB setzen plus eine schnelle Karte mit mehr als 12 GB.
Wahrscheinlich kommt in 2-3 Jahren wieder eine Pro Version mit 32GB Speicher um die Kunden doppelt abzuziehen. :freak:
Unicous
2020-03-16, 17:52:42
GDDR6 ist Schweine teuer Nvidia verkauft dir Heute 8GB Karten für 700€.
Wat?:confused:
Die momentan günstigste 8GB GDDR6 GPU kostet um die 200 Euro, ich verstehe dein Argument nicht.:freak:
dildo4u
2020-03-16, 18:07:56
Und die ist nicht konkurrenzfähig selbst mit einer deutlich kleineren Die als ihre Gegner.
Das beste Preis-Leistungs-Verhältnis haben zur Zeit GeForce GTX 1650 Super, GeForce GTX 1660 Super, Radeon RX 580 und Radeon RX 590. Auch die Radeon RX 5700 schneidet in dieser Disziplin gut ab.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-preis-leistung-1920-1080-stand-02032020
aufkrawall
2020-03-16, 18:14:34
16 GB Speicher?! Da hatten schon einige Kumpels auf ihren 2011er PC für Crysis 2 insgesamt mehr.
Das müssen ja Superhirne gewesen sein, wenn sie extra für ein 32 Bit Programm mehr als 8GB gekauft haben. ;D
Unicous
2020-03-16, 18:16:23
@dildo4u
Was hat das eine mit dem anderen zu tun? Du hast dich gerade über angebliche GDDR6 Preise ausgelassen und lässt dabei außen vor, dass es GPUs mit 8GB GDDR6 für 200 Euro gibt. Was hat das mit der Performance zu tun.
Du hättest mit der Speicheranbindung argumentieren können und das Nvidia mehr Chips verwendet, aber am Ende des Tages sind Chips mit höherer Kapazität auch teurer.:wink:
Aber nein du kommst mit einem Performancevergleich.:freak:
dildo4u
2020-03-16, 18:18:09
Ich habe Preis/Leistung gepostet die 8GB GDDR6 verteuern die Karte so,das alles um die Karte ein besserer Kauf ist.
Ghost1nTh3GPU
2020-03-16, 18:18:38
Hätte man vielleicht besser auf 20GB GGDR6 und 512GB NVMe als Basis gesetzt?
Jupiter
2020-03-16, 18:19:15
Mir ist schon klar, dass die Spiele von damals meist 32 bit waren. Trotzdem kaufte man sich schon 16 GB. Es ist nicht jeder technisch so interessiert bzw genügend informiert.
aufkrawall
2020-03-16, 18:19:42
Ich würde gerne ein paar weitere Einordnungen haben, wie gravierend die Pool-Aufteilung sein könnte.
Ist eine 12GB Billig-Variante mittlerweile ausgeschlossen? Dann wär es immerhin nicht der Worst Case.
dildo4u
2020-03-16, 18:19:54
Hätte man vielleicht besser auf 20GB GGDR6 und 512GB NVMe als Basis gesetzt?
Call of Duty pusht schon Heute über 150GB 1TB sind Minimum.
Demogod
2020-03-16, 18:20:01
Ich denke 1TB SSD musste schon sein. Das aktuelle COD ist schon 160GB allein.
aufkrawall
2020-03-16, 18:20:59
Dafür gehört der Entwickler bei dem Gebotenen auch gepeinigt...
basix
2020-03-16, 18:21:24
https://i.redd.it/7dld3abiw1n41.jpg
Was ist das eigentlich für ein krasses Packaging.:eek:
Was meinst du? Die vielen Kondensatoren rund um den Die oder den grossen Metallrahmen rund herum? Ersteres ist normal und letzteres ist einfach aufs Mainboard aufgelötet und dient als Montagehilfe für den Kühler (+ Teil eines EMV-Schirmes, je nach dem).
Edit: Vielleicht kann über den Metallrahmen noch etwas Wärme and das PCB und einen allfälligen rückseitigen Kühler abgegeben werden.
Derbinger
2020-03-16, 18:22:34
1TB SSD und Zwang zur Optimierung ist sehr gut.
Die Ladezeiten sind das, was mich doch immer noch zum PC getrieben hat.
Unicous
2020-03-16, 18:27:21
@basix
Jetzt wo du es sagst... ich ging davon aus, dass das ein Lötsockel ist auf dem wiederum ein Lötsockel ist, weil ich zuvor nur ein Bild vom SoC mit den GDDR6-Chips gesehen habe.:redface:
Es ist also nur ein aufgelöteter Rahmen.:frown:
Loeschzwerg
2020-03-16, 18:34:20
Der ganze Aufbau gefällt mir richtig gut. Macht qualitativ einen sehr hochwertigen und durchdachten Eindruck.
Gears 5 4K60 kein RT und Minecraft mit RT, was nicht ganz fluessig rennt. (https://youtu.be/Oeyu0xYQtrw?t=499)
An der Minecraft RT Implementierung soll ein Programmierer einen Monat gearbeitet haben. Showcase.
https://www.youtube.com/watch?v=qcY4nRHapmE&feature=youtu.be&t=607
Da wird noch einiges gehen in Zukunft. Die 13,5 GB RAM werden durch die SSD und die vielen anderen neuen Features weniger ein Problem sein.
Edit:
Der ganze Aufbau gefällt mir richtig gut. Macht qualitativ einen sehr hochwertigen und durchdachten Eindruck.
Auf jeden Fall. Da haben sie sich Gedanken gemacht. Funktionell und einfach gebaut. Im Video wird das gut erklärt.
https://youtu.be/7Fjn4GRw8qE?t=599
Nightspider
2020-03-16, 19:05:21
Man kann auch nicht einfach irgend eine (NVME) SSD kaufen und darum gings ja damals.
Nee ging damals nicht um irgendeine SSD.
Logisch dass die Spezifikationen gleich sein müssen.
Crazy_Bon
2020-03-16, 19:11:30
Call of Duty pusht schon Heute über 150GB 1TB sind Minimum.
Dann belegt der Content von CoD mehrfach Platz auf der Platte. GoW4 ist auch größer als GoW5, Hellblade ist z.B. relativ lächerlich klein.
Neuere Spiele müssen nicht größer sein, können aber.
Der Formfaktor allein schließt Drittanbieter aus. Vielleicht gibt es irgendwann Cases wo man NVME SSDs aus dem Laden rein tun kann, aber das ist schon speziell was Microsoft mit der Speichererweiterung macht.
robbitop
2020-03-16, 19:27:05
56 CUs (4 deaktiviert) auf 360mm² auch das wurde hier angezweifelt. Einige haben behauptet die von DF kolportierten 405mm² wären viel zu wenig.:freak:
Du musst aber schon zugeben, dass 15,3 Mrd Transistoren überraschend wenig für das Genannte ist, oder? (Anhand der Transistorzahlen von existierenden Navi und Zen Produkten)
Korvaun
2020-03-16, 19:27:59
Ich gestehe MS jetzt einfach mal zu das sie das Optimum aus den zu Verfügung stehenden Mitteln herausgeholt haben ("Was geht max. für angepeilten Verkaufspreis Y"). Insbesondere die Speicheraufteilung wird MS *sehr* genau geprüft/simuliert haben. Die vielen Neuerungen und Details rund um den SOC/SSD/Controller/API/Gehäuse sehen insgesamt sehr durchdacht und "rund" aus.
Wenn man den Konsolenbonus (Optimierung) dazurechnet wird die SeriesX bei erscheinen einem HighEnd-SpielePC sicher ebenbürtig sein und das sind doch wirklich gute Nachrichten....
robbitop
2020-03-16, 19:29:17
4 Module sind nur 1GB groß, 6 Module 2GB.
Das heißt die "ersten" 10GB sind über alle Speicherchips verteilt.
Wenn du aus diesem Pool liest hast du die vollen 320bit@14Gb/s = 560GB/s, vorausgesetzt die Daten sind gleichmäßig verteilt.
Greifst du auf die oberen 6GB, also der oberen hälfte der 2GB Module, sind nur noch 6 Memorycontroller verfügbar. 6*32bit=192bit@14Gb/s = 336GB/s
Ein bisschen fraglich ist ob du während die CPU auf den Speicher zugreifst auf die 4 1GB Chips zugreifen kannst oder ob diese gesperrt sind. Falls es möglich ist, wäre die Frage ob man damit was anfangen kann, während man nicht auf den Rest des Speichers zugreifen kann.
Danke für die Erklärung- das macht absolut Sinn! :up:
robbitop
2020-03-16, 19:35:12
Zum RAM. Konsolen waren historisch ja schon immer unterdimensioniert in Bezug auf RAM. Nur die current gen (PS4/Xbone) waren halbwegs zeitgemäß.
Dank SSD kann man den Texturanteil im VRAM laut MS auf 30-50% runtersetzen.
Die Frage ist auch ob man die Refreshkonsolen als Referenz sieht oder die Basisversionen. Dann steht es inkl. Textureinsparungen für den netto nutzbaren RAM immerhin virtuell bei Faktor 3. Kein Wow Effekt aber immerhin.
Bei den Assets wird sich entsprechend weniger tun. Aber Geometrie und Beleuchtung etc wird schöner.
Unicous
2020-03-16, 19:41:52
Du musst aber schon zugeben, dass 15,3 Mrd Transistoren überraschend wenig für das Genannte ist, oder? (Anhand der Transistorzahlen von existierenden Navi und Zen Produkten)
Wieso? Sie haben den L3 gekappt, sicherlich auf Renoir Niveau. Außerdem sollte man eine Milchmädchenrechnung à la Zen+Navi=Konsolen-SoC gar nicht erst aufmachen.
Um ehrlich zu sein, weiß ich auch gar nicht worauf du hinauswillst?:confused:
Pfuscher
2020-03-16, 19:59:27
"Ziel-Performance der Xbox Series X: Es sollen unter der UltraHD-Auflösung immerhin 60 fps erreicht werden"
Übersetzung: Bei Release erreicht werden, nach ein paar Jahren 30fps und dann silky smooth 15-25 am Ende der Laufzeit ^^
Jupiter
2020-03-16, 20:13:44
Zum RAM. Konsolen waren historisch ja schon immer unterdimensioniert in Bezug auf RAM. Nur die current gen (PS4/Xbone) waren halbwegs zeitgemäß.
Dank SSD kann man den Texturanteil im VRAM laut MS auf 30-50% runtersetzen.
Die Frage ist auch ob man die Refreshkonsolen als Referenz sieht oder die Basisversionen. Dann steht es inkl. Textureinsparungen für den netto nutzbaren RAM immerhin virtuell bei Faktor 3. Kein Wow Effekt aber immerhin.
Bei den Assets wird sich entsprechend weniger tun. Aber Geometrie und Beleuchtung etc wird schöner.
Volumetrische Effekte, Raytracing, KI etc. brauchen auch viel Speicher.
mboeller
2020-03-16, 20:17:21
4 Module sind nur 1GB groß, 6 Module 2GB.
Das heißt die "ersten" 10GB sind über alle Speicherchips verteilt.
Wenn du aus diesem Pool liest hast du die vollen 320bit@14Gb/s = 560GB/s, vorausgesetzt die Daten sind gleichmäßig verteilt.
Greifst du auf die oberen 6GB, also der oberen hälfte der 2GB Module, sind nur noch 6 Memorycontroller verfügbar. 6*32bit=192bit@14Gb/s = 336GB/s
Ein bisschen fraglich ist ob du während die CPU auf den Speicher zugreifst auf die 4 1GB Chips zugreifen kannst oder ob diese gesperrt sind. Falls es möglich ist, wäre die Frage ob man damit was anfangen kann, während man nicht auf den Rest des Speichers zugreifen kann.
dumme Frage: warum nicht 10 x 2GB? Ist der Preisunterschied wirklich so groß? Oder gibt es vielleicht andere Gründe?
robbitop
2020-03-16, 20:21:41
Wieso? Sie haben den L3 gekappt, sicherlich auf Renoir Niveau. Außerdem sollte man eine Milchmädchenrechnung à la Zen+Navi=Konsolen-SoC gar nicht erst aufmachen.
Um ehrlich zu sein, weiß ich auch gar nicht worauf du hinauswillst?:confused:
Auf nichts. Ich war bei der Größenspeku mWn gar nicht beteiligt- aber mich wundert es dennoch. Auch abzüglich des L3 Caches wie bei Renoir.
crux2005
2020-03-16, 20:35:27
Mesh-Shading, DXR, VRS, DirectML - lustig, wie nVidia den Konsolen den Stempel aufdrücken kann ohne selbst beteiligt zu sein.
Als ob. NV wusste nur schon früher als die Öffentlichkeit was Microsoft an Features für next-gen XB verlangt und hat diese auch in Turing implementiert.
bloodflash
2020-03-16, 20:37:28
Aktuell sind das doch:
6GB (fast) Full-Speed-GDDR6-RAM
vs.
8GB/16GB Lame DDR4-RAM (Wobei die 16GB-Anforderungen schon homöopathisch gesucht werden müssen)
beim Hauptspeicher. Wir reden hier über Faktor 8, plus *garantierte* Nachlieferung per SSD mit dem Vergleich zur im PC-Bereich immer noch berücksichtigten HDD.
Und on-Top 10GB-GPU, die nur von 700,-EUR-GPUs geliefert werden.
Ein Schlachtfest für die HE-Käufer...
robbitop
2020-03-16, 20:41:19
Als ob. NV wusste nur schon früher was Microsoft an Features verlangen wird für next-gen XB und hat diese auch in Turing implementiert.
Jap. Zumal RDNA2 für die nextgen Konsolen sicherlich wesentlich länger in Entwicklung ist als Turing in der Öffentlichkeit bekannt ist. Das ist das typisch eingefärbte Geschreibe von den Leuten, die als einseitig befangen bekannt sind. Albern.
unl34shed
2020-03-16, 21:01:54
dumme Frage: warum nicht 10 x 2GB? Ist der Preisunterschied wirklich so groß? Oder gibt es vielleicht andere Gründe?
Ne ist eine Gute Frage, die ich mir auch stelle. Beim Distri sind es ~40€ Preisunterschied, MS wird die Preise für den RAM vermutlich nicht zahlen, eher 25-30€ mehr, wenn man brücksichtigt, dass sie 10stk pro Konsole verbauen. (Kenne die Preisstaffellung bei GDDR allerdings nicht)
Es gibt eigentlich nur zwei Gründe das so zu bauen:
- Die Konsole würde zu teuer und die "magische" 500€(?) Marke geknackt
- MS weiß, dass Sony auch nur mit 16GB kommen wird.
Micron 2GB GDDR6 14Gb/s = 20,87 (https://www.digikey.at/product-detail/de/micron-technology-inc/MT61K512M32KPA-14-B-TR/MT61K512M32KPA-14-BTR-ND/10321162)
Micron 1GB GDDR6 14Gb/s = 9,67€ (https://www.digikey.at/product-detail/de/micron-technology-inc/MT61K256M32JE-14-A-TR/MT61K256M32JE-14-ATR-ND/8510162)
Troyan
2020-03-16, 21:15:29
Jap. Zumal RDNA2 für die nextgen Konsolen sicherlich wesentlich länger in Entwicklung ist als Turing in der Öffentlichkeit bekannt ist. Das ist das typisch eingefärbte Geschreibe von den Leuten, die als einseitig befangen bekannt sind. Albern.
RDNA#2 ist überhaupt nicht für Raytracing und ML ausgelegt. In beiden Bereichen ist nVidia mit Turing Jahre voraus. Und genau beide Funktionen sind die Zukunftstechniken, die die komplette Industrie am stärksten beeinflussen werden.
Bl@de
2020-03-16, 21:18:48
16GB Arbeitsspreicher? Schade. Ich hätte mir 24-32 GB gewünscht. Auch wenn ich mit 16-20 gerechnet habe.
Demogod
2020-03-16, 21:25:36
Mich wundern halt die 3,5GB Ram für Gamecode..
Dass das Quickresume Feature gut funktioniert haben wir ja gesehen.
Unicous
2020-03-16, 21:31:31
Fridge for scale (https://twitter.com/Xbox/status/1239525604187205633).
https://pbs.twimg.com/media/ETOr37KUcAANTsO.jpg
:freak:
][immy
2020-03-16, 21:32:12
Ne ist eine Gute Frage, die ich mir auch stelle. Beim Distri sind es ~40€ Preisunterschied, MS wird die Preise für den RAM vermutlich nicht zahlen, eher 25-30€ mehr, wenn man brücksichtigt, dass sie 10stk pro Konsole verbauen. (Kenne die Preisstaffellung bei GDDR allerdings nicht)
Es gibt eigentlich nur zwei Gründe das so zu bauen:
- Die Konsole würde zu teuer und die "magische" 500€(?) Marke geknackt
- MS weiß, dass Sony auch nur mit 16GB kommen wird.
Micron 2GB GDDR6 14Gb/s = 20,87 (https://www.digikey.at/product-detail/de/micron-technology-inc/MT61K512M32KPA-14-B-TR/MT61K512M32KPA-14-BTR-ND/10321162)
Micron 1GB GDDR6 14Gb/s = 9,67€ (https://www.digikey.at/product-detail/de/micron-technology-inc/MT61K256M32JE-14-A-TR/MT61K256M32JE-14-ATR-ND/8510162)
Jep, sehe ich auch so, das der Preis um das Ziel zu erreichen hier das Kriterum war. Denn man hätte ansonsten auch locker 2GB Chips nehmen können statt 1GB Chips.
Man wollte wohl eine gewissen Schwelle nicht überschreiten, und wir wissen ja wie schlecht die PS3 bei Release ankam. Mehr als 499€ werden es dann wohl nicht werden.
Andererseits wird man mit der Zeit sicherlich über die SSD-Sticks auch wieder Kohle rein bekommen. Aber eventuell ist das bei all dem schon einkalkuliert um den Preis zu drücken.
Wäre schön wenn die Konsole in nächster Zeit schon rauskommen würde und nicht erst Ende des Jahres. ^^
Platos
2020-03-16, 21:37:31
Aber das erscheint mir schon als eine ziemliche Bremse. 3.5GB von den 13.5GB haben eine andere Bandbreite, also muss man das natürlich, wenn man so gezielt programmiert wie auch Konsolen, alles einberechnen.
Verkompliziert das nicht alles unnötig ? Mit gleichangebundenem Speicher müsste man sich immerhin keine Gedanken darüber machen.
robbitop
2020-03-16, 21:52:34
RDNA#2 ist überhaupt nicht für Raytracing und ML ausgelegt. In beiden Bereichen ist nVidia mit Turing Jahre voraus. Und genau beide Funktionen sind die Zukunftstechniken, die die komplette Industrie am stärksten beeinflussen werden.
Aha? Du hast genauere, substanzielle Informationen zur RDNA2 HW und entsprechende Leistungsdaten mit 1:1 Vergleichen zu Turing? Das veröffentlichte Material ist dazu jedenfalls nicht geeignet.
Ich halte das für voreilige Schlüsse. (auch wenn es die Möglichkeit natürlich gibt, dass sie richtig sein könnten - entsprechend Spekulation bitte nicht als Fakten darlegen...)
crux2005
2020-03-16, 22:14:01
Aber das erscheint mir schon als eine ziemliche Bremse. 3.5GB von den 13.5GB haben eine andere Bandbreite, also muss man das natürlich, wenn man so gezielt programmiert wie auch Konsolen, alles einberechnen.
Verkompliziert das nicht alles unnötig ? Mit gleichangebundenem Speicher müsste man sich immerhin keine Gedanken darüber machen.
Aus Sicht eines Laien sollte das nur minimal mehr Aufwand für die Entwickler sein. MS wird schon die meiste Arbeit gemacht haben.
Der ganze RAM inkl. SSD wird ja als Virtueller Speicher bereitgestellt. Die Daten die am schnellsten verfügbar sein sollen (wahrscheinlich zu 99% Texturen) werden in die 10 GB RAM gelagert. Daten, die später, langsamer etc. geladen werden können dann in die 3,5 GB RAM. Für den Rest dann SSD. Mit der Zeit werden so auch die Spiele Engines angepasst werden.
dildo4u
2020-03-16, 22:17:05
Aha? Du hast genauere, substanzielle Informationen zur RDNA2 HW und entsprechende Leistungsdaten mit 1:1 Vergleichen zu Turing? Das veröffentlichte Material ist dazu jedenfalls nicht geeignet.
Ich halte das für voreilige Schlüsse. (auch wenn es die Möglichkeit natürlich gibt, dass sie richtig sein könnten - entsprechend Spekulation bitte nicht als Fakten darlegen...)
Panik er hat vermutlich nicht damit gerechnet das AMD so schnell aufholt,die 12Tflops und das kleine Gehäuse sprechen für die von AMD genannten +50% bei der Effizienz.
Wenn man es hoch rechnet könnte eine Balls Out Big Navi an die 20 Tflops kommen,ich vermute das die XBox GPU um 180 Watt liegt.
Troyan
2020-03-16, 22:39:50
Aha? Du hast genauere, substanzielle Informationen zur RDNA2 HW und entsprechende Leistungsdaten mit 1:1 Vergleichen zu Turing? Das veröffentlichte Material ist dazu jedenfalls nicht geeignet.
Ich halte das für voreilige Schlüsse. (auch wenn es die Möglichkeit natürlich gibt, dass sie richtig sein könnten - entsprechend Spekulation bitte nicht als Fakten darlegen...)
Ja, weil sie von Microsoft kommuniziert worden sind. Kann ich was dafür, dass RDNA#2 keine TensorCores hat? Kann ich was dafür, dass deren RT-Hardware schlechter ist?
Wäre die Hardware soviel besser Microsoft hätte mehr gezeigt als Minecraft mit schlechterer Qualität als die erste Vorführung vor 7 Monaten...
starfish
2020-03-16, 22:41:41
Mich würde nicht wundern, wenn hier noch einige von der Raytracing Performance der neuen AMD GPUs in den Konsolen enttäuscht sein werden.
Es hat schon seinen Grund, warum die reflections in der Minecraft Demo fehlen.
In die gleiche Kerbe schlägt, dass Gears of War in 4k 60fps zwar Screen Space GI, aber auch keine reflections hat.
Vergleicht man das mit der Performance Charakteristik in der Unreal Engine 4 auf RTX Karten, so ergibt sich hier auch das Bild, dass Raytracing Schatten und SSGI (je nach Scene sogar Final Gather GI) relativ günstig sind, reflections aber unter Umständen verdammt teuer.
Das deutet schon auf einen sehr selektiven Einsatz der Effekte hin und bringt mich dazu zu glauben, dass die neue AMD GPU zwar Effekte im Bereich Raytracing Beleuchtung liefern wird und der Rasterizer Teil durchaus performant sein wird, aber nicht im Bereich reflections ist.
Im Generellen erwarte ich mir nicht sonderlich viel vom Raytracing Teil der Konsole.
megachip800
2020-03-16, 22:47:23
[immy;12247710']Weil es sonst mehr Speicher hätte sein müssen (an einem 320 Bit Interface), was den Preis erhöht hätte (wo immer der sein wird).
Lieber 16 GB so aufgeteilt, als nur mit 256 Bit angebunden und dafür insgesamt langsamer.
Manche werden es nie lernen das es bei einer Konsole immer um eine Kompromisslösung geht und keine >1000€ Hardware drin sein kann.
Sorry aber es gibt dafür keine Entschuldigung für diese technische Einschränkung. 32 gbyte ram oder schnelles 16 gbyte via HBM machen die Konsole nicht 500 Euro teurer. Im Hinblick welche Möglichkeiten Microsoft hat finanziell , Manpower etc. ist das Endergebnis eher ernüchternd. Aber das kommt davon wenn Kaufleute und Businesspeople das sagen haben beim Produkdesign und nicht die Techniker und Ingenieure , das Ergebnis ist dann so ein Tinnef . Was hat man in den 7 Jahren gemacht? Um jetzt mit so ein beschränkten Standarddesign beim Speichersystem zu enden ? Traurig, bei der Xbox 360 gabs wenigtens noch eDram, der Cache bei der Cpu ist bestimmt auch kleiner als in der Desktopvariante , und die die SSD ist auch nicht die schnellste. Warum orientiert man sich da an den Beschränkungen aktueller PCs? Die Konsole ist ein geschlossenes System in dem man spezialisierte Lösungen einbauen könnte, warum ist also die SSD in der Xbox nicht direkt mit einem interposer mit dem SOC/Apu verbunden sondern auch nur über ein PCle Abschluss? Hier hat man eine Menge Potenzial verschenkt. Es reicht eben nicht aus abgespeckte PC Komponenten in einem Chip reinzupacken und dann in die Öffentlichkeit zu gehen und den Leuten zu sagen "schaut her das ist unsere neue Konsole" das hat nichts mit Innovation zu tun.
robbitop
2020-03-16, 23:01:56
Ja, weil sie von Microsoft kommuniziert worden sind. Kann ich was dafür, dass RDNA#2 keine TensorCores hat? Kann ich was dafür, dass deren RT-Hardware schlechter ist?
Wäre die Hardware soviel besser Microsoft hätte mehr gezeigt als Minecraft mit schlechterer Qualität als die erste Vorführung vor 7 Monaten...
Tensor Cores werden doch aktuell in Spielen für RT gar nicht verwendet. Das Denoising geschieht doch aktuell über die ALUs bei Turing in rtx Spielen.
Das was MS kommuniert hat ist nicht substanziell genug, um das einschätzen zu können. IMO ist das Brett zu dünn, was du da borst...
Die INT4/8 Beschleunigung sollte auch hilfreich sein. Zumal zweifelhaft ist, ob da überhaupt ein echter Flaschenhals vorhanden ist. Und auch ist dort noch einiges an Potenzial - siehe binning von rays.
Troyan
2020-03-16, 23:25:50
Ich habe auch explizit von DXR und DirectML gesprochen. Beide APIs sind soweit abstrahiert, dass Hersteller wie nVidia Hardware bauen können, die komplett unterschiedlich von den Konsolen sind und trotzdem erheblich mehr Leistung liefern. Und Microsoft hat klar gemacht, dass DXR und DirectML als "höhrere" API verwendet werden.
Fakt ist, dass Microsoft klar kommuniziert hat, welche Ersparnis Hardware-RT von RDNA#2 bringt. Das kannst du ignorieren, aber es ist eine offizielle Aussage von Microsoft.
basix
2020-03-17, 00:22:35
Weiss eigentlich jemand, wie viele Intersections so ein Ray im Schnitt generiert? Bei der XBSX sollen 380 Milliarden Intersections/sec möglich sein. Das entspricht bei 4K/60fps ca. 760 Intersections pro Pixel. Das ist deutlich mehr als die ca. 1 Rays pro Pixel pro Sekunde, welche RT Games heute ca. haben.
gravitationsfeld
2020-03-17, 00:35:54
Kommt auf die BVH-Qualitaet und Szene an.
mczak
2020-03-17, 01:00:42
Aber das erscheint mir schon als eine ziemliche Bremse. 3.5GB von den 13.5GB haben eine andere Bandbreite, also muss man das natürlich, wenn man so gezielt programmiert wie auch Konsolen, alles einberechnen.
Verkompliziert das nicht alles unnötig ? Mit gleichangebundenem Speicher müsste man sich immerhin keine Gedanken darüber machen.
Das passt schon, es sind ja 2.5GB fürs OS reserviert, und Spiele haben 3.5GB System-Ram und 10GB Grafik-Ram. Allerdings könnte man bei gleichmässiger Bestückung das flexibler handhaben.
Aber offensichtlich wurde da ganz genau gerechnet - die Kostenersparnis beschränkt sich ja wirklich ausschliesslich auf die Speicherchips an sich (6x2GB + 4x1GB vs. 10x2GB). Keine Ahnung was MS da wirklich mehr dafür bezahlen müsste (die zahlen ja sicher keine Katalogpreise), aber wenn das so 20$ oder so sind ist das natürlich bei einem Endkundenpreis von 500$ (?) schon nicht unerheblich bei den Stückzahlen. Man kann natürlich trotzdem finden das ist etwas knauserig, aber das ist bei Konsolen ja eigentlich Tradition, bei der Speichermenge wird immer zuerst gespart.
basix
2020-03-17, 01:03:56
Kommt auf die BVH-Qualitaet und Szene an.
:rolleyes:
Also, von welchen Grössenordnungen sprechen wir hier? z.B. bei Control sind das 10, 100, 1000 Intersections? Irgendeine Abschätzung dazu möglich?
Troyan
2020-03-17, 01:05:41
Einfach ignorieren. Genauso sinnlos wie die Gigarays von nVidia. Viel interessanter sind die "Umrechnungen" auf TFLOPs. Die geben ein viel besseres Bild ab.
gravitationsfeld
2020-03-17, 01:10:18
:rolleyes:
Was soll das? Das ist die korrekte Antwort. Es kommt darauf an. Allein die BVH-Qualitaet kann locker einen Faktor zwei ausmachen.
Einfach ignorieren. Genauso sinnlos wie die Gigarays von nVidia. Viel interessanter sind die "Umrechnungen" auf TFLOPs. Die geben ein viel besseres Bild ab.
Das ist noch viel sinnloser.
Ravenhearth
2020-03-17, 01:22:18
In die gleiche Kerbe schlägt, dass Gears of War in 4k 60fps zwar Screen Space GI, aber auch keine reflections hat.
Das Screen Space GI läuft doch nur auf den normalen Shadern.
unl34shed
2020-03-17, 01:24:03
Einfach ignorieren. Genauso sinnlos wie die Gigarays von nVidia. Viel interessanter sind die "Umrechnungen" auf TFLOPs. Die geben ein viel besseres Bild ab.
Aber wären das nach Nvidias Rechnung nicht 380 gigarays/s, afaik drückt der Wert das gleiche aus.
Milchkanne
2020-03-17, 01:29:35
Was soll das? Das ist die korrekte Antwort. Es kommt darauf an. Allein die BVH-Qualitaet kann locker einen Faktor zwei ausmachen.
Wenns nur ein "Faktor zwei" ist, dann schließe ich mich mit dem Augenrollen an :rolleyes:
Das ist kein Stück böse gemeint. Ich denke er wollte das halt mit NVidia vergleichen. Und wie viele Rays/Pixel das jetzt ergibt. Nach der Größenordnung hat er ja explizit gefragt. Ich schließe mich da mal an.
gravitationsfeld
2020-03-17, 01:40:19
Kann er damit nicht. Nichts was veroeffentlicht wurde laesst irgend welche Vergleiche zu.
Gipsel
2020-03-17, 02:27:08
Nvidia spricht von 10 GRay/sec und 10 TFLOPs pro GRay.
https://www.slideshare.net/NVIDIA/nvidia-geforce-rtx-launch-event --> Folie 19
Was aber nicht steht, ob das Compute Shader TFLOPs sind oder FP16 Tensor Cores FLOPs. Ich tippe auf letzteres. Wieso? 110 TFLOPs Tensor = 110 TFLOPs Raytracing auf der ein und der selben Folie.
Nur: Momentan verwendet kein Entwickler Tensor Cores für ihre RT Implementation, es verwenden alle Compute Shader.AMD benutzt da andere Maßeinheiten (die unter anderen Bedingungen den theoretischen Peakdurchsatz darstellen, als unter welchen Bedingungen auch immer die 10GRays von nV erreicht werden sollen) und spricht eben von (bis zu) 380 Giga-Intersections pro Sekunde laut DF.
Das verrät übrigens auch, daß RDNA2 das RT (genauer: Traversal des BVH-Baumes) vermutlich wirklich über die TMUs beschleunigt (bzw. die da schlicht limitieren). Denn:
52 CUs * 4 TMUs * 1,825 GHz = 380 GIntersections/s ;)
Die Umrechnung in TFlops ist wie gravitationsfeld schon sagte irgendwo Mumpitz. Die Angaben zu den Tensorcores haben auch erstmal überhaupt nichts mit dem RT zu tun sondern wurden auf der Folie einfach nur mal dem zugesellt (weder benötigt man die dafür noch wird das genutzt [eventuell für irgendwelche Denoising Algorithmen, ansonsten aber nicht]). Offiziell meint nV, daß man pro Ray so irgendwas von knapp 8000 "RTX-Ops" benötigen würde, wo keiner weiß, was genau das sein soll. Das sind aber definitiv keine Flops (oder nur wenige) sondern jeder möglicher Kleinkram, den die da zusammenzählen (dann kann man auch jeden Texturfetch als zig Flops zählen).
Kurz: Keiner weiß, was genau AMD und nV da angeben (sind praktisch "Bogus-Ops") und wie relevant das eigentlich für die Performance ist (vermutlich nicht sehr).
Fragman
2020-03-17, 06:38:59
Die Specs sind erstmal recht "konservativ".
Interessant wäre ein Anwendungsbeispiel gewesen, das zeigt, das die 10GB kein Showstopper sind da die SSD das ausgleichen wird. Quergedacht dürften die Ampere Gerüchte damit wohl stimmen und die 3080 nur 10 GB haben. Mich wundert nur, was aus den ganzen Ramduskussionen zu Turing geworden ist, sprich, machen die im Nachhinein Sinn, wenn jetzt für UHD relativ wenig mehr reichen soll und ist die Ramdiskussion allgemein nicht vielleicht etwas übertrieben, da man dank Streaming eigentlich nicht viel mehr braucht als gedacht?
dildo4u
2020-03-17, 06:42:52
Es ist ein Faktor mit RT,Wolfenstein Yungblood läuft sauber auf der 2060 ohne RT und kackt komplett ab mit RT und das in 1080p.
2060 25fps min und 2060 Super 86fps.
https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/Raytracing-Benchmarks-1340830/
Wenn man Nativ 4k zocken will könnte man die 10GB schon brauchen,wobei das mit immer besser werdenden DLSS eh nicht Sinnvoll ist.
fondness
2020-03-17, 07:53:02
Für die RDNA2 Architektur und Big Navi stimmt mich das jedenfalls erstmal recht positiv, denn es heißt, dass AMD 56 CUs mit allen zusätzlichen Feature in wohl deutlich unter 300mm² packen kann.
Ansonsten gilt wie immer: Eine Konsole, die als vollständiges Paket nicht mehr als ~500 EUR kosten darf kann natürlich keine Wunder vollbringen. Trotzdem sehe ich einige intelligente und sinnvolle Lösungen, und insgesamt sind 12TFLOPs mehr als ich erwartet habe.
Korvaun
2020-03-17, 07:58:53
Die ganze RAM-Diskussion ist völlig übertrieben mMn. Gerade auf Konsolen können die Engines bestens auf die Hardware angepasst werden, und die neue Generation hat mit 16GB und der SSD (+ spez. Hardware für Kompression / neue RDNA2 Tech) verdammt viel Luft nach oben gegenüber der aktuellen Generation. Sicher, für Puristen/3DCenter-Leser wäre mehr besser, aber 99,999% aller Käufer werden absolut begeistert sein von den neuen Konsolen (wenn die Spiele entsprechend ordentlich optimiert sind).
robbitop
2020-03-17, 08:00:58
Ich habe auch explizit von DXR und DirectML gesprochen. Beide APIs sind soweit abstrahiert, dass Hersteller wie nVidia Hardware bauen können, die komplett unterschiedlich von den Konsolen sind und trotzdem erheblich mehr Leistung liefern. Und Microsoft hat klar gemacht, dass DXR und DirectML als "höhrere" API verwendet werden.
Fakt ist, dass Microsoft klar kommuniziert hat, welche Ersparnis Hardware-RT von RDNA#2 bringt. Das kannst du ignorieren, aber es ist eine offizielle Aussage von Microsoft.
DirectML und DXR sind Schnittstellen wie D3D, DirectSound etc. Diese Schnittstellen werden durch ein Gremium an IHVs definiert.
Eine Schnittstelle hilft einem bei der Konzeption der Hardware wenig. NV, Intels, AMDs, Qualcomms, IMGs GPUs unterstützen bspw alle D3D11. Texturfilterung, Vertexshading, Pixelshading, Computeshading etc. Und doch ist die HW uArch stark unterschiedlich. Da ist RT nicht anders.
Zumal die Grundlagenforschung und die anschließende Entwicklung ganz anderen Zeiträumen entspricht als denen von denen wir hier reden.
Das gleiche gilt auch für ML. Neuronale Netze und Raytracing gibt es grundsätzlich seit Jahrzehnten. Die Theorie ist uralt. Und es gab auch schon RT HW Implementationen für beides vor NV (IMGs Caustic viele Jahre zuvor, Intels Larabee). Nur eben nicht für die Masse. Turing war das erste RT HW Massenprodukt. Und das ist toll. Deshalb waren sie aber nicht grundsätzlich die ersten und es haben auch nicht andere in der kurzen Zeit abgekupfert...
NV vermarktet das sehr gut und war der erste, der die entsprechenden MS APIs unterstützte. Mit der HW hat das aber nur bedingt zu tun. Zumal NV MS die konkrete Umsetzung sowieso nicht verrät.
Und das was MS zur Performance von RT veröffentlicht hat ist kein Konkreter Vergleich zur RT Performance mit Turing.
Einfach ignorieren. Genauso sinnlos wie die Gigarays von nVidia. Viel interessanter sind die "Umrechnungen" auf TFLOPs. Die geben ein viel besseres Bild ab.
Und wieder ein sehr dünnes Brett, das zeigt, dass die Grundlagen nicht verstanden wurden.
Zumal die „Umrechnung“ von NV wie immer in einem sehr guten Marketing sehr schön gerechnet ist...
Tobalt
2020-03-17, 08:15:47
Größenordnung 100 intersections pro pixel klingen für mich schon recht viel. wirklich teuer ist ja nur die diffuse Streuung auf Oberflächen. mit 10 sekundären rays pro diffuser streuung kann man da sogar noch die zweite ordnung mit einigen rays pro Streuung verarbeiten. natürlich mit der annahme dass noch denoising durchgeführt wird.
oder ich habe eine ganz falsche Vorstellungen, was gut möglich ist.
pixeljetstream
2020-03-17, 08:16:29
Zu gigarays etc.
Im Turing Whitepaper sind die Szenen abgebildet mit denen ein gemessener Durchschnitt von 10 Grays berechnet wurde. Der Wert ist also real, aber dennoch total abhängig von der Szene und Art der Strahlenverteilung, das theoretische Maximum der Einheit ist höher.
Wie gravitationsfeld sagt hängt es stark am bvh und memory system. Das was getestet wird muss ja irgendwo her kommen ;)
Einfaches Beispiel: wenn ein normales Auto um 45 Grad gedreht in einen einfachen bvh gefüttert würde, hätten alle Zellen viel mehr Leerraum als wenn es schön ausgerichtet an den Hauptachsen wäre. Leerraum bedeutet mehr unnötige Tests, mehr Bandbreite etc.
Was die HW cores dennoch bringen, weil sie den ganzen overhead vom scheduling/Verwaltung generischer units umgehen sieht man imo am besten im SEED paper
https://link.springer.com/content/pdf/10.1007%252F978-1-4842-4427-2_25.pdf&ved=2ahUKEwigyYi--KDoAhVD1qYKHf36DIAQFjAGegQIARAB&usg=AOvVaw3k5BB5fyu_SZ8VhTG21Mc-
Da gibt's eine Tabelle Turing vs Volta. Volta mit mehr Einheiten und Caches ist dann so 3-5x langsamer in den Effekten wo es nur um tracing von intersections ging (Schatten und AO).
starfish
2020-03-17, 09:05:22
Das Screen Space GI läuft doch nur auf den normalen Shadern.
Danke für den Hinweis, das unterstreicht meinen Punkt noch mehr.
robbitop
2020-03-17, 09:06:00
Wobei es bei RDNA ja auch HW dafür zu geben scheint. Ggf. in den TMUs.
Troyan
2020-03-17, 09:12:28
Das ist noch viel sinnloser.
Da beide Hersteller die FLOPs Zahl gegen etwas normieren, ist es viel aussagekräftiger als andere Angaben.
Wie nVidia hat Microsoft klar gestellt, dass für 380 Milliarden Intersections/s ca. 13 RDNA#2 TFLOPs benötigt werden. nVidia hat angegeben, dass für 10 Gigarays/s ca. 100 Pascal TFLOPs angesetzt sind.
robbitop
2020-03-17, 09:19:21
Und bupps ist das dünne Brettchen wieder durchgebohrt. :D Warum das so nicht funktioniert und was da wer vergleicht (und dass das im Detail gar nicht klar ist) wurde doch bereits erklärt...
Um das klarzustellen: es ist durchaus möglich und auch nicht unwahrscheinlich, dass Turings Implementation schneller ist als RDNA2's. Die Begründung hingegen ist zu dünn / nicht vergleichbar.
Zumal es ja in der realworld auch auf Bottlenecks ankommt. Wenn wie aktuell nicht mehr als 1 Ray pro Pixel (oft deutlich weniger) genutzt werden, kann es gut sein, dass eine geringere HW Leistung gar nicht zum Flaschenhals wird...
pixeljetstream
2020-03-17, 09:54:55
Troyan lass Dir doch Mal was von Leuten sagen die das beruflich machen...
Größenordnung 100 intersections pro pixel klingen für mich schon recht viel.
BVH's kann man in viele Richtungen optimieren. Wenn man sie in Echtzeit bauen muss, sind sie halt halt wesentlich ineffizienter was die Anzahl der Intersections angeht. Genauso kann man Intersections sparen durch mehr Speicherverbrauch, allerdings werden dann die Traversierungskosten höher. Dann gibt es noch Dinge wie Partikelsysteme oder Vegetation, die die Intersectionanzahl explodieren lassen.
Da kann man wirklich keinen Pauschalwert abgeben (abgesehen von: unter 10 Intersection kommt man kaum)
dildo4u
2020-03-17, 12:46:46
Oeyu0xYQtrw
Dampf
2020-03-17, 13:06:58
Also kann man Turing RT und RDNA2 RT noch gar nicht vergleichen?
aufkrawall
2020-03-17, 13:13:12
Diese SSGI in Gears ist mal der letzte Müll, sieht immer noch absolut gruseligem Ambient Lighting aus dem vorletzten Jahrzehnt aus.
THEaaron
2020-03-17, 13:28:25
Sony zieht nach. Cerny spricht morgen über die PS5 Architektur im Detail.
https://twitter.com/PlayStation/status/1239884910812450816
Soll wohl eine Aufnahme sein, da die originale Präsentation für die GDC gedacht war.
dildo4u
2020-03-17, 13:28:36
PS5 Details kommen Morgen.
https://www.eurogamer.net/articles/2020-03-17-playstation-5-system-details-coming-tomorrow-via-livestream
Muselbert
2020-03-17, 13:40:56
Endlich. :D Morgen um 17Uhr wenn ich mich nicht vertan hab?
00-Schneider
2020-03-17, 13:41:41
Endlich. :D Morgen um 17Uhr wenn ich mich nicht vertan hab?
Jep.
Eure Tipps bzgl. CPU/TF und RAM etc.?
Muselbert
2020-03-17, 13:45:38
Jep.
Eure Tipps bzgl. CPU/TF und RAM etc.?
8 Core Zen2 @ 3.4-3.6Ghz/SMT, 11TF, 16GB GDDR6 (aber alles gleiche Bandbreite), 1TB SSD
arcanum
2020-03-17, 13:56:44
Sony zieht nach. Cerny spricht morgen über die PS5 Architektur im Detail.
https://twitter.com/PlayStation/status/1239884910812450816
Soll wohl eine Aufnahme sein, da die originale Präsentation für die GDC gedacht war.
war zu erwarten nachdem microsoft alle karten auf den tisch gelegt hat. hoffe dass sony noch ein ass im bezug auf RAM im ärmel hat. wenn so schnell gekontert wird, sollte die ps5 mindestens ebenbürtig sein im bezug auf preis/leistung.
TheAntitheist
2020-03-17, 14:11:48
war zu erwarten nachdem microsoft alle karten auf den tisch gelegt hat. hoffe dass sony noch ein ass im bezug auf RAM im ärmel hat. wenn so schnell gekontert wird, sollte die ps5 mindestens ebenbürtig sein im bezug auf preis/leistung.
gehe auch davon aus das, wenn sie schwächer wäre, hätte man nicht sofort die details raus geballert.
][immy
2020-03-17, 14:15:55
gehe auch davon aus das, wenn sie schwächer wäre, hätte man nicht sofort die details raus geballert.
naja, die nächste xbox ist schon deutlich flotter als man zunächst erwartet hat, wenn Sony nicht absolut den Preisrahmen sprengen will, dürften die insgesamt etwas weniger stark sein. Allerdings lass ich mich gern vom Gegenteil überzeugen (außer das mit dem Preisrahmen). Ich schätze mal, der "Deep dive" wird eher relativ vage sein. Denn so viele Details wie MS hier raus gehauen hat, hat man bisher nicht gehabt so weit entfernt von einem Konsolen launch. Sony wird es hier einfach MS nicht überlassen wollen, die Medien zu "beherrschen" mit der xbox.
Muselbert
2020-03-17, 14:16:21
Laut dem japanischen Twitter-Account ists ne Präsentation die für ne Session während der GDC geplant war, die diese Woche hätte stattfinden sollen. Ist also keine direkte Reaktion auf Microsoft.
https://twitter.com/PlayStation_jp/status/1239892041774948352
This video contains a session scheduled for the Game Developers Conference (GDC) in the United States, and will be in English only (no subtitles). Please note.
robbitop
2020-03-17, 14:27:17
Also kann man Turing RT und RDNA2 RT noch gar nicht vergleichen?
Warum nicht? Beide haben Hardware die im Detail unterschiedlich implementiert ist. Ist die Hardware für alle anderen Aspekte des 3D Renderings doch aber auch.
Wichtig ist, dass die Schnittstellen (DXR, Vulkan RT, low level Konsolen APIs) konform unterstützt werden. Entsprechend sieht das Endergebnis auf dem Bildschirm bei gleichem Spiel dann auch gleich aus. Wie auch bei jedem anderen Teil der 3D Beschleunigung.
Welcher Ansatz leistungsfähiger und effizienter in Bezug auf Perf/mm² und Perf/W ist, bleibt abzuwarten. Aber auch das kann man vergleichen, sobald ein RDNA2 Produkt mal den PC erreicht.
Am Ende sind gerade bei Konsolen HW Ressourcen immer knapp. Und je nach Stärke/Schwäche der HW Implementierung wird jedes Studio für sich individuell entscheiden, was über RT gemacht wird und was nicht.
Ist ja jetzt bei den PC Spielen auch schon so...
--------
@PS5
Ich tippe auf grundsätzlich ähnliche Specs:
8x Zen2 ~3,7 GHz
RDNA2 36-40 CUs @ 2 GHz = up to 10,2 TFLOPs - sicherlich ähnliches Featureset wie in der Xbox (VRS, mesh shading, RT)
16 GB GDDR6
1TB PCIe SSD
Man munkelte ja schon länger, dass die PS5 mit 40 CUs und 1,8-2 GHz geplant war. Nun könnte man ggf durch Druck gezwungen worden sein, seine Redundanz bei den CUs zu opfern und die GPU mit 2 GHz zu takten.
war zu erwarten nachdem microsoft alle karten auf den tisch gelegt hat.
Haben sie das? Ich warte ja immer noch darauf, dass man ein "normales" Windows 10 booten können wird und sich dann Steam etc. installieren kann. Ne Maus und ne Tastatur dran... fertig ist der Gaming-PC! Mal ehrlich: Warum nicht?
Gipsel
2020-03-17, 15:01:50
Wie nVidia hat Microsoft klar gestellt, dass für 380 Milliarden Intersections/s ca. 13 RDNA#2 TFLOPs benötigt werden.Das war so nicht die Aussage. Ein RDNA2-Shaderarray mit 13 TFlops kann übrigens auch 104 TOps. Wie vergleicht sich das dann eigentlich mit den "78T RTX-Ops" für die 10GRay/s bei einer 2080Ti? :lol:
nVidia hat angegeben, dass für 10 Gigarays/s ca. 100 Pascal TFLOPs angesetzt sind.Das ist ebenfalls eine Fehlinterpretation.
==========================
Warum nicht?Ich denke Dampf meinte einen Vergleich der Performance. Und für eine Aussage wie "Hersteller A ist bei Raytracing-Aufgaben im Schnitt x% schneller als Hersteller B"ist es mit den öffentlich verfügbaren Informationen tatsächlich noch zu früh (mal davon abgesehen, daß es vermutlich je nach genauer Aufgabenstellung auch Unterschiede im Performanceverhalten geben dürfte).
robbitop
2020-03-17, 15:06:21
Aktuell kann man es nicht vergleichen. Das stimmt. Aber sobald man nachmessen kann, schon. :)
pixelguy
2020-03-17, 15:06:30
Mein Tip (nicht ganz ernst gemeint):
8x Zen2 3,6-3,8 GHz
RDNA2 52-56 CUs @ 1,8-2 GHz
16 GB GDDR6
1TB PCIe SSD
Cell CPU für Raytracing und PS3-BC
2GB langsamer Ram für OS und PS3-BC
:freak: ;D
unl34shed
2020-03-17, 15:11:16
Haben sie das? Ich warte ja immer noch darauf, dass man ein "normales" Windows 10 booten können wird und sich dann Steam etc. installieren kann. Ne Maus und ne Tastatur dran... fertig ist der Gaming-PC! Mal ehrlich: Warum nicht?
a) Weil DELL, Lenovo, und wie die ganzen OEMs heißen was dagegen haben könnten, denn MS kann die HW ohne Gewinn verkaufen, da sie mit der Software das Geld verdienen. E: Dürfte alle Fertig-PCs bis 1-1,5k€ schlagen.
b) Die Consolen wie die PS3 damals in irgendwelchen Severfarmen landen, da sie Perf/$ recht interessant sind
Cool fände ich es aber auch.
Unicous
2020-03-17, 15:11:28
Es gibt Gerüchte, dass die PS5 auf über 13 TFLOPS geht, von daher finde ich es eher schwierig ein Prognose abzugeben.
Ich frage mich auch ob Sony morgen die vollen Specs veröffentlicht, oder mit der Salamitaktik fortfährt. Ich persönlich glaube ja Letzteres, auch wenn es eigentlich langsam Zeit wäre.
robbitop
2020-03-17, 15:17:21
Das 36/40CU Gerücht tauchte ja immer wieder auf. Genau wie die Einträge (Oberon). Kann aber natürlich sein, dass man hier die Öffentlichkeit gut gefoppt hat und es tatsächlich >40CUs sind. :)
THEaaron
2020-03-17, 15:19:53
Das beruht doch alles auf einem Github Leak der angebliche Chiptests von AMD zeigt. Die Codenamen waren imho eher rdna1 GPUs zuzuordnen und nicht rdna2.
Blicke da aber auch nicht mehr durch. Mich würde eine 9,2tf PS5 aber irgendwie auch nicht wundern. Ich glaub nicht dass Sony High-End Hardware wie MS verfolgt.
Unicous
2020-03-17, 15:23:53
@robbitop
Ja, aber in letzter Zeit gab es wie gesagt vermehrt Gerüchte, dass sie auf 13 TFLOPS gehen.
Ich bin davon auch noch nicht überzeugt, aber 10,x bzw- 11,x empfinde ich als arg wenig.
https://i.imgur.com/vMGXkwO.jpg
Das kursiert seit einiger Zeit, ich kann leider nicht nachvollziehen, ob das nur "pastebin-TFLOPS" sind aber afaik sind die 13,x TFLOPS von einer relativ angesehenen Quelle.
Wir werden sehen, was Sony morgen präsentiert.:wink:
xyleph
2020-03-17, 15:24:52
Das 36/40CU Gerücht tauchte ja immer wieder auf. Genau wie die Einträge (Oberon). Kann aber natürlich sein, dass man hier die Öffentlichkeit gut gefoppt hat und es tatsächlich >40CUs sind. :)
Es gab einen der hatte bei den XSX Specs einen Volltreffer (TFLOPS, CUs, RAM). Seine Angaben bei der PS5 waren 13,3.
Dazu sagte er:
GPU PS5>XSX
CPU PS5<XSX
RAM (Größe und Bandreite) PS5 > XSX
SSD PS5 > XSX
Mal sehe was dran war
Gipsel
2020-03-17, 15:31:24
Mein Tip (nicht ganz ernst gemeint):
8x Zen2 3,6-3,8 GHz
RDNA2 52-56 CUs @ 1,8-2 GHz
16 GB GDDR6
1TB PCIe SSD
Cell CPU für Raytracing und PS3-BC
2GB langsamer Ram für OS und PS3-BC
:freak: ;DAbgesehen von der Cell-CPU könnte man schon überlegen, ob ein anderer Speicheraufbau nicht eventuell doch besser sein kann als der gewöhnungsbedürftige Ansatz von MS.
MS verbaut sechs x32 16 Gbit-Chips + vier x32 8 Gbit-Chips an einem 320bit breiten Interface.
10GB sind über alle Chips verteilt (mit irgendeiner Art von Adressinterleaving), 6GB befinden sich in der "oberen Hälfte" der 16 Gbit-Chips (192 Bit Anbindung). Das führt zwar dazu, daß zwei Bereiche mit unterschiedlicher Peakbandbreite existieren, aber der Zugriff auf beide ist nicht wirklich parallel möglich (performancemindernde Kollisionen möglich).
Sony könnte schlicht mit einem 256Bit breiten GDDR6-Interface antreten, welches mit acht x32 16Gbit Chips bestückt ist. Dann erhält man 16 GByte ohne komische Unterteilungen zu einem vermutlich sogar geringerem Preis (weniger Chips), den man dann z.B. in höhere Geschwindigkeit (z.B. 16GT/s) investieren könnte (womit man bei fast der gleichen Peakbandbreite trotz schmalerem GDDR6-Interface rauskommen würde, die sich aber etwas problemloser nutzen lassen würde).
Rein für das OS selber tut es aber normalerweise auch recht langsamer Speicherzugriff (ein Normalnutzer merkt am Desktop ja noch nicht mal, wenn er den PC im Single-Channel fährt). Anstatt also nur 16 GByte GDDR6 zu verbauen wie MS, packt man noch ein 64Bit LPDDR4 Interface dazu. Dann landet man in der Summe ebenfalls bei 320 Bit (wobei die LPDDR4-PHYs etwas kleiner als die GDDR6-PHYs sein sollten) und hängt einfach noch zwei etwas günstigere (im Vergleich zu GDDR6) 16GBit x32 LPDDR4-Chips da dran für extra 4GB (vornehmlich für das OS). Für 8GB LPDDR4 ist der Kostenrahmen vermutlich zu eng, würde aber erlauben z.B. 4 GB als langsamen Speicher für Spiele freizugeben.
LPDDR4 gibt es bis 4,266 GT/s, was dann an einem 64Bit-Interface 34GB/s wären (so viel wie sehr langsamer DDR4 im dual channel), in jedem Fall angemessen für die allermeisten reinen OS-Aufgaben.
Am Ende gleiche Anzahl Speicherchips, 4 GB RAM mehr, RAM-Performance etwas einfacher nutzbar und noch minimal geringere Diesize. Wäre ich Sony oder MS, hätte ich mir die Option mal genauer angesehen.
TheAntitheist
2020-03-17, 15:32:11
Das beruht doch alles auf einem Github Leak der angebliche Chiptests von AMD zeigt. Die Codenamen waren imho eher rdna1 GPUs zuzuordnen und nicht rdna2.
Blicke da aber auch nicht mehr durch. Mich würde eine 9,2tf PS5 aber irgendwie auch nicht wundern. Ich glaub nicht dass Sony High-End Hardware wie MS verfolgt.
warum nicht? Sony hatte aber schon seit der PS2 immer das Ziel "High End" Hardware zu liefern. Teilweise durch viel zu komplexe hardware, die auch nur von einer paar Spielen genutzt wurde, dennoch war es deren Ziel. Auch die PS4 war doch 40% schneller als die XBS (GPU) und deutlich besseren Ram.
denke also das die Wahrscheinlichkeit höher ist, dass die Hardware stärker wird als jene von MS.
robbitop
2020-03-17, 15:39:08
IMO ist es gar nicht so kriegsentscheidend für Sony ob es jetzt +/- 20% sind.
Entsprechend muss man die Auflösung ein wenig zurücknehmen oder ein wenig weniger pro Pixel rechnen. 20% verteilt auf 2x Achsen inkl. temporaler Rekonstruktion sind für die meisten Nutzer wohl kein Drama. Solange die Grafik grundsätzlich vergleichbar ist, zählen wohl eher Spiele, Vendorlock, Preisstruktur der Services etc deutlich mehr.
Da ist Sony mit seinen 1st und 2nd Party Studios IMO im Vorteil.
----
kann mir wie Gipsel auch vorstellen, dass das SI/Speicherbestückung herkömmlicher und damit flexibler gelöst ist.
warum nicht? Sony hatte aber schon seit der PS2 immer das Ziel "High End" Hardware zu liefern. Teilweise durch viel zu komplexe hardware, die auch nur von einer paar Spielen genutzt wurde, dennoch war es deren Ziel. Auch die PS4 war doch 40% schneller als die XBS (GPU) und deutlich besseren Ram.
denke also das die Wahrscheinlichkeit höher ist, dass die Hardware stärker wird als jene von MS.
Wobei die PS2 schwächer war als der GC und die Xbox. Bei der PS3 vs X360 kann man sich streiten. Als die SPEs voll genutzt worden sind, konnte die PS3 schon gut aufholen wenn nicht im Bereich 3D Berechnung leicht überholen.
Die PS4Pro war zuletzt etwas schwächer als die Xbone X. Hat ihr vom Markterfolg aber keinen Abbruch getan. So riesig waren die Unterschiede für einen 0815 Käufer (also nicht uns Nerds) auch nicht.
][immy
2020-03-17, 15:43:00
Abgesehen von der Cell-CPU könnte man schon überlegen, ob ein anderer Speicheraufbau nicht eventuell doch besser sein kann als der gewöhnungsbedürftige Ansatz von MS.
MS verbaut sechs x32 16 Gbit-Chips + vier x32 8 Gbit-Chips an einem 320bit breiten Interface.
10GB sind über alle Chips verteilt (mit irgendeiner Art von Adressinterleaving), 6GB befinden sich in der "oberen Hälfte" der 16 Gbit-Chips (192 Bit Anbindung). Das führt zwar dazu, das zwei Bereiche mit unterschiedlicher Peakbandbreite existieren, aber der Zugriff auf beide ist nicht wirklich parallel möglich (performancemindernde Kollisionen möglich).
Sony könnte schlicht mit einem 256Bit breiten GDDR6-Interface antreten, welches mit acht x32 16Gbit Chips bestückt ist. Dann erhält man 16 GByte ohne komische Unterteilungen zu einem vermutlich sogar geringerem Preis (weniger Chips), den man dann z.B. in höhere Geschwindigkeit (z.B. 16GT/s) investieren könnte (womit man bei fast der gleichen Peakbandbreite trotz schmalerem GDDR6-Interface rauskommen würde, die sich aber etwas problemloser nutzen lassen würde).
Rein für das OS selber tut es aber normalerweise auch recht langsamer Speicherzugriff (ein Normalnutzer merkt am Desktop ja noch nicht mal, wenn er den PC im Single-Channel fährt). Anstatt also nur 16 GByte GDDR6 zu verbauen wie MS, packt man noch ein 64Bit LPDDR4 Interface dazu. Dann landet man in der Summe ebenfalls bei 320 Bit (wobei die LPDDR4-PHYs etwas kleiner als die GDDR6-PHYs sein sollten) und hängt einfach noch zwei etwas günstigere (im Vergleich zu GDDR6) 16GBit x32 LPDDR4-Chips da dran für extra 4GB (vornehmlich für das OS). Für 8GB LPDDR4 ist der Kostenrahmen vermutlich zu eng, würde aber erlauben z.B. 4 GB als langsamen Speicher für Spiele freizugeben.
LPDDR4 gibt es bis 4,266 GT/s, was dann an einem 64Bit-Interface 34GB/s wären (so viel wie sehr langsamer DDR4 im dual channel), in jedem Fall angemessen für die allermeisten reinen OS-Aufgaben.
Am Ende gleiche Anzahl Speicherchips, 4 GB RAM mehr, RAM-Performance etwas einfacher nutzbar und noch minimal geringere Diesize. Wäre ich Sony oder MS, hätte ich mir die Option mal genauer angesehen.
man wäre aber dann auch schon wieder in ganz anderen Preisbereichen, weil die 4 GB DDR4 extra on top kommen und man dann tatsächlich 2 getrennte Speicherinterfaces hätte, die komplett anders angesprochen werden würden, was wiederum extra Logik auf dem DIE bedeuteten würde. Allerdings wäre das wohl wirklich um einiges einfacher für die Entwickler.
Soweit ich aber verstanden hab, sind 2 GB chips mehr als doppelt so teuer wie 1 GB Chips, dementsprechend könnte das deutlich teurerer sein (aktuell zumindest).
Morgen wissen wir wohl etwas mehr, aber ich befürchte Sony wird einfach ein paar Nebelkerzen werfen und nicht ins Detail gehen. Wenn wir glück haben sehen wir morgen das Gehäuse ^^
IMO ist es gar nicht so kriegsentscheidend für Sony ob es jetzt +/- 20% sind.
Entsprechend muss man die Auflösung ein wenig zurücknehmen oder ein wenig weniger pro Pixel rechnen. 20% verteilt auf 2x Achsen inkl. temporaler Rekonstruktion sind für die meisten Nutzer wohl kein Drama. Solange die Grafik grundsätzlich vergleichbar ist, zählen wohl eher Spiele, Vendorlock, Preisstruktur der Services etc deutlich mehr.
Da ist Sony mit seinen 1st und 2nd Party Studios IMO im Vorteil.
Optische Unterschiede wird man in Zukunft wohl noch mehr mit der Lupe suchen müssen. Der Grenzertrag nimmt halt aktuell stark ab, wenn es um Computergrafik geht. Sieht man ja schon an der Switch, trotz wahnsinnig schlechter Hardware (im vergleich zu anderen Stationären Konsolen) immernoch passable Bilder. Gut die sind auch wirklich stark reduziert im Detailgrad, aber bei der PS5 & xbox series x wird es dann wohl höchstens noch um ein paar Pixel gehen in der nähe von 4k. Da merkt man nicht mehr viel, wenn man nicht grad mehr als 85" Bilddiagonale hat.
Ex3cut3r
2020-03-17, 15:44:03
Hat der Zen in der Xbox oder PS5 eigentlich auch HT?
robbitop
2020-03-17, 15:45:09
Hat der Zen in der Xbox oder PS5 eigentlich auch HT?
Für XBox wurde es ja bereits bestätigt. Für die PS5 ist es aber auch hoch wahrscheinlich. Warum entfernen, wenn es da ist? SMT liefert einen exzellenten Mehrwert in Bezug auf Perf/mm².
Ex3cut3r
2020-03-17, 15:45:55
Für XBox wurde es ja bereits bestätigt. Für die PS5 ist es aber auch hoch wahrscheinlich. Warum entfernen, wenn es da ist? SMT liefert einen exzellenten Mehrwert in Bezug auf Perf/mm².
Oh ok, Danke. das ist schon heftig, also sollte man am PC IMO auch einen 3700X kaufen um 60FPS zu haben.
robbitop
2020-03-17, 15:46:57
Ich kann mir sogar gut vorstellen, dass man mittelfristig Vorteile von einem 12C und sogar 16C hat. Immerhin werden die Konsolen mittelfristig 14 Threads nutzen können. Und echte Kerne sind nunmal schneller. :)
Gebrechlichkeit
2020-03-17, 15:49:02
von einer relativ angesehenen Quelle.
https://s5.gifyu.com/images/BINGO5efc3b1b66c3b6de.png (https://gifyu.com/image/IofJ)
Ex3cut3r
2020-03-17, 15:51:51
Ich kann mir sogar gut vorstellen, dass man mittelfristig Vorteile von einem 12C und sogar 16C hat. Immerhin werden die Konsolen mittelfristig 14 Threads nutzen können. Und echte Kerne sind nunmal schneller. :)
Ja, da hast du vermutlich recht, ich dachte auch eher Minimum an einen 3700X
basix
2020-03-17, 16:21:15
Was soll das? Das ist die korrekte Antwort. Es kommt darauf an. Allein die BVH-Qualitaet kann locker einen Faktor zwei ausmachen.
Deine Antwort ist zwar richtig, nützt aber nichts, weil fast jede Frage mit "it depends" beantwortet werden kann. Und es geht ja nicht um auf die Nachkommastelle genauen Zahlen, nur um eine grobe Abschätzung. Da du genau eine der Personen wärst, welche aufgrund der fachlichen Kompetenzen das beantworten oder zumindest grob abschätzen könnte, ist deine Antwort etwas "unbefriedigend" ;) Das war nicht böse gemeint, sonder eher à la "c'mon, etwas darfst du schon verraten" ;) Ausserdem interessiert mich der direkte Vergleich zu Nvidia und wer besser ist Null. Mich interessiert, wie viele Rays pro Pixel möglich sind und somit, welche Bildqualiät man erwarten könnte. Diese Schätzung ist sicher sehr ungenau, aber besser als die nackte Zahl von 380 GigaIntersections/sec. Präsentationen von DICE und und Nvidia als auch anderen sehen so ca. 1 Ray/pixel als Wert an, wo RT langsam brauchbar wird und 10 Rays/pixel sind in Real Time schon recht gut. Ich habe irgendwo so etwas zwischen 10-15 Rays/pro pixel für die Star Wars Reflections Demo im Hinterkopf (weiss aber nicht obs stimmt). Zu Rays/pixel etc. gibt es erste Referenzwerte, ich konnte die Angabe von 380 GigaIntersetions/sec einfach nicht wirklich einorden (viel? wenig? genug?).
Danke @ Gipsel, Tobalt, RLZ & pixeljetstream für eure sachlichen Kommentare, welche wirklich etwas halfen.
Also, 10 Intersections pro Ray sind zu wenig. 1000 könnten es sein, müssen aber nicht. Dann wird man den theoretischen Peak sowieso nicht erreichen und am Schluss sind evtl. 100 ein vernünftiger Richtwert (+/- X). Also werden wir vermutlich bei maximal einer handvoll Rays/pixel landen, ausser man kann von anderer Seite mit Ray Binning oder was auch immer das noch beschleunigen.
Man munkelte ja schon länger, dass die PS5 mit 40 CUs und 1,8-2 GHz geplant war. Nun könnte man ggf durch Druck gezwungen worden sein, seine Redundanz bei den CUs zu opfern und die GPU mit 2 GHz zu takten.
Die Redundanz wird man meiner Meinung nach niemals opfern. Das lohnt sich ökonomisch gesehen nicht.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.