Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)
Platos
2019-02-02, 02:40:37
Gibt es eigentlich irgendwelche belastbare Hinweise darauf, ob sonys/microsofts bzw. AMDs Konsolen SoCs überhaupt bei TSMC gefertigt werden oder kann man nicht evtl. auch Samsung in Betracht ziehen, mit ihrem 7nm EUV ?
Zossel
2019-02-02, 09:15:17
Ist bei GDDR6 die Latenz überhaupt so groß, das man da mit eDRam aushelfen müsste ?
Ich dachte man hatte früher immer eDRam eingesetzt, um geringe Speicherbandbreiten auszugleichen.
Geht es um Bandbreite oder Latenz?
DRAM hat schon immer schlechte Latenzen gegenüber SRAM, die Latenzen von DRAM sind eigentlich immer noch genauso schlecht wie in den Neunzigern.
IMHO hat der typische RAM auf GPUs eher noch schlechtere Latenzen als DRAM für CPUs weil der der Vektorkram auf GPUs quasi nicht auf Latenzen reagiert, dafür aber umso mehr auf Bandbreite (Wenn was noch nicht da ist gibt es quasi immer was anderes zu rechnen). Klassischer Bandwidth vs. Latency Tradeoff.
robbitop
2019-02-02, 09:30:33
Ich würde sagen, dass die Latenz des DRAMs grob gleich ist. GDDR6 braucht zwar mehr Takte für den Zugriff, taktet im Gegenzu aber deutlich höher.
Außerdem ist der DRAM selbst ja nur ein Teil der Gesamtlatenz. Fabric und IMC sind auch wesentliche Bestandteile. Und je weiter weg der RAM ist, desto langsamer die Kommunikation.
EDRAM hatte nur so gute Latenzen weil er embedded ist. Also im gleichen Die oder als Chiplet auf dem gleichen Package.
Bspw erreicht man mit CFL mit hohem Speichertakt und Rinbustakt vergleichbare oder bessere Latenzen als der L4 on package Cache von bdw. Ca 40 ns.
EDRAM hat man in Konsolen eigentlich nur genommen früher, weil man beim RAM wenig Geld ausgeben wollte was Bandbreite angeht (wenig Takt und schmales SI). Entsprechend wurde der bandbreitenintensive Framebuffer in den eDRAM geschrieben und der Rest in den regulären RAM.
danarcho
2019-02-02, 10:09:39
Die nächsten angeblichen Dev Kit (Prototyp) Specs, der kommenden Xbox Scarlet:
Wenn es denn wirklich jetzt schon ein dev kit geben sollte, würde es mit sehr hoher Wahrscheinlichkeit so aussehen:
Hardware: Ryzen 2800, Vega64, 32GB RAM, fertig.
Software: Das eigentliche dev kit, nämlich build tools.
Zossel
2019-02-02, 10:16:22
Entsprechend wurde der bandbreitenintensive Framebuffer in den eDRAM geschrieben und der Rest in den regulären RAM.
Die zusätzliche Bandbreite für den Bildschirmrefresh ist jetzt nicht der Burner:
$ python -c "print (1080.0 * 1920 * 3 / 2**20 * 60)"
355.95703125
$
robbitop
2019-02-02, 10:24:02
Ich glaube du hast ein falsches Verständnis vom Framebuffer. Gemeint ist nicht der Front oder Backbuffer. Damit ist Color und Z Buffer gemeint. In modernen Defered Engines wurde sicher auch der G-Buffer in den DRAM geschrieben. Da wird während der Berechnung eines Frames äußerst fragmentiert und häufig zugegrifffen. Pro Quad immer wieder bis alle Objekte, Berechnungen und PostFX abgeschlossen sind. Das ist der bandbreitenaufwändigste Part.
pixelguy
2019-02-04, 20:52:28
Interessantes Patent zum Thema Abwärtskompatibilität:
https://www.golem.de/news/playstation-5-sony-arbeitet-an-kompatibilitaet-mit-aelteren-plattformen-1902-139155.html
Zossel
2019-02-04, 21:11:02
Ich glaube du hast ein falsches Verständnis vom Framebuffer. Gemeint ist nicht der Front oder Backbuffer. Damit ist Color und Z Buffer gemeint. In modernen Defered Engines wurde sicher auch der G-Buffer in den DRAM geschrieben. Da wird während der Berechnung eines Frames äußerst fragmentiert und häufig zugegrifffen. Pro Quad immer wieder bis alle Objekte, Berechnungen und PostFX abgeschlossen sind. Das ist der bandbreitenaufwändigste Part.
In diesem Context ist mir der Begriff Framebuffer noch nie untergekommen. Nutzt man den den Begriff Framebuffer im Context von 3D-APIs so?
robbitop
2019-02-04, 22:19:50
Ja absolut.
DoomGuy
2019-02-04, 22:46:04
Wird diese Generation denn endlich anisotropisches Filtering in allen Titeln anwenden können? Ich finde es wirklich so schade, dass dieses Feature so stiefmütterlich behandelt wird. Ich hätte zwar inzwischen genug Gameplay-Videos auf der PS4 Pro gesammelt die das Fehlen unterstreichen, aber die Kompression lässt einen kaum noch was erkennen...
Gescheites Filtering für alle :up:
robbitop
2019-02-04, 23:15:46
Die meisten Titel hatten wenigstens 4xAF auf der PS4. Auf der PS4pro und der xbox one x sind es idR 16xAF.
DoomGuy
2019-02-04, 23:24:53
Kann ich nicht unterschreiben. PCars 2 filtert grausam, Horizon Zero Dawn ist nicht besser, Dirt 4 auch bei max 4x. Vom Remaster der Uncharted-Reihe bin ich hingegen angetan - TOP!
btw. ändert sich am AF nichts bei PS4 vs Pro. Die Auflösung kann angepasst werden, aber selbst wenn man Grafik vor FPS wählt, ändert sich am Filtering nichts. So habe ich das bei besagten Spielen erlebt.
robbitop
2019-02-04, 23:47:07
Hängt halt vom Entwickler ab wie er die Leistung einsetzt. DF beleuchtet das ja für eine Menge von Spielen.
Ist halt immer die Frage wieviel vom 33/16ms timeframe übrig ist. Und wir alle wissen, dass man nie genug Grafikleistung haben kann. Ist immer eine Frage der Priorität.
IMO wäre anständiges AF, anständiges TAA und eine gewisse Mindestauflösung und mindest sustained Framerate aber etwas, was unumstößlich wäre heutzutage, damit es auch gut aussieht und sich so anfühlt.
Ich bin auch dafür dass die Titel alle 60fps haben. Mir persönlich ist 30 fps zu wenig. Zu wenig Bewegtschärfe, zuviel Inputlage, zu unflüssig. Wird aber nicht geschehen, da dann nur halbes Frametimwbudget. Ergo weniger BQ/Pixel...
60FPS waren halt mit den doch etwas schwachbruestigen Jaguars jahrelang nicht drin. Vielleich wird das ja mit Zen was.
Fragman
2019-02-05, 09:06:20
Wenn die natives 4K anstreben, kann man die 60 Frames wohl vergessen, das wird dann eher auf 30 hinaus laufen oder eben 60 bei 1440p mit besserem upscale vielleicht?
Argo Zero
2019-02-05, 09:21:47
So lange es einen 1080p Modus gibt mit 60 FPS kann mir das 4K Ziel recht sein.
Ganon
2019-02-05, 09:25:22
Hatten wir ja eigentlich schon oft genug besprochen: Es gibt kein 60fps, weil die meisten Entwickler kein 60fps anstreben und nicht weil die Hardware zu schwach ist.
Argo Zero
2019-02-05, 09:28:47
Hatten wir ja eigentlich schon oft genug besprochen: Es gibt kein 60fps, weil die meisten Entwickler kein 60fps anstreben und nicht weil die Hardware zu schwach ist.
Bei der PS4 Pro gibt es oftmals keine 60 FPS wegen der CPU.
Den Performance / Leistungs - Modus haben mittlerweile alle 1st Party PS4 Spiele und auch einige Ports.
Wird bei der PS5 nicht anders sein.
Ganon
2019-02-05, 09:37:31
Bei der PS4 Pro gibt es oftmals keine 60 FPS wegen der CPU.
Sie kann ein Spiel, was für 30fps entwickelt wurde nicht plötzlich uneingeschränkt in 60fps rendern, ja. Aber das heißt nicht, dass das Spiel nicht auch in 60fps möglich gewesen wäre. Natürlich mit entsprechenden Abstrichen hier und da.
Den Performance / Leistungs - Modus haben mittlerweile alle 1st Party PS4 Spiele und auch einige Ports.
Wird bei der PS5 nicht anders sein.
Ja, dann hat der Entwickler das Spiel aber auf 60fps ausgelegt und erlaubt den Spielern höhere Bildqualität und (in der Regel) nicht anders herum. Niemand (außer der Entwickler) weiß wie die Performance ohne 30fps Begrenzung dann wäre.
Argo Zero
2019-02-05, 09:45:26
Die nächste Gen wird vermutlich eine adäquat potente CPU haben im Verhältnis zur GPU.
Würde mich dann stark wundern, wenn der Leistungsmodus unter 1080p keine 60 FPS schaffen sollte. Aktuell ist das Verhältnis, zumindest bei der PS4 Pro, so ausgelegt, dass die CPU der limitierende Faktor ist.
Apropos „auslegen“. Shadow of the TR hat zwar im Leistungsmodus ein 60 FPS target, läuft aber recht variabel und geht in manchen Szenen auf bis zu 40 FPS runter.
Muss nicht immer ein FPS lock sein.
Bleibt jedenfalls spannend. 60 FPS bei 1080p wäre für mich und einige meiner Freunde ein Kaufargument für die Next Gen.
Ganon
2019-02-05, 11:28:44
"1080p/60fps" wurde schon bei der PS3 gefordert und selbst die PS4 Pro kriegt's nicht generell hin und einen 720p/60fps Modus bieten auch nur die wenigsten Spiele. Ich persönlich rechne nicht mit einer generellen Verfügbarkeit eines 60fps Modus in allen Spielen, auch bei der PS5 nicht. Und so ein Pseudo-Performance Modus mit entsperrter Framerate kann mir persönlich auch gestohlen bleiben.
Wie gesagt, wenn, dann müssen die Spieleentwickler allesamt umdenken und direkt die 60fps anstreben und dann davon ausgehend ein Qualitäts Modus mit 30fps gestalten. Alles andere ist Flickschusterei. Auch die Realität sagt, dass die Entwickler eher mühe haben überhaupt durchgängig 30fps zu erreichen.
Wenn z.B. doch mal mein Traum wahr wird und wir langsam mal die Grenzen des Game-Design aus den 90ern überwinden könnten, dann wird's mit einem Performance-Modus auch schwieriger. Damit rechne ich aber auch nicht.
Argo Zero
2019-02-05, 11:44:30
Dem (Konsolen) Spieler überhaupt die Möglichkeit zu bieten, dass er selbst entscheidet, ob er Leistung oder Bildqualität bevorzugt ist/war fast schon revolutionär im Vergleich zu vorherigen Konsolengenerationen.
Das Problem in meiner Wahrnehmung ist, dass ich in meinem Umfeld sehr viele Zocker habe, die den Unterschied zwischen 30 und 60 FPS sehen. Daher weiß ich nicht, wie es der "normale" Spieler das mittlerweile sieht. Kann mir aber gut vorstellen, dass einige wach geworden sind, wenn sie ihr Spiel mal mit 60 FPS gesehen haben und zuvor nur 30 FPS gewohnt waren, weil die Option nie angeboten wurde.
Bleibt im Grunde nur abwarten und Tee trinken. Die Chancen stehen aktuell imo besser als jemals zuvor, weil das Darstellungsgerät fast schon so unterschiedlich ist, wie bei der PC Spielerschaft. Früher war dir klar, dass jemand eine Röhre oder HD-Fernseher hat neben seiner Konsole. Heute sind dagegen Auflösungen zwischen 1080p und 4k vertreten, auf denen das Spiel vernünftig laufen muss.
Ganon
2019-02-05, 11:57:58
Ist halt die Frage, ob der Performance-Modus nur ein Beiprodukt ist, der daher kommt, dass man eh eine (deutlich) langsamere Konsolen-Variante unterstützen muss, oder ob er wirklich "gewollt" ist. Es hängt auch davon ab, ob die PS5 nur eine PS4 Pro 2 wird, aus Sicht des Entwicklers.
Das Problem in meiner Wahrnehmung ist, dass ich in meinem Umfeld sehr viele Zocker habe, die den Unterschied zwischen 30 und 60 FPS sehen. Daher weiß ich nicht, wie es der "normale" Spieler das mittlerweile sieht. Kann mir aber gut vorstellen, dass einige wach geworden sind, wenn sie ihr Spiel mal mit 60 FPS gesehen haben und zuvor nur 30 FPS gewohnt waren, weil die Option nie angeboten wurde.
Ich seh ihn auch deutlich, aber trotzdem wähle ich meistens lieber die 30fps Variante mit mehr Eyecandy.
robbitop
2019-02-05, 17:32:22
60FPS waren halt mit den doch etwas schwachbruestigen Jaguars jahrelang nicht drin. Vielleich wird das ja mit Zen was.
Die Chance ist höher. Aber mit 60 fps hat man halt nur ahlbe Renderzeit. Entsprechend wiegt das HW Upgrade nur noch halb soviel, wenn man schaut was man pro Frame machen kann. Ist dann halt weniger hübsch.
Ein Performancemode mit 60fps ggü einem hq mode mit 30 fps ist nur möglich, wenn beim hq mode nur 50% CPU Ressourcen gebraucht werden. Oder aber man muss eine ganze Menge CPU Last (i. e datails) reduzieren. Nicht so einfach und könnte dann deutlich schlechter aussehen.
Auf VRR kann man nur partiell setzen. Marktdurchdringung dauert noch.
Platos
2019-02-05, 18:02:40
aich denke mal, die werden es einfach so wie bei der PS4 pro machen und mehrere Möglichkeiten bieten. Gerade weil sie dieses Feature eingebunden haben, denke ich nicht, dass sie es den Kunden "wieder weg" nehmen.
icemanemp
2019-02-14, 17:30:24
Nächste PS5 Gerüchte
https://www.reddit.com/r/PS4/comments/apinwd/new_ps5_rumor_on_the_street/?st=JS4UA6DR&sh=1771f074
Endlich mal keine „nur“ 8tf Gerüchte und genug RAM. Realistisch HDD-Angabe, nix mit 1 TB NVMe SSD...
Platos
2019-02-15, 03:39:59
Kennt jemand den Nutzer bzw. hat jemand einen Account dort ?
Könnte ein x-belieberer "leak" sein, der einfach wieder mal selbst zusammengesponnen ist. In letzter Zeit irgendwie aussergewöhnlich oft.
Aber der Speicher erscheint mri doch recht wenig. Normalerweise haben Dev Kits doch sogar mehr Speicher als die eigentlichen Versionen dann ? Also passt für mich nicht so ganz.
Argo Zero
2019-02-15, 09:00:22
Mein Tipp für die finale Konsole wären sogar noch weniger Speicher. Hätte mit 16 GB für Spiele nutzbarem Speicher gerechnet.
THEaaron
2019-02-15, 09:13:59
16gb bis 2027 rum? Good luck. :D
Argo Zero
2019-02-15, 09:55:36
Yep, das ist meine realistische Einschätzung aktuell. 16 GB RAM und vielleicht nochmal 2 GB für Hintergrundanwendungen / OS.
Die PS4 Pro kommt mit 8 GB klar und das sogar mit 4k Auflösung. Ich hätte nicht gedacht, dass dann ein Spiel wie Spider Man möglich wäre. Von daher würde es mich fast schon wundern, stattet man die PS5 mit mehr RAM aus als 16 GB.
DrFreaK666
2019-02-15, 09:58:55
Die One X hat schon 12GB. Das wäre ja dann nur geringfügig mehr..
robbitop
2019-02-15, 10:24:08
„Kein Mensch braucht mehr als 640kb Arbeitsspeicher.“ ;)
Der Sprung auf 16 gb wäre für nextgen zu klein. Insbesondere für 2020/21.
gnomi
2019-02-15, 10:27:48
Ich rechne zunächst mal mit deutlich besseren CPU's in den neuen Konsolen.
Das sollte endlich auch klar besser designte Games mit mehr Möglichkeiten bringen.
Wenn es aber auch grafisch ein Sprung sein soll, müssen sie denke ich schon auf Minimum 24GB Speicher und wieder deutlich mehr GPU Power als bei der X gehen.
Entscheidend wird sein, ob Konsolen in der Standard Konfiguration zu Minimum 500 Euro kommen, und wie sehr wegen kleineren, billigen Versionen wegen Streaming und Abwärtskompatibilität zur alten Generation dann auch was nach unten hin erscheint.
Es ist wahrscheinlich auch eine Strategie Sache. Entweder zu 400 Euro so alles einigermaßen oder günstig und teuer mit 2 Produkten.
Argo Zero
2019-02-15, 10:38:48
Ich gehe von 399 EUR aus. Teuerer ist erfahrungsgemäß ein Griff ins Klo (PS3 & Xbox One ahoi).
Deswegen sind auch meine Erwartungen zur verwendeten Hardware nicht sonderlich groß.
arcanum
2019-02-15, 10:42:25
die ps4 pro hat nutzbare 5,5gb für spiele. da wären 16gb schon ein erheblicher sprung. zudem macht ein wettrüsten für sony mit microsoft keinen sinn, da sich die ps4 pro auch mit der schlechteren hardware deutlich besser verkauft als die one x.
mit der aktuellen strategie fährt man bei sony sehr gut und die hardware in den feuchten traum von pc-spielern zu verwandeln wird bestimmt nicht mehr geld in die kasse spülen.
IC3M@N FX
2019-02-15, 10:44:30
Ich glaube das es wird 16GB GDDR6/HBM2 + 8GB DDR4 (für OS und Anwendungen).
Einige meinen ja das wäre zu wenig da die PS4/Pro schon 8GB GDDR5 Speicher hat/hatte.
Sie vergessen aber das OS und Games den gemeinsamen Speicher geteilt haben, und davon nicht viel übrig blieb.
Allein das OS und die Drecks Social Komponenten haben 2,5GB in Anspruch genommen, und letztendlich für Spiele fehlten.
Von 8GB der PS4/Pro sind/waren zuletzt nur noch 5,5GB für Spiele verfügbar vs. PS5 16GB komplett für Spiele, das ist ein erheblicher unterschied.
Windi
2019-02-15, 11:36:16
Wurden am Anfang nicht gleich 3,5GB für das Betriebssystem reserviert?
16+4 sehe ich aber als absolutes Minimum für die nächste Generation an.
24+8 ist die Wahrscheinlichste.
Und über 32GB wäre halt sehr schön.
Im Vergleich zu den 4,5GB zum Start der PS4 wären 24GB (nur für Spiele) fast das fünfeinhalb fache.
Mit welcher Fertigung kann man denn 2020 rechnen? 7 EUV oder schon 5nm?
Fuer die gut 12 TF braeuchte man "nur" 25% mehr Takt als die One X, sofern man die CUs auf 64 aufbohren wuerde. Waere das so unrealistisch, 1,5-2 Fertigungsschritte weiter?
amdfanuwe
2019-02-15, 12:06:47
Ihr hört euch an wie:
" Mein Golf hat 250 PS, der nächste muß mindestens 500 PS haben "
Was soll der Speicher denn bringen? Sehe jetzt nicht, dass die 16 GB der Radeon VII einen großen Vorteil bietet oder das die aktuelle Spieleentwicklung an 8GB VRAM scheitert. Da fehlt ein speicherfressendes Killerfeature bevor es sich lohnt mehr Speicher zu verbauen.
Fragman
2019-02-15, 12:14:52
Ihr hört euch an wie:
" Mein Golf hat 250 PS, der nächste muß mindestens 500 PS haben "
Was soll der Speicher denn bringen? Sehe jetzt nicht, dass die 16 GB der Radeon VII einen großen Vorteil bietet oder das die aktuelle Spieleentwicklung an 8GB VRAM scheitert. Da fehlt ein speicherfressendes Killerfeature bevor es sich lohnt mehr Speicher zu verbauen.
Wir reden hier von Konsolen und Titeln, die das auch nutzen werden. Das es die heut noch nicht geben kann, sollte doch klar sein. Ist doch bei jeder neuen Gen so, das sie Feature mit bringt, die die alte nicht konnte. :confused:
Bessere Assets sind da ja nur ein Beispiel.
Daredevil
2019-02-15, 12:15:24
Ram ist insofern auch wichtig für die Konsole, da sie auch halt als "RAM Cache" eingesetzt werden kann, um die HDD Performance aufzufangen. Das ist kostengünstiger und variabel einsetzbarer als eine SSD oder gar NVME Speicher. 2-4GB Cache auf dem RAM beschleunigen ein HDD System schon eine gute Ecke.
][immy
2019-02-15, 12:30:35
Mit welcher Fertigung kann man denn 2020 rechnen? 7 EUV oder schon 5nm?
Fuer die gut 12 TF braeuchte man "nur" 25% mehr Takt als die One X, sofern man die CUs auf 64 aufbohren wuerde. Waere das so unrealistisch, 1,5-2 Fertigungsschritte weiter?
als 5nm wird noch nicht zur Verfügung stehen für solche Chips. Wir sind ja grad mal am Anfang von 7nm und die Ausbeute scheint nicht sonderlich hoch zu sein, wenn für die 7nm Vega schon 4 CUs deaktiviert werden mussten und der Preis trotzdem so hoch ist.
Dann kommt noch hinzu da Zen 2 wohl aus 7nm und 16/14/12 nm Komponenten besteht. Daher werden dann wohl auch die next-gen Konsolen dieses Konzept verfolgen, wenn sie 2020 raus kommen.
Das mit dem Speicher sehe ich nach wie vor kritisch. Zum einen ist mehr immer gut (aber auch teuer) zum anderen sind die Sprünge die mehr bringt immer kleiner. Die Visuellen Unterschieden werden immer geringer und mit immer mehr hardware erkauft. Zudem wird der Speicher fast ausschließlich für das rendern genutzt. Es geht in spielen kaum etwas für Simulations-Logiken drauf.
Wenn man natives 4k ins Auge fasst mit der nächsten Gen wird der Schritt noch geringer ausfallen ggü. den Mid-gen Refreshes.
Eine aktuelle CPU mag zwar kreise um die current gen ziehen, aber ganz im ernst, welches Spiel benötigt CPU-Leistung außer um die GPU zu füttern?
Und das Genre wo wirklich CPU-Leistung benötigt werden würde (RTS) ist mehr oder minder ausgestorben.
Das mit den 60 fps ist auch so eine Sache. Setzt man darauf, kann man sich visuell auch nicht von der current mid-gen absetzen. Das mag zwar hier im Forum eine Rolle spielen, aber das ist halt nur eine Minderheit. Die meisten wird etwas per Werbung etc schmackhaft gemacht und da zählen nur Momentaufnahmen, wo die Framerate keine Rolle spielt.
Ich erwarte einen noch kleineren Sprung als anfänglich von PS3/XB360 -> PS4/xb1. So wirklich viel hat sich nicht getan. Wenn man mal schaut, was man damals alles aus weniger als 512MB verfügbaren Speicher (OS Speicher abziehen) rausgeholt hat …
Ram ist insofern auch wichtig für die Konsole, da sie auch halt als "RAM Cache" eingesetzt werden kann, um die HDD Performance aufzufangen. Das ist kostengünstiger und variabel einsetzbarer als eine SSD oder gar NVME Speicher. 2-4GB Cache auf dem RAM beschleunigen ein HDD System schon eine gute Ecke.
Die xbox one X macht das um nicht angepasste Spiele zu beschleunigen. Ist aber eine sehr ineffiziente art den Speicher zu verwenden. Quasi mit Kanonen auf Spatzen schießen. Und es lohnt nur solange das Spiel nicht selbst den Speicher verwendet.
Daredevil
2019-02-15, 12:37:17
Es geht ja auch nur darum, das Betriebssystem zu beschleunigen und ggf. mal lange Ladezeiten zu verhindern in fetten Spielen. Wenn man dafür halt 24GB hat und ein paar dafür reservieren kann, ist eine HDD selbst halt ausreichend für die Flupdizität.
Platos
2019-02-15, 15:44:20
Also ich denke mal, es wird 7nm EUV werden. 5nm ganz sicher nicht. 7nm DUV ist zu dem Zeitpunkt wahrscheinlich sogar noch teurer als EUV. Aber vlt. haben sie ja auch einen Deal bei Samsung, wer weiss.
Aber zum Speicher: 16GB für Spiele reserviert und 4-8GB für's Os, würde ja noch gehen (wäre aber das Minimum). Aber bei 24GB DevKits kann ich mir das nicht vorstellen (wenn man wie gesagt, davon ausgeht, dass diese mehr haben). Ergo denke ich nicht, dass das stimmt. Denn weniger als 16GB für Spiele wird es nicht geben. Da würde ich meine Hand (für 0,2s) ins Feuer legen :biggrin:
pixelguy
2019-03-05, 08:52:22
Vielleicht interessant für die Kalkulation der Speichermenge: https://www.computerbase.de/2019-02/arbeitsspeicher-40-prozent-preisverfall-halbjahr/
Leonidas
2019-03-05, 09:10:39
Nächste PS5 Gerüchte
https://www.reddit.com/r/PS4/comments/apinwd/new_ps5_rumor_on_the_street/?st=JS4UA6DR&sh=1771f074
Sieht auf den ersten Blick gut aus. Aber dann: 24-20 GB at 880 GB/sec.
Ja, was denn? Die Speichermenge bestimmt die Interface-Breite, womit sich auch die Bandbreite ändert. Auf 24 GB haben wir ein 384 Bit Interface, was dann allerdings satte 4583 MHz QDR Speichertakt verlangt. Auf 20 GB wäre es ein 320 Bit Interface, was den Speichertakt auf satte 5500 MHz QDR hochtreibt, um wieder bei 880 GB/sec herauszukommen.
Fazit: Zu 98% erdacht. Die Bandbreitenangabe passt nicht zur noch nicht feststehenden Speichermenge, zudem würde der sich ergebende Speichertakt auch für GDDR6 klar zu hoch sein.
Update: Zu 100% erdacht. Es wird keinen extra DDR4-Speicher geben zu einem vorhandenen GDDR6-Speicher. Begründung siehe nachfolgend. Wer denkt sich nur diesen Unsinn aus?
Ich glaube das es wird 16GB GDDR6/HBM2 + 8GB DDR4 (für OS und Anwendungen).
Es wird keine Hardware-mäßige Auftrennung geben, weil dies zwei Speicherinterfaces erfordern würde, was technisch sinnlos ist. Eine Speichersorte, ein Speicherinterface.
Update: Ich ziehe die Aussage zurück. Vielleicht nicht besonders wahrscheinlich, aber technisch durchaus machbar als extra Cache wie bei der PS4Pro.
Ganon
2019-03-05, 09:17:08
Es wird keine Hardware-mäßige Auftrennung geben, weil dies zwei Speicherinterfaces erfordern würde, was technisch sinnlos ist. Eine Speichersorte, ein Speicherinterface.
Hat doch die PS4 Pro aber auch. Ist natürlich keine Bestätigung für eine Auftrennung in der PS5, aber auch nicht "unüblich", wenn man es so ausdrücken will. Bei der Wii (U) lief das OS sogar auf einem komplett anderen Prozessor :D
Leonidas
2019-03-05, 09:36:09
Jein, der zusätzliche GB bei der PS4Pro ist ja (so wie ich es verstehe) reiner Cache, bedingt kein eigenes (großes) Speicherinterface. So etwas kann es natürlich auch bei der PS5 geben, keine Frage. Nur ist Cache eben kein Speicher (im Software-Sinne).
Aber ja - so gesehen kann es natürlich doch wieder zu diesen unterschiedlichen RAM-Formen bei der PS5 kommen. Ergo liegt ich hier falsch.
IC3M@N FX
2019-03-05, 09:58:09
Ich sehe eine Trennung von Speicher für Spiele & nur OS, Anwendungen etc. als sinnvoll es würde sogar den Preis der Produktion drücken.
Auch wenn es in den ersten blick das Motherboard aufwändiger/komplizierter machen würde und teurer, wird es sicherlich günstiger sein als der teurer zusätzliche gemeinsamer Speicher.
Konsolen sind sehr eng kalkulierte Produkte die meistens eine geringe Gewinnmarge bringen.
Es macht mehr Sinn 16-24 GB GDDR6/HBM Speicher komplett nur für Spiele zu investieren anstatt mehr einzubauen damit sie vom OS und Hintergrund Anwendungen zugemüllt werden, ohne wirklichen nutzen für den Hersteller und Kunden.
Was bringen mir sehr teuere 24-32 GB GDDR6/HBM, wenn 4-8 GB für OS und Anwendungen reserviert werden und dabei drauf gehen.
Weil Sony und Microsoft meint das Social Gaming mit Content Streaming per Video & Audio die Gegenwart & Zukunft sei und mit der neuen Konsolen Generation werden sie diesen Weg sogar noch weiter gehen.
Ich brauch´s nicht trotzdem kann ich es nicht verhindern..
Die kosten für extra 8 GB DDR4 RAM Chips im Einkaufspreis in diesen Unmengen gegenüber zusätzlichen GDDR6/HBM2/3 sind meiner Meinung nach 2020/21 bestimmt ein großer unterschied.
Ganon
2019-03-05, 09:59:05
Jein, der zusätzliche GB bei der PS4Pro ist ja (so wie ich es verstehe) reiner Cache, bedingt kein eigenes (großes) Speicherinterface. So etwas kann es natürlich auch bei der PS5 geben, keine Frage. Nur ist Cache eben kein Speicher (im Software-Sinne).
Es ist wohl hauptsächlich ein schneller Swapspace und kein "Software-transparenter" Cache:
https://www.eurogamer.net/articles/digitalfoundry-2016-inside-playstation-4-pro-how-sony-made-a-4k-games-machine
"On PS4 Pro, we do things differently, when you stop using Netflix, we move it to the slow, conventional gigabyte of DRAM. Using that strategy frees up almost one gigabyte of the eight gigabytes of GDDR5. We use 512MB of that freed up space for games, which is to say that games can use 5.5GB instead of the five and we use most of the rest to make the PS4 Pro interface - meaning what you see when you hit the PS button - at 4K rather than the 1080p it is today."
Klar, ist gerade nur die Marketing-Version davon. Wie das nun intern angebunden ist sei mal dahingestellt.
Je nachdem wie die RAM-Preise sein werden könnte Sony auch die Nase voll davon haben so viel High-Performance RAM für das OS zu verballern. Aber 8GB wären hier natürlich auch ziemlich übertrieben. Und die Zeiten wo billige ARM CPUs zu langsam für ein komplettes OS wären, sind ja nun eigentlich auch vorbei. Hier spricht vermutlich nur die Abwärtskompatibiltät und der Software-Aufwand dagegen.
Gipsel
2019-03-05, 11:15:30
Der DDR3 bei der PS4/Pro hängt am "Aeolia" (https://www.psdevwiki.com/ps4/Aeolia)-"Southbridge"-Chip (bei der Pro wohl "Belize" genannt), nicht am Hauptchip selber.
icemanemp
2019-03-05, 19:23:35
Der DDR3 bei der PS4/Pro hängt am "Aeolia" (https://www.psdevwiki.com/ps4/Aeolia)-"Southbridge"-Chip (bei der Pro wohl "Belize" genannt), nicht am Hauptchip selber.
Ich dachte immer die PS4 hat für OS immer vom 8 GB DDR5 abgezwackt? Nur die PS4 Pro hatte doch extra beworbenen 1 GB extra für OS oder Streaming...
][immy
2019-03-05, 19:34:32
Also hbm? Ist ein wenig zu teuer, es sei denn die konsolen gehen wieder Richtung ps3 launch.
Und einen extra internen speicherpool wird es wohl auch nicht mehr geben, nach der ps3 und xbo. Hat zwar durchaus Vorteile (je schneller die cpu fest mehr stört sie bei den zugriffen) aber es ging das letzte mal auch nicht gut aus. Zwar würde man den gpu pool diesmal sicherlich größer machen aber dann kommen wieder extra kosten dazu die man über die jahre tragen muss.
Ich dachte immer die PS4 hat für OS immer vom 8 GB DDR5 abgezwackt? Nur die PS4 Pro hatte doch extra beworbenen 1 GB extra für OS oder Streaming...
Schon die ps4 hatte ddr3 Speicher onboard. Für hintergrundfunktionen im standby soweit ich weiß. Nur war der kleiner und mit der pro hat man ihn vergrößert (vermutlich da genauso teuer) und dann noch für andere dinge verwendet. Der ist zwar nicht grad gut angebunden, aber für so nen app-swap reicht es allemal.
Zossel
2019-03-05, 19:55:50
Ich sehe eine Trennung von Speicher für Spiele & nur OS, Anwendungen etc. als sinnvoll es würde sogar den Preis der Produktion drücken.
Auch wenn es in den ersten blick das Motherboard aufwändiger/komplizierter machen würde und teurer, wird es sicherlich günstiger sein als der teurer zusätzliche gemeinsamer Speicher.
Dafür ist HBCC da, dann braucht es keine statische (kotz/würg) Aufteilung.
mczak
2019-03-06, 05:18:48
[immy;11942884']Schon die ps4 hatte ddr3 Speicher onboard. Für hintergrundfunktionen im standby soweit ich weiß. Nur war der kleiner und mit der pro hat man ihn vergrößert (vermutlich da genauso teuer) und dann noch für andere dinge verwendet. Der ist zwar nicht grad gut angebunden, aber für so nen app-swap reicht es allemal.
Laut dem Teardown sind das 2 Chips a 4 Gb, 1600Mbps, und zwar als 512Mx8 organisiert. Wenn das Interface also 16 bit breit ist (wäre ja auch möglich dass die sich die 8 bit teilen...) gibt das eine Datenrate von etwa 3GB/s. Das würde man auch mit einer nvme-SSD hinkriegen :-).
Kriegsgeier
2019-03-06, 06:57:26
ach wie geil ist dieser Post aus 2013 denn:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9818067#post9818067
Wahnsinn!
Leonidas
2019-03-06, 08:01:31
ach wie geil ist dieser Post aus 2013 denn:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9818067#post9818067
Wahnsinn!
In der Tat. Da hatte man sich zu viel gedacht. Wobei ich vermute, das dies auch im Jahr 2013 eher als das alleroberste Ende der Möglichkeiten angesehen wurde.
Platos
2019-03-06, 08:22:27
Lest euch mal Kommentare zu einer beliebigen neuen Technologie durch und ihr werdet immer jemand finden, der denkt, in 10 Jahren leben wir dann in Sword Art Online :D
Karümel
2019-03-06, 08:36:05
Gab es nicht mal eine Aussage bei der Ankündigung/ Vorstellung der PS3 bezüglich "immer Full-HD mit 60 FPS"?
Da sind wir heute bei den aktuellen Konsolen ja noch nicht.
Ganon
2019-03-06, 08:48:37
Gab es nicht mal eine Aussage bei der Ankündigung/ Vorstellung der PS3 bezüglich "immer Full-HD mit 60 FPS"?
Nein. Das war reine Wunschvorstellung. Damals war die Forderung nach 1080p@60fps genauso als wenn du heute durchweg 4K@60fps forderst.
smalM
2019-03-06, 09:20:37
Das würde man auch mit einer nvme-SSD hinkriegen .
Und damit die SSD ganz schnell hin kriegen.
Hatte die PS3 nicht nur 256MB VRAM? Wie soll das denn gehen mit FHD?
deekey777
2019-03-06, 09:36:23
Nein. Das war reine Wunschvorstellung. Damals war die Forderung nach 1080p@60fps genauso als wenn du heute durchweg 4K@60fps forderst.
Die PS3 wurde damals ausdrücklich mit TrueHD beworben, weil auf der ein Jahr zuvor veröffentlichten Xbox360 720p der Standard war (bis auf einige Ausnahmen). Der Rest ist Geschichte.
Ganon
2019-03-06, 12:44:11
Die PS3 wurde damals ausdrücklich mit TrueHD beworben, weil auf der ein Jahr zuvor veröffentlichten Xbox360 720p der Standard war (bis auf einige Ausnahmen). Der Rest ist Geschichte.
Sicher, dass du das nicht im späteren Verlauf der PS3 mit Dolby TrueHD und/oder BluRay Support verwechselst? Also ich kann mich nicht erinnern, dass bei der PS3 je behauptet wurde, dass alle Spiele in 1080p laufen (und 60fps schon gar nicht). "Supports" ist halt was anderes als "Standard".
Aber letztendlich kann das auch wie bei der OneX mit dem "True 4K" Logo sein, wo nur festgelegt ist, dass ein 4K Framebuffer genutzt, aber nicht zwangsweise in 4K gerendert werden muss.
mczak
2019-03-06, 15:37:45
Und damit die SSD ganz schnell hin kriegen.
Keine Spur, das würde die ewig mitmachen. Das auszulagern passiert ja nur ab und zu, und ist ausserdem nur 1GB, was die wear-leveling Algorithmen ja immer auf die ganze SSD verteilen. (Abgesehen davon dass es so auszulagern mit einer SSD wohl kaum sinnvoll wäre und man das einfach neu laden würde...)
dargo
2019-03-06, 16:43:58
ach wie geil ist dieser Post aus 2013 denn:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9818067#post9818067
Wahnsinn!
Nightspiders Wunschvorstellungen hatten schon immer wenig mit Realität zu tun gehabt. :tongue:
deekey777
2019-03-07, 10:26:22
Sicher, dass du das nicht im späteren Verlauf der PS3 mit Dolby TrueHD und/oder BluRay Support verwechselst? Also ich kann mich nicht erinnern, dass bei der PS3 je behauptet wurde, dass alle Spiele in 1080p laufen (und 60fps schon gar nicht). "Supports" ist halt was anderes als "Standard".
.
Ich verwechsle nichts. 1080p wurde als wahres HD beworben (True HD), während die Xbox360-Spiele mit nur 720 liefen. Sprich: Man sprach der Xbox360 die HD-Fähigkeit ab, denn nur die PS3 konnte 1080 liefern und damit wahres HD.
(Da war die PS3 noch gar nicht auf dem Markt.)
Ganon
2019-03-07, 10:41:35
Ich verwechsle nichts. 1080p wurde als wahres HD beworben (True HD), während die Xbox360-Spiele mit nur 720 liefen. Sprich: Man sprach der Xbox360 die HD-Fähigkeit ab, denn nur die PS3 konnte 1080 liefern und damit wahres HD.
Wie ich ja sagte, wird es dann vermutlich ähnlich gewesen sein wie heute MS mit "True 4K". Aber von 1080p/60fps als Standard hat trotzdem niemand geredet, genauso wie heute niemand von 4K@60fps redet.
Nightspider
2019-03-09, 02:29:54
ach wie geil ist dieser Post aus 2013 denn:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9818067#post9818067
Wahnsinn!
In der Tat. Da hatte man sich zu viel gedacht. Wobei ich vermute, das dies auch im Jahr 2013 eher als das alleroberste Ende der Möglichkeiten angesehen wurde.
Ja den habe ich vor einigen Wochen auch mal wieder gelesen und musste etwas beschämt lachen. :D
Dennoch: Einige Sachen könnten so kommen (keine HDD, Facial/Body-Scanning) und bei einigen Dingen (PRAM, MRAM usw) wurde uns vor 6-7 Jahren einfach zu viel versprochen.
OLED und 4K hat heute auch jeder Enthusiast bzw. Neukäufer mit höheren Ansprüchen und etwas Knowhow. 8K für den Endkunden wartet schon um die Ecke und 120Hz sowie VRR sind mit der 2019er TV Gen schon Realität.
Stacked memory ist zwar weit weg von kompletter Marktdurchdringung aber auch bei der PS5 noch nicht vom Tisch. Da hat sich eben auch vieles verschoben aber zumindest wird immer mehr gestapelt, selbst Intel plant das ja mittlerweile auch für Laptops und Tablets. Dauert bestimmt nicht mehr lange bis in iPhones und iPads irgendeine Forme von gestapeltem Speicher Einzug hält.
Kinect (2) ist zwar extrem gescheitert (primär weil zu teuer und nutzlos) aber technisch könnte man da heuzutage mit den ganzen Weiterentwicklungen der TOF Sensoren und immer besseren und günstigeren Kameras schon einiges zaubern. Technisch wären solche Hardware-Addons (""Kinect 3"") für die nächste Gen durchaus möglich um sowas zu realisieren. Wie sinnvoll das ist steht auf einem anderen Blatt. Sony und MS haben sich ja von Fuchtelsteuerung eh distanziert. Wenn wird man sich optional auf VR fokussieren.
Man muss sich ja nur mal dieses Video von 2011 anschauen mit Kinect 1:
https://www.youtube.com/watch?v=kKV0xLe405w
Was da heutzutage mit viel höher aufgelösten Sensoren und ein bisschen AI Logic möglich wäre, wäre dramatisch besser. Aber auch dann meine ich natürlich nicht das euer Avatar plötzlich so detailliert ist wie Lara Croft im neuesten TR. So war das nie gemeint. Vergleichbar feine Details können die Sensoren natürlich noch nicht erfassen, gerade im Gesicht. Zumindest nicht ohne sehr komplexe Software und zusätzlicher Nahaufnahmen. Im Kopf hatte ich dabei eigentlich immer diverse Nintendo Multiplayer Games, wo anstatt eines Mii's eben der eigene Avatar gewählt werden kann.
Und ob die NextGen Shooter (zB. Battlefield 6) höhere Spielerzahlen (128 oder mehr) supporten werden ist auch noch nicht vom Tisch. ^^ Ist wohl aber eher eine Designfrage. (Selbst jetzt meckern ja Viele das ihnen 64er Server zu voll wären)
In PUBG gibts ja schon jetzt 100 Spieler auf einer Karte, auch wenn es in PUBG an guter Destruction mangelt.
Edit:
Bin gerade durch Zufall hierauf gestoßen:
Hier haben paar Entwickler FaceCapturing mit einem iPhone gemacht (Apples FaceID Technik).
https://youtu.be/GJ2lzV2LLwM?t=128
][immy
2019-03-12, 00:04:10
Ich weiß nicht ob es wirklich hier rein passt, aber wenn MS eine disclose Xbox one S veröffentlichen sollte, meint ihr die setzen dann auf DDR4?
Nicht aufgrund der Geschwindigkeit, sondern einfach weil ~2133 DRR4 inzwischen um einiges günstiger sein dürfte als 2133er DDR3.
Eventuell mit etwas mehr Takt, da ja meist die Effizienz abnimmt bei den Speicher-Gen was aber durch einen höheren Takt wieder eingefahren wird. Ein wenig mehr theoretische Bandbreite dürfte ja auch nicht ins Gewicht fallen. Die ~50 MHz die die S schon mehr hat als die Basis-Konsole, fallen ja auch nicht wirklich ins Gewicht.
schoppi
2019-03-12, 19:53:43
https://m.youtube.com/watch?v=HJclcGp8K_4&fe
Scheinbar steigt Google mit in den Konsolenmarkt ein.
deekey777
2019-03-12, 19:56:03
Aber nur scheinbar.
pixelguy
2019-03-12, 20:05:11
Wenn dann sicher als Streaming Box o.ä.
Kann mir nicht vorstellen, dass sie komplett ohne Gerüchte eine Konsole geplant haben.
][immy
2019-03-13, 00:03:33
https://m.youtube.com/watch?v=HJclcGp8K_4&fe
Scheinbar steigt Google mit in den Konsolenmarkt ein.
Also ich traue google ja einiges zu, aber sowas nicht. Die Haben überhaupt keine Spiele-Erfahrung.
Streaming-Box vielleicht. Android basierend so das man noch die ganzen Cash-Cows aus dem Playstore laden kann.
Mehr aber auch nicht. Und auch das wäre eigentlich google untypisch.
Mit Hardware hat es google eigentlich nicht so.
DrFreaK666
2019-03-13, 01:07:48
Das dürfte eher ein Shadow-Konkurrent werden
https://www.golem.de/news/project-stream-google-testet-mit-kostenlosem-assassin-s-creed-odyssey-1810-136901.html
Demirug
2019-03-13, 08:20:09
[immy;11948141']Also ich traue google ja einiges zu, aber sowas nicht. Die Haben überhaupt keine Spiele-Erfahrung.
Streaming-Box vielleicht. Android basierend so das man noch die ganzen Cash-Cows aus dem Playstore laden kann.
Mehr aber auch nicht. Und auch das wäre eigentlich google untypisch.
Mit Hardware hat es google eigentlich nicht so.
Das Google ins Streaming einsteigt ist bei den Entwicklern aber eigentlich schon durch dafür braucht es keinen Teaser mehr.
Was die Erfahrung angeht so ist Google in dem Bereich gerade auf Einkaufs und Kooperationtour. Unter anderem sollen sie bereits mit SEGA eine sehr weit reichenden Zusammenarbeit beschlossen haben. Das sie mit Ubisoft zusammenarbeiten ist ja bekannt. Ich lehne mich mal sehr weit aus dem Fenster und behaupte sie kaufen SEGA ganz auf und bringen ihre Spielehardware unter der SEGA Brand auf den Markt.
msilver
2019-03-13, 09:45:11
Google Sega klingt gar nicht mal schlecht.
][immy
2019-03-13, 11:21:06
... Ich lehne mich mal sehr weit aus dem Fenster und behaupte sie kaufen SEGA ganz auf und bringen ihre Spielehardware unter der SEGA Brand auf den Markt.
Da kann man aber nur hoffen, das sie dann nicht das Sega Marketing übernehmen. Sega hat ja trotz einiger guter Spiele es nie wirklich geschafft sich auch dauerhaft zu etablieren, einfach weil kein Schwein von entsprechenden Titeln wusste.
Allerdings bleib ich erst mal dabei. Google hat damit überhaupt keine Erfahrung. Das einzige was sie an Erfahrung in dem Bereich haben ist, wie man Werbung einblendet oder andere machen lässt und die Provision kassiert. Als Microsoft mit der xbox eingestiegen ist, hatte man zumindest schon jahrelange Erfahrung im Spielebereich. Wenn da jetzt noch ein Big-player einsteigt, wird es wirklich Zeit das die Spiele-Entwickler ihre Spiele cross-savegame-kompatibel machen. Eine sache ich an Playanywhere Titeln so mag, auch von der MS Store nach wie vor echt mies ist.
Rizzard
2019-03-13, 13:05:51
Das Google ins Streaming einsteigt ist bei den Entwicklern aber eigentlich schon durch dafür braucht es keinen Teaser mehr.
Was die Erfahrung angeht so ist Google in dem Bereich gerade auf Einkaufs und Kooperationtour.
Passend zum Thema ließ Jade Raymond verlauten das sie künftig Vice President bei Google wird.
danarcho
2019-03-13, 18:59:55
Ich betrachte das eher als Erweiterung des Google Öko-Systems. Wenns bei den Kids um die Frage Iphone oder Android geht, kann so etwas schon ausschlaggebend sein bzw Apple auch eiskalt erwischen. Dazu Chrome, ChromeOS Geräte, Google Account-Bindung, PlayStore, Google Books usw. und schon ertappt man sich dabei, haufenweise Produkte über den einen Anbieter zu beziehen, da es einfach bequem ist. Im Gegensatz dazu erwarte ich auch keine Konkurrenz-high-end Konsole von Google.
SpielerZwei
2019-03-13, 19:23:46
Nur zur Info (weil ich in letzter Zeit viele PS3 Titel "recorded" habe): 1080p30 (upscale von 720p) ist da Programm... Es gibt vereinzelte Titel die auch mit 1080p60 laufen (zB. Rayman).
In Wirklichkeit ist das aber bei jedem Titel anders, da gibt's echt crazy stuff:
https://forum.beyond3d.com/threads/list-of-rendering-resolutions.41152/#post-1114422
Käsetoast
2019-03-13, 19:38:01
Bei dem Google GDC Video könnte ich mir eher vorstellen, dass die eine eigene Engine an den Markt bringen. Da die Grafik Qualität jetzt auch nicht nach High-End aussieht vielleicht etwas, das gezielt auf Android Produkte abzielt. Sich auf diese Nische spezialisieren und weniger Royalties nehmen als die Konkurrenz könnte da sogar klappen bei den üblichen Smartphone Spielen...
Wenn man an eigene Hardware denkt, könnte man in Kombination damit sogar so eine Art Switch Strategie versuchen. Man bringt eine Handheld Konsole, die im Prinzip ein Smartphone ist und über eine Docking Station für mehr Power am Fernseher sorgt. Also sowas wie eine Docking Station für's Google Pixel 4. Wenn man tatsächlich Sega im Schlepptau hätte, könnte man da ggf. auch einige Exclusives bringen. Wäre natürlich gewagt, aber wenn ich bei Konsolen Platz für einen neuen Player sehe, dann eher in so einer Richtung...
Mein Tipp bleibt aber eher, dass man rein auf Softwareseite was bringt und nix mit eigener Hardware...
zappenduster
2019-03-13, 20:26:59
[immy;11948332']Da kann man aber nur hoffen, das sie dann nicht das Sega Marketing übernehmen. Sega hat ja trotz einiger guter Spiele es nie wirklich geschafft sich auch dauerhaft zu etablieren, einfach weil kein Schwein von entsprechenden Titeln wusste.
Allerdings bleib ich erst mal dabei. Google hat damit überhaupt keine Erfahrung. Das einzige was sie an Erfahrung in dem Bereich haben ist, wie man Werbung einblendet oder andere machen lässt und die Provision kassiert. Als Microsoft mit der xbox eingestiegen ist, hatte man zumindest schon jahrelange Erfahrung im Spielebereich. Wenn da jetzt noch ein Big-player einsteigt, wird es wirklich Zeit das die Spiele-Entwickler ihre Spiele cross-savegame-kompatibel machen. Eine sache ich an Playanywhere Titeln so mag, auch von der MS Store nach wie vor echt mies ist.
Ich glaub beim Marketing steht google recht gut da man hoert die haben erfahrung mit werbung =)
pixelguy
2019-03-13, 21:04:50
Eine Engine wäre in der Tat eine interessante Idee. So wie es Amazon mit der lumberjack Engine macht um AWS zu pushen.
IC3M@N FX
2019-03-13, 21:47:24
Ist zwar OT aber Sony möchte Take Two wohl kaufen, laut diversen Seiten.
http://www.4players.de/4players.php/spielinfonews/Allgemein/3999/2181532/Sony-Geruecht_Interesse_an_der_Uebernahme_von_Take-Two_Interactive_Rockstar_Games_2K_Games.html
Frisch aus der Gerüchteküche: Sony ist allem Anschein nach an der Übernahme von Take-Two Interactive (Rockstar Games, 2K Games) interessiert. Laut einem Bericht auf MarketWatch sind die Gespräche auf Vorstandsebene beider Unternehmen bereits fortgeschritten, was die Aktien von Take-Two Interactive um fast fünf Prozent nach oben katapultierte. Sony soll die Übernahme größtenteils via "Cashdeal" realisieren, also den Erwerb der Anteile/Aktien von Take-Two via liquider Mittel, allerdings dürfte solch ein Unterfangen ziemlich teuer werden. Joel Kulina (Head of Technology and Media Trading bei Wedbush Securities) bewertet die Aktie von Take-Two mit 130 Dollar (aktueller Kurs ca. 95 Dollar).
Es ist nicht das erste Mal, dass Take-Two als Übernahmekandidat gehandelt wird. Schon 2008 versuchte Electronic Arts eine Übernahme des Unternehmens. Das damalige Angebot über ca. 2 Mrd. Dollar lehnte Take-Two-Chef Strauss Zelnick ab. Damals wurden 26 Dollar pro Aktie geboten.
Zu den Marken von Take-Two Interactive gehören u. a. BioShock, Borderlands, Civilization, Emergency, Grand Theft Auto, Mafia, Max Payne, Midnight Club, Red Dead Redemption und XCOM.
Gerade GTA usw. generieren immer noch Gewinne jenseits von gut und böse da sehen IP´s wie Battlefield und Call of Duty, Fifa aus wie Peanuts.
Wenn das stimmt dann hat Sony ein absolutes Zugpferd in sein Portfolio das seine Marktmacht sogar festigen kann.
Akkarin
2019-03-13, 23:06:38
13.75 Milliarden sind sehr, sehr viel Geld.
Auf der andren Seite wäre ein GTA als exclusive für Sony wohl genug um die Next Gen zu Gewinnen.
Gebrechlichkeit
2019-03-13, 23:20:53
T2 Sony eklusiv? Wozu? Warum? Weshalb sollte T2 das wollen, bei 125? mill. verkauften GTA5 Kopien. Kapiere ich nicht, Sony hat nix davon und T2 ebenfalls nicht.
Akkarin
2019-03-13, 23:26:42
Weil 130>96
Käsetoast
2019-03-14, 00:11:51
Zeitliche Exklusivität würde ja auch schon reichen, um die eigene Marke zu stärken und die Verkäufe auf XBox & Co nicht liegen zu lassen...
Gebrechlichkeit
2019-03-14, 12:03:45
Weil 130>96
Eklusivitaet versus 150mill. verkauften GTA5 Kopien + $500mill. jedes Jahr von GTAO? Sony wuerde mehr Geld verdienen, wenn man T2 weiterhin als 3rd Party auch fuer andere Plattformen Spiele produzieren laesst.
Ich sehe es so wie Microsoft mit Minecraft. Evtl. werden in Zukunft Sony produzierte Spiele auch fuer andere Plattformen erscheinen, natr. nicht zeitgleich. 10mill. U4 auf der PS4, weitere bis zu 10mill. auf den anderen Geraeten wie Xbox, Gbox, Switch, PC, etc.. ... das sind dann extra Billioenchen die man gerne mit nimmt oder nicht?
Frage ist, lohnt sich die Investition und haben GTA6 und andere RockstarGames in Zukunft noch die gleiche Zugkraft wie GTA5? Was wenn GTA6 ein Flop wird/ist ...
tobor
2019-03-16, 17:25:39
Wohl auch für die Next Generation relevant, läuft auch auf Amdgrafikkarten:
https://www.computerbase.de/2019-03/neon-noir-crytek-raytracing-demo-cryengine/
megachip800
2019-03-17, 11:49:41
Wohl auch für die Next Generation relevant, läuft auch auf Amdgrafikkarten:
https://www.computerbase.de/2019-03/neon-noir-crytek-raytracing-demo-cryengine/
Sieht auch nicht viel besser aus als die herkömmlichen Beleuchtungs/Reflexionsmodellen in den jetzigen Spielen. Schade um die Rechenleistung der Effekt wirkt sich sehr gering aus.
Hier die Unitydemo von 2016:
https://m.youtube.com/watch?v=OoBZRN8CiHg
Forza 4 :
https://m.youtube.com/watch?v=17wnFEC5R5c
Rasterrizer/Prebaked effects vs Raytraycing , und der nötige Rechenaufwand , das erzielte Ergebnis , bis jetzt nicht so spektakulär.
Realtime Reflections einer 23 Jahre alten Arcadehardware:
https://m.youtube.com/watch?v=Yi1p5NRCvgM
Ok die Umgebung da ist statisch
Fragman
2019-03-18, 06:43:38
Also hat sich an den Einschränkungen nichts getan, alle wie immer.
Viele Kommentare im Forum dort sind aber gold. :freak:
gravitationsfeld
2019-03-18, 07:18:56
Ich stimme megachip mal zu, das ich das noch erleben darf. Raytracing wird was Bildqualitaet angeht ueberbewertet. Physikalisch basierende Beleuchtungsberechnung mit Energieerhaltung war viel wichtiger.
Fragman
2019-03-18, 07:57:55
Physikalisch basierende Beleuchtungsberechnung..
Welche genau meinst Du und in welchem Spiel?
Selbst in Division2, was ganz nett ausschaut, fehlt mir das komplett. Lichter ohne Schatten, dazu low res shadow maps, indirektes Licht wirft sowieso keine und selbst das AO ist zum davon laufen. Im Vergleich dazu dann Metro, wobei sich der direkte Vergleich sowieso schon verbietet. Natürlich kann man heut viel machen, aber gerade das Voxel Zeug ist schon wieder so alt und kaum genutzt. Die Qualität davon ist schon sehr gut, bringt aber nichts, wenn es keiner einsetzt.
ChaosTM
2019-03-18, 15:19:18
Sony hat Naughty Dog und Death Stranding für den 5er Start.
GTA Exklusive wäre außerdem ein Shitstorm ohne Ende abgesehen vom verlorenen Geld.
gravitationsfeld
2019-03-18, 17:30:49
Welche genau meinst Du und in welchem Spiel?
Selbst in Division2, was ganz nett ausschaut, fehlt mir das komplett. Lichter ohne Schatten, dazu low res shadow maps, indirektes Licht wirft sowieso keine und selbst das AO ist zum davon laufen. Im Vergleich dazu dann Metro, wobei sich der direkte Vergleich sowieso schon verbietet. Natürlich kann man heut viel machen, aber gerade das Voxel Zeug ist schon wieder so alt und kaum genutzt. Die Qualität davon ist schon sehr gut, bringt aber nichts, wenn es keiner einsetzt.
Physikalische Materialien und korrekte BRFDs. Ordentliche Albedo- und Smoothness-Werte. Photogrammetry hilft. DICE macht es ganz gut, Uncharted und Tomb Raider auch. Metro Exodus ist ein Negativ-Beispiel.
Indirekte Beleuchtung kannst du auch vorberechnen oder andere Verfahren anwenden. Dafuer brauchen wir kein Raytracing.
Was im Moment zur besseren Grafik fehlt sind vor allem Details und Materialien-Eigenschaften. Fuer Reflexionen sieht man den Unterschied zu RT doch eh nur wenn alles voellig uebertrieben glatt ist.
Fragman
2019-03-18, 18:23:53
Also Verschattung ist für mich das Hauptproblem, bzw die fehlende. Das zieht sich ja durch alle Games. Dazu kommen schlecht aufgelöste shadow maps, die Details nicht einfangen und oft auch "wandern". Bei reflections kann ich ssr's mittlerweile nicht mehr sehen, die Artefakte sind eine Katastrophe.
Natürlich kann man vieles deutlich besser machen, nur wer macht das denn heute?
Hier sehe ich den Vorteil von RT, denn das wird einigen Entwicklern entgegen kommen. Bei den Materialien stimme ich zu. Aber mit richtiger Verschattung kommen die nochmal so gut raus. Siehe Metro, das Gesamtbild wirkt einfach viel stimmiger, ob jetzt direkt oder indirekt.
Die Frage ist natürlich, was siehst Du in Deinem Job, was sich mit den neuen Konsolen ändern wird.
Wenn die Punkte besser werden, dann her damit. ;)
N0Thing
2019-03-18, 18:28:28
Schatten und Beleuchtung sind für auch die Bereiche, bei denen mir der Fortschritt nicht schnell genug geht. Das stört mich gerade in offenen Arealen deutlich stärker als zu niedrig aufgelöste Texturen oder nicht ganz passenden Oberflächengestaltung / -shader. Hängt natürlich auch immer vom Design und Realismusanspruch des Spiels ab, in wie fern etwas stört oder kaschiert werden kann, aber trotzdem würde ich sagen, dass die Beleuchtung aktuell die größte Baustelle darstellt.
x-force
2019-03-18, 18:41:39
ich finds schade, daß mehrleistung idr nur für bessere grafik und nur in kleinem maße besseres gameplay eingesetzt wird. klar der trend geht zu open world, aber an details wird ohne ende gespart.
das sind man gut an den mafia teilen. das gameplay und interaktionen mit der umgebung sind stark kastriert worden
getp6QCcdqg
pixelguy
2019-03-18, 19:07:41
Mafia 3 sah auf der PS4 zudem unterirdisch aus. Ich dachte erst es wäre ein PS3 Port und war ziemlich geschockt von der Hässlichkeit :D
Nightspider
2019-03-19, 00:51:58
Mafia 3 ist halt echt kein Maßstab. Das Spiel ist eh scheiße produziert worden.
Bei GTA 3 vs GTA 5 siehts bestimmt genau andersherum aus.
Sowas hängt doch weniger von der Leistung als vor allem vom Budget und der Entwicklungszeit ab.
x-force
2019-03-19, 01:23:01
doch bei gta ist von 4 auf 5 einiges verschlechtert worden, ich verlinke das mal lieber anstatt alles abzuschreiben:
https://www.redbull.com/de-de/gta-4-versus-gta-5-vergleich
frag mich nicht, was red bull damit zu tun hat :D
was ist mit rainbow 6 und rouge spear?
die teile waren genial.
du konntest die komplette mission vorplanen, danach wurde für den mainstream abgeflacht.
autoheal ist auch so ein herrlich stumpfes feature.
Nightspider
2019-03-19, 01:57:32
Wow 15 Sachen sie schlechter sind. Und wie viele sind besser? 50 ?
x-force
2019-03-19, 04:06:29
dann nenne doch einfach 15 dinge, die von der spielmechanik besser im sinne von detailierter und realistischer sind, oder troll dich selbst ;)
ich hoffe du verstehst, dass damit nicht die grafik gemeint ist.
Nightspider
2019-03-19, 04:32:21
Das ist 4 Jahre her das ich GTA5 gespielt habe und 10 Jahre bei GTA4. :ugly:
Die von Anfang an offene Spielwelt, die 3 spielbaren Hauptcharaktere mit verwobener Story, die deutlich größere und abwechslungsreichere Spielwelt, der deutlich umfangreichere Multiplayer, die mehr oder weniger nahtlose Verknüpfung von SP und MP, viel mehr Fahrzeuge und Modifikationen sind Dinge die mir spontan einfallen nach den vielen Jahren. Und das sind nicht solche Banalitäten wie zu kurze Faustkämpfe, Wellenphysik oder wie irgendwelche Charaktere herumfliegen.
Letztere beiden Sachen fielen ja vielleicht sogar den Performance-Optimierungen zum Opfer. GTA4 lief einfach beschissener als GTA5.
Mal abwarten was Rockstar mit der 4 bis 5 fachen CPU Leistung der PS5 anstellt. Der Sprung von RDR1 zu Teil 2 war und ist gigantisch.
x-force
2019-03-19, 14:14:37
Das ist 4 Jahre her das ich GTA5 gespielt habe und 10 Jahre bei GTA4. :ugly:
Die von Anfang an offene Spielwelt, die 3 spielbaren Hauptcharaktere mit verwobener Story, die deutlich größere und abwechslungsreichere Spielwelt, der deutlich umfangreichere Multiplayer, die mehr oder weniger nahtlose Verknüpfung von SP und MP, viel mehr Fahrzeuge und Modifikationen sind Dinge die mir spontan einfallen nach den vielen Jahren. Und das sind nicht solche Banalitäten wie zu kurze Faustkämpfe, Wellenphysik oder wie irgendwelche Charaktere herumfliegen.
Letztere beiden Sachen fielen ja vielleicht sogar den Performance-Optimierungen zum Opfer. GTA4 lief einfach beschissener als GTA5.
Mal abwarten was Rockstar mit der 4 bis 5 fachen CPU Leistung der PS5 anstellt. Der Sprung von RDR1 zu Teil 2 war und ist gigantisch.
wenn das für dich die 15 schlechter gewordenen dinge übertrumpft, kann ich das erstmal nur so hinnehmen.
für mich schlägt die waagschale eindeutig in die andere richtung.
sie hätten ja alles behalten und zusätzlich die von dir beschriebenen neuerungen bringen können, das wäre eine evolution gewesen, so sind es für mich zwei schritte nach hinten und wieder einer nach vorne.
pixelguy
2019-03-19, 18:47:48
Stadia könnte echt eine sehr starke Konkurrenz zu den etablierten Konsolen darstellen:
https://store.google.com/magazine/stadia?srp=/magazine/gather_around
Vorstellung: https://www.youtube.com/watch?v=nUih5C5rOrA&feature=youtu.be
Blediator16
2019-03-19, 18:51:00
Entscheidend wird der Preis sein.
Zumindest die GPUs kommen von AMD. Custom CPU würde AMD auch Sinn machen.
pixelguy
2019-03-19, 18:57:05
Sie planen jetzt schon zum Start mit 4K und 60fps... Und mit den Standorten auf der ganzen Welt sollte auch die Latenz recht ok sein. Siehe Vorstellungs-Video ab Minute 30
Eine Stadia Unit hat 10,7 Teraflops und man kann wohl auch mehrere als Entwickler nutzen.
Linmoum
2019-03-19, 19:04:04
https://i.gyazo.com/2ebd411d5cd3c8738ec9bfd997d651c4.jpg
Würde mich wundern, wenn die CPU nicht auch von AMD kommt. Auf jeden Fall noch einmal ein ordentlicher Sprung zur One X (zur Pro sowieso) und das noch in diesem Jahr.
pixelguy
2019-03-19, 19:05:08
Sie kommt von AMD, ist Custom angeblich
robbitop
2019-03-19, 19:27:21
GPU Takt und CPU Takt sind sehr konservativ. 14 nm Silizium?
Sehr wenig L2/L3 Cache.
Muss costom sein bei 56CUs. Und 7nm, sonst würde da nix ins Powerbudget passen. Ich tippe mal auf 60CUs, 4 Kerne und 8MB L3, davon sind 512kb deaktiviert für Yield und 4 CUs sind nicht aktiv.
CPU läuft halt auf Sweetspot, der Takt ist sogar eher sehr hoch dafür.
Das ist ne richtige Bombe.
Daredevil
2019-03-19, 19:35:00
Google sprach davon, dass MultiGPU auch möglich sein wird.
Also vielleicht einfach Custom Epic-Server mit mehreren GPUs?
64 Kerne, 4 GPUs, 64GB Ram. Fertig ist der Game Server für vier Clienten.
Da wurde explizit gesagt, dass eigens ein Chip designt wurde. Das geht wie gesagt auch gar nicht anders, weil du ein perfektes Powerbudget haben muss für Datacenter. Das Ding muss komplett auf dem Sweetspot laufen.
Daredevil
2019-03-19, 19:44:05
Wie soll denn dann MultiGPU möglich sein?
Lisa spricht nur von "GPU Partner"
https://abload.de/img/unbenanntxxjlh.png
Vielleicht kann man ja einfach weitere GPUs koppeln über IF. Spricht doch nix dagegen.
Linmoum
2019-03-19, 19:47:06
Da Intel hier gänzlich fehlt, wird auch mit ziemlicher Sicherheit die CPU von AMD stammen.
https://images.anandtech.com/doci/14105/Screenshot_54.png
dildo4u
2019-03-19, 19:47:34
Da wurde explizit gesagt, dass eigens ein Chip designt wurde. Das geht wie gesagt auch gar nicht anders, weil du ein perfektes Powerbudget haben muss für Datacenter. Das Ding muss komplett auf dem Sweetspot laufen.
Hä MI 60 läuft genau wie die Desktop Karte mit 1.8Ghz,bei der CPU macht es Sinn nicht vollen Speed zu gehen,da sie nur 60fps bringen muss.
Für 4k/60 musste Vega hingegen schon extrem strecken.
Demirug
2019-03-19, 19:47:56
Google sprach davon, dass MultiGPU auch möglich sein wird.
Also vielleicht einfach Custom Epic-Server mit mehreren GPUs?
64 Kerne, 4 GPUs, 64GB Ram. Fertig ist der Game Server für vier Clienten.
Ja oder eben 2 Dual Clients, oder 1 Quad Client. Die XBox One Server haben auch 4 XBoxen pro Servereinheit.
Platos
2019-03-19, 19:50:46
Da Intel hier gänzlich fehlt, wird auch mit ziemlicher Sicherheit die CPU von AMD stammen.
https://images.anandtech.com/doci/14105/Screenshot_54.png
Vor allem hat AMD die Nase deutlich vorn bei Server CPUs. Sowohl preislich, als auch leistungsmässig. Also kann ich mir kaum vorstellen, dass Google da zu Intel greifen würde.
Hä MI 60 läuft genau wie die Desktop Karte mit 1.8Ghz,bei der CPU macht es Sinn nicht vollen Speed zu gehen,da sie nur 60fps bringen muss.
Für 4k/60 musste Vega hingegen schon extrem strecken.
Es war von 10TFLOPs die Rede. Das sind 56CUs @ 1,5GHz. Für 7nm dürfte das kein Problem sein. Wird aber eh nicht Vega das Teil, das wird mit Sicherheit Navi. Ein SoC eben. Und man wird diese in Cluster zusammenfassen, von denen man eben bis zu 4 nutzen kann. Das ist kein Serverteil mit MI60 oder sowas. Das wird ein ganz eigenes Produkt sein, das auf Gaming 100% optimiert ist und ein entsprechend erheblich niedrigeres Powerbudget mitbringt. Google hat da ja riesiges mit vor, da nehmen die keine Standardgeschichten, das wär ja wahnsinn.
Außerdem wurde Intel in diesem Vortrag einfach gar nicht erwähnt, nur AMD. Wenn da wirklich Intel im Spiel wäre, wär das mit Sicherheit erwähnt worden.
pixelguy
2019-03-19, 19:53:36
Wie soll denn dann MultiGPU möglich sein?
Lisa spricht nur von "GPU Partner"
https://abload.de/img/unbenanntxxjlh.png
So wie ich es verstanden habe, muss der DEV das vorher entscheiden?! :confused:
Blediator16
2019-03-19, 20:00:08
Es war von 10TFLOPs die Rede. Das sind 56CUs @ 1,5GHz. Für 7nm dürfte das kein Problem sein. Wird aber eh nicht Vega das Teil, das wird mit Sicherheit Navi. Ein SoC eben. Und man wird diese in Cluster zusammenfassen, von denen man eben bis zu 4 nutzen kann. Das ist kein Serverteil mit MI60 oder sowas. Das wird ein ganz eigenes Produkt sein, das auf Gaming 100% optimiert ist und ein entsprechend erheblich niedrigeres Powerbudget mitbringt. Google hat da ja riesiges mit vor, da nehmen die keine Standardgeschichten, das wär ja wahnsinn.
Außerdem wurde Intel in diesem Vortrag einfach gar nicht erwähnt, nur AMD. Wenn da wirklich Intel im Spiel wäre, wär das mit Sicherheit erwähnt worden.
Kein SOC.
https://youtu.be/VG06H7IQ9Aw?t=414
Nur weil er das meint? Im Googlevortrag war von 16GB total RAM die Rede. Schaubild eine Seite vorher. Des weiteren steht da explizit custom x86-Prozessor. Ex Xeon passt zwar vom Cache her, jedoch passt das kaum zu den restlichen Daten und Intel legt sicherlich keine Custom Xeons mit 4 Kernen auf. Wie sollte man das auch alles verbinden, dass das effizient läuft? Nur V20 könnte man clustern, aber mit nur 2 Stacks? Nein das passt alles gar nicht.
Kann eher auch sein, dass man GPU und CPU trennt, dann läuft die CPU aber über das I/O der GPU. Chiplet vielleicht?
Die 484GT/s kommen natürlich dadurch zustande, dass man einfach 2 8GB Stacks verbaut, die möglichst günstig sein sollen.
Demirug
2019-03-19, 20:19:03
So wie ich es verstanden habe, muss der DEV das vorher entscheiden?! :confused:
Natürlich muss der Entwickler vorher definieren welche Hardwarekonfiguration sein Spiel braucht. Das System wird dann nach einem entsprechenden freien "Server" suchen der einen möglichst geringen Ping für den entsprechenden Spieler hat. Sie müssen bei der Infrastruktur ja auch schon vorplanen wenn später die zweite Hardware Generation kommt.
Kein SOC.
Muss ja auch kein monolithischer Chip sein. Custom I/O+chiplets reicht doch.
Solange Zen 2 noch nicht released ist gibt es halt keine weiteren Infos dazu, sondern nur grobe Eckdaten. Koennte auf die GPU ja (Navi?) genauso zutreffen.
Das finde ich zumindest noch wahrscheinlicher als dass Intel hier fuer Google ohne credit eine custom CPU gebaut hat.
Interessant ist neben dem Hardware- natuerlich auch der Software-Stack. Weder Unity noch Unreal haben besonders viel Energie in Vulkan und Linux gesteckt. Hier wird es spannend, wie viel Geld Google in die Hand nimmt und wo wie viel contributet wird. Und Kernel und Vulkan-Treiber betrifft es ja auch. Vielleicht bekommt amdvlk dann doch noch seine Daseinsberechtigung, wenn so ein Gigant einsteigt und Geld drauf schmeisst hat radv wohl nicht mehr lange viel entgegenzusetzen.
Sehr wenig L2/L3 Cache.
Kommt darauf an, ob damit CPU+GPU gemeint sind, was ich mir eigentlich kaum vorstellen kann. Fuer vier CPU Kerne pro Instanz waere es doch ein normaler Wert?
Ganon
2019-03-19, 20:40:32
Bin gespannt wie es allgemein ankommt. Ob es "der nächste Schritt" wird, oder ob Google das nach 3 Jahren wieder einstellt. Hängt natürlich auch vom Preis, dem Angebot und der Verfügbarkeit ab. Wäre spannend gewesen, ob der Streaming-Dienst ein "Red Dead Redemption 2" Release hätte bewältigen können.
Käsetoast
2019-03-19, 20:43:27
Ich denke das wird im Wesentlichen die GPU sein, die wir auch in PS5 / der nächsten XBox sehen werden oder zumindest sehr nahe da dran. Schließlich sollen die Spiele mit möglichst wenig Programmieraufwand nicht nur auf den Konsolen, sondern auch bei Google laufen können. Passt insgesamt sehr gut zu den 12-14 TFlop Gerüchten, die so rumgeistern...
Im Endeffekt glaube ich wirklich, dass wir hier sehen was die kommenden Konsolen so leisten werden. Die würde ich als einen Tacken schneller ansehen, denn ich denke Google wird es wichtig sein effizient zu sein, damit die Kühlung ihrer Farm mehr System sicher gekühlt kriegt. Bei den Heimkonsolen dreht der Lüfter halt ein wenig mehr auf und so kriegt man da sicherlich Sachen wie 12 TFlops für die GPU und CPU Takte bei um die sagen wir mal 3,2 GHz. Die 16 GB Ram passen da ja auch ins Bild - die angebliche PS5 Developer Konsole soll ja 24 GB haben und die Geräte haben ja stets mehr als die endgültigen Konsolen...
Was das Produkt Stadia selber angeht: Abgesehen davon, dass ich den Namen nicht griffig finde überzeugt mich das Konzept nicht. Da wird viel über 4k 60fps geredet, oder sogar 8k in Aussicht gestellt (als ob das auch nur in annähernd greifbarer Nähe liegen würde in Spielen) und geklatscht. Beim Durchzappen durch die Keynote wurde in meinen Augen aber quasi nie über das eigentliche Problem gesprochen: Latenz! Viel Augenwischerei, wenig über den Haken der ganzen Streaming Sache. Das die Doom konkret auf die Bühne geholt haben lässt natürlich aufhorchen, aber ich glaube nicht, dass sich das Problem beim Endkunden zufriedenstellend lösen lässt in schnellen Spielen...
aufkrawall
2019-03-19, 20:44:22
Solche Riesen-Launches könnte man z.B. mit Staffelungen (Aufpreis für früheren Zugang) oder Warteschlangen (nutzen Online-Services diverser Spiele bereits) abfedern.
][immy
2019-03-19, 20:54:43
Natürlich muss der Entwickler vorher definieren welche Hardwarekonfiguration sein Spiel braucht. Das System wird dann nach einem entsprechenden freien "Server" suchen der einen möglichst geringen Ping für den entsprechenden Spieler hat. Sie müssen bei der Infrastruktur ja auch schon vorplanen wenn später die zweite Hardware Generation kommt.
Klingt in der Theorie ja noch ganz nett, in der Praxis wird das aber sicherlich nicht ganz so glatt funktionieren.
Abgesehen davon das man dann erst mal für jede mögliche Konfiguration einen freien Server-Slot finden muss, werden dann z.B. Hardware-fordernde Spiele natürlich teurer als welche die die Hardware nicht so fordern. Ansonsten würde es ja früher oder später darauf hinauslaufen das google die zur Verfügung gestellte Hardware beschneidet, denn wenn dann alle möglichen Entwickler mit Exorbitanten Hardware-Anforderungen kommen, wird es sehr schnell sehr teuer für eine der Parteien. Und letztlich ist es dann halt meist der Nutzer.
Dieser hat dann aber nicht mal mehr die Wahl. Es sei denn Google bietet dann einen Server für Low Details und einen for Ultra High Details.
Abgesehen davon, habe ich nach wie vor noch keine überzeugende Streaming Lösung gesehen. Entweder war die Qualität mies (im vergleich zu einer lokalen nativen Auflösung) oder der Lag viel zu hoch. Sogar bei Inhouse-Streaming (ein niedrigerer Ping geht kaum) war z.B. Diablo 3 war das Spiel kaum spielbar, so stark wie die Maus hinterhergezogen wurde.
Demirug
2019-03-19, 20:57:41
Beim Durchzappen durch die Keynote wurde in meinen Augen aber quasi nie über das eigentliche Problem gesprochen: Latenz!
Beim eigenen Controller haben sie kurz darüber gesprochen. Dieser verbindet sich direkt per WiFi mit dem Server anstelle mit dem Ausgabegerät als Zwischenstation. Das dürfte etwas helfen.
Solche Riesen-Launches könnte man z.B. mit Staffelungen (Aufpreis für früheren Zugang) oder Warteschlangen (nutzen Online-Services diverser Spiele bereits) abfedern.
Die Frage hier ist ja nicht wie viele Spieler das neue Spiel gleichzeitig spielen wollen sondern wie viel mehr Spieler in Summe gleichzeitig mehr spielen wollen. Und wenn man jede Woche einen grösseren Launch hat ist der Peak ja immer etwas der gleiche. Als Betreiber kann Google das ja ein wenig steuern wann welche Spiele einen Launch Slot bekommen.
Demirug
2019-03-19, 21:05:52
[immy;11953121']Klingt in der Theorie ja noch ganz nett, in der Praxis wird das aber sicherlich nicht ganz so glatt funktionieren.Abgesehen davon das man dann erst mal für jede mögliche Konfiguration einen freien Server-Slot finden muss, werden dann z.B. Hardware-fordernde Spiele natürlich teurer als welche die die Hardware nicht so fordern. Ansonsten würde es ja früher oder später darauf hinauslaufen das google die zur Verfügung gestellte Hardware beschneidet, denn wenn dann alle möglichen Entwickler mit Exorbitanten Hardware-Anforderungen kommen, wird es sehr schnell sehr teuer für eine der Parteien. Und letztlich ist es dann halt meist der Nutzer.
Dieser hat dann aber nicht mal mehr die Wahl. Es sei denn Google bietet dann einen Server für Low Details und einen for Ultra High Details.
Bei Cloud VMs ist das ganze heute schon gang und gäbe und funktioniert in der Regel so das man eine physikalische Hardware Konfiguration in unterschiedliche Konfigurationen aufteilen kann.
Gehen wir einmal davon aus das beste wäre derzeit eine Quad Konfiguration. Google wird dann nur diese verbauen und je nach Bedarf als:
4x
2*2x
4*1x
2X+2*1X
zur Verfügung stellen.
Und ja wenn man mehr Leistung haben will wird das sicherlich jemand bezahlen müssen. Ich habe aber keine Ahnung wie das Geschäftsmodell funktionieren soll. Entsprechend weiß ich auch nicht wer die Rechnung bezahlen wird.
[immy;11953121']Abgesehen davon, habe ich nach wie vor noch keine überzeugende Streaming Lösung gesehen. Entweder war die Qualität mies (im vergleich zu einer lokalen nativen Auflösung) oder der Lag viel zu hoch. Sogar bei Inhouse-Streaming (ein niedrigerer Ping geht kaum) war z.B. Diablo 3 war das Spiel kaum spielbar, so stark wie die Maus hinterhergezogen wurde.
Ja bei diesem Punkt bin ich auch sehr skeptisch.
][immy
2019-03-19, 21:14:19
Bei Cloud VMs ist das ganze heute schon gang und gäbe und funktioniert in der Regel so das man eine physikalische Hardware Konfiguration in unterschiedliche Konfigurationen aufteilen kann.
Gehen wir einmal davon aus das beste wäre derzeit eine Quad Konfiguration. Google wird dann nur diese verbauen und je nach Bedarf als:
4x
2*2x
4*1x
2X+2*1X
zur Verfügung stellen.
Und ja wenn man mehr Leistung haben will wird das sicherlich jemand bezahlen müssen. Ich habe aber keine Ahnung wie das Geschäftsmodell funktionieren soll. Entsprechend weiß ich auch nicht wer die Rechnung bezahlen wird.
Ich kenne die Theorie von VMs, aber muss leider sagen, ich habe bislang weder auf der Arbeit noch bei irgendeinem Kunden wirklich reaktionsfreudige VMs gesehen. Bei den Kunden bei denen es schnell lief, bei denen die Hardware so extrem überdimensioniert. Zusätzlich kommt ja das mit der Grafik und den Bandbreiten hinzu. Ja, da gibt es sicherlich System zu Lastverteilung. Aber wenn z.B. grad ein neues AC erscheint mit noch höheren Anforderungen als der Vorgänger kann ich mir kaum vorstellen, das dies bei Release gut gespielt werden kann.
Also wie gesagt, aus meiner Erfahrung bisher, hab ich noch keine wirklich schnellen VMs gesehen. Spätestens wenn die Host-Systeme für mehrere Systeme verwendet werden, ist Schluss mit lustig was die Geschwindigkeit angeht.
Btw, das erklärt die Gerüchte über den weiteren Konsolen-Chip den AMD grad fertigt. War wohl nicht für die PS5 (was ich auch nicht geglaubt hab, das wäre viel zu früh)
Ganon
2019-03-19, 21:19:21
Ja bei diesem Punkt bin ich auch sehr skeptisch.
Wird sicherlich nicht so gemacht, aber so als Idee:
Da man die Spiele ja für Stadia programmieren muss und nicht einfach Standard-Spiele streamt, könnte man einige Lag-Reduktionen fahren. RetroArch hat z.B. einen RunAhead Modus, der 2 Instanzen des Emulators laufen lässt und bei einem Tastendruck auf den Emulator ausführt der eine einstellbare Anzahl an Frames "in der Vergangenheit" läuft und dann das Bild von dem genommen wird.
Das ließe sich sicherlich auch auf Spiele-Engines anwenden, indem man den Input auf einen älteren Game-State anwendet und dann auf den passenden Frame umschaltet.
Daredevil
2019-03-19, 21:20:20
Ein dicker PC mit mehreren Clienten, da gibts doch Youtube Videos drüber.
Nur ist es in dem Fall halt ne lokale Geschichte.
tXI7RrMFtB8
][immy
2019-03-19, 21:27:18
Ein dicker PC mit mehreren Clienten, da gibts doch Youtube Videos drüber.
Nur ist es in dem Fall halt ne lokale Geschichte.
https://youtu.be/tXI7RrMFtB8
Ja und jeder hat seine eigene GPU, zudem wurde da ja auch nicht gestreamt wie du schon erwähnt hast.
Bei einer Cloud-Variante wird sicherlich nicht für jeden PC eine komplette GPU blockiert, sondern eher prozentual. Sonst macht die ganze Virtualisierung ja keinen Sinn. Und es werden sicherlich mehr als 3 Spiele je CPU laufen, sonst geht die Rechnung auch nicht auf. Man kann hier natürlich mischen je nachdem wie belastend die Spiele sind, aber trotzdem klingt das nicht nach einer tollen Lösung. Letztlich müsste man grad zum launch eines Spiels entsprechend viele VM frei haben, sonst kann man die Kundschaft nicht bedienen.
Das Klappt ja nicht mal bei MMOs die nur ein Bruchteil der Rechenleistung benötigen. Wie soll das dann im großen Maßstab funktionieren.
Solange es nur wenige Kunden sind, ist noch alles gut, aber dann lass es mal mehr werden und dann kommen die Stoßzeiten und in einem Rechenzentrum in den USA willst du sicherlich nicht landen, weil grad im Rechenzentrum in DE alle möglichen Leute gleichzeitig Spielen und die in den USA grad arbeiten/schlafen.
Wird sicherlich nicht so gemacht, aber so als Idee:
Da man die Spiele ja für Stadia programmieren muss und nicht einfach Standard-Spiele streamt, könnte man einige Lag-Reduktionen fahren. RetroArch hat z.B. einen RunAhead Modus, der 2 Instanzen des Emulators laufen lässt und bei einem Tastendruck auf den Emulator ausführt der eine einstellbare Anzahl an Frames "in der Vergangenheit" läuft und dann das Bild von dem genommen wird.
Das ließe sich sicherlich auch auf Spiele-Engines anwenden, indem man den Input auf einen älteren Game-State anwendet und dann auf den passenden Frame umschaltet.
Da müsstest du aber gleich mal die doppelte Hardware in Anspruch nehmen. Dann darf das Spiel keine dynamischen Zufallselemente enthalten, weil diese dann lustig hin und her springen.
Demirug
2019-03-19, 21:40:05
[immy;11953140']Ich kenne die Theorie von VMs, aber muss leider sagen, ich habe bislang weder auf der Arbeit noch bei irgendeinem Kunden wirklich reaktionsfreudige VMs gesehen. Bei den Kunden bei denen es schnell lief, bei denen die Hardware so extrem überdimensioniert. Zusätzlich kommt ja das mit der Grafik und den Bandbreiten hinzu. Ja, da gibt es sicherlich System zu Lastverteilung. Aber wenn z.B. grad ein neues AC erscheint mit noch höheren Anforderungen als der Vorgänger kann ich mir kaum vorstellen, das dies bei Release gut gespielt werden kann.
Also wie gesagt, aus meiner Erfahrung bisher, hab ich noch keine wirklich schnellen VMs gesehen. Spätestens wenn die Host-Systeme für mehrere Systeme verwendet werden, ist Schluss mit lustig was die Geschwindigkeit angeht.
Man spinnt die "VM" ja nicht erst hoch wenn man sie braucht sondern hat immer ein paar in Reserve schon laufen. Das ist im Bereich der Server für Multiplayerspiele ein weitgehend gelöstes Problem. Wenn dann natürlich wirklich mehr Leute spielen wollen als Hardware verfügbar ist war es das.
Wird sicherlich nicht so gemacht, aber so als Idee:
Da man die Spiele ja für Stadia programmieren muss und nicht einfach Standard-Spiele streamt, könnte man einige Lag-Reduktionen fahren. RetroArch hat z.B. einen RunAhead Modus, der 2 Instanzen des Emulators laufen lässt und bei einem Tastendruck auf den Emulator ausführt der eine einstellbare Anzahl an Frames "in der Vergangenheit" läuft und dann das Bild von dem genommen wird.
Das ließe sich sicherlich auch auf Spiele-Engines anwenden, indem man den Input auf einen älteren Game-State anwendet und dann auf den passenden Frame umschaltet.
Damit kompensiert man aber nur in eine Richtung. Die Zeit bis man die Reaktion auf seinen eigenen Input sieht wird dadurch nicht besser.
Systeme die von einem älteren Zustand noch einmal neu Rechnen kommen in Verbindung mit machen Multiplayersysteme allerdings heute schon zum Einsatz. Wenn der Client vorhersagen macht welche Aktionen die anderen Spieler ausführen diese dann aber doch etwas anderes tun muss er noch einmal zurück gehen und neu rechnen.
][immy
2019-03-19, 21:48:02
Damit kompensiert man aber nur in eine Richtung. Die Zeit bis man die Reaktion auf seinen eigenen Input sieht wird dadurch nicht besser.
Systeme die von einem älteren Zustand noch einmal neu Rechnen kommen in Verbindung mit machen Multiplayersysteme allerdings heute schon zum Einsatz. Wenn der Client vorhersagen macht welche Aktionen die anderen Spieler ausführen diese dann aber doch etwas anderes tun muss er noch einmal zurück gehen und neu rechnen.
zusätzlich betrifft das normalerweise nur spieler-Aktionen und Koordinaten. Bei diesen System wird bisher nichts gerendert sondern nur die Positionen zum Client (wenn der Client das nicht eh selbst berechnet) geschickt der dann das rendering übernimmt. Hier müsste in dem Fall ja ein Bild komplett neu gerendert werden. Was Probleme aufwirft, da es normalerweise nicht nur 2 mögliche Aktionen gibt sonder schon ziemlich viele.
Das was MS mal zur Vorhersage nutzen wollte, nutzte soweit ich weiß auch teilweises Client-Rendering, so das z.B. die Bewegungsrichtung des Spielers lokal neu berechnet werden konnte. Ob das letztlich funktioniert hat mag ich mal zu bezweifeln, denn seitdem hat man nichts mehr davon gehört.
Demirug
2019-03-19, 22:16:55
So Geschichten das der Client die Aktionen und damit auch die Position der Gegner versucht zu erraten bevor diese vom Server kommen wurden in der Vergangen schon häufiger mal gemacht. Aber ja das ist bei reinem Streaming nur zum Teil von Relevanz.
Beim Streaming haben wir ja das Lag Problem in zwei Richtungen. Nehmen wir Jetzt mal als Beispiel ein einfache Reaktionsspiel wie Guitar Hero oder Rock Band. Da haben wir ja zum einen das Problem das bis mein Klick auf den Kontroller/Maus/Tastatur beim Server ankommt dieser unter Umständen ja schon x Frames weiter ist. In dem Fall kann man die Situation wirklich dadurch verbessern wenn neben dem Klick auch noch die Information mitgeschickt wird welchen Frame der Spieler zu diesem Zeitpunkt gesehen hat. Der Host könnte dann nämlich den logischen Zustand von diesem Frame nehmen und von dort noch einmal neu rechnen. Das Erfordert aber dann entsprechend mehr CPU Leistung und eventuell auch Speicher. Gegen die zweite Form von Streaming Lag hilft das aber nichts. Die Zeit die vergeht zwischen dem Klick und einer Reaktion auf dem Bildschirm kann man nicht reduzieren. Daneben kann diese zurück rollen zu einem älteren Frame auch dazu führen das es zu plötzlichen Sprüngen im Bild kommt. Entsprechend müsste man daher auch noch die Situation ohne die Benutzereingabe und die nun neue Situation über ein paar Frames anpassen. Das macht die gefühlte Zeit bis man eine Reaktion auf seine Eingabe sieht aber noch länger.
Im Endeffekt kann Google nichts anderes machen als ihre Server so dicht wie nur möglich an den Endkunden heran zu bekommen für Spiele die sehr empfindlich in Sachen Lag sind. Das ist btw mit einer Maus noch wesentlich schlimmer als mit einem Kontroller und bei Touch wird es ganz schnell zu einer Katastrophe.
Ganon
2019-03-19, 22:20:23
[immy;11953148']Dann darf das Spiel keine dynamischen Zufallselemente enthalten, weil diese dann lustig hin und her springen.
Gleicher Seed und gut ist.
Damit kompensiert man aber nur in eine Richtung. Die Zeit bis man die Reaktion auf seinen eigenen Input sieht wird dadurch nicht besser.
Wenn es den Lag halbieren kann, dann ist das doch schon mal was. Ist ja nicht so als wenn heutige Spiele nicht sowieso schon etwas laggy sind. (http://www.pcgameshardware.de/Red-Dead-Redemption-2-Spiel-59923/News/Traege-Steuerung-liegt-auch-an-Input-Lag-1269513/)
robbitop
2019-03-20, 07:51:56
@iuno
Für 4C wären 9,5 mib ok. Aber 4C in 2019?
https://www.golem.de/news/spielekonsole-atari-vcs-wechselt-auf-amds-ryzen-1903-140094.html
"Atari hat über Medium Details zu dem Prozessor genannt. Es handelt sich um ein Dualcore-Modell (14 nm) mit zwei Zen-Kernen und Radeon Vega als integrierte Grafikeinheit. Das sorgt laut Hersteller auch für eine kühlere und leisere Spielekonsole."
m.f.g. JVC
pixelguy
2019-03-22, 09:38:33
Das Ding geht ja nicht wirklich als Next-Gen Konsole durch
Hier gehört Das hin.
https://winfuture.de/news,108013.html (22.03.2019)
"PlayStation 5: Grafikchip von AMD lässt auf viel Leistung hoffen"
"Vielleicht richtet man sich bei der nächsten Konsolen-Generation schon auf 8K-Optionen und 120 FPS ein, die deutlich mehr Leistung verlangen." (HDMI 2.1)
"Angeblich hat man für die neue Sony-Konsole eine Leistung von 15 Teraflops im Auge, die man mit AMD Navi-Grafikchips und Zen Prozessoren umsetzen könnte. Eine 8-Kern-CPU (7nm) und 12-16GB GDDR6-Grafikspeicher stehen dabei im Raum."
Wen NV so weiter macht, treiben sie mich echt noch zu den Konsolen ...
(AMD kann es egal sein, kauf ich deren Hardware hald dort)
m.f.g. JVC
y33H@
2019-03-23, 10:34:14
Dein ständiges AMD toll und Nvidia doof nervt.
Dein ständiges AMD toll und Nvidia doof nervt.
Steht das was von "NV ist schlecht" oder "AMD ist besser" ?
Ich benötige hald möglichst bald HDMI 2.1 ( oder zu mindestens den VRR Support davon)
NV lässt sich leider nicht herab und klärt uns eben nicht auf, wann sie das zu tun gedenken ...
HDMI ist hald der große gemeinsame neue Standard von Monitoren und Fernsehern
und NV wehrt sich offensichtlich davor ... warum auch immer, ist mir egal.
(außerdem sind mir die 8-11GB GrakaSpeicher zu wenig, bei 4K+ ... auf 8K schiel :freak:)
(und sooo wichtig ist Spielen für mich auch wieder nicht, als das ich mir ne RTX Titan kaufen würde ...
wobei die dann noch immer nicht das, von mir benötigte, Feature hat)
m.f.g. JVC
p.s.: Nur weil es keine gescheiten Monitore am Markt gibt,
heißt das noch lange nicht das man nicht einen der tollen neuen Fernseher
vernünftig mit einer Grafikkarte ansteuern können, darf !?
Ich will es zu mindestens möglichst bald können :smile:
https://www.youtube.com/watch?v=iUfpSOmC8jk
"The Smallest Ryzen Yet! $150 Asrock Mini Gaming PC"
https://geizhals.at/g-skill-ripjaws-so-dimm-kit-16gb-f4-3000c16d-16grs-a1505763.html?hloc=at
G.Skill RipJaws SO-DIMM Kit 16GB, DDR4-3000, CL16-18-18-43 ~120.- ,
+ Intel SSD 760p 512GB, M.2 ~120.- , + AMD Ryzen 5 2400G, 4x 3.60GHz ~130.- ,
+ ~150.- den "Rechner":biggrin: https://geizhals.eu/asrock-deskmini-a300-90bxg3g01-a30ga0w-a1970086.html
= 520.- Und m.m.n. ein klitzekleiner Vorgeschmack auf die nächsten Konsolen :smile:
Der kleine scheisser unterstützt sogar über HDMI VRR für Fernseher ;)
Und mit den kommenden 7nm CPU´s mit IGPU geht dann die Post ab ;D
m.f.g. JVC
Platos
2019-03-23, 21:20:16
Steht das was von "NV ist schlecht" oder "AMD ist besser" ?
In der Sprache muss man etwas nicht wörtlich sagen... Vermutlich ist ein Drittel von allem Gesagtem nicht wörtlich...
Dinge zu umschreiben und dann den Spruch "Hab' ja nix wörtlich gesagt' zu bringen, ist nicht gerade ein hohes Diskussionslevel. [reine Kritik]
TheAntitheist
2019-03-23, 21:25:54
Steht das was von "NV ist schlecht" oder "AMD ist besser" ?
Ja und es nervt wirklich sehr.
Ja es ist eine Kritik von mir an NV, weil sie Markführer sind und nicht mit dem Markt gehen,
sondern immer offensichtlich mit was Eigenem, scheinbar eher gegen den Markt Arbeiten.
Darum verstehe ich nicht im geringsten, warum Angebrachte Kritik* gegen einen solchen "Hersteller"
nicht angebracht sein sollte.
Ich will nur, das auch NV Standards unterstützt und auch fördert.
m.f.g. JVC
*die Frage nachdem wann NV gedenkt HDMI2.1 zu unterstützen
(wobei es sich ja nicht um Irgendetwas handelt, sondern um DEN neuen Standard)
MarcWessels
2019-03-23, 22:07:25
Bin gespannt wie es allgemein ankommt. Ob es "der nächste Schritt" wird, oder ob Google das nach 3 Jahren wieder einstellt.Hoffe, so ein Scheiß kommt nie an! :mad: Besonders hübsch wird neben all den anderen Nachteilen sicher auch die artefaktbehaftete Bildqualität aussehen... :freak:
Stadia könnte echt eine sehr starke Konkurrenz zu den etablierten Konsolen darstellen: Nö.
pixelguy
2019-03-23, 22:34:36
Nö.
Haben die mesiten auch über Music und Video Streaming gesagt :biggrin:
Platos
2019-03-23, 23:17:00
*die Frage nachdem wann NV gedenkt HDMI2.1 zu unterstützen
(wobei es sich ja nicht um Irgendetwas handelt, sondern um DEN neuen Standard)
In der nächsten Gen. natürlich. Dass es bei Turing nicht kommt, war nicht unwahrscheinlich. Die Handvoll 8K TVs die es gibt/angekündigt sind für 7500... (für die sowieso alle Turing-Karten viel zu wenig Leistung hätten.)
Abgesehen davon ist es doch völlig normal, keine Features anzukündigen, wenn noch nicht einmal überhaupt irgend etwas über eine neue Gen. angekündigt wurde?
Ich weiss nicht, was du hast.
Screemer
2019-03-23, 23:21:57
Wie wär's Mal mit 4k und über 60hz? Wen interessiert 8k?
Platos
2019-03-23, 23:33:10
Stimmt, das geht ja auch nicht mal bei RGB, 10 Bit und HDMI 2.0 :D Mein Fehler.
just4FunTA
2019-03-23, 23:48:40
Haben die mesiten auch über Music und Video Streaming gesagt :biggrin:wtf? das hat noch nie jemand gesagt, jedenfalls habe ich das noch nie gehört. Filme Streaming wurde doch von erster Sekunde an bejubelt und bei Musik empfand ich das nichtmal als hätte sich was geändert ob ich nun Radio höre oder onlineradio juckt mich nicht wirklich.
just4FunTA
2019-03-24, 00:01:22
Hier gehört Das hin.
https://winfuture.de/news,108013.html (22.03.2019)
"PlayStation 5: Grafikchip von AMD lässt auf viel Leistung hoffen"
"Vielleicht richtet man sich bei der nächsten Konsolen-Generation schon auf 8K-Optionen und 120 FPS ein, die deutlich mehr Leistung verlangen." (HDMI 2.1)
"Angeblich hat man für die neue Sony-Konsole eine Leistung von 15 Teraflops im Auge, die man mit AMD Navi-Grafikchips und Zen Prozessoren umsetzen könnte. Eine 8-Kern-CPU (7nm) und 12-16GB GDDR6-Grafikspeicher stehen dabei im Raum."
Wen NV so weiter macht, treiben sie mich echt noch zu den Konsolen ...
(AMD kann es egal sein, kauf ich deren Hardware hald dort)
m.f.g. JVC
120fps, meine Fresse bei jeder Sony Konsole das selbe. Na wer erinnert sich noch an die Gerüchte die PS3 würde 1080p und 120fps liefern? :D
Wie wär's Mal mit 4k und über 60hz? Wen interessiert 8k?
Jup, gerne (hab ich schon länger...), aber dann mit VRR Bitte !
http://www.pcgameshardware.de/Fernseher-Hardware-134500/News/Samsung-Smart-TV-VRR-Freesync-1253928/ (08.04.2018)
"Die Displays lassen sich über eine Radeon-GPU mit bis zu 120 Hertz synchronisieren"
http://www.pcgameshardware.de/Fernseher-Hardware-134500/Tests/Samsung-Q9FN-Freesync-TV-1268364/ (06.11.2018)
"Hervorragende Bildqualität in SDR und HDR"
"Aus Gamer-Sicht ist es nur erfreulich, dass es nicht nur immer mehr videotaugliche Monitore gibt, sondern auch immer mehr Gaming-taugliche Fernseher."
Mich interessiert 4K mit VRR auf 65"+ schon seit bevor es das gibt.
Hab n 2017 Qled bei dem ich hoffte das er das VRR update bekommt.
Er hats nicht bekommen :( , darum bin ich überhaupt noch zu mindestens
halbwegs ruhig mit meiner NV Karte ...
Die Handvoll 8K TVs die es gibt/angekündigt sind für 7500... (für die sowieso alle Turing-Karten viel zu wenig Leistung hätten.)
z.b.:
https://www.samsung.com/de/tvs/qled-q60r/GQ65Q60RGTXZG/
Ab ~900.- , Ab 43" , ab der 6er Serie haben alle "Freesync: Ja"
Es kommen auch für Games WQHD mit 120Hz ganz geil auf nem 4K rüber :eek:
(das kann man gut versorgen und das Fernseher eigene Upscaling
muss sich auch nicht hinter NV´s SSA verstecken :wink:)
An sonnst benötigt man gerade bei 4K+, VRR im 40-60Fps Bereich.
Abgesehen davon ist es doch völlig normal, keine Features anzukündigen, wenn noch nicht einmal überhaupt irgend etwas über eine neue Gen. angekündigt wurde?
Der neue HDMI2.1 Standard, ist ja nicht von Gestern auf Heute entstanden ...
AMD kann ja auch teilweise nachliefern, bemüht sich.
(alle AMD GPU´s unterstützen VRR auch über HDMI)
NV hat verpennt oder hebt das absichtlich "als Anreiz" für die nächste Gen auf.
(mich hat ehrlichgesagt der, leider nur teilweise und daher ungenügende,
Kniefall vor dem VRR Standard, sehr positiv überrascht. man sieht sie könnten wen sie wollen)
Man kanns drehen und wenden wie man will ...
Wenn man beim Monitor was wirklich gescheit großes zu nem halbwegs vernüftigen preis will,
muss man zu Fernsehern greifen (die eignen sich mittlerweile ganz gut zum spielen)
und kann eben, wenn man VRR haben möchte, leider keine Karte von NV nehmen.
Das ist eben keine überteuerte Zukunftsutopie mehr, sondern schon die "Günstige" Realität.
(im vergleich zu 50"+ Monitoren, sind Fernseher fast schon spottbillig)
m.f.g. JVC
p.s.: Das ganze passt zum Glück halbwegs in den Konsolen Tread,
da die Konsoleros ja auch schon von VRR am Fernseher profitieren können :up:
pixelguy
2019-03-24, 07:27:14
wtf? das hat noch nie jemand gesagt, jedenfalls habe ich das noch nie gehört. Filme Streaming wurde doch von erster Sekunde an bejubelt und bei Musik empfand ich das nichtmal als hätte sich was geändert ob ich nun Radio höre oder onlineradio juckt mich nicht wirklich.
Ich meinte damit die Hardcore-Fans von CDs, da dort ja der Ton soo viel besser ist. Oder die Leute, die ihr Wohnzimmer voll mit Blu-Rays haben.
Meine erste Aussage war, dass Stadia den Konsolen gefährlich werden kann (kann!). Das einfach mit "Nö" abzutun ist ziemlich ignorant.
Natürlich kann es das, wenn der Preis und die Qualität stimmt, wird das den Konsolen nicht nur gefährlich... Warum sollte man sich dann bitte einen laute Konsole für mehrere hundert € ins Haus holen? Und ausschließlich dort zocken?
Und noch mal: Betonung auf "kann". Und da steht auch nirgens etwas von "sofort"...
Gouvernator
2019-03-24, 08:10:11
120fps, meine Fresse bei jeder Sony Konsole das selbe. Na wer erinnert sich noch an die Gerüchte die PS3 würde 1080p und 120fps liefern? :D
120 FPS würde noch heute/morgen auch in 1080p viel Sinn geben. Das ist vom Gefühl her z.B. an einem großen TV einzigartig. Nur es kommt doch wie es immer kommt: die verbauen die billigste gammel CPU die sie im Hinterhof finden können.
AMD hat jetzt nicht mal eine DESKTOP CPU die 120 FPS liefern kann. Eine übertaktete INTEL 5Ghz CPU pfeifft aus dem letzten Loch bei 120 Hz.
woodsdog
2019-03-24, 08:14:13
1.
AMD hat jetzt nicht mal eine DESKTOP CPU die 120 FPS liefern kann. Eine übertaktete INTEL 5Ghz CPU pfeifft aus dem letzten Loch bei 120 Hz.
Und das ist auch überhaupt nicht abhängig von der Software. Hängt komplett an der CPU ob pauschal 120Hz möglich sind. Alles klar :rolleyes:
Ich hab selten solch einen absurden Quatsch gelesen.
Fragman
2019-03-24, 08:49:31
120 Frames?
Dabei würde man einfach zuviel Leistung brach liegen lassen und das wird sicher nicht passieren. Schon allein deshalb nicht, weil man zeigen will, was die Konsolen können.
Vielleicht ein paar Frames mehr als heute, etwas stabilere Framerates am Anfang, aber alles andere steckt man sicher in bessere Optik und Engines, die aktuelle Engpässe aufheben.
Skusi
2019-03-24, 09:08:41
120fps, meine Fresse bei jeder Sony Konsole das selbe. Na wer erinnert sich noch an die Gerüchte die PS3 würde 1080p und 120fps liefern? :D
Jesus, das waren Zeiten.:freak:
just4FunTA
2019-03-24, 09:21:57
Eben egal wie stark die Konsole ist, die Entwickler müssen immer eine Entscheidung treffen für mehr FPS oder mehr eyecandy und selbst zwischen 30 und 60fps entscheiden sich die meisten Entwickler für mehr eyecandy. Also das Spiele mit 4k und 120fps kommen mit der ps5 halte ich für zwar theoretisch möglich aber auf ein BF6 mit 4k und 120fps würde ich nicht warten.
Selbst aufm PC in 1440p mit ner gtx1080 muss man sich entscheiden Ultrasetting oder 120fps..
Demirug
2019-03-24, 09:39:27
Eben egal wie stark die Konsole ist, die Entwickler müssen immer eine Entscheidung treffen für mehr FPS oder mehr eyecandy und selbst zwischen 30 und 60fps entscheiden sich die meisten Entwickler für mehr eyecandy. Also das Spiele mit 4k und 120fps kommen mit der ps5 halte ich für zwar theoretisch möglich aber auf ein BF6 mit 4k und 120fps würde ich nicht warten.
Selbst aufm PC in 1440p mit ner gtx1080 muss man sich entscheiden Ultrasetting oder 120fps..
Bei den Konsolen kann der Hersteller den Entwicklern durchaus vorschreiben das sie eine bestimmte FPS einhalten müssen. Ich habe allerdings den Eindruck das gerade bei diesem Punkt die Hersteller früher viel genauer hingesehen haben als heute.
Kann man bei den Konsolen nicht schon die "Auflösung wählen" ?
N Kumpel von mir hat die PS4Pro an nem 4K und meinte mal er könne auch
FHD "einstellen" ...
(oder ich hab mich verhört, kenn mich bei Konsolen ned so aus)
Wäre doch gut wenn die nächsten Konsolen schon 8K unterstützen würden.
Das hieße auch das in 4K dann mehr FPS rüberkommen müssten
und in FHD sollten dann Richtung 120Hz mit VRR kein Problem sein.
120 FPS würde noch heute/morgen auch in 1080p viel Sinn geben.
Das ist vom Gefühl her z.B. an einem großen TV einzigartig.
AMD hat jetzt nicht mal eine DESKTOP CPU die 120 FPS liefern kann.
CPU´s die das können sind auf dem Weg.
Außerdem wird die MC Unterstützung von Jahr zu Jahr massiv besser :smile:
(ich vermute das es nicht mehr lange dauern wird, bis es egal ist
ob man 12 mal ~2,7Ghz , 8 mal ~4Ghz oder 6 mal ~5,3Ghz hat ...)
(ist vielleicht auch nur n Wunschtraum, das das nächstes oder übernächstes Jahr schon soweit ist)
Einige neue Titel unterstützen jetzt schon hervorragend MC.
m.f.g. JVC
Kann man bei den Konsolen nicht schon die "Auflösung wählen" ?
N Kumpel von mir hat die PS4Pro an nem 4K und meinte mal er könne auch
FHD "einstellen" ...
Ja.
Wäre doch gut wenn die nächsten Konsolen schon 8K unterstützen würden.
Das wäre wirklich die größte Resourcenverschwendung in der Geschichte des Gamings.
][immy
2019-03-24, 09:50:44
Bei den Konsolen kann der Hersteller den Entwicklern durchaus vorschreiben das sie eine bestimmte FPS einhalten müssen. Ich habe allerdings den Eindruck das gerade bei diesem Punkt die Hersteller früher viel genauer hingesehen haben als heute.
Bei welcher Konsolengeneration meinst du?
Das war eigentlich schon immer ein sehr durchwachsenes Bild.
Da kann man nur sagen zum Glück gibt es inzwischen so was wie Digital Foundry die auf solche Probleme achten. Das gab dann durchaus mal entsprechenden Druck.
just4FunTA
2019-03-24, 09:54:33
Bei den Konsolen kann der Hersteller den Entwicklern durchaus vorschreiben das sie eine bestimmte FPS einhalten müssen. Ich habe allerdings den Eindruck das gerade bei diesem Punkt die Hersteller früher viel genauer hingesehen haben als heute.
Ja schon aber auch in dieser gen haben sie keine 60fps verlangt also unwahrscheinlich das sie in der nächsten gen 120fps verlangen.
Die Entscheidung bleibt weiterhin den Entwicklern überlassen, das aber Spiele unter 30fps fallen das sollte der Konsolenhersteller schon besser überwachen. Gab es allerdings schon zu ps3 Zeiten.
Demirug
2019-03-24, 10:12:46
[immy;11956429']Bei welcher Konsolengeneration meinst du?
Das war eigentlich schon immer ein sehr durchwachsenes Bild.
Da kann man nur sagen zum Glück gibt es inzwischen so was wie Digital Foundry die auf solche Probleme achten. Das gab dann durchaus mal entsprechenden Druck.
Die genauen Regeln der Hersteller sind ja Teil der SDKs und unterliegen deswegen ja NDAs. Aber selbst wenn es Regeln gibt kann der Hersteller ja Ausnahmen machen. Ich bezog mich primär darauf wie häufig solche Ausnahmen gemacht werden.
Ja schon aber auch in dieser gen haben sie keine 60fps verlangt also unwahrscheinlich das sie in der nächsten gen 120fps verlangen.
Die Entscheidung bleibt weiterhin den Entwicklern überlassen, das aber Spiele unter 30fps fallen das sollte der Konsolenhersteller schon besser überwachen. Gab es allerdings schon zu ps3 Zeiten.
Da die Mehrheit auch bei der nächsten Generation keine 120Hz Ausgabegeräte haben wird kommt das sicher nicht. Persönlich gehe ich davon aus das sich an den Regeln bezüglich der Framerate bei der nächsten Generation sich nichts ändern wird. Meine Aussage bezog sich lediglich darauf das es die (alleinige) Entscheidung der Entwickler ist.
Wäre das denn sooo unglaublich wenn ...
Die nächsten Konsolen generell die Wahl der Auflösung oder die Wahl der Ziehl-FPS zulassen würden ?
~15-30 FPS um 8K anschnuppern zu können
~60 FPS +VRR für flüssiges 4K (das sollte langsam mal klappen)
~120FPS für WQHD(FHD) + VRR für die 100+FPS Fans
m.f.g. JVC
Gouvernator
2019-03-24, 10:21:14
Das Problem ist das eine Company die Ansprüche ihrer Kundschaft wahrnimmt. Aber diese spezielle Kundschaft ist zu jung und zu unerfahren um 120Hz zu wollen. Man muss es zuerst gesehen haben um es zu wollen. Außer ein paar PC Freaks mit 120Hz 28" Guckloch-Monitoren kennt das kaum einer. Und erst seit Kurzem gibt es überhaupt große TVs mit 120Hz so das noch weniger Leute wissen wie das ist mit 120Hz@55" zu spielen.
Weiteres Problem wäre man müsste zwangsweise auch Maussteuerung einführen um die 120Hz fühlbar zu machen. Sprich sowas wie den Fragchuck für die linke Hand und Maus für die Rechte. Das ist bei einer Konsole eher problematisch, obwohl in heutiger Zeit jede Menge Spieler für MP auf die Konsole abwandern und mit XIM Zeug spielen.
Das erfordert ZU großes Umdenken bei Herstellern. Ich hätte das aber durchgezogen. Sowas wie Pflicht 100Hz/4K Maus/Fragchuck hätte paar Millionen Spieler ans Land gezogen. Allein wegen Nextgen PUBG/Fortnite/Apex.
Loeschzwerg
2019-03-24, 10:35:06
Ja.
Wobei dann ja immer noch das Spiel entscheidet wie berechnet wird. Hier würde ich mir mehr und durchgehend Ingame-Optionen wünschen um z.B. die FPS zu stabilisieren. Einige Titel bieten das an.
Das wäre wirklich die größte Resourcenverschwendung in der Geschichte des Gamings.
Man würde doch nix verschwenden, oder wie meinst du das :confused:
(Leistung braucht man immer und auch bei 4K...)
Und erst seit Kurzem gibt es überhaupt große TVs mit 120Hz so das noch weniger Leute wissen wie das ist mit 120Hz@55" zu spielen.
Passende Fernseher gibt es seit Anfang 2018 wie weiter vorne verlinkt. (+passendem Test wie geil das denn ist)
Aber es ist hald nichts was NV kann und daher vermute ich, das es deshalb relativ ruhig darum ist.
(AMD war schon immer ne Niete im Werbung machen)
Selbst bei einigen Herstellern muss man suchen um Infos über den VRR Support zu finden :(
In den Fernsehergeschäften hab ich noch keinen gefunden der wirklich Ahnung hatte.
Weiteres Problem wäre man müsste zwangsweise auch Maussteuerung einführen um die 120Hz fühlbar zu machen. Sprich sowas wie den Fragchuck für die linke Hand und Maus für die Rechte. Das ist bei einer Konsole eher problematisch, obwohl in heutiger Zeit jede Menge Spieler für MP auf die Konsole abwandern und mit XIM Zeug spielen.
Das erfordert ZU großes Umdenken bei Herstellern. Ich hätte das aber durchgezogen. Sowas wie Pflicht 100Hz/4K Maus/Fragchuck hätte paar Millionen Spieler ans Land gezogen. Allein wegen Nextgen PUBG/Fortnite/Apex.
Spätestens wenn Maus und Tastatur zur Konsole dazugehören,
hab ich auch eine ;)
Für VR sind die Handdinger ok, aber n "Joypad" kommt mir nicht in die Finger ...
m.f.g. JVC
Gouvernator
2019-03-24, 10:45:19
Kommt drauf an wie man diesen halb-Gamepad bastelt. Man kann auch was sehr schönes draus machen. So wie bei STEAM-Controller einen nochmals klickbaren Analog-Trigger und untere Taste für Mittelfinger. Das ist unfassbar praktisch. Die Maus müsste dann entsprechende Mehrzahl an bequemen Seitentasten haben.
just4FunTA
2019-03-24, 10:49:44
Man würde doch nix verschwenden, oder wie meinst du das :confused:
(Leistung braucht man immer und auch bei 4K...)
m.f.g. JVC
na um spielbare fps in 8k zu kriegen müsstest du die Grafik massiv runterdrehen. Das meint er mit Verschwendung denn diese Power kannst du sinnvoller nutzen indem du bessere Grafik ablieferst. Auflösung ist halt nicht alles.
dargo
2019-03-24, 10:55:26
Wäre doch gut wenn die nächsten Konsolen schon 8K unterstützen würden.
Was hier manche wieder für Träume haben? X-D
Nvidia hat vor kurzem DLSS rausgebracht damit ihre 2080TI irgendwie spielbare Frames in sub 4k liefern kann und die nächsten Konsolen sollen dann gleich echte 8k liefern. :crazy:
@just4FunTA
Man soll ja nur einen erst Eindruck erhaschen können ...
Zuerst erfolgreich anködern und dann erst anbieten(abzocken) ^^
(das verwechselt NV manchmal)
Was hier manche wieder für Träume haben? X-D
Nvidia hat vor kurzem DLSS rausgebracht damit ihre 2080TI irgendwie spielbare Frames in sub 4k liefern kann und die nächsten Konsolen sollen dann gleich echte 8k liefern. :crazy:
Meine 1080Ti zaubert schon seit Sommer 2017, 60Fps auf 4K ...
(und davor schaffte es fast ein halbes Jahr lang ne uralte 390X 8Gb)
https://winfuture.de/news,108013.html (22.03.2019)
"PlayStation 5: Grafikchip von AMD lässt auf viel Leistung hoffen"
"Vielleicht richtet man sich bei der nächsten Konsolen-Generation schon auf 8K-Optionen und 120 FPS ein, die deutlich mehr Leistung verlangen." (HDMI 2.1)
"Angeblich hat man für die neue Sony-Konsole eine Leistung von 15 Teraflops im Auge, die man mit AMD Navi-Grafikchips und Zen Prozessoren umsetzen könnte. Eine 8-Kern-CPU (7nm) und 12-16GB GDDR6-Grafikspeicher stehen dabei im Raum."
m.f.g. JVC
p.s.: Ich interessiere mich seit Jänner 2014 für VRR ...
https://www.forum-inside.de/topic.cgi?forum=4&topic=20017
just4FunTA
2019-03-24, 11:24:48
Nv hat wegen rtx massiv einen auf den Deckel bekommen weil die FPS stark einbrachen. 8k wäre nochmal eine ganz andere Hausnummer.
Platos
2019-03-24, 13:24:51
Wäre das denn sooo unglaublich wenn ...
Die nächsten Konsolen generell die Wahl der Auflösung oder die Wahl der Ziehl-FPS zulassen würden ?
~15-30 FPS um 8K anschnuppern zu können
~60 FPS +VRR für flüssiges 4K (das sollte langsam mal klappen)
~120FPS für WQHD(FHD) + VRR für die 100+FPS Fans
m.f.g. JVC
Du träumst einfach zu viel. Du lässt dich enorm von Wunschdenken beeinflussen, bei deinen Prognosen.
Als würde Sony oder irgend ein Spieleentwickler wertvolle Ressourcen verschwenden, um den Kunden ein 15FPS spiel vor die Nase zu klatschen. Abgesehen davon: Ziemlich viele Leute haben sich mittlerweile einen 4K TV zugelegt. Die Basis ist also gross. 8K TVs werden eine Hand voll haben, wenn 2020 die neuen Konsolen kommen. Sony wird sich ganz sicher nicht auf irgendwelche Nischen konzentrieren.
Das man die Leistung auswählen können wird, halte ich für nahezu gesichert. Aber sicher nicht in so einem Bereich. Das wird wahrscheinlich eher so aussehen: FPS Mode(~60FPS) mit upscaling 4K oder reduzierten Details, dafür aber echtes 4K und Grafik Mode (~30FPS) ist dann in echtem 4K mit allen Details. Dann gibt es vlt. auch noch dynamische FPS und keine gelockten. 120FPS ist auch sehr unrealistisch. 1. ist schon 60FPS eine riesen Steigerung zu den heutigen 30FPS und 2. Wird vermutlich keine so starke CPU verbaut, um 120FPS zu erreichen (das ist schon ne Hausnummer...)
Auflösung ist definitiv nicht alles (auch wenn ich selbst gerne einen 8K TV hätte). 4K reicht eig, wenn man genug Details hat, aus für die meisten. Und Sony interessiert sich nicht für Leute wie dich,mich oder andere hier, sondern für die Masse.
Zu Vorhin: Ich habe von 8K Fernsehern gesprochen und du verlinkst 4K TV-Preise und dann redest du zuerst von HDMI 2.1 und auf einmal geht es nur noch um VRR, was nicht gleichzusetzen ist.
Du träumst einfach zu viel. Du lässt dich enorm von Wunschdenken beeinflussen, bei deinen Prognosen.
Träumen, ist doch was äußerst schönes ;) (sind ja hier im Spekulationen-Tread)
Das sind keine Prognosen von mir !
Ich kombiniere nur die vorhandenen Informationen, zu einer eher optimistischen Vorhersage.
Als würde Sony oder irgend ein Spieleentwickler wertvolle Ressourcen verschwenden, um den Kunden ein 15FPS spiel vor die Nase zu klatschen. Abgesehen davon: Ziemlich viele Leute haben sich mittlerweile einen 4K TV zugelegt. Die Basis ist also gross. 8K TVs werden eine Hand voll haben, wenn 2020 die neuen Konsolen kommen. Sony wird sich ganz sicher nicht auf irgendwelche Nischen konzentrieren.
Spiele, die meist vorrangig für Konsolen entwickelt werden, bieten dann am PC
meist höhere Grafikoptionen ...
Daher sehe ich hierbei kein Problem für die Entwickler ...
(man verschwendet nicht wirklich was, da es meist sowieso für den PC benötigt wird)
Ich hoffe auf einen offiziellen HDMI 2.1 Support,
dann gehen automatisch, bis zu "60Fps bei 8K" über die Verbindung.
Das man die Leistung auswählen können wird, halte ich für nahezu gesichert. Aber sicher nicht in so einem Bereich. Das wird wahrscheinlich eher so aussehen: FPS Mode(~60FPS) mit upscaling 4K oder reduzierten Details, dafür aber echtes 4K und Grafik Mode (~30FPS) ist dann in echtem 4K mit allen Details. Dann gibt es vlt. auch noch dynamische FPS und keine gelockten. 120FPS ist auch sehr unrealistisch. 1. ist schon 60FPS eine riesen Steigerung zu den heutigen 30FPS und 2. Wird vermutlich keine so starke CPU verbaut, um 120FPS zu erreichen (das ist schon ne Hausnummer...)
Warum nicht ? (wäre das zu kompliziert für Konsoleros?)
Die GPU wird vermutlich in FHD ~100fps und mehr schaffen.
(wenn die angaben auch nur halbwegs stimmen)
Bei der CPU sehe ich weniger ein Problem (8 echte Kerne)
und die MC Unterstützung dürfte bis dahin auch passen.
(welche kommenden neuen Games, hängen den noch wirklich an nur einem Tread fest?)
Zu Vorhin: Ich habe von 8K Fernsehern gesprochen und du verlinkst 4K TV-Preise und dann redest du zuerst von HDMI 2.1 und auf einmal geht es nur noch um VRR, was nicht gleichzusetzen ist.
Ich spreche von HDMI mit VRR Support. (wer einmal VRR erlebt, will meist immer VRR)
Welches es jetzt schon, auch in einem vernünftigen Preisrahmen, real zu kaufen gibt.
m.f.g. JVC
p.s.(der Ausdruck "HDMI 2.1" machts nur einfacher, da dort der VRR Support vorhanden sein muss)
robbitop
2019-03-24, 14:19:36
>60fps würde bedeuten, dass man für die cpu ziemlich wenig Frametime hat. Entsprechend wenig Innovation kann dann auf der Ebene passieren. Die 7x(?) Jaguar Kerne mit 1,6 GHz sind aktuell für meist 30 fps gedacht. Ein 8C Zen mit 3,x GHz liefert 3-4x so viel Leistung. Die Hälfte wird für die Höhere Framerate aufgefressen. Bei 120 fps könnte man also nicht mehr Details, die cpu relevant sind, implementieren, als in der Vorgängergeneration. Und auch bei 60 fps sind Faktor 2x nicht mehr ein großer Sprung für eine ganze Konsolengeneration.
Würde mich nicht wundern, wenn im späteren Verlauf doch wieder viele Titel mit 30 fps angepeilt sein könnten.
VRR: ist in der nächsten Gen bei den Consumern noch nicht weit genug verbreitet um voll darauf setzen zu können. Stabile 30 oder 60 fps sind wahrscheinlich das Ziel. VRR ist für dessen Nachfolger auch wieder eine Gefahr. Bis dato wurden die Entwickler gezwungen, die Spiele so lange zu polieren, bis die worst cases einigermaßen passten. Dieser Zwang wird ein Stück weit durch VRR aufgehoben. Ergo: optional ist vrr sicherlich ein Segen, sobald aber davon ausgegangen wird, dass es alle haben, könnte es ein Fluch werden.
Ergo: optional ist vrr sicherlich ein Segen, sobald aber davon ausgegangen wird, dass es alle haben, könnte es ein Fluch werden.
VRR spart auf jeden fall Leistung und steigert das Spieleerlebnis.
Natürlich kann man alles, auch irgendwie missbrauchen ...
Ich hoffe mal, das es nicht missbraucht wird.
Die Vorteile von VRR sind, m.m.n. äußerst massiv!
m.f.g. JVC
basix
2019-03-24, 14:45:42
8K finde ich auch übertrieben. Bei 4K sieht man den Unterschied zwischen WQHD auch nicht so stark wie von WQHD vs. FHD. Gesetz des abnehmenden Grenzertrags. Dann lieber möglichst stabile 4K/60 in jedem Game. Und für uns am PC 4K/120.
... Dann lieber möglichst stabile 4K/60 in jedem Game. Und für uns am PC 4K/120.
Wenn die Konsole 4K 60Fps schaffen sollte ...
sollten doch zu mindestens in FHD oder gar vielleicht in WQHD was Richtung 100+Fps möglich sein ...
Oder hab ich da gerade nen Knopf im Kopf :confused:
m.f.g. JVC
Nightspider
2019-03-24, 15:15:28
Ein 8C Zen mit 3,x GHz liefert 3-4x so viel Leistung.
Ist die IPC von Zen(2) nicht alleine schon Faktor 2 oder mehr? Dazu kommt noch doppelter Takt und Hyperthreading, welches bis zu 30-40% skalieren kann.
Das würde eher auf die >5fache Leistung der PS4 hinauslaufen.
Lightning
2019-03-24, 15:27:24
Wenn die Konsole 4K 60Fps schaffen sollte ...
sollten doch zu mindestens in FHD oder gar vielleicht in WQHD was Richtung 100+Fps möglich sein ...
Oder hab ich da gerade nen Knopf im Kopf :confused:
m.f.g. JVC
Nicht, wenn die CPU limitiert, da die CPU-Last unabhängig der Auflösung ist. Und viele Spiele werden üblicherweise schon so designt, dass da nicht großartig Leistung brach liegt (spirch: diese Spiele sind weder rein CPU- noch rein GPU-limitiert).
Ich kann mir aktuell nicht vorstellen, dass 4K 60 fps zu einer Art Standard erhoben wird, und das liegt weniger an der Hardware, sondern mehr an den Entwicklern, die andere Prioritäten setzen werden.
60 fps fände ich persönlich zwar eine wünschenswerte Vorgabe, natives 4K hingegen erfordert Rechenleistung, die ich zum Teil an anderen Stellen lieber eingesetzt sehen würde.
Platos
2019-03-24, 15:37:47
Stabile 30 oder 60 fps sind wahrscheinlich das Ziel. VRR ist für dessen Nachfolger auch wieder eine Gefahr. Bis dato wurden die Entwickler gezwungen, die Spiele so lange zu polieren, bis die worst cases einigermaßen passten. Dieser Zwang wird ein Stück weit durch VRR aufgehoben. Ergo: optional ist vrr sicherlich ein Segen, sobald aber davon ausgegangen wird, dass es alle haben, könnte es ein Fluch werden.
Gibt es bei der PS4 Pro nicht jetzt schon die Möglichkeit die FPS dynamisch einzustellen ?
Träumen, ist doch was äußerst schönes ;) (sind ja hier im Spekulationen-Tread)
Das sind keine Prognosen von mir !
Ich kombiniere nur die vorhandenen Informationen, zu einer eher optimistischen Vorhersage.
Spekulieren ist eben nicht das selbe wie Träumen. Beim Spekulieren (sollte) man versuchen, ein möglichst wahrscheinliches Szenario aufgrund von allen (bisherigen) Fakten/Gerüchten zu erstellen. Das was du machst, ist einfach nur träumen.
Spiele, die meist vorrangig für Konsolen entwickelt werden, bieten dann am PC
meist höhere Grafikoptionen ...
Daher sehe ich hierbei kein Problem für die Entwickler ...
(man verschwendet nicht wirklich was, da es meist sowieso für den PC benötigt wird)
Ich hoffe auf einen offiziellen HDMI 2.1 Support,
dann gehen automatisch, bis zu "60Fps bei 8K" über die Verbindung.
Du weichst wieder mal aus. Ich habe von 8K geredet und explizit darauf hingewiesen, dass mehr Details mehr Sinn macht, als nur die Auflösung zu erhöhen (was du ja gerne sehen würdest). Dann kommst du mit dem Argument (für 8K), dass man am PC ja mehr Details als auf Konsole hat (also argumentierst du gegen dein eigenes Argument)...?
Btw. gehen laut Tabellen von HDMI.org keine 60FPS bei 8K ohne Kompression, siehe hier (https://www.hdmi.org/download/hdmi_2_1/Chromatable.jpg) oder hier (https://www.hdmi.org/download/hdmi_2_1/FormatDataRatetable.jpg)
Warum nicht ? (wäre das zu kompliziert für Konsoleros?)
Die GPU wird vermutlich in FHD ~100fps und mehr schaffen.
(wenn die angaben auch nur halbwegs stimmen)
Bei der CPU sehe ich weniger ein Problem (8 echte Kerne)
und die MC Unterstützung dürfte bis dahin auch passen.
(welche kommenden neuen Games, hängen den noch wirklich an nur einem Tread fest?)
Siehe Post von robbitop
Ich kann mir aktuell nicht vorstellen, dass 4K 60 fps zu einer Art Standard erhoben wird, und das liegt weniger an der Hardware, sondern mehr an den Entwicklern, die andere Prioritäten setzen werden.
60 fps fände ich persönlich zwar eine wünschenswerte Vorgabe, natives 4K hingegen erfordert Rechenleistung, die ich zum Teil an anderen Stellen lieber eingesetzt sehen würde.
https://linustechtips.com/main/topic/1047648-another-another-zen-2-leak/
"This guy is selling 3300X for around 200 USD, and 3858X (should be 3850X, it could be a typo on his side) for 1300USD. According to him, the 3300X he is selling has 6 cores/12 threads and 15MB cashe. He also claimed that the base clock speed is 5.0 Ghz, and can be overclocked to 5.8Ghz, but I doubt it. (Could be single-core rather than 6-core)."
Es ist nicht ganz unwahrscheinlich, das die kommenden Konsolen
8Kerne 16Treads und 4Ghz+ haben könnten.
(AMD präsentierte doch schon einen 8Kerner der dem 9900K
die Stirn geboten hat und das bei ~75W Verbrauch)
Das überrascht mich jetzt schon sehr, das Das (CPU-Technisch)
nicht für 4K mit ~60Fps reichen sollte :confused:
Mein oller 3570K mit 4,6Ghz Kotzgrenze schafft das doch auch schon die ganze Zeit ...
Oder steh ich jetzt komplett am Schlauch :uconf2:
m.f.g. JVC
Edit: @Platos:
Ist es so schwer zu verstehen, das ich bei meiner nächsten Hardware
ganz einfach HDMI2.1 haben möchte ? (den Durchsatz und eben VRR)
Ich verwende schon länger Fernseher als Motor und die jetzige Verbindungsart
ist einfach total am Ende.
Mir ist glasklar, das ich nicht so schnell echtes 8K auf einen Bildschirm bringen werde,
aber 4K mit einer flüssigen Bildrate sind möglich und die 8K Fernseher haben ein Upscaling
was sich nicht hinter dem von NV verstecken muss ;)
(und das Fernseher-Upscaling ist dann eben nicht von den Gnaden NV´s abhängig)
So will ich und werd ich, zu Flüssigen "8K" kommen.
mboeller
2019-03-24, 16:31:18
Ein 8C Zen mit 3,x GHz liefert 3-4x so viel Leistung.
Zumindest bei diesem Benchmark hier schaut es ein wenig besser aus:
https://www.7-cpu.com/
4 Core Jaguar @ 1.8GHz: 4400 Punkte (Mips, Compression)
8 Core @ 1.6GHz also ca. 7800 Punkte (dabei gehe ich aber von einer linearem Skalierung aus, was nicht stimmt, wie man schon anhand der 2-Core und 4-Core Ergebnisse sieht)
ein 8 Core 1700x schafft aber @ 3.5GHz mit 16 Threads 35200 Punkte, also das 4,5 fache.
Lightning
2019-03-24, 17:10:17
Mein oller 3570K mit 4,6Ghz Kotzgrenze schafft das doch auch schon die ganze Zeit ...
Oder steh ich jetzt komplett am Schlauch :uconf2:
m.f.g. JVC
Dein 3570K schafft es deswegen, weil die Spiele relativ niedrige Anforderungen haben. Die Spiele haben relativ niedrige Anforderungen, weil die aktuellen Konsolen-CPUs schwächer sind.
Steigt nun mit der nächsten Konsolengeneration die CPU-Leistung, werden die Entwickler diese auch nutzen und die Anforderungen entsprechend nach oben treiben. Dein 3570K wird dann nicht mehr für 60 fps reichen. Und die neuen Konsolen-CPUs vermutlich auch nicht immer (bei Cross-Gen-Spielen natürlich schon, aber bei Spielen, die die neue Hardware voraussetzen, werden die Karten komplett neu gemischt).
... aber bei Spielen, die die neue Hardware voraussetzen, werden die Karten komplett neu gemischt).
Da bin ich bei dir :)
Da werden große Veränderungen kommen ^^
(wenn der Sprung bei den Konsolen wirklich so groß wird
werden die Programmierer schon was mit der Leistung anzufangen wissen)
Wenn die Konsoleros Großteils jetzt schon mit 30Fps zufrieden waren ... (k.a.)
Ist es nicht unwahrscheinlich das, zu mindestens mit der Zeit,
es auch wieder so kommt.
Konsolenbesitzer müssten da zusammenhalten und 30Fps Games abstrafen.
(ich würd es so machen, PC User akzeptieren ja nicht mal einen 60Fps lock)
m.f.g. JVC
][immy
2019-03-24, 23:16:56
Dein 3570K schafft es deswegen, weil die Spiele relativ niedrige Anforderungen haben. Die Spiele haben relativ niedrige Anforderungen, weil die aktuellen Konsolen-CPUs schwächer sind.
Steigt nun mit der nächsten Konsolengeneration die CPU-Leistung, werden die Entwickler diese auch nutzen und die Anforderungen entsprechend nach oben treiben. Dein 3570K wird dann nicht mehr für 60 fps reichen. Und die neuen Konsolen-CPUs vermutlich auch nicht immer (bei Cross-Gen-Spielen natürlich schon, aber bei Spielen, die die neue Hardware voraussetzen, werden die Karten komplett neu gemischt).
Nicht zu vergessen, das die CPU-Anforderungen auf dem PC deutlich höher sind, als auf den Konsolen bei Multi-Titeln. Wo die Konsole mit ihren schwachen Jaguar Kernchen noch gut zurecht kommt, kann man es bei einem PC Spiel meist vergessen mit <2GHz zu kommen, so ziemlich egal bei welchem Spiel. Man kann ja mal testweise seinen Ryzen auf <3GHz Takten und gucken wie "gut" die Spiele noch laufen.
https://linustechtips.com/main/topic/1047648-another-another-zen-2-leak/
"This guy is selling 3300X for around 200 USD, and 3858X (should be 3850X, it could be a typo on his side) for 1300USD. According to him, the 3300X he is selling has 6 cores/12 threads and 15MB cashe. He also claimed that the base clock speed is 5.0 Ghz, and can be overclocked to 5.8Ghz, but I doubt it. (Could be single-core rather than 6-core)."
Es ist nicht ganz unwahrscheinlich, das die kommenden Konsolen
8Kerne 16Treads und 4Ghz+ haben könnten.
(AMD präsentierte doch schon einen 8Kerner der dem 9900K
die Stirn geboten hat und das bei ~75W Verbrauch)
Halte ich für Unwahrscheinlich. Auch ein 7nm Ryzen wird so niedrig betrieben wie es der Stromverbrauch gerade so zulässt. Bei ~3GHz ist der Verbrauch noch einigermaßen unter Kontrolle. Bei >4GHz schießt er relativ schnell durch die Decke. Und die Konsolen gehen für gewöhnlich in die Richtung von max 150W. Da man die Auswirkung einer schnellen GPU noch am deutlichsten spürt, wird auch dieser die größte Aufmerksamkeit zukommen. Und die verbraucht locker >100W, wenn es ein guter Sprung von den aktuellen midgen Konsolen werden soll.
Die mobilen Ryzens haben meist nur 4 Kerne, aber diese könnte man in etwa als Basis (was Takt und Verbrauch angeht) nehmen wenn man die 7nm Fertigung berücksichtigt (8 Kerne, etwa gleicher Takt) die für die kommenden Konsolen wohl eingesetzt wird.
robbitop
2019-03-25, 07:16:09
VRR spart auf jeden fall Leistung und steigert das Spieleerlebnis.
Natürlich kann man alles, auch irgendwie missbrauchen ...
Ich hoffe mal, das es nicht missbraucht wird.
Die Vorteile von VRR sind, m.m.n. äußerst massiv!
m.f.g. JVC
Ich bin der letzte der das abstreiten würde. Aber wie gesagt, es ist nicht unwahrscheinlich dass sobald davon ausgegangen wird, dass genug User VRR haben somit an Performanceoptimierung gespart werden könnte. Ideal ist es also solange es noch nicht alle haben und man es selbst nutzen kann. (Aus egoistischer Sicht auf der Konsole)
Zumindest bei diesem Benchmark hier schaut es ein wenig besser aus:
https://www.7-cpu.com/
4 Core Jaguar @ 1.8GHz: 4400 Punkte (Mips, Compression)
8 Core @ 1.6GHz also ca. 7800 Punkte (dabei gehe ich aber von einer linearem Skalierung aus, was nicht stimmt, wie man schon anhand der 2-Core und 4-Core Ergebnisse sieht)
ein 8 Core 1700x schafft aber @ 3.5GHz mit 16 Threads 35200 Punkte, also das 4,5 fache.
Synthies sind meist besser als Spiele (in Bezug auf Skalierung). Aber ob nun Faktor 4 oder 4,5 ändert nicht viel an der Aussage und Größenordnung.
http://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/angeblich-mit-8K-und-14-2-Teraflops-1278203/ (24.03.2019)
"PS5 mit AMD-GPU: Google Stadia befeuert die Gerüchteküche"
"Die Gerüchteküche geht aber noch einen Schritt weiter. Angeblich haben Sonys Ingenieure sogar 14,2 Terflops im Auge. Grundlage dafür sei eine Navi-GPU an einem in 7 nm gefertigten 8-Kern-Ryzen (Zen 2) mit 3,2 GHz. Neben 20 Gigabyte Grafikspeicher (GDDR6) ist von weiteren 4 GiByte DDR4-Speicher die Rede."
Jetzt sinds schon 20GB O_o , das klingt langsam wirklich unglaublich ...
m.f.g. JVC
Fragman
2019-03-25, 07:50:57
Das dürfte dann auch eher das Performancelevel sein, was man erwarten sollte. Wobei die knapp 15TFlop sicher schon am oberen Ende der Skala sind und man realistischerweise weniger erwarten sollte. Dann kann der 8K Hypetrain auch im Bahnhof bleiben.
y33H@
2019-03-25, 08:25:17
[...]Bitte immer Primärquelle wenn möglich.
THEaaron
2019-03-25, 09:27:53
Das dürfte dann auch eher das Performancelevel sein, was man erwarten sollte. Wobei die knapp 15TFlop sicher schon am oberen Ende der Skala sind und man realistischerweise weniger erwarten sollte. Dann kann der 8K Hypetrain auch im Bahnhof bleiben.
Also das wäre ja der Brecher überhaupt wenn ein Midrange Navi mit konservativem Takt die 12-14tf packt.. und das mit dem Powerbudget einer Konsole. Bin aktuell eher bei 10-12tf mit meiner laienhaften Spekulation.
megachip800
2019-03-25, 10:00:39
Ich stimme megachip mal zu, das ich das noch erleben darf. Raytracing wird was Bildqualitaet angeht ueberbewertet. Physikalisch basierende Beleuchtungsberechnung mit Energieerhaltung war viel wichtiger.
Ja ich war anfangs auch euphorisch was die Raytraycinggeschichte angeht, wenn das Endergebnis aber in keinem Verhältnis zum Aufwand steht und man auf 30Fps limitiert ist dann kann ich darauf verzichten, bzw. ist das noch nicht ausgereift und für pixelfreie Schatten brauch man kein Raytraycing. Ich hoffe nicht das die Spieleentwickler bei den nächsten Konsolen krampfhaft auf Raytraycingeffekte setzen und wir wieder bei 30 Fps Schranke stehen bleiben, für VR brauch man mind. 60 Fps.
THEaaron
2019-03-25, 10:53:11
Was für eine 30FPS Schranke? Was für 60FPS VR?
30FPS ist und bleibt Designentscheidung. Selbst die alte PS4 packt genug FPS für ein Einsteiger VR Erlebnis.
robbitop
2019-03-25, 11:11:36
Man sollte von Navi nicht zu viel erwarten. Zunächst kommt ja erstmal midrange und die rumors erwarten alle ~2070 Performance.
AMD hat kein ansatzweise vergleichbares RnD Budget (geschweige denn die Manpower) wie NV gehabt. An die Perf/W und Perf/Bandbreite der neusten Designs heranzukommen wird schon schwierig (wobei 7 nm vs 12 nm sicherlich massiv helfen wird).
Ich hoffe, es wird ein gesunder Fortschritt auf dem man aufbauen kann. Mal sehen, wie viel von den größeren offensichtlichen Schwächen man endlich mal anpacken konnte. Bzw es wird interessant ob es wieder nur eine sanfte Evolution oder mal ein deutlicher Sprung in der mArch ist. Seit Tahitii ist da ja leider vergleichsweise wenig geschehen.
Wovon man sich ggf mal verabschieden sollte ist die ALU Anzahl miteinander zu vergleichen. NV investiert verdammt viele Transistoren pro SM, damit die da soviel rausquetschen können.
(man vergleiche mal wie groß Maxwell, Pascal und Turing normiert auf die SMs geachsen sind). Wenn es zielführend ist, einfach mehr CUs zu verbauen um pro W und pro Transistor besser werden zu können, ist das IMO auch OK.
Bei Vega hat man viele Transistoren in bessere Taktbarkeit investiert ggü Polaris. Wenn die verbesserungswürdige Skalierbarkeit nicht wäre, wären mehr CUs basierend auf Polaris zu einem besseren Ergebnis gekommen.
Hauptprobleme sind derzeit nach meiner Wahrnehmung:
1.) Skalierbarkeit (ab einem gewissen Punkt skalieren immer mehr CUs immer schlechter in Mehrleistung - das ist bei NV seit spätestens Fermi wesentlich besser, da alles mit den GPCs skaliert)
2.) Registerknappheit / -nutzung
3.) Granularität der Wavefronts
4.) Reuse / Caching (hier ist einiges an Nachholbedarf)
Auf Konsolen ist vieles davon ggf weniger kritisch, da man nur eine HW Basis hat und man gezielt bestimmte Schwächen angehen kann und bestimmte Stärken nutzen kann. Auf dem PC eher problematisch.
Auf Konsolen ist vieles davon ggf weniger kritisch, da man nur eine HW Basis hat und man gezielt bestimmte Schwächen angehen kann und bestimmte Stärken nutzen kann. Auf dem PC eher problematisch.
Da könnten AMD´s Konsolendeals, in Zukunft mal von Vorteil sein ...
Vielleicht schaffen sie es dann einmal, die GPU ordentlich auszulasten :rolleyes:
m.f.g. JVC
robbitop
2019-03-25, 13:30:23
Dachte man bei der PS4/Xone auch. Dort schaffte man die Auslastung dank Optimierung und besserer Shadercompiler ja auch. Am PC ist man eben auf den AMD Shadercompiler angewiesen und es sind weniger HW spezifische Optimierungen in der Praxis der Fall (wenn man mal Doom und Wolfenstein ausklammert).
Da könnten AMD´s Konsolendeals, in Zukunft mal von Vorteil sein ...
Vielleicht schaffen sie es dann einmal, die GPU ordentlich auszulasten :rolleyes:
Ich hab gerade ein Déjà-Vu von der letzten Konsolengeneration. ;D
robbitop
2019-03-25, 13:56:57
Wenn man sich anschaut, was mit der id Engine alles aus der Grund-mArch von 2011 herauszuholen ist, ist das schon beachtlich.
NV investiert lieber mehr Transistoren in Kontrolllogik und viel Zeit in ihre Treiberoptimierungen (IIRC hatten ein paar Entwickler beschrieben, dass NV vieles spielespezifisches im Treiber gerade biegt als den Devs zu viel von der HW zu verraten), so dass etwas weniger abhängig vom Spieleentwickler eine hohe Grundauslastung vorliegt.
AMD kann sich letzteres kaum leisten und versucht lieber, den Entwickler die Arbeit machen zu lassen (und ihm damit die Verantwortung zu geben) und dokumentiert ihre mArch sehr penibel.
aufkrawall
2019-03-25, 14:27:51
Ich hab gerade ein Déjà-Vu von der letzten Konsolengeneration. ;D
Hängt davon ab, ob AMD nochmal eine GPU-Architektur bringen wird, die mit den bisherigen APIs zu häufig nicht gut auslastbar ist. Mit den Möglichkeiten von DX12 und Vulkan wohl diesmal eher unwahrscheinlich.
Allerdings muss von ihnen überhaupt erstmal wieder ein richtig neues Produkt-Roundup kommen.
pixeljetstream
2019-03-25, 19:27:59
lösch mich
Nightspider
2019-03-25, 19:36:19
Synthies sind meist besser als Spiele (in Bezug auf Skalierung). Aber ob nun Faktor 4 oder 4,5 ändert nicht viel an der Aussage und Größenordnung.
Dazu kommt noch das Zen 2 in Games hoffentlich ~20% schneller sein wird als Zen 1. (und damit grob 10% schneller als zen+).
Dann wäre man schon bei Faktor 5-5,5 imho. ^^
Ob es jetzt zusätzlich was bringen wird wenn die Zen 2 Kerne auf den GDDR6 bzw. HBM zugreifen können werden (Latenz) muss sich zeigen aber viel ausmachen wird das wohl nicht.
Hatte Jaguar eigentlich AVX? Glaube nicht oder? Das wirkt sich doch auch nicht auf den vorhin geposteten synthetischen Benchmark aus oder?
Deswegen würde ich die Range ganz grob(!) auf Faktor 4,5 bis 6 beziffern, ohne die tatsächliche Leistung von Zen 2 zu kennen.
Das die Entwickler einiges an Aufwand betreiben müssten um die maximale CPU Leistung herauszuholen steht ja außer Frage. Kleine Studios werden wohl kaum das Maximum herausholen können/wollen aber das gilt ja für jede Generation.
MarcWessels
2019-03-26, 00:07:31
Filme Streaming wurde doch von erster Sekunde an bejubelt .In meinem Umfeld hat das noch nie jemand bejubelt. Wir kotzen alle über die Kompressionsartefakte. HD = High Definition. Bei Netflix und Co. geht aber alles in Artefakten unter. Wer Filme in vernünftiger Qualität genießen will, ist auf BD und UHD BD angewiesen.
Meine erste Aussage war, dass Stadia den Konsolen gefährlich werden kann (kann!). Das einfach mit "Nö" abzutun ist ziemlich ignorant.
Sorry, aber zocken mit den von YouTube bereits bekanntem Pixelmatsch?! Die Leute müssten entweder blöd oder blind sein.
robbitop
2019-03-26, 07:26:03
Für Zen2 einen 20% IPC Zuwachs in Spielen zu vermuten ist IMO etwas optimistisch. IMO. 10% halte ich für realistischer. Ob in den Konsolen auch der große 16mib L3 zum Einsatz kommt, ist auch fraglich. Jaguar hatte AVX mit 128 bit.
Spielecode ist aber selten simd limitiert.
Was gddr6/hbm für cpus bringen soll, weiß ich nicht. CPUs haben in Spielen seltenst ein Bandbreitenproblem. Latenz ist da eher gefragt. Und da sehe ich keine Besserung mit diesen Speichertypen.
Sich wegen 10...20% zu unterhalten ändert an der Größenordnung einfach nichts. Sehr lange gab es ja gewaltige Sprünge in der CPU Leistung pro Konsolengeneration. Das ist jetzt weniger der Fall.
Mit 60 fps würde man den Sprung in Details pro Bild halbieren und mit 120 fps vierteln. Bei letzterem bleibt dann quasi nichts mehr übrig an Fortschritt. Bei ersterem ist es halt ein ~2...2.5x Sprung. Damit kann man was machen, aber es ist ein milder Sprung verglichen mit vorherigen Sprüngen. Und deshalb vermute ich, dass es auch immer mehr 30 fps Spiele geben wird, je weiter es in den Lebenszyklus der Konsole gehen wird.
Für Highend gibt es zum Glück den PC.
Ist eigentlich sowieso die gleiche Diskussion vor jeder Konsolengeneration. Der PC übernimmt meist sehr schnell die Führung und der Abstand wird immer größer. Ist ja auch logisch, wenn eine Konsole nur ein paar 100€ kosten darf.
pixelguy
2019-03-26, 07:30:53
Sorry, aber zocken mit den von YouTube bereits bekanntem Pixelmatsch?! Die Leute müssten entweder blöd oder blind sein.
Wer sagt denn, dass es diese Qualität hat? Für mich hört sich das gesagte von Google und die ersten Erfahrungen anders an. Und es ist noch in Entwicklung. Unter anderem kommt noch ein neuer Codec...
robbitop
2019-03-26, 07:35:17
DF war nicht so begeistert von der BQ. Trotz 25mbit/s für einen 1080p60 Stream, der aber nur mit 30fps gefüttert wurde, also doppelte Bandbreite pro Frame.
Wenn man Videokomprimierung auf low latency auslegen muss, sinkt die Komprimierbarkeit enorm (viel weniger ref frames und viel weniger Rechenzeit für die Komprimierung).
dildo4u
2019-03-26, 08:27:32
Sollte YouTube nicht bis zum Launch auf AV1 umgestellt worden sein?Ich denke nicht das das die finale Qualität ist
Platos
2019-03-26, 09:59:40
@robbitop: Wenn nicht sogar von Anfang an immer 2 Versionen bestehen. Also 30 und 60 FPS. Ich denke, sie werden das fortführen. Aber ich könnte mir gut vorstellen, dass sie sogar von Anfang an einen 30FPS Modus anbieten und nicht erst später. Denn überleg mal: Dann kommt das ganze ganz natütlich rüber. Wenn man aber auf einmal später die Framerate senken würde, dann würde das auch den Konsolenspieler auffalen. Das hat nämlich grundsätzlich nichts damit tu tun, dass ja alle Konsolenspieler das nicht erkennen können, sondern einfach nur damit, dass sie es nie wirklich erlebt haben. Gewöhnt man sich aber mal dran (3-4 Jahre lang), wäre eine Abstufung sicher viel stärker bemerkbar.
Also ich denke nicht, dass man zuerst 60FPS füt 3-4 Jahre bringt, und dann am Schluss auf einmal die Framerate senkt. Meistens holt man ja im Lebenszyklus durch neue Entwicklungen noch mehr Leistung raus etc. und nicht durch Frameratenlimmitierungen (oder wurde sowas gemacht bei der PS4?)
In meinem Umfeld hat das noch nie jemand bejubelt. Wir kotzen alle über die Kompressionsartefakte. HD = High Definition. Bei Netflix und Co. geht aber alles in Artefakten unter. Wer Filme in vernünftiger Qualität genießen will, ist auf BD und UHD BD angewiesen.
Sorry, aber zocken mit den von YouTube bereits bekanntem Pixelmatsch?! Die Leute müssten entweder blöd oder blind sein.
Ich denke auch nicht, dass damit der Vergleich Bluray gemeint war, sondern der Vergleich TV. Da gibts nämlich ein bestimmtes Programm und auch noch Werbung (je nach sender). Und ich denke die Leute haben langsam gemerkt, dass sie eig. kein Geld bezahlen wollen, damit sie Werbung schauen und sie wollen auch kein Geld bezahlen und dann nicht mal freie Wahl haben, was sie schauen wollen.
Aber Streaming wird kommen, das ist sowas von klar. Latenz ist "einfach" zu lösen, fur Giganten wie Google. Die platzieren einfach überall Server. Bildqualität fällt dem Casual nicht auf, wenn es nicht extrem ist (bestes Bsp. ist ja netflix. Du störst dich grauenhaft, aber abgesehen von ein paar Freaks wie du und wir anderen hier, stört das keine Sau). Und [reine Spekulation] in 3-4 Jahren wird vlt dann auch 98% mal bei 100MBit angekommen sein.
Btw. gibt es Studien über die Netzabdeckung von europa und USA? also bezüglich Datenraten ?
Ravenhearth
2019-03-26, 10:54:00
Wer sagt denn, dass es diese Qualität hat? Für mich hört sich das gesagte von Google und die ersten Erfahrungen anders an. Und es ist noch in Entwicklung. Unter anderem kommt noch ein neuer Codec...
Von Digital Foundry (https://www.eurogamer.net/articles/digitalfoundry-2019-hands-on-with-google-stream-gdc-2019):
https://d2skuhm0vrry40.cloudfront.net/2019/articles/2019-03-18-12-21/GStadia_2.png/EG11/format/jpg/quality/95
Hoffen wir mal, dass der neue Codec noch was rausreißt :freak:
Neuer Codec, meint ihr AV1?
Bitte korrigiert mich, wenn ich falsch liege, aber iirc benutzt YT nicht mal VP9 fuer live streams, obwohl es sonst fuer Videos schon vorrangig eingesetzt wird. AV1 (und dementsprechend natuerlich auch die encoder) ist nochmal juenger und ich wuesste nicht, warum man da jetzt ploetzlich kurzfristig viel bessere Qualitaet in einem Echtzeit/niedriglatenz Einsatz erwarten sollte.
robbitop
2019-03-26, 12:02:57
@Platos
Dann bräuchte man in der stärkeren Konsole aber doppelt so viel CPU Leistung. Das ist ausgehend von einem 3,X GHz 8C Zen2 nahezu nicht so einfach möglich in absehbarer Zeit.
Die Masse der Konsolenspieler ist wahrscheinlich gar nicht so anspruchsvoll. Und es gibt ja einkge 60fpa Titel in der Currentgen (zB CoD). Das scheint dem Erfolg der 30 fps Titel keinen Abbruch zu tun. Wir im 3dcf sind halt eher eine Randgruppe von Enthusiaasten die nicht aussagekräftig für die Masse ist. Somit wird für uns am Ende der PC auf absehbarer Zeit die richtige Plattform bleiben. ;)
@BQ bei Videocodecs
Mehr BQ/Bandbreite bedeutet auch mehr Rechenzeit. Und zwar nicht linear. Wenn es dazu noch latenzarm sein muss (im Gegensatz zu herkömmlichen Videostreaming) sind die Voraussetzungen grundsätzlich andere. Zudem ist Filmmaterial wesentlich unproblematischer was Artefakte angeht als Material aus PC Spielen.
Es tut sich ja auch vieles an allen Fronten (Bandbreite der Internetanschlüsse, Rechenleistung der Videoencoding HW, Videocodecs) - aber der Weg für hohe Ansprüche (4k60, atefaktarm, latenzarm) ist noch längst nicht zu ende.
Selbst im lokalen Netzwerk mit 1 gbit sieht man bei Gamestream immernoch einige Artefakte und suboptimale Latenz. (Ich nutze es mit der Shield TV und einer 1080ti).
][immy
2019-03-26, 13:18:51
@Platos
Dann bräuchte man in der stärkeren Konsole aber doppelt so viel CPU Leistung. Das ist ausgehend von einem 3,X GHz 8C Zen2 nahezu nicht so einfach möglich in absehbarer Zeit.
Die Masse der Konsolenspieler ist wahrscheinlich gar nicht so anspruchsvoll. Und es gibt ja einkge 60fpa Titel in der Currentgen (zB CoD). Das scheint dem Erfolg der 30 fps Titel keinen Abbruch zu tun. Wir im 3dcf sind halt eher eine Randgruppe von Enthusiaasten die nicht aussagekräftig für die Masse ist. Somit wird für uns am Ende der PC auf absehbarer Zeit die richtige Plattform bleiben. ;)
@BQ bei Videocodecs
Mehr BQ/Bandbreite bedeutet auch mehr Rechenzeit. Und zwar nicht linear. Wenn es dazu noch latenzarm sein muss (im Gegensatz zu herkömmlichen Videostreaming) sind die Voraussetzungen grundsätzlich andere. Zudem ist Filmmaterial wesentlich unproblematischer was Artefakte angeht als Material aus PC Spielen.
Es tut sich ja auch vieles an allen Fronten (Bandbreite der Internetanschlüsse, Rechenleistung der Videoencoding HW, Videocodecs) - aber der Weg für hohe Ansprüche (4k60, atefaktarm, latenzarm) ist noch längst nicht zu ende.
Selbst im lokalen Netzwerk mit 1 gbit sieht man bei Gamestream immernoch einige Artefakte und suboptimale Latenz. (Ich nutze es mit der Shield TV und einer 1080ti).
Man muss sich das ja nur mal vorstellen. Bei einer Nutzung von 30 Mbit für 1080/60 würden grad mal ~61 KiB je Frame + Ton + Steueranweisungen (z.B. Feedback am Controller) zur Verfügung stehen. Zwar wird hier die Komprimierung zwischen den frames noch eine Rolle spielen, so das die Bildinfos letztlich nicht alle komplett noch mal übertragen werden müssen (was letztlich die Latenz aber zusätzlich erhöht), aber trotzdem ist diese übertragungsrate für eine gute Qualität letztlich ein Witz.
Es kommt aber letztlich sehr auf die Zielgruppe an, wie viel diese bereit ist (aus unserer Sicht hier im Forum) zu leiden bei der Bildqualität und Latenz und wie viel sie bereit ist dafür zu Zahlen.
So wie ich google bisher kenne geht es denen letztlich bei den angepassten Versionen von Spielen auch darum, Werbung unterzubringen. Überspitzt ausgedrückt stehen dann im Antiken Griechenland halt ein paar Cola-Dosen rum ;)
Achja, aufgrund der Latenzen bräuchte man ja bei aktuellen 30 fps spielen auf Konsolen schon 60fps um die Latenz runter zu bekommen. Wobei AC Odyssey auf Konsolen hier auch wirklich arg verzögert zu laufen scheint (kann ich so zwar nicht ganz nachvollziehen, da ich es auf der xboX gespielt hab aber egal). Das Problem wird allerdings sein, das sich dann auch 60fps Spiele extrem schwammig steuern.
Man kann in der Cloud auch sicher auf ein paar Detailstufen verzichten, denn die Komprimieren sich eh weg.
Btw, wenn AC Odyssey im Hintergrund 10TF zur Verfügung hat und ne aktuelle CPU, warum läuft es dann nur mit 30 fps bei 1080p?
Platos
2019-03-26, 13:25:57
Ich habe gemeint 2 verschiedene Einstellungsmöglichkeiten im Spiel, so wie jetzt bei der Pro. Also keine 2 versch. Hardware.
Ich meinte, ich halte es für unwahschreinlich, dass man die ersten 3-4 Jahre alles auf 60FPS bekommt und dann auf einmal auf 30 runter geht. Ich denke schon, dass man das merkt.
Klar, es gibt 60FPS shooter, aber die sind ja bewusst 60 FPS, weil man dort die 30 FPS sicher als erstes merken würde. Und wenn man mal auch bei den normalen Spielen 60FPS hat, wird man es sicher merken, wenn es auf einmal nur noch 30 FPS sind. Aber kann mich auch irren.
robbitop
2019-03-26, 13:32:23
Videokomprimierung leben halt von Referenzframes und Bewegungsvektoren. Das ist aber mit möglichst wenig Latenz problematisch. Man will ja auch keinen großen Inputlag haben.
mr coffee
2019-03-29, 17:20:21
https://s16.directupload.net/images/190329/xwx5jnx7.png
Echt oder nicht?
][immy
2019-03-29, 17:28:50
https://s16.directupload.net/images/190329/xwx5jnx7.png
Echt oder nicht?
vermutlich Fake. Aber was würd es bringen?
Selbst wenn es ein frühes Dev-Kit wäre, würde das überhaupt noch nichts über die End-Hardware aussagen. Alles was MS und Sony derzeit den Entwickler geben könnten, wäre eine grobe Richtung.
just4FunTA
2019-03-29, 17:50:39
https://s16.directupload.net/images/190329/xwx5jnx7.png
Echt oder nicht?
ich hoffe sie veröffentlichen die ps5 in genau diesem Look. ;D
Ravenhearth
2019-03-29, 18:39:14
[immy;11960794']vermutlich Fake. Aber was würd es bringen?
Selbst wenn es ein frühes Dev-Kit wäre, würde das überhaupt noch nichts über die End-Hardware aussagen. Alles was MS und Sony derzeit den Entwickler geben könnten, wäre eine grobe Richtung.
Die Rohleistung der finalen Hardware könnten sie sicher schon mit einem Ryzen + Vega recht genau hinbekommen.
N0Thing
2019-03-29, 19:19:57
ich hoffe sie veröffentlichen die ps5 in genau diesem Look. ;D
Die 80er sind ja gerade wieder en vogue. :D
Herr Doktor Klöbner
2019-03-30, 11:39:53
ich hoffe sie veröffentlichen die ps5 in genau diesem Look. ;D
Im Prinzip schon, aber bitte mit Seitenteilen aus Holzimitat.
just4FunTA
2019-03-30, 11:51:54
das holzimitat kriegt natürlich nur die premium version. :)
Mich würde mehr begeistern, wenn die kommenden Konsolen Maus und Tastatur legal in Spielen zulässt.
Weis man dazu schon was ?
(technisch funktioniert es ja schon bei den jetzigen, soviel ich gehört habe)
m.f.g. JVC
kunibätt
2019-04-01, 18:06:01
Also das Bild ist zu 100% fake. Nicht mal die Skalierung der Knöpfe passt....
Platos
2019-04-01, 22:14:57
Mich würde mehr begeistern, wenn die kommenden Konsolen Maus und Tastatur legal in Spielen zulässt.
Weis man dazu schon was ?
(technisch funktioniert es ja schon bei den jetzigen, soviel ich gehört habe)
m.f.g. JVC
Was meinst du mit nicht "legal" ? Du meinst, ob in jedem Spiel dann zusätzlich eine Tastatursteuerung dabei sein wird ?
Grundästzlich gibt es Tastaturen und Mäuse extra entwickelt für die PS4.
https://www.spieletipps.de/tipps-51930-ps4-mit-maus-tastatur-spielen-gehts/
Dass aber eine Steuerung für Maus und Tastatur kommt, bezweifle ich, zumindest für Spiele, die es nicht auf dem PC geben wird. Aber auch die anderen, halte ich für unwahrscheinlich. Man muss dann ja ständig noch zusätzliche Peripherie auktuell halten (Treiber und OS) und das "nur" für die paar, die mit Tastatur spielen...?
Ich glaub, gar nicht sooo wenige würden auch mit der Tastatur spielen :confused:
Ich sehe die "joipaddinger" immer als einen "Verlust" von Komplexität ...
(die Tastatur bietet viel mehr Möglichkeiten für Bewegung und sonnst was)
m.f.g. JVC
just4FunTA
2019-04-01, 22:27:01
Mich würde mehr begeistern, wenn die kommenden Konsolen Maus und Tastatur legal in Spielen zulässt.
Weis man dazu schon was ?
(technisch funktioniert es ja schon bei den jetzigen, soviel ich gehört habe)
m.f.g. JVCwäre ein Fehler maus/tasta gegen gamepad bei egoshootern..
Iterator
2019-04-05, 22:38:35
Mal wieder angebliche Specs eines Dev Kits (Dante) der kommenden Xbox Anaconda:
DANTE ( XDK )
CPU: Custom AMD Zen 2 8C/16T @ 3.2GHz
GPU: Custom AMD Navi @ 1475MHz
MEMORY: 48GB GDDR6 @ 672GB/s
STORAGE: SSD 4TB NVMe @ 3GB/s
Vielleicht sehen wir ja doch noch 32GB Ram in der Retail Version.
Quelle: resetera.com (https://www.resetera.com/threads/next-gen-ps5-and-next-xbox-launch-speculation-secret-sauces-spicing-2019.91830/page-320#post-19526151)
Unicous
2019-04-05, 22:43:43
Afaik kommen diese "Specs" von einem Disqus-Kommentar bei WTF-Tech. :wink:
basix
2019-04-05, 23:56:22
Alles wäre möglich (CPU, GPU) oder wünschenswert (48GB) aber 4TB SSD schiesst den Vogel ab :D Gut, für ein Devkit wäre mehr Speicher OK.
Unicous
2019-04-06, 00:25:23
Dev Kits haben meist ein Vielfaches (2x, 3x) der Ressourcen, von daher wäre es nicht ungewöhnlich, insbesondere da das OS sich höchstwahrscheinlich die Ressourcen wieder teilt, die Entwicklungs- und Debugtools ordentlich Ressourcen abknapsen.
Die 4 TB finde ich auch nicht so krass für ein Dev Kit. Eher die Anbindung mit 3 GB/s finde ich... interessant. Das liegt ja schon im Server-Bereich.
Zossel
2019-04-06, 01:10:24
Mich würde mehr begeistern, wenn die kommenden Konsolen Maus und Tastatur legal in Spielen zulässt.
Weis man dazu schon was ?
(technisch funktioniert es ja schon bei den jetzigen, soviel ich gehört habe)
m.f.g. JVC
Bessere Eingabegeräte erhören die Anforderungen an das Spiel, daher ist das bei den begrenzten Ressourcen auf Konsolen nicht wünschenswert.
Herr Doktor Klöbner
2019-04-06, 09:03:03
Was mich interessieren würde ist, wie Sony und MS jeweils mit einem Mehrwert gegenüber der Konkurrenz argumentieren wollen. Ich gehe davon aus das das auch in dieser Generation die selbe CPU wird. Den Quatsch mit ESRAM wird MS nicht wiederholen, also wird bei Preisgleichheit auch die GPU Leistung gleich sein, es sei denn einer der beiden wird subventionieren aber da hat man sich schon in der PS3/360 Generation eine blutige Nase geholt.
Bleibt ein Gimmick. Das hat 1x super funktioniert(Wii) und ist zwei mal krachend gescheitert ( Kinect, Wii U Tablet-Controler)
Das Gimmick das diese Generation entscheiden wird werden wohl wieder die First-Party Studios von Sony sein, es sei denn MS plant irgendeine Schweinerei mit game as a service zum absoluten Kampfpreis.
Leonidas
2019-04-06, 09:18:59
Na wenigstens gibt es hier noch Kampf und Wettbewerb auf Augenhöhe. Besser als im GPU-Bereich.
Ravenhearth
2019-04-06, 11:34:03
Was mich interessieren würde ist, wie Sony und MS jeweils mit einem Mehrwert gegenüber der Konkurrenz argumentieren wollen. Ich gehe davon aus das das auch in dieser Generation die selbe CPU wird. Den Quatsch mit ESRAM wird MS nicht wiederholen, also wird bei Preisgleichheit auch die GPU Leistung gleich sein, es sei denn einer der beiden wird subventionieren aber da hat man sich schon in der PS3/360 Generation eine blutige Nase geholt.
Bleibt ein Gimmick. Das hat 1x super funktioniert(Wii) und ist zwei mal krachend gescheitert ( Kinect, Wii U Tablet-Controler)
Das Gimmick das diese Generation entscheiden wird werden wohl wieder die First-Party Studios von Sony sein, es sei denn MS plant irgendeine Schweinerei mit game as a service zum absoluten Kampfpreis.
Ich denke, Exklusivtitel werden eine große Rolle spielen.
Jupiter
2019-04-06, 17:05:49
Welche genau meinst Du und in welchem Spiel?
Selbst in Division2, was ganz nett ausschaut, fehlt mir das komplett. Lichter ohne Schatten, dazu low res shadow maps, indirektes Licht wirft sowieso keine und selbst das AO ist zum davon laufen. Im Vergleich dazu dann Metro, wobei sich der direkte Vergleich sowieso schon verbietet. Natürlich kann man heut viel machen, aber gerade das Voxel Zeug ist schon wieder so alt und kaum genutzt. Die Qualität davon ist schon sehr gut, bringt aber nichts, wenn es keiner einsetzt.
The Division 2 bräuchte Raytracing Schatten. Damit würde es einer der größten grafischen Schwächen auslöschen. Die Unterschiede, welche ich in Shadow of The Tomb Raider mit Raytracing sah, sind Next Gen artig. Ohne Raytracing sind Schatten in Videospielen eine Katastrophe und extrem hässlich.
Beispiele:
https://www.resetera.com/threads/shadow-of-the-tomb-raider-finally-gets-nvidias-ray-traced-shadows-and-dlss.106234/page-5#post-19195881
https://www.resetera.com/threads/shadow-of-the-tomb-raider-finally-gets-nvidias-ray-traced-shadows-and-dlss.106234/page-4#post-19118458
Wer da nicht auf Raytracing wechselt, hat in Sachen Optik in der Zukunft eh verloren und wird seine Fake-Videospieloptik mit wenig Tiefe behalten. Mit Shadow Maps wäre solch eine Qualität deutlich teurer. Raytracing-Reflexionen wären gut, sind aber nicht so wichtig wie korrekte Schatten.
Fragman
2019-04-06, 17:49:42
https://www.resetera.com/threads/shadow-of-the-tomb-raider-finally-gets-nvidias-ray-traced-shadows-and-dlss.106234/page-5#post-19195881
https://www.resetera.com/threads/shadow-of-the-tomb-raider-finally-gets-nvidias-ray-traced-shadows-and-dlss.106234/page-4#post-19118458
Diese Beispiele sind schon deutlich besser als die, die man noch am Tag des Patches gesehen hat.
tobor
2019-04-06, 23:57:56
Next Gen Hair? Sind deutliche Vebesserungen bei der Darstellung von Haaren zu erwarten
oder kostet das zu viel Rechenleistung? Meiner Meinung wesentlich wichtiger als bessere
Schatten.
pixeljetstream
2019-04-07, 01:04:30
Ich denke, Exklusivtitel werden eine große Rolle spielen.
Oder bei MS Play Anywhere (PC/console).
Ich denke aber das gerade beim Füttern der gpu beide schon eigenes IP verbauen könnten. Sony wird sicher wie jetzt auch mehr selbst machen (Compiler, API etc.) kann damit den Preis drücken. Und Studios haben sie ja auch mehr.
Imo macht denen Game technisch keiner was vor. MS wird ihr Ding mehr Richtung Home PC/Hub etc. bringen imo.
Nightspider
2019-04-07, 02:39:29
Next Gen Hair? Sind deutliche Vebesserungen bei der Darstellung von Haaren zu erwarten
oder kostet das zu viel Rechenleistung? Meiner Meinung wesentlich wichtiger als bessere
Schatten.
Haare sind doch spätestens seit Tomb Raider kein großes Thema mehr. Lässt sich alles super realisieren aber frisst halt auch Leistung und wird man nicht bei 10-100 Charakteren gleichzeitig berechnen wollen. Maximal bei 2-3 Hauptcharakteren.
Die Balance aus Kosten und Nutzen muss passen.
msilver
2019-04-07, 08:09:05
habt ihr mal die haare und gesichtet bei horizon zero dawn gesehen? ich hoffe das tomb raider da besser aussieht, noch wirken viele Titel zu künstlich.
Thema ms: ich hoffe darauf, dass sie den Markt wieder etwas aufmischen, eventuell bringt es ja einen Schub mit den Studios welche Sie gekauft haben. Konkurrenz ist immer gut. Ich habe derzeit eine ps4, aber forza ruft immer wieder nach mir.
BoMbY
2019-04-16, 14:49:24
Lisa Su hat gerade den folgenden Artikel getweetet (https://twitter.com/LisaSu/status/1118130682579103744):
Exclusive: What to Expect From Sony's Next-Gen PlayStation (https://www.wired.com/story/exclusive-sony-next-gen-console/)
The “next-gen console,“ as he refers to it repeatedly, won’t be landing in stores anytime in 2019.
Aber:
The CPU is based on the third generation of AMD’s Ryzen line and contains eight cores of the company’s new 7nm Zen 2 microarchitecture. The GPU, a custom variant of Radeon’s Navi family, will support ray tracing, a technique that models the travel of light to simulate complex interactions in 3D environments.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.