PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84

StefanV
2018-05-28, 12:14:52
PS5 soll ja erst 2020/2021 kommen. Da ist dann sicher ein 7nm-chip drin mit 8 Zen Kernen + SMT und ner ordentlichen Grafiklösung auf NAVI-Basis. 16GB HBM2 oder GDDR6, je nach Sonys Wünschen...
Naja, gravitationsfeld meinte ja schon, dass es eher 32GiB sein müssten.
Und da hat er nicht unrecht.


Und PS4 Spiele laufen dann natürlich auch auf der PS5, außer Sony sperrt das per Software um noch mehr Kohle zu verdienen mir remastered Zeug u.ä.
Sony hat bisher immer Rückwärtskompatibilität angeboten, sofern es möglich war. Soweit mir bekannt, spielen sowohl die PS2 als auch PS3 Konsolen (ALLE!) Playstation 1 TItel ab.
Nur bei PS2 Titeln hapert es bei neueren PS3 Versionen.
PS4 konnte nicht rückwärtskompatibel sein und man hat den PS1 Support raus geworfen...

Aber in einem anderen Forum meinte ein "Dipl. Inf. (FH)." mir erzählen zu müssen, dass 4 Kerne mit SMT reichen würden und man für PS4 Kompatibilität keine 8 Kerne (2 CCX) brauchen würde, weil das ja auch so mit 4 Kernen und SMT funktionieren müsste.

Da wir aber von Konsolen reden und relativ starken Anpassungen an die Hardware, halte ich seine Behauptung für Käse.
Es mag in vielen Fällen halbwegs funktionieren, aber eben auch und gerade bei Exklusiv Titeln problematisch sein, da die CPU nicht reagiert wie man es erwartet...
Und daher sehe ich die zwei CCX als Gesichert an.

Sehe ich auch so.

Ich tippe mal bei der PS5 auf 6C/12T bis 8C/16T @7nm. 2C/4T davon fürs OS und das ganze Multimediazeugs reserviert, Rest für Spiele frei verwendbar.
Nein
Da könnte man das Design der PS4 weiter verfolgen und das "Primäre System" auf 'nem ARM SOC laufen lassen, während die APU schlicht ein Coprozessor ist, der für die Ausführung der Spiele verantwortlich ist.

Der Typ von fail0verflow meinte, dass das eine bekloppte Architektur wäre...
Um Linux auf der PS4 laufen zu lassen, ja. Aber für eine Konsole macht das mehr als Sinn. Und er hat auch nicht den HDMI CEC Support (=du kannst per TV Fernbedienung deine PS4 steuern) gecheckt und dass man dafür den Chip bräuchte...

dargo
2018-05-28, 12:16:13
Bei Zen 2 @7nm ist nichts mehr fett. Ich kann mir auch durchaus vorstellen, dass der L3 für Konsolen (der ja recht viel Platz im Vergleich zum Rest verschlingt) reduziert wird.

Edit:
Der L3 ist beinah so groß wie der Core selbst.

https://www.techpowerup.com/img/16-08-23/100b.jpg

Fraglich ob da 8MB L3 je CCX bei einer Konsole überhaupt wirtschaftlich sinnvoll sind.

Nightspider
2018-05-28, 12:20:02
Zen ist nicht fett aber dann willst du nur 6-8 Kerne und davon 2 abzwacken für Multimedia? ;D

Korvaun
2018-05-28, 12:20:42
SMT ist sicherlich dabei, warum sollte man das weglassen bzw. deaktivieren, es ist ja eh im chip drin... ich glaube kaum das AMD nen extra ZEN ohne SMT in Hardware designed für SONY ;)

2020/2021 gibts möglicherweise schon 5nm, aber SONY/MS brauchen möglichst preiswerte Chips in zig millionenfacher Menge. Noch dazu sind die Chips schon ordentlich groß, der Prozess muss also eingefahren und berechenbar sein. Da sollte 7nm/7nm+ genau drauf passen...

Zur PS4 Kompatibilität: Macht MS mit der XB-OneX nicht ne virtuelle Maschine wo die "normale XBOX" dann emuliert wird um so gut wie möglich 100% kompatibel zu sein?

dargo
2018-05-28, 12:25:59
Zen ist nicht fett aber dann willst du nur 6-8 Kerne und davon 2 abzwacken für Multimedia? ;D
Je nachdem was man mit so einer Multimedia-Box vor hat. :rolleyes: Wenn dafür 1C/2T reicht umso besser für die Spieleentwickler. Sie haben dann eben etwas mehr CPU-Power zur Verfügung.

drkohler
2018-05-28, 12:36:46
Fraglich ob da 8MB L3 je CCX bei einer Konsole überhaupt wirtschaftlich sinnvoll sind.Ich denke dass die erste Sparmassnahme für einen Konsolensock das Wegfallen des L3-Caches ist. Das spart eine Menge Kohle.
Ich weiss auch nicht, wie "wertvoll" ein L3-Cache überhaupt ist für einen Chip, der genau eine Aufgabe hat: Ein einziges Spiel abzuarbeiten. Wenn da bloss ein paar Prozent Leistung weggingen, was soll's...

dargo
2018-05-28, 12:47:55
Ich denke dass die erste Sparmassnahme für einen Konsolensock das Wegfallen des L3-Caches ist. Das spart eine Menge Kohle.
Ich weiss auch nicht, wie "wertvoll" ein L3-Cache überhaupt ist für einen Chip, der genau eine Aufgabe hat: Ein einziges Spiel abzuarbeiten. Wenn da bloss ein paar Prozent Leistung weggingen, was soll's...
In diesem Punkt bin ich mir unsicher. Aber klar... wenn der Performanceverlust durch einen kompletten Verzicht auf den L3 überschaubar ist spart man unheimlich viel Chipfläche und somit auch Kosten.

Gebrechlichkeit
2018-05-28, 19:16:12
Sony sollte naechstes jahr die basis ps5 rausbringen mit bis zu 8tflops und sollte Microsoft noch bock auf eine weitere peinigung haben, schmeisst Sony die ps5 pro rau.

Man haette dann das aktuelle szenario gespieglt (pro vs xbx) zu gunsten von Sony. Weitere 3 jahre mit der ollen basis PS4, das will keiner mehr.

Egal ob 10 oder 7nm bei der amateur ps5. Evtl. wurden deswegen ein paar Blockbuster auf 2019 verschoben.

Iterator
2018-05-29, 01:29:35
Glaubst Du wirklich das MS nach dem Debakel mit der Xbox One noch einmal sich die Butter vom Brot nehmen, bzw. sie sich noch einmal so vorführen lassen ?
Wann ja ist denen nicht mehr zu helfen.:freak:

Der Bedarf nach einer Leistungsstarken Konsole ist ja da. Aber in Sachen Hardware erwarte ich da nichts aus der Reihe tanzendes, bzw. das man von den technischen Specs das Gefühl hätte, man würde den Baseballschläger direkt in die Fresse bekommen. Es wäre mal schön, wenn sich in Sachen Spiele mal etwas tun würde. Zu PS3 & Xbox 360 war das eine ganz andere Welt für die Spieler. O.k. Damals waren die Umstände auch andere.

StefanV
2018-05-29, 02:11:25
Aber in Sachen Hardware erwarte ich da nichts aus der Reihe ta.nzendes
Naja, man hätte die Möglichkeit HBM RAM zu nutzen, statt GDDR6..
Beim Rest ist man ja auf AMD angewiesen, was die für Technologien anzubieten hat bzw welche Wünsche sie erfüllen könnten. Und natürlich zu welchem Preis...


bzw. das man von den technischen Specs das Gefühl hätte, man würde den Baseballschläger direkt in die Fresse bekommen. Es wäre mal schön, wenn sich in Sachen Spiele mal etwas tun würde. Zu PS3 & Xbox 360 war das eine ganz andere Welt für die Spieler. O.k. Damals waren die Umstände auch andere.
Was meinst du mit der X360?? Dass M$ die ersten waren, die CPU und GPU integriert haben, während Sony das anscheinend nicht konnte (vermutlich dank nV, aber auch wg. der zwei Speicher Pools), dass M$ damals die bessere Hardware hatte und Sony die HW total verkackt hat?

Der Unterschied zwischen PS3 und 360 war deutlich größer als PS4 vs XBoner oder Pro vs X..
Und die PS3 war einfach nicht sonderlich toll, die 360 war deutlich besser.
Dennoch hatte die PS3 recht gute Exklusive...

Iterator
2018-05-29, 02:50:55
Mein Posting was Du nicht ganz zitiert hast, bezog sich auf die kommende Konsolengeneration(Xbox Two & PS5). Was die Xbox 360 & PS3 anging, meinte ich nur, das da das Spieleangebot deutlich besser war, als jetzt zu Xbox One. Da waren das Damals ja geradezu paradiesische Zustände, im Gegensatz zu Heute. Der Leistungssprung von der Classic Xbox --->Xbox 360 war rein von der GFlops Zahlen, um den Faktor 20. Das werden wir wohl auch nicht so schnell wiedersehen. Nicht das es nicht möglich wäre, wenn man den möchte. Aber dann kommt wieder das leidige Thema Geld und seine Knappheit beim Konsumenten .........;D

gravitationsfeld
2018-05-29, 03:08:31
Je nachdem was man mit so einer Multimedia-Box vor hat. :rolleyes: Wenn dafür 1C/2T reicht umso besser für die Spieleentwickler. Sie haben dann eben etwas mehr CPU-Power zur Verfügung.
Falls es ein 8 core Zen-Design ist - was in 7nm sogar nur ein CCX sein koennte - dann gehe ich von 1C/2T fuer das OS aus. Das reicht dicke fuer das was die da machen.

dargo
2018-05-29, 06:09:16
Falls es ein 8 core Zen-Design ist - was in 7nm sogar nur ein CCX sein koennte - dann gehe ich von 1C/2T fuer das OS aus. Das reicht dicke fuer das was die da machen.
Die Frage ist halt ob sie bei den zukünftigen Boxen nicht mehr machen wollen? Ich meine es ist ja nicht nur das OS. Die Multimediaeigenschaften brauchen auch Ressourcen. Mir fallen da diverse Updates/Downloads im Hintergrund ein. Wobei das eher wenig CPU-Ressourcen fressen sollte. Oder hochwertige Videoaufnahmen der Spiele. Vielleicht fallen Sony/MS noch andere Sachen ein von denen wir noch gar nichts wissen.

gravitationsfeld
2018-05-29, 06:13:15
Video geht ueber fixed function, Updates sind nun wirklich keine grossartige CPU-Arbeit.

Grendizer
2018-05-29, 07:06:11
Ach irgendwas KI mäßiges wird schon an Board sein müssen,das unnütz Ressourcen verbrennt, einfach um auf den Zug aufzuspringen.... :biggrin:

StefanV
2018-05-29, 07:55:20
Falls es ein 8 core Zen-Design ist - was in 7nm sogar nur ein CCX sein koennte - dann gehe ich von 1C/2T fuer das OS aus. Das reicht dicke fuer das was die da machen.
Aber, wenn man das Design von der PS4 konsequent weiter verfolgt, braucht man da überhaupt Leistung von dem x86 Prozessor? Kann man das nicht von dem ARM Chip in der "SB" machen lassen??

HOT
2018-05-29, 07:55:45
Falls es ein 8 core Zen-Design ist - was in 7nm sogar nur ein CCX sein koennte - dann gehe ich von 1C/2T fuer das OS aus. Das reicht dicke fuer das was die da machen.
Jetzt da es sowohl ein 12 als auch ein 16-Kern-Die geben soll, ist das doch arg unwahrscheinlich. Das bleiben sehr sicher 4-Kern-CCX.
Die Konsole würde damit von 8 auf 16 Threads springen, damit reicht dann ein Kern für die Nebenaufgaben.
Aber, wenn man das Design von der PS4 konsequent weiter verfolgt, braucht man da überhaupt Leistung von dem x86 Prozessor? Kann man das nicht von dem ARM Chip in der "SB" machen lassen??
Guter Punkt. Könnte man so auch machen. Einener Speicher eigene Kerne und das schnelle Zeug ausschließlich Spieleressourcen.

robbitop
2018-05-29, 08:28:36
Ob die Anzahl der Cores pro CCX zukünftig signifikant steigt ist IMO auch fraglich. Auch ein Stück weit unabhängig vom Shrink. Innerhalb eines CCX nimmt der Aufwand der Verbindung der Cores und des L3s zueinander ansonsten nicht-linear zu. Die Frage ist, ob das nicht irgendwann nicht nur zu einer Steigerung der Kernfläche führt, sondern auch stärkere Latenzen bedeutet. AMD wird die CCX Größe sicherlich nicht unüberlegt auf 4C ausgelegt haben. Ich gehe davon aus, dass das noch eine Weile so bleibt und wenn sie wächst, nicht gleich auf Faktor 2.

Ridcully
2018-05-29, 08:53:54
Könnte Sony die ps5 zur Markteinführung eines eigenen digitalen Assistenten ( wie Alexa, cortana, Siri,...) nutzen? Wäre etwas spät aber könnte gut zu ihrer Roboterhundesparte passen. Und natürlich zu der TV Sparte.

Und ein Konzern mit Film, Musik, TV und Games braucht eigentlich auch eine KI in jedem Wohnzimmer.

Die Ki, der digitale Assistent, würde dann per Micro und Kamera auf Interaktionen im Wohnzimmer eingehen können. Der Vorteil gegenüber Siri und co wäre die möglicherweise etwas größere Akzeptanz und die vergleichsweise große lokale Rechenpower .

An eine ps5 die nur eine schneller ps4 ist glaube ich nicht so recht.

Eure Meinung dazu?

Daredevil
2018-05-29, 08:59:32
Ich bin mir nicht sicher, ob eine Playstation soetwas wirklich haben muss.
Interaktion per Sprache hat sie ja jetzt schon, Gestensteuerung ist bei der XBox ja kläglich gescheitert. Das kann man ja schon mal als Erfahrungsbericht sehen.

Zudem gibt es ja im besten Fall von Google oder Amazon Geräte im Wohnzimmer, die das besser können.
In Sachen Datenschutz werden viele Menschen ja eher misstrauischer, als das man Geräten vertraut. :D

Grendizer
2018-05-29, 09:05:58
Ich bin mir nicht sicher, ob eine Playstation soetwas wirklich haben muss.
Interaktion per Sprache hat sie ja jetzt schon, Gestensteuerung ist bei der XBox ja kläglich gescheitert. Das kann man ja schon mal als Erfahrungsbericht sehen.

Zudem gibt es ja im besten Fall von Google oder Amazon Geräte im Wohnzimmer, die das besser können.
In Sachen Datenschutz werden viele Menschen ja eher misstrauischer, als das man Geräten vertraut. :D


Haben muss sie es nicht, aber meinst du nicht, das irgendein Digitaler Assistent vorhanden sein wird, der dir das (Spieler)Leben einfacher machen wird. Ich vermutet auch das was in die Richtung kommen wird.

StefanV
2018-05-29, 09:30:50
Eure Meinung dazu?
Den XBox One Start vergessen?

Das, was du hier beschreibst ist genau das, was den Start der XBox vermasselt hat und die Leute Playstation kaufen lassen hat. Die werden kaum den gleichen Fehler wie Microsoft machen.

Auch hat man diverse Fähigkeiten bei der PS4 entsorgt, die die PS3 hatte und stärker auf ein Spielgerät konzentriert.

Ridcully
2018-05-29, 09:54:04
Den XBox One Start vergessent.

Ich denke das Sony jederzeit bereit und in der Lage ist jeden Fehler von Microsoft zu wiederholen. Vor allem wenn es die letzte Chance bietet bei dem Wettberwerb der KIs einzusteigen.

Auch war Microsofts Idee gar nicht schlecht. Sie kam nur zu früh. Keiner wollte die Kamera im Wonzimmer. Aber heute ist Alexa im Wohnzimmer plötzlich ok.

Aber Alexa ( und Siri/ cortana ) ist wenig interaktiv. Eine PS5 die am Fehrnseher angeschlossen ist hätte viel mehr Möglichkeiten.

Ich sage ja auch nicht das die Idee mir gefällt. Aber Sony könnte da durchaus seine neue Marktmacht nutzen um das durchzuboxen.

Daredevil
2018-05-29, 09:56:31
Haben muss sie es nicht, aber meinst du nicht, das irgendein Digitaler Assistent vorhanden sein wird, der dir das (Spieler)Leben einfacher machen wird. Ich vermutet auch das was in die Richtung kommen wird.
Ich würde es maximal befürchten, aber nüchtern betrachtet denke ich nicht, dass sowas da rein kommen könnte.
Wie viele Nutzer vermissen denn eine Sprach Ki auf einer Spielekonsole?
Was kostet die Entwicklung so einer Technik?
Das wäre für mich schon unterm Strich der Moment, wo ich es sein lassen würde.
Gegen Amazon und Google kommt man nicht an. Dass sie eine der beiden einbauen würde ich eher verstehen, aber dafür ist Sony vermutlich zu stolz.

Eine Nintendo Switch verkauft sich sogar ohne Browser... also... von daher wäre der Fokus auf Spielekonsole vermutlich aktuell das beste. Aber was in zwei Jahren sein wird, das weiß auch nun niemand.
Sowas wäre aber, wie bei der XBox auch, komplett am Kunden vorbei entwickelt. Nicht umsonst disst Sony Microsoft jedes mal, wenn es "For the Players" heißt.

Warum muss eine Spielekonsole sowas überhaupt haben, wenn der Fernseher es schon kann? Der ist zumindest länger an, als eben eine Konsole.

StefanV
2018-05-29, 09:58:06
Es hängt auch davon ab, wer das macht und für was du das Gerät kaufst.

Ein Alexa holst du dir ja gerade für den Zweck, eine Konsole nicht.
Auch ist die Kundschaft eine ganz andere...

Daher wenn, dann höchstens als App im Store zum runterladen (hoffe ich)...


Eine Nintendo Switch verkauft sich sogar ohne Browser...
Ja, wobei die Browser auch der Punkt sind, an dem die aktuellen Systeme gehackt werden.
Das ist der Eintrittspunkt, sowohl bei Playstation 3 als auch 4 und insbesondere der WiiU...

Korfox
2018-05-29, 10:48:00
Ja, wobei die Browser auch der Punkt sind, an dem die aktuellen Systeme gehackt werden.
Das ist der Eintrittspunkt, sowohl bei Playstation 3 als auch 4 und insbesondere der WiiU...
Hmm - und wenn man keinen "hackbaren Browser, den man patchen kann" mitliefert wird die Hardware angegriffen und man steht unpatchbar da - wie aktuell eben bei der Switch, wenn mich nicht alles täuscht.

][immy
2018-05-29, 11:04:11
Hmm - und wenn man keinen "hackbaren Browser, den man patchen kann" mitliefert wird die Hardware angegriffen und man steht unpatchbar da - wie aktuell eben bei der Switch, wenn mich nicht alles täuscht.
Unhackbar ist halt nichts. Aber soweit ich weiß ist bisher die xb1 die einzige Konsole am Markt die noch nicht gehackt wurde, trotz Browsers.
MS wird wohl nicht noch einmal den Fehler machen auf die Publisher zu hören bezüglich der DRM Strategie. Es war ja ein ganz anderer Digitaler Handel geplant, aber letztlich kam das ja nicht gut an weshalb man ja eine 180° Wende vollzogen hat. Gepushed wurden diese Ideen aber von den Publishern um den Gebraucht-spiele-Handel einzuschränken.


Aber wäre schon gut wenn die Konsolenhersteller ihre Ressourcen komplett auf die Spiele ausrichten würden und nicht unnötige Hardware im Chip verbauen die für Sonderfunktionen sind. Z.B. befinden sich ja immer noch extra Ressourcen für Kinect in der xb1 die wohl zu 99% ungenutzt sind da sie nur für die Spracherkennung verwendet werden.
Will gar nicht wissen wie viel Zeit und Ressourcen da rein geflossen sind. Und mal ehrlich, die Bewegungssteuerung ist eine Sache und macht bei einigen wenigen Spielkonzepten durchaus sinn hätte aber von Anfang an opitonal sein müssen, aber Sprachsteuerung find ich sowas von bescheuert in Spielen. Ich stell mich doch nicht ins Wohnzimmer und rufe z.B. in Ryse irgendwelche komischen Angriffsbefehle. Das mag zwar vom Spiel aus realistischer sein, aber ich komme mir dabei saudumm vor.

xyleph
2018-05-29, 13:27:47
Was meinst du mit der X360?? Dass M$ die ersten waren, die CPU und GPU integriert haben, während Sony das anscheinend nicht konnte (vermutlich dank nV, aber auch wg. der zwei Speicher Pools), dass M$ damals die bessere Hardware hatte und Sony die HW total verkackt hat?



Sony konnte das schon mit der PS2 ^^

mboeller
2018-05-29, 14:02:47
Sony konnte das schon mit der PS2 ^^

das waren doch 2 chips, einmal EE (CPU) und einmal GS ("GPU"). Der GS hatte auch noch den Framebuffer integriert.

Ok, hab noch mal nachgeschaut. die PS2 Slimeline V14 mit integriertem EE+GS kam knapp (!) vor der XBox360 auf den Markt. ...

Ganon
2018-05-29, 14:16:04
Wird jetzt gerade debattiert wer die erste APU hatte oder wer das erste UMA-System hatte?

mboeller
2018-05-29, 14:53:57
Wird jetzt gerade debattiert wer die erste APU hatte oder wer das erste UMA-System hatte?

stimmt... irgendwie hatte ich im Kopf das die XBox360 eine APU hatte... UPPS :freak:

gravitationsfeld
2018-05-30, 01:06:14
Ob die Anzahl der Cores pro CCX zukünftig signifikant steigt ist IMO auch fraglich. Auch ein Stück weit unabhängig vom Shrink. Innerhalb eines CCX nimmt der Aufwand der Verbindung der Cores und des L3s zueinander ansonsten nicht-linear zu. Die Frage ist, ob das nicht irgendwann nicht nur zu einer Steigerung der Kernfläche führt, sondern auch stärkere Latenzen bedeutet. AMD wird die CCX Größe sicherlich nicht unüberlegt auf 4C ausgelegt haben. Ich gehe davon aus, dass das noch eine Weile so bleibt und wenn sie wächst, nicht gleich auf Faktor 2.
Meh. Intel hat gar keine CCX und skaliert bis zu 32 Kernen mit nem Mesh. Das ist viel wahrscheinlicher als deine 16MB L3-Cache / 4 Kerne.

robbitop
2018-05-30, 09:06:11
Mesh ist das Pendant zur IF. Mehr CCX pro die sind dank IF kein großes Problem. Mehr Cores pro CCX wird eben schwieriger.

Ganon
2018-05-30, 10:43:17
stimmt... irgendwie hatte ich im Kopf das die XBox360 eine APU hatte... UPPS :freak:

Entscheidend ist ja auch eher wie der Speicherzugriff stattfindet und nicht, wo die Chips sitzen. So haben auf den ersten Blick das Nintendo 64 und die XBOX360 ein ähnliches Layout. Der "Grafikchip" kontrolliert allen Speicher und die CPU hängt irgendwo daneben. Jedoch ist die Art und Weise wie auf den Speicher zugegriffen wird schon stark verschieden.

gravitationsfeld
2018-05-30, 21:17:45
Mesh ist das Pendant zur IF. Mehr CCX pro die sind dank IF kein großes Problem. Mehr Cores pro CCX wird eben schwieriger.
Nein. Das Mesh ist das Equivalent zu dem Interconnect innerhalb eines CCX. Es gibt keinen zweiten Layer wie bei AMD.

Sorry, aber das ist einfach Bloedsinn. Es gibt genuegend Chips, die keine Gruppierung von Cores haben oder einen zweite Interconnect brauchen um ueber mehr als 4 Kernen zu skalieren. Natuerlich hat man zu weiter entfernten Cores mehr Latenz, das ist innerhalb des CCX aber auch schon der Fall.

AMD hat den Weg gewaehlt, weil es weniger Geld kostet das CCX einmal zu designen und dann auf dem Die zu wiederholen, das hat nichts mit technischen Gruenden zu tun.

Die CCX-Groesse richtet sich demzufolge nach dem Die mit dem geringsten Core-Count. In 7nm ist das wahrscheinlich 8 und nicht 4.

robbitop
2018-05-31, 08:45:58
Ich hatte gelesen, dass innerhalb eines ccx jeder Core direkt mit jedem verbunden ist. Beim sklx Mesh hingegen muss die Kommunikation dann doch über mehrere Hops.
Der Punkt ist, dass Skalierbarkeit offenbar erhöhte Latenz bedeutet. Die ist beim Mesh vergleichsweise hoch. Innerhalb eines ccx ist sie vergleichsweise gering. Steigert man nun die Cores pro ccx, ist anzunehmen, dass man die Latenz verschlechtert. Für mich sehen die ccx nach einem Kompromiss aus, um wenigstens zwischen 4C geringe Latenzen zu haben und via IF dann mit höherer Latenz beliebig skalieren zu können.

Latenzen:
SKL-X: 100 ns
Summit Ridge: intra ccx: 40 ns, extra ccx 140 ns
https://www.pcper.com/reviews/Processors/Intel-Core-i9-7900X-10-core-Skylake-X-Processor-Review/Thread-Thread-Latency-and-

Das betrifft auch die LLC Latenz.

vinacis_vivids
2018-05-31, 10:41:13
Über die intra CCX Latenz würde ich mir keine Sorgen machen. Wieso soll die Latenz sich verschlechtern von 4C auf 8C? Die Abstände unter 7nm werden kleiner, die Wege kürzer, ergo die Latenzen besser.
Inter CCX ist dann eher der Flaschenhals wenn zu große Datenblöcke bewegt werden müssen, liegt aber am victim cache (L3).

robbitop
2018-05-31, 14:47:58
Warum das so ist, weiß ich nicht. Aber es ist zu beobachten, dass Latenz und Skalierbarkeit diametral zu wirken scheinen. Auch relativ unabhängig von Shrinks. Bereits Nehalem hatte in 45 nm 4C am Ringbus bzw mit Gulftown @32nm 6C am Ringbus. Das hat sich bis zu CFL mit 14nm nicht verbessert. Ganz grundlos sind es bei HSW-E und BDW-E nicht 2x Ringbusse und bei SKL-X und Cascadelake nicht ein Mesh mit relativ hohen Latenzen. Die Umstrukturierung des Cachesystems spricht für das Indiz. Da die L3 Zugriffe im Mesh so langsam zu sein scheinen, hat man nicht grundlos die L2 Caches deutlich größer gemacht.

Von daher die Vermutung, dass AMD mit CCX+IF hier einen Mittelweg gewählt hat, um L3 Latenz und Intracorelatenz trotzdem schnell zu machen. Skalierung erfolgt dann über IF mit größerer Latenz.

Ich gehe aus diesen Beobachtung folgend davon aus, dass man diesen Vorteil mit der Vergrößerung der Anzahl der Cores pro CCX wieder verringern würde.

Wenn das am Ende doch nicht so kommen würde, wäre ich nicht traurig (wäre ja für alle gut) - aber nach aktuellen Indizien liegt obige Vermutung nah.

gravitationsfeld
2018-05-31, 21:42:08
Ich hatte gelesen, dass innerhalb eines ccx jeder Core direkt mit jedem verbunden ist. Beim sklx Mesh hingegen muss die Kommunikation dann doch über mehrere Hops.
Der Punkt ist, dass Skalierbarkeit offenbar erhöhte Latenz bedeutet. Die ist beim Mesh vergleichsweise hoch. Innerhalb eines ccx ist sie vergleichsweise gering. Steigert man nun die Cores pro ccx, ist anzunehmen, dass man die Latenz verschlechtert. Für mich sehen die ccx nach einem Kompromiss aus, um wenigstens zwischen 4C geringe Latenzen zu haben und via IF dann mit höherer Latenz beliebig skalieren zu können.

Latenzen:
SKL-X: 100 ns
Summit Ridge: intra ccx: 40 ns, extra ccx 140 ns
https://www.pcper.com/reviews/Processors/Intel-Core-i9-7900X-10-core-Skylake-X-Processor-Review/Thread-Thread-Latency-and-

Das betrifft auch die LLC Latenz.
Das ist nur ein Nebeneffekt. Du kannst bei PC-Programmen sowieso nicht davon ausgehen, dass Threads auf Kernen bleiben, da springt alles andauernd hin und her. Im Durchschnitt ist da Ryzen auch nicht besser, tendenziell eher schlechter.

robbitop
2018-05-31, 21:50:21
Ich hätte angenommen, dass eine gewisse Affiniät vom Sheduler oder vom Entwickler vorgegeben wird für die Haupt-Threads und somit für zumindest einen Löwenanteil der Kommunikation. Weiternhin hat jeder Core schnellen L3 Zugriff (da im eigenen ccx) - bei SklX ist dieser immer vergleichsweise langsam. Cache Latency ist sicherlich nicht unwichtig, oder?

gravitationsfeld
2018-06-01, 01:13:57
Der Scheduler weiss ja nichts darueber welche Threads welche Daten benutzen. Spiele haben ausserdem oft Job-Systems und schieben den Workload sowieso random auf den naechsten freien Thread.

vinacis_vivids
2018-06-01, 05:40:59
Die Daten werden überwiegend auf dem schnellsten Thread(niedrigste Latenz) verschoben und leider nicht auf dem mit der wenigsten Auslastung. Da Intel die niedrigeren Spitzenlatenzen hat, sind sie in Games was max. fps angeht noch schneller. 5,0Ghz vs 4,3Ghz

Die min. fps aber sind von den etwas langsameren Threads abhängig. Der Takt unterschied ist hier geringer, und AMD mit Zen+ sehr nah dran: 4,1Ghz+

Der verbesserte Cache (mehr Transistoren) hilft extrem beim Verschieben(read,copy,del,write) und ist daher dem größten IPC Gewinn in Games zuzuschreiben. Die Cores an sich waren schon grundsätzlich schnell und bestens ausgelastet (SMT). Die IF-CLK domain wurde zudem angehoben und bewirkt bessere Cache-Latenz. Aber auch hier liegt AMD mit dem IMC etwas zurück (Bandbreite pro channel). DDR4-3600 vs DDR4-4200.

drkohler
2018-06-01, 09:01:32
Kann mal Einer ganz unauffällig den Threadtitel wieder ins Spiel bringen? Das artet irgend wie aus im Moment...

tobor
2018-06-02, 14:00:50
Sony sollte naechstes jahr die basis ps5 rausbringen mit bis zu 8tflops und sollte Microsoft noch bock auf eine weitere peinigung haben, schmeisst Sony die ps5 pro rau.

Man haette dann das aktuelle szenario gespieglt (pro vs xbx) zu gunsten von Sony. Weitere 3 jahre mit der ollen basis PS4, das will keiner mehr.

Egal ob 10 oder 7nm bei der amateur ps5. Evtl. wurden deswegen ein paar Blockbuster auf 2019 verschoben.

Die Einstiegskonsole ist immer der kleinste gemeinsame Nenner für Spielentwickler und 8 tflops wären lächerlich,gerade mal das doppelte der Ps4 pro.

IC3M@N FX
2018-06-02, 20:54:10
Ergibt kein sinn die PS4 Pro ist gerade mal 1 1/2 Jahre alt, eher wird sie die neue Leadplattform in den nächsten 2-3 Jahren....
Die Auflösung und Grafik Qualität wird dann soweit runtergeschraubt bis es bei der Standart PS4 passt.
Daher finde ich es okay wenn die meisten neuen Titel 720-900p + Upscaler und ein bisschen niedrigere Details bekommen, anstatt 900/1080p mit überwiegend gleichen Details wie bei der PS4 Pro.
Lieber sollen die Entwickler jetzt umgekehrt entwickeln PS4 Pro--->PS4 dann kann man auch viel besser auf die PS4 Pro Hardware optimieren und würde nochmal alles aus der Kiste raus holen als Überbrückung bis zur PS5.
Bei der Xbox One sieht man das ja auch mittlerweile, die Spiele sind nicht nur niedriger aufgelöst gegenüber der One X es sieht auch viel viel schlechter aus was die Grafikqualität angeht, sogar gegenüber der Standart PS4 siehe Wolfenstein 2.
Damals zur Anfangszeit bei der PS4/Xbox One war es nur die Auflösung, jetzt ist auch die Grafik die merklich runtergeschraubt wurde zwischen den beiden Standard Konsolen.

gravitationsfeld
2018-06-02, 23:36:15
Solange man keine Exklusiv-Titel entwickeln kann, verpufft viel von der Extra-Leistung, weil man nicht die selben Assets zweimal baut.

Deswegen kommt bei der PS4 Pro / Xbox One X auch nicht viel mehr raus als Aufloesung erhoehen bei raus.

Crazy_Bon
2018-06-03, 01:24:21
Solange man keine Exklusiv-Titel entwickeln kann, verpufft viel von der Extra-Leistung, weil man nicht die selben Assets zweimal baut.

Deswegen kommt bei der PS4 Pro / Xbox One X auch nicht viel mehr raus als Aufloesung erhoehen bei raus.
Stimmt nicht, es gibt bessere Texturen, bessere Beleuchtung, bessere Schatten, bessere Effekte, höheres LoD, mehr Tessellation, stabilere Framerate.

gravitationsfeld
2018-06-03, 04:23:34
Oh mein Gott, was fuer ein Durchbruch was das Gesamtbild angeht :rolleyes:

Das ist alles in "nicht viel mehr" enthalten.

Windi
2018-06-03, 05:04:04
Die PS4 pro ist nun einmal nur ein Grafikupdate.
In vielen Bereichen ist sie kaum besser als die normale PS4.

Wenn die Spiele-Entwickler sich entscheiden die Unterstützung für die PS4 zu beenden, um endlich einmal die Zen Kerne und den größeren Speicher der PS5 zu nutzen, dann stirbt auch die PS4 pro.

Das war von Anfang an klar.

gravitationsfeld
2018-06-03, 05:25:05
Die PS4-Pro-/Xbox-One-X-Generation haette viel mehr Potential wenn es Exklusivtitel dafuer gaebe. 4.2 statt 1.2 GFLOPs Min-Spec.

Im Moment wird alles von der Xbox One zurueckgehalten. Die Assets muessen so gemacht werden, dass es auch dort noch geht & ewig kann man die Aufloesung auch nicht senken.

gnomi
2018-06-03, 08:22:06
Jo, aber das war von Vornherein klar.
Die X macht aber als Update Konsole zur One enorm Spaß.
Einfach eine toll gebaute Konsole mit 4-5x mehr GPU Power und Ultra HD Blu-Ray Support.
Bei der PS4 lohnt sich der Schritt zur Pro meines Erachtens hingegen kaum.
Die normale ist mit dem schnellen RAM, 40% mehr GPU Power und HDR Support einfach schon deutlich besser als die normale One.
Und die Pro ist jetzt nicht sonderlich leise und besser verarbeitet. Da bleibt wirklich nur die 2x fache GPU Leistung. (was natürlich ganz nett wäre, wenn die mal preislich nachgeben würde, was aber nicht passiert, da erfolgreich)

][immy
2018-06-03, 10:06:09
Die PS4-Pro-/Xbox-One-X-Generation haette viel mehr Potential wenn es Exklusivtitel dafuer gaebe. 4.2 statt 1.2 GFLOPs Min-Spec.

Im Moment wird alles von der Xbox One zurueckgehalten. Die Assets muessen so gemacht werden, dass es auch dort noch geht & ewig kann man die Aufloesung auch nicht senken.
Du vergisst vollkommen das multi titel meist auch auf dem pc erscheinen und es dort häufig auch solche hardwareanforderungen gibt (z.b. IGPU). Die arbeit wurde also schon lange erledigt.
GPU seitig lässt sich eigentlich immer leicht skalieren (siehe switch). Ob das hinterher schön aussieht ist so ne andere frage, da kommt es auch auf die Ansprüche der Nutzer an.

StefanV
2018-06-03, 13:44:47
Jo, aber das war von Vornherein klar.
Die X macht aber als Update Konsole zur One enorm Spaß.
Einfach eine toll gebaute Konsole mit 4-5x mehr GPU Power und Ultra HD Blu-Ray Support.
Bei der PS4 lohnt sich der Schritt zur Pro meines Erachtens hingegen kaum.
Ja, weil die Grund-PS4 deutlich besser als die XOne war.

Ja, aber was hätte M$ tun können?
Sie hätten die alte One absägen können - um den Unmut der Leute auf sich zu ziehen.
Oder sie hätten eine XBox One Light bringen können: halbe Grafik von der X mit weiterhin 8GiB GDDR5 und die ur-One absägen können.

Aber dann hätte man wieder den Unmut der Leute auf sich gezogen. Und um die zu beruhigen, müsste man ein Austausch Programm starten, was auch nicht schön ist...


Ist halt blöd, dass man diese Generation so dermaßen verkackt hat, durch die Wahl des falschen Speichers bzw der falschen Speicher Architektur....

Platos
2018-06-03, 13:54:11
Ist halt blöd, dass man diese Generation so dermaßen verkackt hat, durch die Wahl des falschen Speichers bzw der falschen Speicher Architektur....

Als würde der durchschnittsnutzer wissen, was da verbaut ist. die Anäfnglichen "Scherze" die sich Microsoft erlaubt hat, und dadurch den schlechten Ruf, hat die XBox zerstört. Dazu gehört z.b die Kamera und dann noch always xbox live oder wie war das nochmals?

Argo Zero
2018-06-03, 14:02:53
Mit besserem Speicher hätten sich bestimmt auch keine Studios finden lassen, die exklusive Titel produzieren wollen.
Imo könnte dieser Faktor darüber entscheiden, ob wir in Zukunft überhaupt noch eine Xbox in der Form sehen werden. Die Verschmelzung Win 10 zur Konsole spricht eigentlich dagegen.

Platos
2018-06-03, 14:06:32
Mit besserem Speicher hätten sich bestimmt auch keine Studios finden lassen, die exklusive Titel produzieren wollen.
Imo könnte dieser Faktor darüber entscheiden, ob wir in Zukunft überhaupt noch eine Xbox in der Form sehen werden. Die Verschmelzung Win 10 zur Konsole spricht eigentlich dagegen.

Und was hat die Studios vor der Xbox One dazu gebracht, dann bei der One keine Titel mehr zu produzieren? Bei der 360 war die situation ja schon ein wenig anders.

Argo Zero
2018-06-03, 14:16:57
Gute Frage. Bisher schaute es immer so aus: Microsoft kauft Studio, die guten Entwickler gehen und es kommen keine sehr guten Spiele heraus.
Sony kauft soweit ich weiß keine Studios sondern die bleiben eigenständig.
Aktuell plant MS eigene Studios aufzubauen für exklusive Titel. Ich halte die Strategie für fraglich nach den vergangenen Erfahrungen mit Studios im eigenen Haus. Womöglich ist MS einfach kein sexy arbeitgeber oder knebelt zu sehr.

=Floi=
2018-06-03, 14:20:06
was passt dir denn daran nicht?

das teil soll bei einem 200€ VK noch gewinn bringen und es ist nunmal eine konsole und kein pc.
find es ganz ok.


Womöglich ist MS einfach kein sexy arbeitgeber oder knebelt zu sehr.

schau dir AOE 1 remake an. :rolleyes:

StefanV
2018-06-03, 14:29:34
Und was hat die Studios vor der Xbox One dazu gebracht, dann bei der One keine Titel mehr zu produzieren? Bei der 360 war die situation ja schon ein wenig anders.
Verkäufe der One durch schlechte PR, hoher Preis, schlechte Hardware...

Crazy_Bon
2018-06-03, 14:54:44
Oh mein Gott, was fuer ein Durchbruch was das Gesamtbild angeht :rolleyes:

Das ist alles in "nicht viel mehr" enthalten.
Was hast du von der PS4Pro und Xbox One X erwartet? Eine neue Konsolengeneration?

megachip800
2018-06-08, 23:20:59
selten so einen mist gelesen :freak:

spiele ruckeln, weil die entwickler nicht wollen, daß sie ruckelfrei laufen und dafür lieber mit ein paar effekten mehr blenden.

tearing hat nichts mit der auflösung zu tun, sondern kommt durch rendering ohne vsync. das ist eine entscheidung keine notwendigkeit.

Du hast überhaupt nicht verstanden worauf ich hinaus wollte....warum nämlich trotz all den Hilfsfunktionen und Tricks die Spiele weiterhin technisch schlecht dargestellt werden , und das Spieleentwickler wollen das Spiele ruckeln halte ich für ein Gerücht.

Es gab sehr viele Spiele früher die mit 60 Fps liefen ohne Tearing , warum soll man das heute bei viel leistungsstärkerer Hardware als normal akzeptieren?? Wo bleibt der Fortschritt??

megachip800
2018-06-09, 00:00:38
Es wird aus heutiger Sicht NIE WIEDER eine neue Konsolengeneration geben die auf komplett neue Architektur setzt und nicht abwärtskompatibel ist (ok, bei Nintendo kann man sich da nicht 100% sicher sein). Das ist heute viel zu teuer und bringt keinerlei sinnvollen Vorteil, die Zeiten sind einfach vorbei, die Technik ist zu ausgereift für sowas. Die Herstellungsprozesse der Chips werden zu langsam besser und zu schnell teurer. Konsolen werden solange sie noch existieren weiter den Weg von PS4/4Pro bzw. XOne/OneX gehen.

Auch werden die Leistungssprünge nicht mehr so drastisch ausfallen wie noch zwischen PS1/2/3/4 Generationen. Auch nicht mehr sinnvoll machbar. CPU/GPU werden sich an der verfügbaren Hardware von nV/AMD/Intel orientieren. Speicher wird auch nur noch maßvoll steigen, sicher keine 8x oder nochmehr. 16GB in der PS5 in 2020 gut machbar und bezahlbar, mehr nur mit viel Phantasie...

Wem das nicht passt der kann entweder auf PC umsatteln oder Nintendos "Spielzeugkonsölchen" kaufen, alternativ komplett nen anderes Hobby suchen ;)

p.s. Softwareseitig sieht es genauso aus. Kein großer Multiplat-Hersteller will heute nochmal ne neue Konsole bei der er komplett von vorne anfangen muss zu entwickeln und zu optimieren. Insbesondere in Zeiten wo die großen Konzerne dazu übergehen eine hausinterne Engine zu pflegen die alle eigenen Studios benutzen...

Warum soll eine neue Architektur nur schwer programmierbar sein?? Das hängt doch auch von den Tools und Librarys ab wie gut die sind. Und Abwärtskompatibeltät brauch keiner wird kaum genutzt kostet Ressourcen. In einem Interview sagte ein Spieleentwickler das weil man sowohl die alte als neue X box berücksichtigen muss , erhöht das die Kosten. Es gibt daher kein Beweis das Vorwärts und Rückkompatibeltät innerhalb der Konsolengenerationen die Kosten senkt. Hier wird das Pferd von der falschen Seite aufgezäunt , was wirklich kosten verursacht das sind Millionenschwere Lizenzen , Namensrechte die keiner braucht, ,teure Orchester die man mit Software komplett ersetzen kann, Schauspieler fürs Motioncapturing die man nicht brauch da man menschliche Bewegungsmuster mittlerweile durch ein Algorythmus erzeugen kann etc....und totsparen ist für Unternehmen nie gut gewesen....und was die Multiplattformhersteller wollen interessiert mich nicht die Bohne , die bringen eh nur Schrott raus egal wie einfach die Hardware zu programmieren ist. Ok es gibt sicherlich auch Ausnahmen aber Konsolen werden für den Endkunden gemacht die Spieleentwickler sind der Dienstleister und nur Mittel zum Zweck aber der Zweck kann nicht die Mittel heiligen ...einfache Hardware = gute Softwarequalität ...so einfach geht die Rechnung nicht auf

][immy
2018-06-09, 00:16:53
Du hast überhaupt nicht verstanden worauf ich hinaus wollte....warum nämlich trotz all den Hilfsfunktionen und Tricks die Spiele weiterhin technisch schlecht dargestellt werden , und das Spieleentwickler wollen das Spiele ruckeln halte ich für ein Gerücht.

Im Grunde ist es aber so. Entweder ist irgendwo das ende des Budgets erreicht oder es wird halt als gut genug in den Handel entlassen. So oder so hat es meist was mit Geld zu tun.
Von daher muss man irgendwo Kompromisse machen. Entweder wird dann ein Totales Downgrade durchgeführt um es zum laufen zu bringen, oder es wird mehr oder minder so belassen weil es Spielbar genug ist oder weil schlicht und einfach Zeit & Geld fehlt.
Du wirst da draußen auch verdammt wenige Entwickler finden, die wirklich wissen wie man eine Engine optimal schreibt und anpasst. Der Rest versucht einfach ein passables Resultat hinzu bekommen. Ein Grafiker ist nicht unbedingt Engine-Spezialist und der Projektverantwortliche auch nicht unbedingt, der will nur Liefern. Daraus entstehen halt meist Kompromisse.


Vsync-Probleme und andere solcher sachen gab es im Grunde schon immer, nur ist es häufig schon aufgrund der geringeren Grafikqualität (z.B. Wabernde Texturen) von früher seltener aufgefallen. Da hat halt auch so alles gewabert und geflimmert.



Es gab sehr viele Spiele früher die mit 60 Fps liefen ohne Tearing , warum soll man das heute bei viel leistungsstärkerer Hardware als normal akzeptieren?? Wo bleibt der Fortschritt??
Nein, das ist Hoax. Ja es gab immer mal wieder 60fps Titel die super liefen, das gab es aber nicht all zu häufig. Eher im Gegenteil, es gab sehr viel häufiger Titel die mit <20fps liefen. Und jetzt bitte nicht 2D Titel mit reinmixen, da ist es sehr viel einfacher zu kontrollieren was auf dem Bildschirm ist damit die Framerate gehalten werden kann.


Warum soll eine neue Architektur nur schwer programmierbar sein?? Das hängt doch auch von den Tools und Librarys ab wie gut die sind. Und Abwärtskompatibeltät brauch keiner wird kaum genutzt kostet Ressourcen. In einem Interview sagte ein Spieleentwickler das weil man sowohl die alte als neue X box berücksichtigen muss , erhöht das die Kosten. Es gibt daher kein Beweis das Vorwärts und Rückkompatibeltät innerhalb der Konsolengenerationen die Kosten senkt. Hier wird das Pferd von der falschen Seite aufgezäunt , was wirklich kosten verursacht das sind Millionenschwere Lizenzen , Namensrechte die keiner braucht, ,teure Orchester die man mit Software komplett ersetzen kann, Schauspieler fürs Motioncapturing die man nicht brauch da man menschliche Bewegungsmuster mittlerweile durch ein Algorythmus erzeugen kann etc....und totsparen ist für Unternehmen nie gut gewesen....und was die Multiplattformhersteller wollen interessiert mich nicht die Bohne , die bringen eh nur Schrott raus egal wie einfach die Hardware zu programmieren ist. Ok es gibt sicherlich auch Ausnahmen aber Konsolen werden für den Endkunden gemacht die Spieleentwickler sind der Dienstleister und nur Mittel zum Zweck aber der Zweck kann nicht die Mittel heiligen ...einfache Hardware = gute Softwarequalität ...so einfach geht die Rechnung nicht auf
Da müsstest du z.B. MS fragen wie viel Geld die aktuell noch mit alten Titeln machen. MS geht es aktuell zum einen darum die Kundschaft zu binden ("fast alle deine alten Spiele laufen bei uns") und seinen Ruf wiederherzustellen. Letzteres kann man nicht in Zahlen fassen. MS geht es ja nicht nur darum heute alte Spiele zu verkaufen, sondern auch die Spiele von Morgen auch übermorgen noch zu verkaufen. Die Spiele werden ja nicht wirklich schlechter. Gibt so einiges das es noch Wert ist sich anzuschauen, so viele xb360 Titel die man früher nicht gespielt hat etc. Und wenn der Kunde halt erst in 3 Jahren sich das Spiel für 10€ holt kann es MS relativ egal sein, besser als gar nichts mehr mit den alten Spielen zu verdienen.

pixelguy
2018-06-11, 14:56:54
Die nächste Xbox soll nun ganz offiziell abwärtskompatibel sein: https://www.computerbase.de/2018-06/phil-spencer-e3-2018-xbox-next-gen/

StefanV
2018-06-11, 16:09:04
Die nächste Xbox soll nun ganz offiziell abwärtskompatibel sein: https://www.computerbase.de/2018-06/phil-spencer-e3-2018-xbox-next-gen/
...was bei X86 CPUs und wahrscheinlich weiterhin AMD GPUs zu erwarten wäre...
Wäre schlimm, wenn nicht...

Früher war die hardware Architektur ein Grund.
Von Mips auf obskure Power PC bei Sony mit dem obskuren Grafikprozessor in dem MIPS System und von x86 auf Power PC auf der XBox...


Aber das interessante ist doch eh der Controller. Und genau der wurde ja technisch nicht überarbeitet, der PS4 Controller bietet um Welten mehr Features als der one Controller...

Crazy_Bon
2018-06-11, 17:14:56
Aber das interessante ist doch eh der Controller. Und genau der wurde ja technisch nicht überarbeitet, der PS4 Controller bietet um Welten mehr Features als der one Controller...
Das sind der Gyrosensor, Touchpad und das farbig leuchtendes LED, aber macht das schon zu einem besseren Gamepad? Features, die kaum, spärlich in Spielen eingesetzt werden?

pixelguy
2018-06-11, 17:40:59
Das es technisch machbar ist, war ja irgendwie klar, dass sie es aber so in den Vordergrund rücken und aktiv als USP rausstellen, finde ich schon interessant.

Und ein Controller wird sich ja nicht zurückentwickeln, von daher sehe ich da auch keine Probleme.

gravitationsfeld
2018-06-11, 18:06:18
Was hast du von der PS4Pro und Xbox One X erwartet? Eine neue Konsolengeneration?
Liest du was ich schreibe oder willst du einfach nur Kontra geben? Meine Aussage war, dass die PS4-Pro/Xbox-One-X-Generation weitaus mehr Potential haette, wenn man nicht noch die Xbox One / PS4 unterstuetzen muesste.

deekey777
2018-06-11, 18:41:10
Solange man keine Exklusiv-Titel entwickeln kann, verpufft viel von der Extra-Leistung, weil man nicht die selben Assets zweimal baut.

Deswegen kommt bei der PS4 Pro / Xbox One X auch nicht viel mehr raus als Aufloesung erhoehen bei raus.
Noch vor dem Start der X hieß es (offiziell), dass es den Entwicklern freistehe, auch einen X-only Titel zu veröffentlichen. Keine Ahnng, was daraus geworden ist, aber ich kann mir nicht vorstellen, dass es sich schon lohnt.

gravitationsfeld
2018-06-11, 19:04:47
Keine Ahnng, was daraus geworden ist.
Nichts.

StefanV
2018-06-11, 20:55:00
Das sind der Gyrosensor, Touchpad und das farbig leuchtendes LED, aber macht das schon zu einem besseren Gamepad? Features, die kaum, spärlich in Spielen eingesetzt werden?
Ja, genau!
Damit könnte man neuartige Eingabemethoden implementieren.
Der Gyro wird z.B. in Infamous Second Son richtig genial umgesetzt - für das Spraying Minispiel.

Und da könnte man auch solche Gesten Steuerungen implementieren.
Zum Beispiel "Schüttel Pad zum Nachladen", macht man aber nicht, weil das PS4 Exklusiv ist und am PC der XBox Controller vorranging genutzt wird...

Aber das Touchpad finde ich am interessantesten, damit könnte man am meisten machen...

Das ist doch der Punkt:
Die Gyros waren bei der PS3 schon Standard vor 12 Jahren. Die sind also nicht neu. Auch das WiiU Pad hatte die (wobei das etwas zu hart und völlig übertrieben ist)...
Neu hinzu gekommen ist das Touchpad und das ist echt nice, leider kannst du das aktuell nicht sinnvoll als Mausersatz nutzen, in den meisten Spielen. Nur zur Eingabe von Namen. Und das funktioniert richtig gut.
Und eben auch der Share und Option Button, womit der PS4 Controller effektiv 2 Buttons mehr hat, da "Links Touchpadpressen" ja auch vorgesehen wurde...

Genau DAS hat M$ eben nicht gemacht.
Worin unterscheidet sich der XBox One Controller vom 360 Controller denn genau??
Das Design wurde verändert, das Digitalkreuz ist weniger scheiße.
Aber ansonsten?? Da gibts doch überhaupt keine Innovation für den Spieler. Es ist "same old same old".
Und wenn man gemein ist, könnte man behaupten, dass es nur ein überarbeiteter "The Duke" ist und sich seit fast 20 Jahren nichts am Controller geändert...

Die geänderte Funktechnologie und Bluetooth Unterstützung sind jetzt echt nix, was besonders revolutionierend wäre...
Das schafft nur Nintendo, wenn sie dabei nicht die Hardware total vermasseln würden und den Preis der Konsole nicht so überziehen würde, wäre das echt nicht soo verkehrt...


€dit:
Daher würde ich mir ein kleines Touchscreen Display für die nächsten Konsolen Generation wünschen.
Muss kein 7" sein, das ist völlig übertrieben. Aber so 3-5".

Tesseract
2018-06-11, 21:40:46
mit gut implementiertem gyro+touch erreicht man fast maus-präzision, siehe stream controller, aber dafür sind die konsolen und deren nutzer scheinbar zu konservativ. de facto unterscheiden sich die controller von sony und MS so gut wie garnicht.

StefanV
2018-06-11, 22:40:30
Naja, Gyro in normalen Spielen ist oft nicht wirklich toll und eher nervig.
Du musst halt erst mal den richtigen Einsatzzweck finden, der auch angenehm für den user ist.
Eine Steuerung a la Starfox Zero ist das eher nicht.

=Floi=
2018-06-11, 23:07:52
Genau DAS hat M$ eben nicht gemacht.
Worin unterscheidet sich der XBox One Controller vom 360 Controller denn genau??


Das wollte ms mit kinect machen.
Hier fand die weiterentwicklung statt. Steuerungskonzepte basierten darauf.

Tesseract
2018-06-12, 00:12:19
Naja, Gyro in normalen Spielen ist oft nicht wirklich toll und eher nervig.

optimales aiming am steam controller ist touch für die grobe richtung und gyro für feines aiming. funktioniert besser als jede andere eingabemethode mit ausnahme der maus. am touch-aktivierten gyro ist auch nix nervig wenn man gerade was anderes mit dem controller macht. die technologie ist seit jahren vorhanden, sony und MS müssten es nur einbauen. das ganze muss allerdings bei einem generationssprung für alle gleichzeitig passieren, in einem mischökosystem würde dual analog von gyro+touch kompetitiv genau so vernichtet werden wie von der maus.

][immy
2018-06-12, 09:15:58
Genau DAS hat M$ eben nicht gemacht.
Worin unterscheidet sich der XBox One Controller vom 360 Controller denn genau??
Das Design wurde verändert, das Digitalkreuz ist weniger scheiße.
Aber ansonsten??
- er liegt besser in der Hand
- Klinkenstecker für Kopfhörer
- Rumble-Funktion für jeden der einzelnen Trigger (und ja, das ist schon ziemlich nett in Rennspielen, wird aber leider nicht all zu häufig unterstützt)
- Batterien / Akkus halten eine gefühlte Ewigkeit.
- Analog-Sticks sind länger und dadurch sind präzisere eingaben möglich

Für mich war das PS3 Pad nicht nutzbar. Hier gab es eigentlich seit der PS1 stillstand, jetzt mal von der Bewegungssteuerung abgesehen die aber für Eimer war. Der PS4 Controller ist da endlich mal überhaupt ein schritt weg vom Stillstand gewesen, allerdings kann ich das Ding immer noch nicht lange in der Hand behalten, ohne das meine Hände anfangen zu schmerzen.

Btw, der xb1 controller liegt besser in der Hand als der der xb360, mag aber geschmackssache sein. Ist aber nicht ohne Grund auch sehr beliebt am PC. Da hat MS schon ziemlich viel Gehirnschmalz rein versenkt.


Die Innovation der Steuerung sollte ja mit Kinect & Sprachsteuerung kommen, wollte aber niemand. Aber vorwerfen das sie nichts in alternative Steuerungsmethoden investiert haben, kannst du ihnen nicht.
Btw, warum sollte es überhaupt neue Steuerungsmethoden geben? Die Zeit hat schon gezeigt das es hier viel quatsch gab das dann vielleicht für bestimmte Szenarien sinnvoll war, aber insgesamt schlecht.

Deswegen will man eigentlich auch keine Touch-Unterstützung. Ist zwar nett bei bestimmten Sachen insgesamt erfordert es aber "zu viel" Bewegung und das reißt einen aus dem Spiel. Das mini-touch-pad vom PS4 controller hätten man auch locker weglassen können, im vergleich zum PS Vita "pad" ist das ding eh lächerlich. Und den Akku hätte man vielleicht auch nicht fest verbauen sollen. So angenehm das auch manchmal sein darf, ärgert es einen um so mehr das man da nichts leistungsfähigeres reinstecken kann.

Grendizer
2018-06-12, 09:26:09
Ich liebe meine PS4 Pro auf Grund des Softwareangebotes, aber die 2 kleinen Tasten neben dem Touchpad sind definitv keine Verbesserung zum Dualshock 3 :biggrin:

Den Xbox Controller nutze ich am PC, aber nur weil es keine wirkliche Alternative mehr gibt und der PS4 Controller auf Grund des "Tastenmappings" ein Gehirnkrampf auslöst :biggrin:

StefanV
2018-06-12, 16:44:51
[immy;11718896']
- er liegt besser in der Hand
- Klinkenstecker für Kopfhörer
- Rumble-Funktion für jeden der einzelnen Trigger (und ja, das ist schon ziemlich nett in Rennspielen, wird aber leider nicht all zu häufig unterstützt)
- Batterien / Akkus halten eine gefühlte Ewigkeit.
- Analog-Sticks sind länger und dadurch sind präzisere eingaben möglich


Neue Verpackung, Detailverbesserung
hatte auch schon der 360, nur als bescheuerte 2,5mm Klinke
öhm, nö, nicht wirklich?! (https://www.ifixit.com/Teardown/Xbox+One+Wireless+Controller+Teardown/72986)
Detailverbesserung...
Verwendung von hochwertigeren/besseren Komponenten


Siehst was ich mein?
Es ist einfach nur ein (leicht) verbesserter 360 Controller, ohne Innovation

[immy;11718896']
Für mich war das PS3 Pad nicht nutzbar. Hier gab es eigentlich seit der PS1 stillstand, jetzt mal von der Bewegungssteuerung abgesehen die aber für Eimer war. Der PS4 Controller ist da endlich mal überhaupt ein schritt weg vom Stillstand gewesen, allerdings kann ich das Ding immer noch nicht lange in der Hand behalten, ohne das meine Hände anfangen zu schmerzen.
Was machst du nur damit?
Hälst die Pads zu fest??

Außerdem ist der Stillstand Käse.
Technisch gab es sehr wohl Innovationen zwischen den Dual Shock Controllern.
Nur das Case ist relativ gleich geblieben...
Also das Gegenteil von dem, was M$ gemacht hat -> gleiche Funktionen, bisserl erneuert...

[immy;11718896']
Btw, der xb1 controller liegt besser in der Hand als der der xb360, mag aber geschmackssache sein. Ist aber nicht ohne Grund auch sehr beliebt am PC. Da hat MS schon ziemlich viel Gehirnschmalz rein versenkt.
Same shit, different package...

Pack mal 360 Pad und XBoner Pad direkt nebenenander/übereinander.
Die Joysticks/D-Pad und Buttons sind an exakt der gleichen Position wie beim 360!

Der ist nur etwas geschrumpft. Groß sind die Unterschiede echt nicht.
Und dass da viel "Gehirnschmalz" rein geflossen ist, bezweifle ich einfach mal.

Schau dir das doch mal genauer an!


[immy;11718896']
Die Innovation der Steuerung sollte ja mit Kinect & Sprachsteuerung kommen, wollte aber niemand. Aber vorwerfen das sie nichts in alternative Steuerungsmethoden investiert haben, kannst du ihnen nicht.
Doch, kann ich sehr wohl, weil sie das Pad vernachlässigt haben und den selben Mist in neuen Krügen verpackt haben, ohne nennenswerte, für die Steuerung innovativen/besseren Innovationen.

Die WiiU war ja schon 'nen Jahr vorhanden, da hätte man sich auch mal inspirieren können.
Und die PS3 war schon 8 Jahre auf dem Markt...

[immy;11718896']
Btw, warum sollte es überhaupt neue Steuerungsmethoden geben? Die Zeit hat schon gezeigt das es hier viel quatsch gab das dann vielleicht für bestimmte Szenarien sinnvoll war, aber insgesamt schlecht.
Weil die Konsolen genau dafür da sind!
Wenn man keine neuen Eingabemethoden bringt, kann man sich die Konsolen auch gleich sparen.
Schau dir mal die Dreamcast an.
Was hatte der Controller, was heutige nicht haben?

Es gibt ja nicht soo viel, was man noch machen kann...
[immy;11718896']
Deswegen will man eigentlich auch keine Touch-Unterstützung. Ist zwar nett bei bestimmten Sachen insgesamt erfordert es aber "zu viel" Bewegung und das reißt einen aus dem Spiel.
Das ist nur deine Meinung.
Aber die WiiU hat gezeigt, dass das Touch Display von Vorteil sein kann, wenn man es sinnvoll implementiert.
Aber haben viele, warum auch immer, nicht gemacht...


[immy;11718896'] Das mini-touch-pad vom PS4 controller hätten man auch locker weglassen können, im vergleich zum PS Vita "pad" ist das ding eh lächerlich. Und den Akku hätte man vielleicht auch nicht fest verbauen sollen. So angenehm das auch manchmal sein darf, ärgert es einen um so mehr das man da nichts leistungsfähigeres reinstecken kann.
Der Akku beim PS4 Controller ist alles andere als Fest. Man hat nur leider die "Batterieklappe vergessen"
https://www.ifixit.com/Guide/DualShock+4+Battery+Replacement/22074

Das schaut nach 'nem Standard, geschützten, Lithium Ionen Pack aus.

StefanV
2018-06-12, 16:47:39
Ich liebe meine PS4 Pro auf Grund des Softwareangebotes, aber die 2 kleinen Tasten neben dem Touchpad sind definitv keine Verbesserung zum Dualshock 3 :biggrin:
Die benutzt du ja auch nicht zum zocken an der PS4.
Der Linke winzige Button ist für Screenshots/Aufnahmen. Und der Rechte ist fürs Options/Startmenü.

Zum zocken benutzt du das Touchpad - womit du effektiv 2 Buttons "über" hast.

Die beiden kleinen nutzt du hingegen als Start/Select wenn du den DS4 an der PS3 nutzt.
Das hat Sony nämlich auch implementiert...

Ganz nebenbei:
Du kannst den XBone Controller mit der PS4 Linken :D
Wird dir dann im Blauzahn Menü angezeigt, kannst logischerweise nix damit machen...

pixelguy
2018-06-13, 23:25:01
Gerüchten zufolge setzt die PS5 auf 8 Zen+ Kerne sowie Navi (ggf. als diskrete GPU mit GDDR6):
https://www.computerbase.de/2018-06/playstation-5-amd-zen-navi/

][immy
2018-06-14, 00:10:36
[LIST=1]
Neue Verpackung, Detailverbesserung
hatte auch schon der 360, nur als bescheuerte 2,5mm Klinke
öhm, nö, nicht wirklich?! (https://www.ifixit.com/Teardown/Xbox+One+Wireless+Controller+Teardown/72986)
.
Worauf soll das bezogen sein?
Natürlich haben die trigger eigene rumble motoren, hab mein pad schon selbst auseinander genommen. Spiel mal forza 5 dann merkste das auch. Bei den anderen forza teilen auch, aber bei teil 5 ist mir das bisher am stärksten aufgefallen.
Klar sind das nur detailverbesserungen. Siehst ja am playstation controller das sich nicht viel verändert hat seit der ps1. Die analogsticks waren die größte neuerung bisher, alles danach waren details. Man ändert auch nicht einfach etwas was gut funktioniert.

Btw und meine hände tun einfach weh vom normalen gebrauch des Playstation controllers. Das ding ist halt nicht all zu ergonomisch gebaut. Mit der ps4 hat sich das ein wenig gebessert aber wirklich gut ist das ding noch nicht. Sogar die switch controller liegen besser in der hand als diese. Vielleicht hab ich auch einfach nur zu große Hände ;)

gravitationsfeld
2018-06-14, 00:16:11
Gerüchten zufolge setzt die PS5 auf 8 Zen+ Kerne sowie Navi (ggf. als diskrete GPU mit GDDR6):
https://www.computerbase.de/2018-06/playstation-5-amd-zen-navi/
Wenn diskret, dann wird's so laufen wie beim Xbox-360-Design, wo die CPU ueber die GPU auf den Speicher zugreift. Mehrere Memory-Pools halte ich fuer ausgeschlossen.

Sie koennten in dem Fall einfach stinknormale 8-Core-Ryzen-Dies einsetzen und dann ueber Infinit Fabric das GPU-Die samt Speichercontroller anbinden.

Korvaun
2018-06-14, 08:06:45
ist das gut oder schlecht?

Das ist schon ok. Nur Zen+ Kerne scheinen mir etwas fraglich, denn Zen2 ist ja eigentlich intern schon fertig, die Entwicklung ist da sogar schon weiter als bei Navi. Wenn die Konsole 2020/2021 kommt sollte Zen2+Navi locker drin sein.

Das wäre dan schon ein großer Sprung zur aktuellen Generation, weit mehr als von PS4 zu PS4pro.

][immy
2018-06-14, 13:11:40
Wenn diskret, dann wird's so laufen wie beim Xbox-360-Design, wo die CPU ueber die GPU auf den Speicher zugreift. Mehrere Memory-Pools halte ich fuer ausgeschlossen.

Sie koennten in dem Fall einfach stinknormale 8-Core-Ryzen-Dies einsetzen und dann ueber Infinit Fabric das GPU-Die samt Speichercontroller anbinden.
Die Gerüchte dürften wenn dann wohl eher auf frühe Entwicklungssysteme zurückzuführen sein. Wenn überhaupt was dran ist.

das_Apo
2018-06-14, 21:53:30
Wenn diskret, dann wird's so laufen wie beim Xbox-360-Design, wo die CPU ueber die GPU auf den Speicher zugreift. Mehrere Memory-Pools halte ich fuer ausgeschlossen.

Sie koennten in dem Fall einfach stinknormale 8-Core-Ryzen-Dies einsetzen und dann ueber Infinit Fabric das GPU-Die samt Speichercontroller anbinden.

Würden sich daraus irgendwelche, nicht zu kompensierende Nachteile ggü einer APU ergeben?

Der Vorteil dürfte ja wahrscheinlich eine einfachere Fertigung sein.

gravitationsfeld
2018-06-14, 22:07:43
Nachteil waere hoehere Latenz zum Speicher fuer die CPU. Die Loesung halte ich nicht fuer so ganz abwaegig, gerade weil AMD in letzter Zeit den Weg geht mit mehreren Dies.

Ganon
2018-06-14, 22:44:50
Aus 2 Chips könnte man vermutlich auch mehr Leistung rausholen. Kann man halt unabhängig voneinander kühlen und auch ist mehr Platz da.

Da man sich die ganze 4K Geschichte ja nun selbst hoch gehyped hat, kann man ja nun nicht mit weniger ankommen. Und wenn man "NextGen Grafik" und 4K miteinander kombinieren will, dann müsste das schon eine verdammt dicke APU sein. Man sieht ja schon an der OneX, dass da schon für die Current Gen Grafik so ziemlich sämtliche Mehrleistung in die Auflösung geht. Und auch dann reicht es gerne mal nicht für echte 4K... Von daher dürften 2 Chips einfach praktischer sein.

Kann aber natürlich auch sein, dass Sony mit der PS5 andere Dinge plant.

maguumo
2018-06-14, 23:03:30
Wenn das zwei Chips werden dann doch wohl sehr nah beieinander auf dem gleichen Substrat. Unabhängig voneinander kühlen wird nichts. Ich bezweifle auch das sich das besser/ökonomischer kühlen ließe. Baut man halt den einen Kühlkörper etwas hochwertiger/größer.

Wobei ich nicht verstehe warum man das tun sollte. Das Teil wird Millionenfach produziert, da kann man auch einen Die raus basteln. Ordentlich was deaktivieren wie beim Grafikpart von PS4/XBox one und die Yields passen auch.

Ganon
2018-06-14, 23:51:57
Die XBOX 360 hatte auch 2 separate Kühlkörper (https://de.ifixit.com/Anleitung/Image/meta/BD1X4kXXJmALiSsv) und von dem Design bin ich jetzt einfach mal ausgegangen.

maguumo
2018-06-15, 00:25:51
Anfangs, irgendwann wurde das dann auch in einem Chip kombiniert.

Poook
2018-06-15, 00:31:56
Die initiale 360 hat Microsoft soviele Probleme und Kosten aus Garantierückläufern verursacht, dass ich die nicht als positives Beispiel für irgendeine Designentscheidung aufführen würde.

drkohler
2018-06-15, 01:37:31
Gerüchten zufolge setzt die PS5 auf 8 Zen+ Kerne sowie Navi (ggf. als diskrete GPU mit GDDR6):
https://www.computerbase.de/2018-06/playstation-5-amd-zen-navi/Das amerikanische Originalgerücht behauptet sogar, dass Navi eine Entwicklung von Sony und AMD ist....
Schaun mer mal was dann wirklich kommt...

gravitationsfeld
2018-06-15, 06:54:06
Aus 2 Chips könnte man vermutlich auch mehr Leistung rausholen. Kann man halt unabhängig voneinander kühlen und auch ist mehr Platz da.
Wir reden von einem Interposer mit minimalem Abstand. Was anderes ist aus Latenz- und Bandbreiten-Gruenden unwahrscheinlich.

Daredevil
2018-06-15, 08:19:16
Das amerikanische Originalgerücht behauptet sogar, dass Navi eine Entwicklung von Sony und AMD ist....
Schaun mer mal was dann wirklich kommt...
Das würde natürlich Sinn machen, wenn es Sony exklusiv ist, weil man sich so stark von der XBox abheben kann, solange man nichts von der Stange nimmt und der Konkurrent einfach das gleiche verbaut.
Wenn Sony als "Antrieb" dafür Geld in die Hand nimmt und es exklusiv verbaut und AMD damit noch Mid End Karten auf den Markt schmeißen kann, sehe ich da nur ein Win-Win. :D

Vielleicht würde Microsoft ja dann die beleidigte Leberwurst spielen und mit Nvidia ins Bett springen. :D

mboeller
2018-06-15, 08:22:32
Wir reden von einem Interposer mit minimalem Abstand. Was anderes ist aus Latenz- und Bandbreiten-Gruenden unwahrscheinlich.

die CPU hat doch eigene Caches. Wo ist da das Problem? Hat doch bei der XBox und XBox360 auch funktioniert.

Gipsel
2018-06-15, 08:59:02
die CPU hat doch eigene Caches. Wo ist da das Problem? Hat doch bei der XBox und XBox360 auch funktioniert.
Die hatten wenige GB/s Bandbreite zwischen CPU und GPU. Damit brauchst Du heute nicht mehr ankommen.
Gravitationsfeld sieht das schon richtig: Falls das überhaupt getrennte Chips werden, dann werden die aller Wahrscheinlichkeit nach sehr nahe beieinander sitzen.

Ganon
2018-06-15, 09:04:01
Die initiale 360 hat Microsoft soviele Probleme und Kosten aus Garantierückläufern verursacht, dass ich die nicht als positives Beispiel für irgendeine Designentscheidung aufführen würde.

Na was heißt "positives Beispiel"... es ist halt eines der vielen Designs was man halt zwischen "NUMA PC" und "UMA APU" wählen kann. Letztendlich schiebt man einen Regler zwischen "Hohe Komponentenleistung, schlechter Interconnect" und "geringe Komponentenleistung, guter Interconnect" hin und her. Hat halt alles seine Vor- und Nachteile. Darüber liegt halt eine große Preis/Leistungsschranke.

Die Qualitätsprobleme der 360 hatten ja nichts mit dem Chip-Layout zu tun. Es war einfach schlechte QA und (zu) billige Fertigung. Darum haben sich dann letztendlich Komponenten selbst ausgelötet.

HOT
2018-06-15, 09:04:17
Die machen doch keine 2 Chips :freak: wer kommt denn auf so ne dämliche Idee.
Das wird weiterhin ein SoC mit auf 7nm geshrinkten Zen+ und halbiertem L3$ zusammen mit 56CUs auf einem 350mm² Die sein, das mit HBM gepaart wird.

THEaaron
2018-06-15, 09:05:31
Bei dem Speicherbedarf der kommenden Generation kann ich mir HBM preislich einfach nicht vorstellen.

HOT
2018-06-15, 09:14:43
Hallo? Da kann man doch keine Maßstäbe von Heute anlegen :freak:.

THEaaron
2018-06-15, 09:17:39
Der Speicher ist trotzdem 'ne ganze Ecke teurer als GDDR6 im Vergleich. Vielleicht wenn man von einem Startpreis von 499$ ausgeht, aber ich glaube Sony versucht wieder bei 399$ zu landen.

HOT
2018-06-15, 09:24:10
In 2021 nicht mehr.

Ganon
2018-06-15, 09:42:50
Die hatten wenige GB/s Bandbreite zwischen CPU und GPU. Damit brauchst Du heute nicht mehr ankommen.

Also nicht falsch verstehen, ich behaupte nicht, dass die PS5 so aussehen wird wie die 360, aber nach der Logik dürfte der PC so überhaupt nicht mehr konkurrenzfähig sein. Schon die 360 hatte eine höhere CPU <> GPU Bandbreite als PCIe 3.0 16x und auch PCIe 4.0 wird daran nicht so dramatisch viel ändern. Von CPU <> DDR4 RAM ganz zu schweigen.

Gipsel
2018-06-15, 09:51:03
Also nicht falsch verstehen, ich behaupte nicht, dass die PS5 so aussehen wird wie die 360, aber nach der Logik dürfte der PC so überhaupt nicht mehr konkurrenzfähig sein. Schon die 360 hatte eine höhere CPU <> GPU Bandbreite als PCIe 3.0 16x und auch PCIe 4.0 wird daran nicht so dramatisch viel ändern. Von CPU <> DDR4 RAM ganz zu schweigen.Die 360 hat 10GB/s zwischen CPU<=>GPU (an der der Speichercontroller für 22GB/s DDR3 hing). Also nein.
Und einen gemeinsamen Speicherpool macht man nicht mit PCIe-x16 Bandbreiten, da willst Du heute eine breitere Anbindung als bei der XB360.

DinosaurusRex
2018-06-15, 09:52:58
Wenn Sony das iterative Modell weiter verfolgt, was mit ziemlich großer Wahrscheinlichkeit auch passieren wird, dann ist ein MCM mit Interposer auf lange Sicht der beste Weg: Für eine PS5 Pro klatscht man dann zwei PS5 GPUs neben die CPU, anstatt eine komplett neue APU zu designen. Ein weiterer Vorteil: Ein MCM erlaubt höhere Taktraten als ein monolithisches Design. Ich denke wir werden erstmals einen Paradigmenwechsel hin zu kleinen GPU Bausteinen mit für Konsolenverhältnissen hohen Taktraten erleben.

Ein iteratives Modell spricht auch für HBM: Bei GDDR6 müsste man für eine Pro das Interface verbreitern (teuer) oder den RAM Takt erhöhen (Abwärme). Mit HBM genügt es, mehr RAM Stacks zu verbauen.

mboeller
2018-06-15, 10:31:57
Die hatten wenige GB/s Bandbreite zwischen CPU und GPU. Damit brauchst Du heute nicht mehr ankommen.
Gravitationsfeld sieht das schon richtig: Falls das überhaupt getrennte Chips werden, dann werden die aller Wahrscheinlichkeit nach sehr nahe beieinander sitzen.

Infinity Fabric?

https://www.anandtech.com/show/11551/amds-future-in-servers-new-7000-series-cpus-launched-and-epyc-analysis/2

42GB/sec bi-dir Bandbreite (ein CPU-Sockel mit bis zu 4 Dies) oder 37,9GB/sec zw. den CPU-Sockeln

basix
2018-06-15, 12:39:50
Infinity Fabric?

https://www.anandtech.com/show/11551/amds-future-in-servers-new-7000-series-cpus-launched-and-epyc-analysis/2

42GB/sec bi-dir Bandbreite (ein CPU-Sockel mit bis zu 4 Dies) oder 37,9GB/sec zw. den CPU-Sockeln

Das ist aber nicht viel. Wenn dann müsste man mehrere IF Links aggregieren.

mboeller
2018-06-15, 12:47:33
Das ist aber nicht viel. Wenn dann müsste man mehrere IF Links aggregieren.

Wieso? Für die CPU sollte das doch reichen. Reicht bei AMD ja auch für Server CPU's

drkohler
2018-06-15, 14:58:20
In 2021 nicht mehr.Wenn du 2021 eine Konsole in Massenauflage herausgeben willst, dann musst du spätestens 2019 deinen Speicher bestellt haben. Da kann jetzt jeder seine Wünschelrute hervorholen und das Erdmagnetfeld absuchen. Offenbar weiss momentan Keiner, was wo wann wie und warum mit Speicherpreisen. Wohl zur Zeit kein schöner Zeitpunkt, ein Konsolendesign zu finalisieren...

Grendizer
2018-06-15, 15:38:40
Wenn du 2021 eine Konsole in Massenauflage herausgeben willst, dann musst du spätestens 2019 deinen Speicher bestellt haben. Da kann jetzt jeder seine Wünschelrute hervorholen und das Erdmagnetfeld absuchen. Offenbar weiss momentan Keiner, was wo wann wie und warum mit Speicherpreisen. Wohl zur Zeit kein schöner Zeitpunkt, ein Konsolendesign zu finalisieren...

nö... die PS4 hat kurz vor Schluss noch 8 Gb bekommen. Geplant waren ursprünglich nur 4 Gb.

Windi
2018-06-15, 15:59:48
Die internen Speicherzellen der verschiedenen Speichersorten sind eh alle sehr ähnlich (oder gar gleich), da wird halt immer nur ein unterschiedliches Speicherinterface dran gepappt.
Ich gehe stark davon aus, das die verschiedenen Speichersorten in der Herstellung fast das gleiche kosten.
Neue Sachen müssen halt erst noch die Forschungs- und Entwicklungskosten wieder hereinspielen.

Bei den Kosten können aber Sony und Microsoft noch verhandeln. Hbm in den neuen Konsolen könnte also doch noch kommen.

Jetzt gibt es hier noch 2 Besonderheiten:
Zum einen ist man bei Hbm auf einen Interposer angewiesen. Wenn der zu teuer ist, kann man das ganze schon wieder vergessen.
Zum anderen werden gerade massiv die Fertigungskapazitäten für Speicher ausgebaut (dank China). Das bringt MS und Sony dann wieder in eine bessere Verhandlungsposition.

drkohler
2018-06-15, 17:31:49
nö... die PS4 hat kurz vor Schluss noch 8 Gb bekommen. Geplant waren ursprünglich nur 4 Gb.Der Mythos stirbt wohl nie.
Das Geniale an der Sache war, dass Sony Alle, speziell die Hauptkonkurrenz, bis zum Schluss über den Speicher täuschen konnte.
Und ja, Speicherchips und sonstiges Chipgemüse wird 2-3 Jahre im Voraus bestellt. Nur so bekommst du billigste Preise, und bei Konsolen zählt der Preis und nur der Preis. Jeder $ gespart heisst $100Mio gespart, und da hört jede Freundschaft auf.

Deinorius
2018-06-15, 17:51:33
Jetzt hab ich nach einer gewissen Zeit wieder alles nachgelesen. Dazu ein paar Punkte.

Wieviele Cores die nächste Generation verwenden wird, hängt wohl primär davon ab, ob AMD die Anzahl der Kerne pro CCX erhöhen oder belassen wird. Mal sehen, wie recht robbitop mit seinen Aussagen dazu hat, klingt für mich sehr plausibel.
Sollten es 4C/CCX bleiben, kann es nur ein 8C-Design werden. Ich will mir ehrlich gesagt, keine 4C/8T Konsole im Jahre 2021 vorstellen, auch wenn diese Zen 4C/8T deutlich (deutlich!) mehr Leistung bieten als 8C mit Jaguar. :ugly: Das Gleiche gilt natürlich für 8C/CCX. Wenn es aber 6C/CCX werden, ist es wahrscheinlicher, dass diese Konsole "nur" 6C/12T bekommt, damit wäre ich aber immer noch einverstanden.
Ich glaube, wir werden die Anzahl nächstes Jahr mit Zen 2 mit hoher Wahrscheinlichkeit erraten können. Sollte Zen 2 in die Konsole kommen, können wir das dann auf die Konsole extrapolieren. Wird es nicht Zen 2, dann können es nur 8C/16T werden, oder zumindest hoffe ich es. ^^" Zen 2 wäre mir grundsätzlich lieber, aber Zen+ ist ja auch schon ein gewaltiger Schritt und keiner weiß, wieviel mehr Leistung Zen 2 bringen wird.

Bezüglich dieser Anpassbarkeit einer Konsole, wie von IC3M@N FX (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11703042#post11703042) angesprochen (auch wenn ich es sehr interessant finde), halte ich nicht allzu viel. Also gerade nur den teuren Teil austauschen zu können ist zwar nicht uninteressant, aber nicht der Mühe wert, besonders aus Mainstream-Sicht nicht. Ich glaube auch nicht, dass es der Produktionseffizienz überhaupt etwas bringen würde.
Dazu kommt noch, dass Netzteil und Kühlung an die jeweilige Konsole angepasst ist, wenn da jetzt ein gewisser Standard entsteht, der etwas in eine Richtung begrenzt, wird es bei der Entwicklung schwierig. Die PS4 Pro ist immerhin tiefer als die normale und verbraucht ungefähr gleich viel Strom.
Ich selber frage mich vielmehr, ob in Zukunft nicht sogar eine Variante ohne BD-Laufwerk rauskommen könnte. Wer nur digital kauft, könnte eine etwas günstigere Konsole erhalten. Nachteil dabei, und das ist dann auch der Grund, warum es nicht kommen dürfte, ist die extra Konzeption der Kühlung und überhaupt des gesamten Gehäuses. Man müsste dann auf einmal zwei Geräte entwickeln. Soviel kostet das Laufwerk nicht, als dass Sony/MS das tun würden. Ich könnte mir höchstens eine Variante vorstellen, wo das Laufwerk einfach draufgesteckt werden kann, wenn es das Gehäusedesign zulässt. Ohne Laufwerk wäre dann eine Schablone drauf, damit es nicht bescheuert aussieht.

Bezüglich Laufwerk stelle ich mir schon die Frage, ob die übernächste Generation nicht sogar von Disc-Speicher auf Flash-Speicher für Spiele umsteigen würde. Derzeit wirkt das völlig sinnfrei. Bei mobilen Konsolen geht es natürlich nicht anders, aber da sieht man schon, dass es nicht unmöglich ist.
In einigen Jahren dürfte selbst QLC-Flash so günstig sein, dass die Kosten überschaubar höher wären als bei einer BD-XL, welches ich als Standardformat schon für die kommende Generation erwarte. Die Daten werden nicht weniger, außer man verwendet die selbe Strategie wie gewisse Switch-Spiele. Der Großteil des Spieles ist auf der Cartridge, der Rest wird über Internet runtergeladen, so dann auch mittels BD. Das ginge auch, solange man das Spiel sofort starten kann und das muss ja auch erstmal auf die HDD installiert werden.
Mit einer Cartridge wäre das in Zukunft wieder interessant. Ich spekuliere hier nur. Sofern die Kosten in Ordnung gingen, könnte man die Spiele auch direkt von der Cartridge starten. Die Lesegeschwindigkeiten wären hoch genug und die Zugriffszeiten erst recht. Um Abnutzung muss man sich keine Gedanken machen, da davon nur gelesen wird. Das Konsolengehäuse kann völlig anders designt werden und es wäre an sich mehr Platz für Kühlung vorhanden.
Vorteil für die Cartridge wäre immerhin, dass diese deutlich besser skalieren. Spiele werden auch immer größer und das wäre mit Cartridges IMO besser zu realisieren als mit der BD-XL, welches max. 128 GB speichern kann, deutlich langsamer zum Laden/Installieren von Spielen ist. Für die jetzige Generation ist das absolut nichts, keine Frage, aber für die übernächste wäre dieser Gedanke nicht uninteressant.
Und ich stelle es mir leiwander vor, eine CompactFlash-große Cartridge in eine Konsole zu schieben als eine BD. :biggrin: (Oder draufstecken! :eek:)


Falls eine übernächste Generation überhaupt kommt! Bei dieser Frage bin ich mir derzeit ehrlich gesagt nicht allzu sicher. Wir können jetzt schwer abschätzen, wie sich der Markt in einem knappen Jahrzehnt entwickelt. Es hat sich auf jeden Fall die letzten 10 Jahre genug getan. Ich hoffe es nicht, aber man kann ja nicht wissen.

Eine andere Sache, die vielleicht drkohler beantworten könnte. Es wurde ja schon die Konzeption von zwei DIEs statt einem monolithischem SoC angemerkt. Ich habe mir auch schon gedacht, es wäre immer noch günstiger einen z.B. 150 mm² CPU-DIE und einen 220-250 mm² GPU-DIE herzustellen, als einen insgesamt kleineren 350 mm² SoC. Man kann zwar einen Redundanz mit extra Shader einplanen, aber diese wirkt ja nur bei den Shadern. Bei der ersten Variante ist die Aufsplittung die Redundanz.
Der GPU-DIE ist der primäre Chip an sich, von wo die gesamte Kommunikation hin und her läuft. Der CPU-DIE ist per IF an den anderen angeschlossen, wofür genügend Bandbreite für die Cores gegeben sein müsste. Beide liegen natürlich auf dem selben Package. Zu einfach gedacht?

IC3M@N FX
2018-06-15, 18:11:36
Die Upgradebare Konsole aus meinen Theorien bzw. Skizzen wäre an sich kostengünstiger für alle Beteiligten.
Weil du ja nur einen Hub behälst beim Upgrade für I/O, in den Hub sind dann Komponenten wie Blueray UHD Laufwerk, Festplatte, WLAN, USB Schnittstellen, Festplatte und ein bisschen Sensoren und zusätzliche Elektronik.

Der Core Upgrade System hat dann die sensiblen Teile wie CPU/GPU, Arbeitsspeicher, Netzteil, HDMI Schnittstellen usw.
Dann zahlst du halt für die PS5 Pro anstatt 400-500€ vielleicht nur 200-300€.....

Was die Speichermedien anbelangt, es wird weiterhin ein Medium sein mit Format einer CD.
Es ist einfach am günstigsten und viel Speicher in einer CD.

Gipsel
2018-06-15, 19:21:29
Infinity Fabric?

https://www.anandtech.com/show/11551/amds-future-in-servers-new-7000-series-cpus-launched-and-epyc-analysis/2

42GB/sec bi-dir Bandbreite (ein CPU-Sockel mit bis zu 4 Dies) oder 37,9GB/sec zw. den CPU-SockelnUnd? Die bidirektionelle Bandbreite darfst Du gleich mal durch 2 teilen, um die maximale Lese- oder Schreibrate zu erhalten. Und die 4 Dies bei Epyc sitzen ja sehr dicht zusammen auf dem selben package (also das wahrscheinliche Szenario, falls überhaupt 2 getrennte Dies kommen). Die Verbindung zwischen Sockeln auf den Serverboards ist dagegen aufwendig (teuer) in Bezug der Verdrahtung des Mainboards (benötigt mehr Layer) und kostet zudem nicht unbeträchtlich Strom. Beides will man in Konsolen nicht haben. Mal ganz abgesehen von der Performance-Penalty durch solche Späße.

basix
2018-06-15, 19:51:40
Zwei getrennte Chips wird man nur machen, wenn man dadurch gut Kosten und/oder Risiko verringern kann, ohne dadurch zu grosse anderweitige Nachteile zu haben. Momentan sehe ich den Kostenvorteil nicht, wenn der CPU Teil wahrscheinlich wesentlich kleiner als 100mm2 werden wird (2x 4C CCX wie auf Zen+ nehmen in 7nm etwa 40mm2 ein). Selbst wenn es 12C werden sollten.

Deinorius
2018-06-16, 00:07:14
Die Upgradebare Konsole aus meinen Theorien bzw. Skizzen wäre an sich kostengünstiger für alle Beteiligten.
Weil du ja nur einen Hub behälst beim Upgrade für I/O, in den Hub sind dann Komponenten wie Blueray UHD Laufwerk, Festplatte, WLAN, USB Schnittstellen, Festplatte und ein bisschen Sensoren und zusätzliche Elektronik.

Der Core Upgrade System hat dann die sensiblen Teile wie CPU/GPU, Arbeitsspeicher, Netzteil, HDMI Schnittstellen usw.
Dann zahlst du halt für die PS5 Pro anstatt 400-500€ vielleicht nur 200-300€.....


Das Komplizierte daran ist aber das Problem, dass die Konsole und die darauffolgende an sich auch dafür entwickelt werden muss. Das Gehäuse bzw. die Gehäuse müssen Sinn ergeben und dabei auch nicht zu groß werden. Ohne Laufwerk würde es nicht mal Sinn machen. Das bisschen I/O wäre nicht der Rede wert. Wenn ich die jetzigen Konsolen als Vergleich hernnehme, sehe ich da designtechnisch nicht allzu viele Möglichkeiten. Darüber hinaus dürfte es den Herstellern deutlich wichtiger sein, jede Konsolengeneration und auch die halben vom Design her zu unterscheiden. Es wäre zwar schon möglich, aber begrenzter. Mit dem bisherigen System haben die Hersteller mehr Freiheiten.
Außerdem glaube ich nicht, dass der Preisvorteil so großartig an uns Kunden übertragen werden würde und wir mit dem jetzigen System besser beraten sind. Von möglicherweise noch mehr Müll will ich erst gar nicht reden.

Was die Speichermedien anbelangt, es wird weiterhin ein Medium sein mit Format einer CD.
Es ist einfach am günstigsten und viel Speicher in einer CD.


Na bei der kommenden Generation so oder so, keine Frage. So habe ich es ja auch geschrieben. Ich bezweifle jedoch, dass nach der BD-XL noch etwas entwickelt wird, vielleicht eine BD mit mehr Layern, aber sonst bezweifle ich das stark. Und gerade in der Skalierbarkeit hat Flash in der Zukunft mehr Möglichkeiten. Ich kann mich natürlich irren. ¯\_(ツ)_/¯
Jedoch sehe ich für neue Disc-Medien (und das sagt einer, der noch immer lieber Audio-CDs kauft) keine neue Zukunft, außer im Bereich Datensicherheit mit einer völlig neuen dauerhaften Technik.

Deinorius
2018-06-16, 00:16:11
@basix
Wenn man jetzt Globalfoundries' Verfahren von 14LP zu 7LP hernimmt, dürften 2 CCX eher über 70 mm² ergeben. Bei TSMC kommt man da vielleicht eher auf 60 mm². Zumindest rechne ich da nur mit den ersten 7 nm Verfahren, die verbesserten "+" Varianten dürften zu Release möglicherweise noch keine Rolle spielen.
Aber ja, nachdem ich mir das ausgerechnet habe, erscheint ein monolithischer SoC wahrscheinlicher. Die Frage, ob es dennoch irgendwie Sinn machen würde, besteht weiterhin.

gravitationsfeld
2018-06-16, 02:10:28
Zwei getrennte Chips wird man nur machen, wenn man dadurch gut Kosten und/oder Risiko verringern kann, ohne dadurch zu grosse anderweitige Nachteile zu haben. Momentan sehe ich den Kostenvorteil nicht, wenn der CPU Teil wahrscheinlich wesentlich kleiner als 100mm2 werden wird (2x 4C CCX wie auf Zen+ nehmen in 7nm etwa 40mm2 ein). Selbst wenn es 12C werden sollten.
Der Kostenvorteil ist dass geringere Dies deutlich bessere Yields erreichen. Vor allem wenn man nur Chips benutzen kann bei denen auch wirklich alles funktioniert.

Ich halte die Chancen dafuer auch eher so bei 30%. Versteh mich nicht falsch.

HOT
2018-06-16, 07:35:02
@basix
Wenn man jetzt Globalfoundries' Verfahren von 14LP zu 7LP hernimmt, dürften 2 CCX eher über 70 mm² ergeben. Bei TSMC kommt man da vielleicht eher auf 60 mm². Zumindest rechne ich da nur mit den ersten 7 nm Verfahren, die verbesserten "+" Varianten dürften zu Release möglicherweise noch keine Rolle spielen.
Aber ja, nachdem ich mir das ausgerechnet habe, erscheint ein monolithischer SoC wahrscheinlicher. Die Frage, ob es dennoch irgendwie Sinn machen würde, besteht weiterhin.
GroFo verkleinert mehr als TSMC... die haben die SRAM-Zellen in den Prozessen auf die TSMC-Größe angepasst, damit AMD weniger Schwierigkeiten hat, Masken für beide Foundries zu basteln. Aber ursprünglich war die GloFo SRAM-Zelle kleiner als die von TSMC. Aber die Konsolen SoCs kommen sowieso wieder von TSMC, nicht von GloFo, denn GloFo wird mit der normalen Zen2 u. Navi Produktion schon gut ausgelastet sein. Außerdem heißt der Prozess 14LPP und heißt was völlig anderes als 12 bzw. 7LP.

Der Kostenvorteil ist dass geringere Dies deutlich bessere Yields erreichen. Vor allem wenn man nur Chips benutzen kann bei denen auch wirklich alles funktioniert.

Ich halte die Chancen dafuer auch eher so bei 30%. Versteh mich nicht falsch.

Hey wir reden hier von Chips, die vllt. 350mm² maximal erreichen so wie heute und das in 2021 auf einem ausgereiften Prozess... ich weiss nicht wie man auf so einen BS kommt, dass das 2 Chips wären, das widerspricht allem, was AMD in den letzten Jahren gemacht hat - und es ist völlig sinnlos.
Die basteln wie gehabt einen ~350mm² Chip für 7 EUV, der durch 2 HBM-Stacks unterstützt wird und fertig - und das gilt für beide Konsolenhersteller.

Locuza
2018-06-16, 08:59:17
GroFo verkleinert mehr als TSMC... die haben die SRAM-Zellen in den Prozessen auf die TSMC-Größe angepasst, damit AMD weniger Schwierigkeiten hat, Masken für beide Foundries zu basteln. Aber ursprünglich war die GloFo SRAM-Zelle kleiner als die von TSMC.
[...]
Um wie viel kleiner denn?
Denn die erste offizielle Vorstellung vom 7nm Prozess mit Werten nannte 0.0269 µm² für eine HD-Zelle, TSMC 0.027 µm², also offiziell von Anfang an die gleiche Größe.
Und die pitches sind fast gleich, aber mit kleinem Vorteil für TSMC.

GloFo: Contacted Gate Pitch = 56nm, Minimum Metal Pitch = 40nm
TSMC: Contacted Gate Pitch = 54nm, Minimum Metal Pitch = 40nm
https://en.wikichip.org/wiki/7_nm_lithography_process

DinosaurusRex
2018-06-16, 16:52:25
Hey wir reden hier von Chips, die vllt. 350mm² maximal erreichen so wie heute und das in 2021 auf einem ausgereiften Prozess... ich weiss nicht wie man auf so einen BS kommt, dass das 2 Chips wären, das widerspricht allem, was AMD in den letzten Jahren gemacht hat - und es ist völlig sinnlos.
Die basteln wie gehabt einen ~350mm² Chip für 7 EUV, der durch 2 HBM-Stacks unterstützt wird und fertig - und das gilt für beide Konsolenhersteller.

Yo, AMD hat vor ein, zwei Tagen gesagt, dass sie MCMs mit mehreren GPU Bausteinen für HPCs bauen werden und das MCMs für PC Grafikkarten derzeit noch keinen Sinn machen, weil es dabei an der Software scheitert. AMD hat dabei auch EXPLIZIT gesagt, dass MCMs für Grafikberechnungen Hardware-technisch kein problem sind.

Es scheint also eher ein API Problem zu sein (beschränkter Hardware-Zugriff auf dem PC). Dieses Problem hast du auf einer Konsole aber nicht. Wenn Sony sagt "wir kriegen das schon geregelt mit dem MCM", dann wird AMD das auch so bauen.

Locuza
2018-06-16, 17:57:44
David Wang von AMD hat das nicht so explizit dargestellt.

[1]It’s definitely something AMD’s engineering teams are investigating, but it still looks a long way from being workable for gaming GPUs, and definitely not in time for the AMD Navi release next year. “We are looking at the MCM type of approach,” says Wang, “but we’ve yet to conclude that this is something that can be used for traditional gaming graphics type of application.”

[2] “To some extent you’re talking about doing CrossFire on a single package,” says Wang. “The challenge is that unless we make it invisible to the ISVs [independent software vendors] you’re going to see the same sort of reluctance.

[3] “We’re going down that path on the CPU side, and I think on the GPU we’re always looking at new ideas. But the GPU has unique constraints with this type of NUMA [non-uniform memory access] architecture, and how you combine features... The multithreaded CPU is a bit easier to scale the workload. The NUMA is part of the OS support so it’s much easier to handle this multi-die thing relative to the graphics type of workload.”

[4] So, is it possible to make an MCM design invisible to a game developer so they can address it as a single GPU without expensive recoding?
“Anything’s possible…” says Wang.

[5] It seems, however, that the MCM approach is only an issue in the gaming world, with the professional space more accepting of multi-GPU and potential MCM designs.
“That’s gaming” AMD’s Scott Herkelman tells us. “In professional and Instinct workloads multi-GPU is considerably different, we are all in on that side. Even in blockchain applications we are all in on multi-GPU. Gaming on the other hand has to be enabled by the ISVs. And ISVs see it as a tremendous burden.”

[6] Does that mean we might end up seeing diverging GPU architectures for the professional and consumer spaces to enable MCM on one side and not the other?
“Yeah, I can definitely see that,” says Wang, “because of one reason we just talked about, one workload is a lot more scalable, and has different sensitivity on multi-GPU or multi-die communication. Versus the other workload or applications that are much less scalable on that standpoint. So yes, I can definitely see the possibility that architectures will start diverging.”
https://www.pcgamesn.com/amd-navi-monolithic-gpu-design?tw=PCGN1

gravitationsfeld
2018-06-16, 18:30:47
Hey wir reden hier von Chips, die vllt. 350mm² maximal erreichen so wie heute und das in 2021 auf einem ausgereiften Prozess... ich weiss nicht wie man auf so einen BS kommt, dass das 2 Chips wären, das widerspricht allem, was AMD in den letzten Jahren gemacht hat - und es ist völlig sinnlos.
Die basteln wie gehabt einen ~350mm² Chip für 7 EUV, der durch 2 HBM-Stacks unterstützt wird und fertig - und das gilt für beide Konsolenhersteller.
Ergibt es halt schon, sonst haette Epyc nicht 4 Chips. Die Ryzen-Dies haben <200mm². Und selbst bei dieser Groesse gibt es noch Produkte die defekte Dies verwursten.

Ich versteh immer noch nicht warum das so starke Reaktionen ausloest. Das wuerde das Programmiermodel null beeinflussen und etwas mehr Latenz fuer die CPU halte ich jetzt auch nicht fuer das Ende der Welt?

Zwei 200mm² Dies sind wahrscheinlich billiger als eins mit 350mm². Mehr Platz fuer z.B. GPU Compute-Units -> gleiche Leistung bei weniger Takt/Power.

Yo, AMD hat vor ein, zwei Tagen gesagt, dass sie MCMs mit mehreren GPU Bausteinen für HPCs bauen werden und das MCMs für PC Grafikkarten derzeit noch keinen Sinn machen, weil es dabei an der Software scheitert. AMD hat dabei auch EXPLIZIT gesagt, dass MCMs für Grafikberechnungen Hardware-technisch kein problem sind.

Es scheint also eher ein API Problem zu sein (beschränkter Hardware-Zugriff auf dem PC). Dieses Problem hast du auf einer Konsole aber nicht. Wenn Sony sagt "wir kriegen das schon geregelt mit dem MCM", dann wird AMD das auch so bauen.
Da ging es um mehrere Grafik-Chips wir reden von einem separaten Die nur fuer die CPU.

basix
2018-06-16, 18:51:38
@basix
Wenn man jetzt Globalfoundries' Verfahren von 14LP zu 7LP hernimmt, dürften 2 CCX eher über 70 mm² ergeben. Bei TSMC kommt man da vielleicht eher auf 60 mm². Zumindest rechne ich da nur mit den ersten 7 nm Verfahren, die verbesserten "+" Varianten dürften zu Release möglicherweise noch keine Rolle spielen.
Aber ja, nachdem ich mir das ausgerechnet habe, erscheint ein monolithischer SoC wahrscheinlicher. Die Frage, ob es dennoch irgendwie Sinn machen würde, besteht weiterhin.

Ein 14nm GloFo 4C CCX ist 44mm2 gross. Kannst gerne danach googeln. Jetzt rechne das mal 2 und durch die Skalierung auf 7nm. Du wirst deutlich unter 70mm2 landen ;) Und zur Präzisierung: NUR 2x 4C CCX und nicht der ganze Ryzen Chip.

Der Kostenvorteil ist dass geringere Dies deutlich bessere Yields erreichen. Vor allem wenn man nur Chips benutzen kann bei denen auch wirklich alles funktioniert.

Ich halte die Chancen dafuer auch eher so bei 30%. Versteh mich nicht falsch.

Das ist völlig klar ;) Nur wird man mit vielleicht 15-20% mehr Chipfläche nicht so viel Yield verbessern. Wenn dann müsste man es so trennen, dass beide Chips möglichst weit getrennt werden, damit beide Chips am besten sogar in etwa gleich gross wären. Somit 1 Chip = GPU + HBM only und 1 Chip = CPU, I/O, Audio, AI, whatever.

Zudem wird man sicher wieder ein paar defekte CUs abschalten wie bei den heutigen Konsolen. Das ist meiner Meinung nach hundertprozentig sicher.

reaperrr
2018-06-16, 19:15:39
[6] Does that mean we might end up seeing diverging GPU architectures for the professional and consumer spaces to enable MCM on one side and not the other?
“Yeah, I can definitely see that,” says Wang, “because of one reason we just talked about, one workload is a lot more scalable, and has different sensitivity on multi-GPU or multi-die communication. Versus the other workload or applications that are much less scalable on that standpoint. So yes, I can definitely see the possibility that architectures will start diverging.”
Geht ja im Prinzip schon bald los, so wie's aussieht. Vega10 u. 20 für Workstation/HPC, Navi für Gaming.

Deinorius
2018-06-16, 22:21:05
Ergibt es halt schon, sonst haette Epyc nicht 4 Chips. Die Ryzen-Dies haben <200mm². Und selbst bei dieser Groesse gibt es noch Produkte die defekte Dies verwursten.4


Eigentlich haben Summit Ridge und Pinnacle Ridge rund 210 mm².

Ein 14nm GloFo 4C CCX ist 44mm2 gross. Kannst gerne danach googeln. Jetzt rechne das mal 2 und durch die Skalierung auf 7nm. Du wirst deutlich unter 70mm2 landen ;) Und zur Präzisierung: NUR 2x 4C CCX und nicht der ganze Ryzen Chip.


Ich verstehe das schon, nur ist deine Aussage nichts wert, weil du jeglichen Interconnect, I/O oder sonstige Logik für z.B. Infinity Fabric völlig außer Acht lässt. Schau dir die Summit/Pinnacle Ridge DIEs und auch die Konsolen SoCs an. Um die CCX bzw. Jaguar QuadCore findest du noch viele andere Transistoren, die sicher nicht da sind, damit der ganze Chip lustig größer wird.
Wenn ich jetzt also bei einer hypothetischen Trennung eines SoC eine Fläche ausrechnen will, fange ich also definitiv mind. mit der Fläche eines ganzen Ryzen an und nicht mit 2xCCX.

Geht ja im Prinzip schon bald los, so wie's aussieht. Vega10 u. 20 für Workstation/HPC, Navi für Gaming.


Davon ausgehend müssten zukünftige HPC-GPUs ja nicht mehr wirklich größer werden. Sie werden mit der Zeit zwar immer leistungsfähiger per se, aber es sollte dann keinen Sinn mehr machen, so was wie ein GV100-Monster zu erschaffen. Unter 300-400 mm² wäre optimal.

Tesseract
2018-06-16, 22:46:52
Ergibt es halt schon, sonst haette Epyc nicht 4 Chips.

kann durchaus sein dass mehrere chips sinn machen, aber der vergleich zu epyc hinkt. der hat nicht nur mehrere chips, der hat mehrere identische chips aus der desktopserie und das bei relativ geringer auflage. das design könnte sich für epyc sogar rentieren wenn der preis pro transistor etwas höher liegt als bei einem monolithischen die, allein wegen den gesparten entwicklungskosten.

Gipsel
2018-06-17, 00:26:41
Eigentlich haben Summit Ridge und Pinnacle Ridge rund 210 mm².Die offizielle Zahl sagt 192mm².

Deinorius
2018-06-17, 01:50:20
Aha. Dann müssen die 210 von inoffiziellen Messungen kommen. ¯\_(ツ)_/¯ Ich kenne allein vom PS4 SoC 2-3 Größen.

Locuza
2018-06-17, 03:48:44
Geht ja im Prinzip schon bald los, so wie's aussieht. Vega10 u. 20 für Workstation/HPC, Navi für Gaming.
Bei Vega10 sehe ich das kaum.
Der HBCC fällt mächtiger aus, als man es im Gaming braucht und AMD verwendet den Inclusive Cache Mode für Produkte mit SSDs, aber im großen und ganzen war es das.
Ansonsten kommt jedes Feature auch beim Gaming zum Einsatz, im Schnitt hat AMD mit Vega am meisten für Gaming verändert.

- Draw-Stream-Binning-Rasterizer.
- Den Parameter-Cache bei den Geometrie-Caches verdoppelt
- Einen ganz neuen Geometrie-Pfad zusammen mit Primitive-Shadern angelegt, (auch für Workstations nützlich), aber bisher inaktiv außer kleineren Bestandteilen wie den IWD.
- Die ROPs sind nun clients from L2$.
- Double-Rate FP16 wird auch bei Spielen eingebaut
-HBCC exclusive Cache Mode wird im Treiber optional angeboten
- Der höhere Takt ist völlig allgemein für alle Bereiche nützlich.

Bei DeepLearning/DataCenter und Workstations sind nur ein Teil der Änderungen nützlich, beim Gaming kann man im Schnitt von einem größeren Anteil der Änderungen profitieren.

Vega20 sieht etwas differenzierter aus, neue Instruktionen kommen dazu, der Infinity-Fabric (xGMI) wird auch nach außen geführt.
Das AMD das Ding nicht für Konsumenten verkaufen will, ist effektiv irgendwie die größte Differenzierung.
Ansonsten ist der Chip historisch betrachtet wenig angepasst im Vergleich zu Konsumenten-Produkten.
Chips mit hohen FP64-Rates hat AMD damals auch mit VLIW5/4, Tahiti und Hawaii an Konsumenten verkauft.

Und wie Navi aussehen wird, da muss man sich überraschen lassen, ob da ein spezifischer Gaming-Fokus zu erblicken sein wird.

Aber bezogen auf eine potentielle MCM-Differenzierung, da scheinen wir generell noch einige Jahre entfernt davon zu sein.

Die offizielle Zahl sagt 192mm².
213mm² laut Folien:
https://www.techpowerup.com/img/3vzdW4vofbRAf1wj.jpg

Raven-Ridge soll 210m² groß sein:
https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/
https://en.wikichip.org/wiki/amd/microarchitectures/zen

Korvaun
2018-06-17, 07:57:40
Modulare Konsolen kann man komplett vergessen, wird nicht kommen. Nicht weil es technisch nicht machbar oder sogar sinnvoll wäre, es gäbe einfach viel zu viele Probleme beim Austausch der einzelnen Module durch den Endverbraucher... Ja, ich weiß, was soll da schon passieren, ein modul rausziehen anderes modul reinstecken, fertig... machen wir uns nix vor, bei zig Millionen Nutzern würde es einfach viel zu viel Reklamationen geben.

Ich sehe auch nicht warum man nicht weiter auf einen Kombichip/APU setzen wird. Das hat sich in dieser Generation gut bewährt und der Sprung auf 7nm ist groß genug um eine sehr gute Leistungssteigerung bei gleicher Chipfläche hinzubekommen. Nicht nur durch die neue Fertigungstechnologie sondern vor allem auch durch die wesentlich modernenen Komponenten CPU/GPU. Allein Puma->Zen is schon gewaltig.

Crazy_Bon
2018-06-17, 09:06:25
Microsoft sprach auch von einer Familie neuer Geräte, nicht von modularen Konsolen. Ich denke Microsoft wird 2 Typen von neuen Konsolen entwickeln die sich in einer Sache grundlegend unterscheiden werden. Eine leistungsstarke Konsole und eine Streaming-Konsole, ersteres wird wie gewöhnlich die neue Konsolengeneration einläuten, die andere wirft einen Blick schon auf die übernächste, obwohl sie günstiger und schwächer sein wird. Dennoch wird sie auch aktuelle Spiele übers Cloud-Gaming abspielen können und gewappnet sein für die Zukunft. Sony und Nintendo werden auch auf den Zug aufspringen bzw. sie tun es schon bereits.

Gipsel
2018-06-17, 11:36:57
213mm² laut Folien:
https://www.techpowerup.com/img/3vzdW4vofbRAf1wj.jpg
Ups. Da hat mich mein Gedächtnis wohl mal getrogen. Danke für die Korrektur.

Unicous
2018-06-18, 17:36:57
Ups. Da hat mich mein Gedächtnis wohl mal getrogen. Danke für die Korrektur.

Nein, hat es nicht. :wink:

AMD hat einfach zwei Zahlen herausposaunt und niemand weiß jetzt welche die richtige ist.

Iirc hatte AMD zum Launch gesagt, der Chip wäre 192mm² groß. Bei der ISSCC-Präsentation von Epyc waren es auf einmal 213mm². Diese Diskrepanz hat AMD nie aufgelöst.:rolleyes:

DinosaurusRex
2018-06-20, 03:36:24
Ups. Da hat mich mein Gedächtnis wohl mal getrogen. Danke für die Korrektur.

Wo führt das nur hin, wenn man sich nicht mal mehr auf Gipsel verlassen kann...? Lol jetzt mal ernsthaft xD

---

Die nächste Gen wird brutal. Ich meine, zieht euch mal die jetzigen Spiele rein... Es wurde immer wieder gesagt, die Konsolen wären "underpowered" und dann hast du sowas:

pp7JgIzvZRM

Ich wette 90% der Studios hätten keine Ahnung, was sie mit der next-gen Leistung anfangen sollten!

---

http://i.imgur.com/AiCy6Tm.gif

---

2zgZxMYPuHk

Platos
2018-06-20, 06:05:32
Die Framerate ist da beim 2. ja katastrophal. Schau mal wie das schmiert :biggrin:

gravitationsfeld
2018-06-20, 06:24:44
Ich wette 90% der Studios hätten keine Ahnung, was sie mit der next-gen Leistung anfangen sollten!
Jedes Spiel muss am Ende optimiert werden, wenn es nicht gerade irgend ein anspruchsloses Indie-Spiel ist. Ausnahmslos.

Die Annahme, dass irgendjemand nicht weiss wohin mit der Leistung ist absurd.

DinosaurusRex
2018-06-20, 08:31:45
Die Annahme, dass irgendjemand nicht weiss wohin mit der Leistung ist absurd.

Solange nicht alle Videospiele aussehen wie die von den Naughty Dogs, finde ich das gar nicht so absurd.

Klar, man kann auch einen virtuellen Kothaufen supersamplen. Dann hat man die Leistung auch genutzt.

Hübie
2018-06-20, 08:43:27
Diese Rendersequenzen bieten meistens wenig Blickwinkel / Weitsicht und können auch mal mit 20 fps herumruckeln. Durch statische Szenerie bietet sich hier auch das höchste Optimierungspotenzial an. In Bewegung sieht es gut aus, aber nicht so grandios wie in den cutscences.

DinosaurusRex
2018-06-20, 09:12:33
Ich hab seit Samstag weder geschlafen noch gegessen. Wie soll ich da zwischen Gameplay und Cutscene unterscheiden?

Aber es sieht auf jeden Fall sehr geil aus

Hübie
2018-06-20, 09:17:15
Für ein Konsolentitel definitiv sehr hübsch. ND holt mMn das Maximum heraus und die Ergebnisse können sich sehen lassen. :up: Irgendwie schade das deren Titel nie auf PC kommen werden.

gravitationsfeld
2018-06-20, 09:55:55
Naughty Dog holt absulut nicht das "Maximum" heraus. Das Motion-Blur in Uncharted ist pothässlich und es ruckelt bei <30 FPS rum.

Sie haben sehr gute Künstler. Es wird sich nie ändern, dass Leute das mit Technik verwechseln.

Deinorius
2018-06-20, 14:02:43
Ich wette 90% der Studios hätten keine Ahnung, was sie mit der next-gen Leistung anfangen sollten!




Die Wette kannst vergessen. Es kommt nicht darauf an, ob sie wissen, was sie mit der Leistung anfangen sollen, sondern vielmehr, wieviel Geld sie zur Verfügung haben, um die Leistung (oder entsprechendes Artwork wie bei ND) auszureizen.

robbitop
2018-06-20, 14:51:43
Naughty Dog holt absulut nicht das "Maximum" heraus. Das Motion-Blur in Uncharted ist pothässlich und es ruckelt bei <30 FPS rum.

Sie haben sehr gute Künstler. Es wird sich nie ändern, dass Leute das mit Technik verwechseln.
So ist es. Gerade wenn ich mir anschaue, was bei Doom und beim aktuellen Wolfenstein in 16ms Renderzeit bei gleicher Hardware möglich ist, für die andere 33ms haben. Das wird gern vergessen.
Und das temporale Supersampling ist extrem gut. (wobei hier die 60 fps sicherlich helfen) Schade, dass nur wenige Titel vergleichbares TAA haben (wenn überhaupt).

Ich bin auf die Nextgen Engine (wird ja sicherlich was für ~2020/21 geben) von id gespannt wie ein Flitzbogen.


@generell wäre es wirklich nett, auf den nächsten Konsolen mehr 60 fps Titel zu sehen. Gerade die kleinen Jaguars haben das sicherlich bei der jetzien Generation eng gemacht. Die Zen Cores, die ja anzunehmen sind, werden gepaart mit halbwegs anständiger Taktrate (>3 GHz) es hier sicherlich ein wenig einfacher machen.
Schöne Grafik schön und gut - aber Gameplay profitiert IMO enorm von anständigem Framepacing und hoher Framerate. (Bewegtschärfe, Inputlag, gefühlte Flüssigkeit)

Loeschzwerg
2018-06-20, 18:18:34
Bleiben wir beim Beispiel Uncharted 4 / Lost Legacy. Wären denn 16ms machbar?

aufkrawall
2018-06-20, 18:26:23
Schade, dass nur wenige Titel vergleichbares TAA haben (wenn überhaupt).

Nur UE, CE, Unity und diverse andere...

K-putt
2018-06-20, 18:37:32
Nur UE, CE, Unity und diverse andere...
Das sind Engines. Keine Spiele.

aufkrawall
2018-06-20, 18:39:23
Das sind Engines. Keine Spiele.
Es gibt diverse Spiele damit, selbst 1 Mann-Projekte wie the Forest haben dadurch Temporal Supersampling.

robbitop
2018-06-20, 18:55:10
Da gibt es aber Spreu und Weizen. TAA ist nicht TAA. So sauber wie in den Titeln mit aktueller id Engine kenne ich es in keinem anderen Spiel. Ghostingfrei, dennoch bewegtscharf, praktisch flimmerfrei und extrem gut geglättete Jaggies.

dargo
2018-06-20, 18:56:52
The Division noch nicht gespielt?

aufkrawall
2018-06-20, 19:10:59
Ghostingfrei, dennoch bewegtscharf, praktisch flimmerfrei und extrem gut geglättete Jaggies.
Das idTech TSSAA hat mit Abstand die heftigsten Ghosting-Probleme mit der Waffe im Viewport vor bestimmten Texturen, die animierte Vegetation in Wolfenstein ist auch bei stiller Kamera merkbar verschwommen und die Jaggies sind eher schlechter geglättet als in AC: O (das mit höheren AA-Einstellungen offenbar auch Sharpen wie idTech nutzt).
Ist ohne Zweifel sehr gut, aber deine Heraushebung kann ich nicht nachvollziehen. Imho ist das einfach temporales SSAA wie in zig anderen Spielen auch, mit vernünftigen Parametern für einen Shooter bez. Schärfe.

Edit: Das Jittering-Pattern ist auch ziemlich aggressiv und erzeugt viel Pixel-Crawling.

Lightning
2018-06-20, 19:45:05
Ich finde das Anti-Aliasing in Uncharted 4 richtig gut. Ich spiele zugegeben nicht allzu viele aktuelle Spiele, aber von denen die ich gespielt habe, ist das meine Referenz (im Verhältnis zu den offenbar geringen Kosten). Gerade in diesem Bereich finde ich den Sprung zu den PS3-Uncharteds besonders krass.

Meine Hoffnung für Next-Gen wäre, dass diese Bildqualität zum neuen Standard wird. Damit bin ich zumindest schon ziemlich zufrieden und würde mich freuen, wenn der Rest der zusätzlichen Leistung nahezu vollständig in neue Rendertechniken investiert wird (statt einfach nur die Auflösung zu erhöhen o.ä.).

Locuza
2018-06-20, 20:12:54
Laut Sebastian Aaltonen (Claybook Entwickler) ist die TAA-Impelemtierung in Uncharted 4 ganz simpel (primitiv) ohne intelligente Mechanismen, um die Bildqualität weiter zu verbessern.
Angeblich soll die filmische SMAA Implementierung bei den letzten COD-Spielen eine bzw. die beste Umsetzung darstellen.

In der Praxis wird es aber dann schwer das Ganze zu bewerten, der Content ist wichtig.
Ist der Content an sich flimmerarm, dann passt auch eine simple TAA-Lösung.
Läuft das Spiel mit hohen Framerates dann noch besser und einige Spiele kombinieren noch unterschiedliche AA-Methoden, dann kann man sowieso nicht mehr isoliert vergleichen.

Argo Zero
2018-06-20, 20:14:16
Uncharted 4 sieht auch gut aus. Schade ist nur, dass keine 60FPS möglich sind. Liegt wahrscheinlich an der CPU Power.
Die PS5 darf gerne als Ziel setzen, jedes Spiel mit 60 FPS darzustellen. Es wirkt einfach viel immersiver wenn das Bild flüssiger dargestellt wird.

https://www.youtube.com/watch?v=2qK7SNAd1ds

Lightning
2018-06-20, 20:44:53
Laut Sebastian Aaltonen (Claybook Entwickler) ist die TAA-Impelemtierung in Uncharted 4 ganz simpel (primitiv) ohne intelligente Mechanismen, um die Bildqualität weiter zu verbessern.
Angeblich soll die filmische SMAA Implementierung bei den letzten COD-Spielen eine bzw. die beste Umsetzung darstellen.

In der Praxis wird es aber dann schwer das Ganze zu bewerten, der Content ist wichtig.
Ist der Content an sich flimmerarm, dann passt auch eine simple TAA-Lösung.
Läuft das Spiel mit hohen Framerates dann noch besser und einige Spiele kombinieren noch unterschiedliche AA-Methoden, dann kann man sowieso nicht mehr isoliert vergleichen.

Das ist sicher ein ganz wichtiger Punkt, und auch wieder der Grund, warum Uncharted auch in diesem Bereich gut abschneidet. Der Content ist einfach nicht nur künstlierisch gut, sondern auch technisch klug gestaltet.
Die Frage, die ich mir stelle, ist, ob sich das in Zukunft auch im Mainstream mehr durchsetzt, eventuell unterstüzt durch bessere Tools.

Uncharted 4 sieht auch gut aus. Schade ist nur, dass keine 60FPS möglich sind. Liegt wahrscheinlich an der CPU Power.
Die PS5 darf gerne als Ziel setzen, jedes Spiel mit 60 FPS darzustellen. Es wirkt einfach viel immersiver wenn das Bild flüssiger dargestellt wird.

Dass es nur an der CPU-Leistung liegt, ist mir zu sehr vereinfacht. Jeder 30 fps-Titel reizt natürlich auch die GPU aus, und sei es nur über die Auflösung. Für 60 fps müsste also jeder entsprechende Titel auch grafische Abstriche machen.

Ansonsten fände ich persönlich 60 fps als Standard toll, nur: Warum sollte sich das jetzt auf einmal durchsetzen? Über die letzten Generationen hat sich die Lage auch nicht wirklich verbessert, zwischendurch sogar eher im Gegenteil.
An der Hardware wird es jedenfalls meiner Meinung nach nicht liegen. Wenn, dann muss es unabhängig davon zu einem Umdenken kommen; dass eben höhere Framerates auch das Grafikempfinden erheblich verbessern können. Angetrieben durch einen Hype pro 60 fps durch die Hersteller, Presse oder auch aus der Community heraus könnte ich mir so ein Umdenken vorstellen.

robbitop
2018-06-20, 21:16:14
Die CPU der PS4/X1 ist schon in relation zur GPU relativ schwach aufgestellt. Natürlich wird man die GPU ausnutzen und natürlich müsste man die Details zurückdrehen. Jedoch macht es die CPU wohl deutlich schwieriger, 60 fps Titel zu bringen. Aber was du sagst, stimmt schon. Warum sollte es sich plötzlich ändern?
Schön wäre es - aber man muss natürlich Details opfern ggü 30 fps. Egal bei welcher HW, wenn nur 50% der Renderzeit pro Frame verfügbar ist...

aufkrawall
2018-06-20, 21:29:20
Imho scheint häufiger die GPU zu limitieren, wenn man schon mitunter auf recht heftiges dynamisches Upscaling in 60fps-Titeln zurückgreifen muss.

dargo
2018-06-20, 21:35:43
Uncharted 4 sieht auch gut aus. Schade ist nur, dass keine 60FPS möglich sind. Liegt wahrscheinlich an der CPU Power.
Die PS5 darf gerne als Ziel setzen, jedes Spiel mit 60 FPS darzustellen. Es wirkt einfach viel immersiver wenn das Bild flüssiger dargestellt wird.

https://www.youtube.com/watch?v=2qK7SNAd1ds
60fps Target bedeutet automatisch weniger grafischer Fortschritt gegenüber 30fps Target. Ich fände es viel besser wenn die PS5 VRR unterstützt und sich VRR bis dahin auch bei den TVs deutlich stärker durchsetzt.

gravitationsfeld
2018-06-21, 00:48:25
Uncharted 4 sieht auch gut aus. Schade ist nur, dass keine 60FPS möglich sind. Liegt wahrscheinlich an der CPU Power.
Die PS5 darf gerne als Ziel setzen, jedes Spiel mit 60 FPS darzustellen. Es wirkt einfach viel immersiver wenn das Bild flüssiger dargestellt wird.

https://www.youtube.com/watch?v=2qK7SNAd1ds
CPU Power fuer was? Das Spiel hat doch nie mehr als 10 KIs aktiv?

crux2005
2018-06-21, 01:27:00
Angeblich soll die filmische SMAA Implementierung bei den letzten COD-Spielen eine bzw. die beste Umsetzung darstellen.

Ich hoffe nicht. Mit filmischen SMAA sieht das Bild verwaschen aus.

Loeschzwerg
2018-06-21, 06:47:42
CPU Power fuer was? Das Spiel hat doch nie mehr als 10 KIs aktiv?

Siehe meine Frage auf der letzten Seite. Wären denn bei dem optischen Aufgebot von Uncharted 4 die 60FPS machbar? (auf den aktuellen "enhanced" Konsolen)

][immy
2018-06-21, 07:49:22
Uncharted 4 sieht auch gut aus. Schade ist nur, dass keine 60FPS möglich sind. Liegt wahrscheinlich an der CPU Power.
Die PS5 darf gerne als Ziel setzen, jedes Spiel mit 60 FPS darzustellen. Es wirkt einfach viel immersiver wenn das Bild flüssiger dargestellt wird.

https://www.youtube.com/watch?v=2qK7SNAd1ds
Uncharted ist gpu limitiert, auch wenn ich denke das naighty dog das schon ganz gut ausgenutzt hat. Im multiplayermodus nutzen die doch soweit ich mich erinnere 60fps, dafür wurde dann aber kräftig an der grafikschraube gedreht.

StefanV
2018-06-21, 07:50:33
Ergibt es halt schon, sonst haette Epyc nicht 4 Chips.
Würde ich so nicht sagen wollen.
Die PS4 hat sich aktuell (Stand Dezember 2017) 73.6 Million mal verkauft.

DAS dürfte 'ne Größenordnung mehr als Epic sein und da hat man dann auch ganz andere Voraussetzungen und Anreize für ein eigenes Die.

Bei EPYC kommt eben dazu, dass das Risiko mit 4 "Consumer Dies" wesentlich geringer ist, da wenn sich Epic nicht verkauft (und die Dies nicht aufs Package gepackt wurden), man die in den Consumer Bereich schieben könnte.


Da sehe ich es schon als sinnvoller an, ein eigenes Die zu entwickeln, auch um sich von den anderen abzusetzen.


Zum Thema HBM:
Die Wahrscheinlichkeit, dass Sony HBM einsetzt ist iMO relativ groß. Schätze 50:50.
Die haben schon immer "Obskure Speicherarten" genutzt.
Dazu gehört XDR-RDRAM in der PS3 aber auch GDDR5 in der PS4. Damit hat man auch die Welt relativ überrascht. Und auch M$ ziemlich an die Wand gestellt...

Zum Thema X360:
Originale 360 hatte 2 Chips.
Ab der Slim aber nur einen, GPU und CPU in einem Die integriert.
Sony "durfte" auch bei der Super Slim weiter zwei Chips verlöten. Das wird man sicher nicht machen...

StefanV
2018-06-21, 07:57:05
Die CPU der PS4/X1 ist schon in relation zur GPU relativ schwach aufgestellt.
War zu der Zeit aber Alternativlos™, da Bulldozer verspätet und nicht fertig...
Der kam viel zu spät, um in Konsolen verwurschtelt zu werden...
(auf den aktuellen "enhanced" Konsolen)
Da hat sich bei der CPU Leistung leider nicht sooo viel getan, die größten Änderungen gab es bei der Grafik.
OK; bei der One X hat man die CPU auf 2,3GHz geprügelt, dafür verbrät der Ofen aber auch mal locker 30W mehr als die PS4 PRO, die ich bisher nur auf etwa 180W in Horizon Zero Dawn oder God of War gesehen habe. SOnst eher 170W. Die 210W auf der One X hab ich in Gears of War 4 (DEMO) gesehen, längere ZEit...

Argo Zero
2018-06-21, 07:58:15
[immy;11726360']Uncharted ist gpu limitiert, auch wenn ich denke das naighty dog das schon ganz gut ausgenutzt hat. Im multiplayermodus nutzen die doch soweit ich mich erinnere 60fps, dafür wurde dann aber kräftig an der grafikschraube gedreht.

Wenn das Spiel GPU limitiert wäre, warum läuft es dann mit stabilen 30 FPS in 1440p, wenn schon 1080p nur 30 FPS haben?
Selbiges Phänomen hast du bei Horizon Zero Dawn. 4K und 1080p haben jeweils nur 30 FPS. Deswegen bin ich der Meinung, dass die PS4 Pro bei einigen Spielen CPU limitiert ist.

@][immy
MP hat weniger Auflösung. Auf einem 4K Display läuft es nur mit 1080p mit einer Pro. Bei der normalen PS4 waren es bloß 900p.

Locuza
2018-06-21, 08:03:35
War zu der Zeit aber Alternativlos™, da Bulldozer verspätet und nicht fertig...
Der kam viel zu spät, um in Konsolen verwurschtelt zu werden...

Bulldozer und Piledriver kamen früher als Jaguar, wenn dann reden wir von Steamroller.
Es hat aber bis Excavator gedauert, bis die Bulldozer Linie bei der Perf/Watt Jaguar erreichen bzw. schlagen konnte, dabei sieht die Perf/mm² immer noch schlechter aus.
Selbst wenn Steamroller zeitlich kein Problem dargestellt hätte, wäre Jaguar nach wie vor gewählt worden.

][immy
2018-06-21, 08:48:59
Wenn das Spiel GPU limitiert wäre, warum läuft es dann mit stabilen 30 FPS in 1440p, wenn schon 1080p nur 30 FPS haben?
Selbiges Phänomen hast du bei Horizon Zero Dawn. 4K und 1080p haben jeweils nur 30 FPS. Deswegen bin ich der Meinung, dass die PS4 Pro bei einigen Spielen CPU limitiert ist.

@][immy
MP hat weniger Auflösung. Auf einem 4K Display läuft es nur mit 1080p mit einer Pro. Bei der normalen PS4 waren es bloß 900p.
Eben, es musst nur an der Grafikschraube gedreht werden um 60fps zu ermöglichen im Multiplayermodus. Also kann die CPU eigentlich nicht limitiert werden. Und nicht nur die Auflösung wurde reduziert, allgemein wurde die Grafik im Multiplayer-Modus stark runtergeschraubt.

Und du verstehst schon, warum etwas mit 30fps läuft und das wegen der GPU, oder? Wie hier schon häufiger erwähnt wurde, bei 60fps stehen dir 16,6ms zum rendern zur verfügung, bei 30 ist es schon 33,3 ms. Das macht sich besonders bei der grafischen Qualität bemerkbar.
Natürlich wird Naughty dog (deren Name ich vorhin auf meinem Handy wohl falsch getippt habe) wohl auch die CPU ausnutzen, aber der Multiplayer-modus zeigt eigentlich das noch Luft nach oben ist.

Auf der PS4 Pro könnte das spiel (cpu-seitig) vielleicht auch mit 40-45 fps laufen, wer weiß, aber die GPU wird schließlich schon zu annähernd 100% ausgelastet, da ist ohne deutliche einschnitte nicht mehr möglich.

Wenn du 60fps willst, muss auch die GPU mitmachen und das geht nicht wenn sie zu 100% ausgelastet ist. Auch diese muss doppelt so viel Arbeit verrichten.

Letztlich ist es immer der Entwickler der sich entscheidet ob etwas auf Konsolen mit 30 oder 60fps läuft. Je nachdem was sein Target ist, wird er sich entscheiden was ins Spiel kommt und was nicht. Wie etwas Designed wird und wie es nicht geht, …
Ist alles eine Frage der Zielsetzung. Und so unwichtig wie die CPU inzwischen geworden ist (vor allem vor dieser Konsolen-Gen) verwundert mich es nach wie vor wie groß dann doch noch der Einfluss der CPU zu sein scheint.
Wenn wir stärkere CPUs in den nächsten Konsolen bekommen, wird aber das gleiche Spiel wieder eintreten. Viele Spiele werden mit einem 30fps Target Konzipiert und einige auch mit 60fps.

Fernseher die Freesync unterstützen wären eigentlich optimal für die Zukunft. Dann könnten Spiele auch z.B. in 45 fps laufen was auch noch ein guter Kompromiss zwischen Input-Lag, flüssigem Spielgeschehen und Grafikqualität wäre.

Karümel
2018-06-21, 09:09:26
Gab es nicht schon zum Release der PS3 die Meldung "60 FPS" für die Spiele?

Also wenn 60FPS nicht zum Nomallfall werden ist es schon etwas lächerlich.

StefanV
2018-06-21, 09:14:26
Gab es nicht schon zum Release der PS3 die Meldung "60 FPS" für die Spiele?
Also wenn 60FPS nicht zum Nomallfall werden ist es schon etwas lächerlich.
Ja aber bei vielen warst froh, wenn du 20 gesehen hast.
Mugen Souls ZZ ist z.B. eines der Spiele, die einfach nur grauenhaft auf der 3 laufen (daher auch nicht weiter gespielt von mir)...

Tearing ist auf der PS3 bei vielen Spielen auch ziemlich schlimm...

Das hast bei der PS4 ja nicht mehr. Zumindest hab ich noch kein Tearing finden können.


Aber hier ist halt wieder das Problem des "grafisch beeindruckendem" und 60fps.
Um 60fps liefern zu können, musst ordentlich an der Detail Schraube drehen. Das willst aber nicht unbedingt, da willst eher dass es hübsch ausschaut.
Und so nimmst dann eher 30fps...

][immy
2018-06-21, 09:15:17
Gab es nicht schon zum Release der PS3 die Meldung "60 FPS" für die Spiele?

Also wenn 60FPS nicht zum Nomallfall werden ist es schon etwas lächerlich.
der Mythos das 60fps nur an der Hardware liegen muss auch mal verschwinden.
Am PC mag das ja in etwa noch stimmen, aber bei einer fixen Konsolenhardware halt nicht.
Entweder man pumpt alles in die Grafik oder eben nicht. Immerhin haben wir kaum mehr Spiele die dauerhaft unter 30fps laufen. Das ist schon mal ein Fortschritt zur xb360/ps3 und den vorgänger-gens.

Ganon
2018-06-21, 10:10:55
[immy;11726421']der Mythos das 60fps nur an der Hardware liegen muss auch mal verschwinden.
[...]
Entweder man pumpt alles in die Grafik oder eben nicht.


Ja eben. GameCube und Wii hatten verdammt viele 60fps Titel. Es ist im Grunde eine Design-Entscheidung seitens der Entwickler.

Aber wer will jetzt schon die Grafik wieder zurückschrauben, nur damit alles in 4K 60fps läuft?

Korvaun
2018-06-21, 10:23:09
Ich glaube ja wir sind bald an einem Punkt wo der Aufwand einfach zu groß wird noch "schönere"/detailiertere Modelle/Landschaften/etc. zu designen. Die aktuellen AAA-Spiele ala GoW&co. brauchen ja schon alle mehrere Jahre Entwicklungszeit, wo soll das enden? Bald gibts dann nur noch jede 2te Konsolengeneration nen Nachfolgetitel, und das auch nur sofern das Entwicklerstudio nichts anderes programmiert...

Da wäre dann in Zukunft vielleicht auch wieder genug Hardwarepower vorhanden um doch 60fps hinzubekommen, vor allem wenn der umstieg auf 4K vollzogen ist, denn das sollte die 2020er Jahre über wohl Standard bleiben ;)

Argo Zero
2018-06-21, 13:12:45
[immy;11726401']Eben, es musst nur an der Grafikschraube gedreht werden um 60fps zu ermöglichen im Multiplayermodus. Also kann die CPU eigentlich nicht limitiert werden. Und nicht nur die Auflösung wurde reduziert, allgemein wurde die Grafik im Multiplayer-Modus stark runtergeschraubt.

Und du verstehst schon, warum etwas mit 30fps läuft und das wegen der GPU, oder? Wie hier schon häufiger erwähnt wurde, bei 60fps stehen dir 16,6ms zum rendern zur verfügung, bei 30 ist es schon 33,3 ms. Das macht sich besonders bei der grafischen Qualität bemerkbar.
Natürlich wird Naughty dog (deren Name ich vorhin auf meinem Handy wohl falsch getippt habe) wohl auch die CPU ausnutzen, aber der Multiplayer-modus zeigt eigentlich das noch Luft nach oben ist.

Auf der PS4 Pro könnte das spiel (cpu-seitig) vielleicht auch mit 40-45 fps laufen, wer weiß, aber die GPU wird schließlich schon zu annähernd 100% ausgelastet, da ist ohne deutliche einschnitte nicht mehr möglich.

Wenn du 60fps willst, muss auch die GPU mitmachen und das geht nicht wenn sie zu 100% ausgelastet ist. Auch diese muss doppelt so viel Arbeit verrichten.

Letztlich ist es immer der Entwickler der sich entscheidet ob etwas auf Konsolen mit 30 oder 60fps läuft. Je nachdem was sein Target ist, wird er sich entscheiden was ins Spiel kommt und was nicht. Wie etwas Designed wird und wie es nicht geht, …
Ist alles eine Frage der Zielsetzung. Und so unwichtig wie die CPU inzwischen geworden ist (vor allem vor dieser Konsolen-Gen) verwundert mich es nach wie vor wie groß dann doch noch der Einfluss der CPU zu sein scheint.
Wenn wir stärkere CPUs in den nächsten Konsolen bekommen, wird aber das gleiche Spiel wieder eintreten. Viele Spiele werden mit einem 30fps Target Konzipiert und einige auch mit 60fps.

Fernseher die Freesync unterstützen wären eigentlich optimal für die Zukunft. Dann könnten Spiele auch z.B. in 45 fps laufen was auch noch ein guter Kompromiss zwischen Input-Lag, flüssigem Spielgeschehen und Grafikqualität wäre.

Die PS4 Pro hat einen höhere CPU Takt als die PS4.
Daher auch die leicht höhere Auflösung im MP von Uncharted 4.

Bungie äußerte sich auch dazu, warum ihr Game nicht mit 60FPS läuft:
https://www.youtube.com/watch?v=7FcfEU1FLy0&feature=youtu.be&t=4198
4k ist kein Thema ("tons of GPU power") aber 60FPS? Nope.

Ravenhearth
2018-06-21, 13:20:13
Die PS4 Pro hat einen höhere CPU Takt als die PS4.
Daher auch die leicht höhere Auflösung im MP von Uncharted 4.
Die CPU hat mit der Auflösung eigentlich nichts zu tun, das ist dir klar?

Argo Zero
2018-06-21, 13:24:00
Die CPU hat mit der Auflösung eigentlich nichts zu tun, das ist dir klar?

Genau aus dem Grund läuft 4k mit der selben Framerate wie 1080p. Die GPU schaffts locker :)

][immy
2018-06-21, 13:27:11
Die PS4 Pro hat einen höhere CPU Takt als die PS4.
Daher auch die leicht höhere Auflösung im MP von Uncharted 4.

Bungie äußerte sich auch dazu, warum ihr Game nicht mit 60FPS läuft:
https://www.youtube.com/watch?v=7FcfEU1FLy0&feature=youtu.be&t=4198
4k ist kein Thema ("tons of GPU power") aber 60FPS? Nope.
ok, was hat jetzt in uncharted 4 die MP Auflösung noch gleich mit der CPU zu tun? Hier dürfte vorher die Bandbreite der GPU entscheidend gewesen sein, die eben kaum höher ist als bei der PS4.

Jo, ist halt so, das liegt aber einfach nur daran das Bungie nie vorgehabt hat 60fps auf den Konsolen zu erreichen. Grafik selbst hat damit ziemlich wenig zu tun. Selbst wenn du jetzt die Konsolen mit 60fps in Destiny 2 laufen lassen würdest, hättest du das problem das die GPU ebenfalls größer sein müsste.
Zumal meist auch noch das Problem ist, das zwar theoretisch CPU-Rechenzeit in "massen" verfügbar ist, aber eben nicht auf einem Kern auf dem dann die Logik selbst limitiert.


Wie geschrieben, ob 60fps auf fixer hardware oder nicht ist immer die Designentscheidung des Entwicklers. Natürlich macht es Ports einfacher wenn einfach mehr Leistung zur Verfügung steht, aber mehr auch nicht.
Und ganz ehrlich, ich frage mich ziemlich häufig was an heutigen Spielen so CPU-intensiv sein kann, an der KI kann es kaum liegen (intelligent is da nix). Mir würden da nur kaum vorhandene Physik, Streaming und noch ein paar andere Kleinigkeiten einfallen. Das meiste davon hat aber schon die xb360/ps3 gemacht und dem gegenüber haben wir sehr viel mehr CPU-Rechenleistung. Aber irgendwie liegt der Fokus immer nur auf der Grafik.

Argo Zero
2018-06-21, 13:46:12
[immy;11726606']ok, was hat jetzt in uncharted 4 die MP Auflösung noch gleich mit der CPU zu tun? Hier dürfte vorher die Bandbreite der GPU entscheidend gewesen sein, die eben kaum höher ist als bei der PS4.

Jo, ist halt so, das liegt aber einfach nur daran das Bungie nie vorgehabt hat 60fps auf den Konsolen zu erreichen. Grafik selbst hat damit ziemlich wenig zu tun. Selbst wenn du jetzt die Konsolen mit 60fps in Destiny 2 laufen lassen würdest, hättest du das problem das die GPU ebenfalls größer sein müsste.
Zumal meist auch noch das Problem ist, das zwar theoretisch CPU-Rechenzeit in "massen" verfügbar ist, aber eben nicht auf einem Kern auf dem dann die Logik selbst limitiert.


Wie geschrieben, ob 60fps auf fixer hardware oder nicht ist immer die Designentscheidung des Entwicklers. Natürlich macht es Ports einfacher wenn einfach mehr Leistung zur Verfügung steht, aber mehr auch nicht.
Und ganz ehrlich, ich frage mich ziemlich häufig was an heutigen Spielen so CPU-intensiv sein kann, an der KI kann es kaum liegen (intelligent is da nix). Mir würden da nur kaum vorhandene Physik, Streaming und noch ein paar andere Kleinigkeiten einfallen. Das meiste davon hat aber schon die xb360/ps3 gemacht und dem gegenüber haben wir sehr viel mehr CPU-Rechenleistung. Aber irgendwie liegt der Fokus immer nur auf der Grafik.

Die Bandbreite der GPU ist mit der PS4 Pro um einiges gewachsen im Vergleich zur PS4. Oder was meinst du?
Natürlich ist es immer eine Entscheidung der Entwickler. Drehe ich meine Details und / oder Physik so zurecht, dass ich auf 60 FPS komme oder nicht.
Im Optimalfall nutze ich alle vorhandenen Ressourcen gleichmäßig aus damit ich keinen "bottleneck" Effekt habe.
Für Entwickler wie zB Bungie ist es aber einfacher 4k darzustellen als sich das 60 FPS Ziel zu setzen, weil in der Pro die GPU vergleichsweise massiv verbessert wurde, die CPU aber nicht (nur leicht übertaktet).
Da komme ich wieder zu meiner ursprünglichen Aussage: Wenn Uncharted 4 auf der Pro 4k kann aber immer noch ein 30 FPS target hat bei 1080p, kann es nur an der CPU liegen.

robbitop
2018-06-21, 15:30:00
Bulldozer und Piledriver kamen früher als Jaguar, wenn dann reden wir von Steamroller.
Es hat aber bis Excavator gedauert, bis die Bulldozer Linie bei der Perf/Watt Jaguar erreichen bzw. schlagen konnte, dabei sieht die Perf/mm² immer noch schlechter aus.
Selbst wenn Steamroller zeitlich kein Problem dargestellt hätte, wäre Jaguar nach wie vor gewählt worden.
So ist es. Erst die Zen mArch hat das ändern können. Zu der Zeit war Jaguar bei AMD in der Hinsicht alternativlos.

Selbst mit Steamroller hätte man bei vergleichbarer TDP und Die Area nur halb so viele Cores verbauen können. Jaguar war schon echt sparsam und winzig. Nur leider auch etwas schwachbrüstig.

][immy
2018-06-21, 16:05:51
Die Bandbreite der GPU ist mit der PS4 Pro um einiges gewachsen im Vergleich zur PS4. Oder was meinst du?
Natürlich ist es immer eine Entscheidung der Entwickler. Drehe ich meine Details und / oder Physik so zurecht, dass ich auf 60 FPS komme oder nicht.
Im Optimalfall nutze ich alle vorhandenen Ressourcen gleichmäßig aus damit ich keinen "bottleneck" Effekt habe.
Für Entwickler wie zB Bungie ist es aber einfacher 4k darzustellen als sich das 60 FPS Ziel zu setzen, weil in der Pro die GPU vergleichsweise massiv verbessert wurde, die CPU aber nicht (nur leicht übertaktet).
Da komme ich wieder zu meiner ursprünglichen Aussage: Wenn Uncharted 4 auf der Pro 4k kann aber immer noch ein 30 FPS target hat bei 1080p, kann es nur an der CPU liegen.
Speicherbandbreite:
PS4: 176 GB/s
PS4 Pro: 218 GB/s

Ja, das ist mehr, aber nicht so extrem viel mehr. die Auflösung hat erst mal nichts mit der CPU zu tun bzw. die CPU-Anforderungen steigen durch die Auflösung nur minimalst, solange nicht noch andere Dinge hinzu kommen.
Dann sollte man bedenken das Naughty dog dem Multiplayermodus garantiert nicht die gleiche Aufmerksamkeit zukommen lassen hat wie dem single-player-modus. Das merkt man schon daran das sie auf der PS4 einfach nur die Detail und Auflösungsschraube gedreht haben, bis 60fps für die GPU passten. KI gibt es hier auch keine und Phsyik-interaktionen sind minimalst (ja auch hier wird man CPU-Lastige Dinge weggelassen hat, da das Spiel selbst ja für 30fps ausgelegt ist und man es nicht plötzlich mit 60fps laufen lassen kann ohne das die CPU mehr Arbeit hätte .. ist halt die doppelte Arbeit, so oder so).
Die Auflösung ist 44% höher (mehr Pixel), die Speicherbandbreite ist grad mal 23% höher. Passt also relativ gut, wenn man bedenkt das nicht alles den x-fachen Wert an Bandbreite benötigt. Abgesehen davon das Naughty dog wohl kein allzu krummes Ergebnis haben wollte damit die Auflösung auch gut skaliert.

Natürlich kann die GPU nicht 4k (checkerboard) + 60 fps im single-player leisten bei diesem spiel, weil das sonst ja noch mal zusätzlich die GPU belastet hätte (und natürlich auch die Last auf die CPU verdoppelt hätte).

Die Zusätzliche CPU-Leistung der PS4 Pro im Multiplayermodus von uncharted 4 dürfte mehr oder minder verpuffen. Das hängt alles an der GPU & Speicherbandbreite.


unglaublich … jetzt argumentiere ich hier in diesem Forum schon um zu zeigen das die Auflösung erst mal nichts (bzw. fast nichts) mit der CPU Leistung zu tun hat.

Argo Zero
2018-06-24, 08:17:20
Mit einer adäquaten CPU zur GPU (PS5) sehe ich kein Problem darin 1080p mit 60FPS laufen zu lassen und 4K mit 30FPS. Das haben sich viele schon mit der PS4 Pro erhofft.
So langweit sich die GPU aktuell oftmals wenn man in 1080p spielt statt 4K.
Das ist für mich sogar das einzig wünschenswerte neue Feature für die nächste PS.

Akkarin
2018-06-24, 15:29:57
Glaubt ihr dass Free/A-Sync in der nächsten gen flächendeckend Einzug halten wird ? XboneX hats ja IIRC bereits.

Dann wirds vermutlich nur noch selten feste 30/60 fps geben.

00-Schneider
2018-06-24, 16:00:33
Definitiv. Jeder in 2019 gekaufte höherwertige TV müsste das eigentlich an Bord haben.

Es wird auch weiterhin stabile 60fps-Games geben, aber weniger feste 30fps-Games. Diese laufen dann unlocked.

StefanV
2018-06-24, 16:06:03
hängt von den HDMI-CEC Chips ab, die zu der Zeit am Markt sind...
Sony unterstützt halt HDMI-CEC und nutzt einen DP to HDMI Chip, der sich auch um das CEC Zeugs kümmert...
Wenns die mit VESA Adaptive Sync gibt, dann wird SONY die wohl auch verbauen. Aber dazu musst halt Panasonic fragen, ob die entsprechende Chips machen werden...


Viel interessanter ist der Speicher, was man da nimmt.
bei Sony halte ich immer noch HBM für wahrscheinlich...
Und bis dahin sollte man auch interposer lose Lösungen gefunden haben, die den Speicher einfach aufs Package pressen...

Deinorius
2018-06-25, 13:00:10
Glaubt ihr dass Free/A-Sync in der nächsten gen flächendeckend Einzug halten wird ? XboneX hats ja IIRC bereits.


Ich gehe davon aus. Ich hoffe es. Wehe, wenn nicht.


Dann wirds vermutlich nur noch selten feste 30/60 fps geben.


Ganz im Gegenteil. Wie kommst du darauf? Glaubst du, die Mainstream-Leute fangen wegen dem Feature an, neue Fernseher zu kaufen? Der Großteil (und ich meine anfangs > 95 %, später immer noch > 75 %) wird von Adaptive Sync weiterhin keine Ahnung haben. Viele können nicht mal mit fps etwas anfangen. Ich glaube eher... (weiter unten)


Definitiv. Jeder in 2019 gekaufte höherwertige TV müsste das eigentlich an Bord haben.

Es wird auch weiterhin stabile 60fps-Games geben, aber weniger feste 30fps-Games. Diese laufen dann unlocked.


Ich hoffe sogar, dass sich A-Sync durchgehen durchsetzt, außer vielleicht bei den Billigst-TVs.
Mehr als 60 fps (außer für VR) wird eh kaum einer ausreizen, aber grundsätzlich sehe ich es auch so, dass man darauf achtet, dass die min-fps mit 30/60 eingehalten werden. Und wer die Möglichkeit mit A-Sync besitzt, kann sich über höhere fps freuen.
Ich frage mich dann aber auch, wie sich das auf die Kühlung auswirkt. Gibt es in der Hinsicht Erfahrungswerte mit der Xbone X?

Platos
2018-06-26, 04:25:59
Ich denke das Feature wird eher dafür genutzt, mal unter die 60 bzw. 30 FPS zu fallen. Besser als ohne Sync, aber wenn das dann darauf hinausläuft, dass man öfters unter 30 fällt, sehe ich da keinen Vorteil für Konsoleros.

robbitop
2018-06-26, 06:21:29
Ich denke das Feature wird eher dafür genutzt, mal unter die 60 bzw. 30 FPS zu fallen. Besser als ohne Sync, aber wenn das dann darauf hinausläuft, dass man öfters unter 30 fällt, sehe ich da keinen Vorteil für Konsoleros.

Genau die Gefahr sehe ich auch. Lieber sollte es ein optionales Feature sein, so dass es das Spielerlebnis verbessert und nicht zur Voraussetzung wird (der Entwickler soll also weiterhin optimieren dass es ein Frametarget von 30/60 fps gibt)

StefanV
2018-06-26, 07:03:15
WIe hoch ist die Marktdurchdringung von Freesync im Home Entertainment Bereich?
Also die Bildschirme...

Das sollte die Frage beantworten...

Kurz: erst bei der PS6 in 10 Jahren können wir damit rechnen, dass es "pflicht" ist, falls die PS5 überhaupt damit kommt...

Deinorius
2018-06-29, 23:36:57
Richtig, ich bezweifle sehr, dass zumindest Sony nicht ein wenig darauf achtet, dass das nicht ausartet.

tobor
2018-07-12, 23:57:57
Wie siehts denn mit Gpgpu in der nächsten Generation aus, und wie intensiv wurde das auf der Playstation 4 und Xbox One benutzt? Nur für Exklusivtitel?

robbitop
2018-07-13, 10:29:54
Meines Wissens nach wurde Compute für Partikeleffekte genutzt. Leider nicht für spiel/gameplayrelevante Physik. Gerade das wäre bei einer solchen APU (kohärenter, schnell zugreifbarer Speicher, schnelle Anbindung in einem Die etc) machbar. Kostet aber halt GPU Leistung.
Ggf. kommt das bei Nextgen etwas eher zum Einsatz. Problematisch ist, dass das so auf dem PC nicht möglich ist, da obige Voraussetzungen nicht gegeben sind. Könnte also auch nur auf Nicht-Multi-Titel zutreffen.

IC3M@N FX
2018-07-13, 12:24:28
Meines Wissens nach wurde Compute für Partikeleffekte genutzt. Leider nicht für spiel/gameplayrelevante Physik. Gerade das wäre bei einer solchen APU (kohärenter, schnell zugreifbarer Speicher, schnelle Anbindung in einem Die etc) machbar. Kostet aber halt GPU Leistung.
Ggf. kommt das bei Nextgen etwas eher zum Einsatz. Problematisch ist, dass das so auf dem PC nicht möglich ist, da obige Voraussetzungen nicht gegeben sind. Könnte also auch nur auf Nicht-Multi-Titel zutreffen.

Sucker Punch scheint ja gehörig davon Gebrauch zu machen bei der PS4 wenn ich mich nicht täusche...
Insbesondere bei Infamous: Second Son und Ghosts of Tsushima da
scheint da sehr viel über Compute zu laufen wenn ich mich nicht irre oder???

robbitop
2018-07-13, 12:42:45
Ja das ist das Paradebeispiel dafür. :)
Laut DF ist es so wie du sagst...

IC3M@N FX
2018-07-13, 13:33:19
Eigentlich schade das nicht mehr Entwickler davon Gebrauch machen und ihre Engine dafür anpassen.
Gerade Infamous: Second Son sieht heute noch richtig Hammer aus, vor allem die Licht und Schatten Effekte + Screenspace Reflection mit unzähligen Laser Partikeln die auf dem Bildschirm explodieren sind einfach grandios.

][immy
2018-07-13, 16:52:06
Sucker Punch scheint ja gehörig davon Gebrauch zu machen bei der PS4 wenn ich mich nicht täusche...
Insbesondere bei Infamous: Second Son und Ghosts of Tsushima da
scheint da sehr viel über Compute zu laufen wenn ich mich nicht irre oder???
Dafür war die Welt aber ziemlich leer. Eines dieser typischen Open World Spiele die einfach leer sind.
Irgendwo muss man halt sparen wenn man die ganzen Effekte raus haut.

Ich hoffe das Open-World langsam mal wieder ein wenig abnimmt. Nicht alles muss Open-World sein, aber scheinbar musste man in dieser Gen diesen Stempel so ziemlich jedem Spiel aufdrücken.

dildo4u
2018-07-13, 16:56:47
Das war auch eins der ersten PS4 Games überhaupt,
Spiderman setzt ordentlich war drauf was Passanten/Autos angeht,ohne das die Optik deutlich schlechter wäre.

https://youtu.be/kU-J2yHvhZ8?t=7m29s

Thunderburne
2018-07-16, 15:57:37
Ich hab meine one X verkauft da ich nach dem Kauf meines Sony X700 Uhd Players keinen Grund mehr gesehen habe für die Konsole.
Ich hole mir jetzt die Touring + den neuen Intel Achtkerner für die Mittelklasse da hab ich für die Thirdparty Games eine bessere Platform für meinen Sony AF8.
Für die Only Titel hab ich die Pro.
Ich hoffe die nächste Gen verbessert das Checkboard und liefert mehr Physik.

aufkrawall
2018-07-16, 16:14:22
Erstmal abwarten, wie FH4 zu Release auf Nvidia laufen wird. :freak:

msilver
2018-07-16, 16:32:06
jo 😬

Thunderburne
2018-07-16, 16:43:06
Mal gut das ich daran keine interesse habe.
Höchstens Gears of War 5 würde mich noch interessieren und damit ist die Xbox einfach nur tot für mich.
Selbst State of Decay 2 welches für die X ist hat mega Probleme... dann lieber am PC anpassen können.

gravitationsfeld
2018-07-16, 16:50:26
Meines Wissens nach wurde Compute für Partikeleffekte genutzt. Leider nicht für spiel/gameplayrelevante Physik. Gerade das wäre bei einer solchen APU (kohärenter, schnell zugreifbarer Speicher, schnelle Anbindung in einem Die etc) machbar.
Kohaerenter Speicher ist <30GB/s fuer die GPU auf allen AMD-Konsolen. Lesen und Schreiben bevor du fragst.

Problematisch ist, dass das so auf dem PC nicht möglich ist, da obige Voraussetzungen nicht gegeben sind. Könnte also auch nur auf Nicht-Multi-Titel zutreffen.
Das ist nicht mehr oder weniger moeglich. Man will keine Sync-Points mit der GPU in einem Frame, also muss man auch auf den Konsolen verzoegert arbeiten.

DinosaurusRex
2018-07-17, 18:34:25
Kohaerenter Speicher ist <30GB/s fuer die GPU auf allen AMD-Konsolen. Lesen und Schreiben bevor du fragst.


Ist der Vorteil des kohärenten Speichers nicht primär dessen niedrige Latenz als die Bandbreite? Selbst wenn die GPU nur mit 30GB/s auf den kohärenten Speicher zugreifen kann, so ist die Zeit, die man sich spart, weil man nicht ständig alles zwischen CPU RAM und GPU VRAM hin und her kopieren muss doch sicher für ein paar Aufgaben gut. Ich erinnere mich an eine Folie von Guerrilla Games. Die haben für KZSF 128MB für den gemeinsamen Speicher genutzt:

http://i.imgur.com/wx7XRap.png

Und genau diese 128MB hätte man auf einem PC nicht zur Verfügung. GG hat das doch sicher nicht nur aus Langeweile gemacht.

---

Und würde es was bringen, wenn der kohärente Speicher bei einer next-gen Konsole mehr Durchsatz kriegt, sagen wir mal 60GB/s?

gravitationsfeld
2018-07-17, 22:50:00
Du *musst* Onion benutzen damit die CPU lesen kann. D.h. zu irgend einem Zeitpunkt muss man durch Onion schreiben mit der GPU, was lahm ist. Das ist vergleichbar mit der PCIe-Transferrate am PC.

Ist der Vorteil des kohärenten Speichers nicht primär dessen niedrige Latenz als die Bandbreite?
Kohaerenter Speicher hat prinzipbedingt eine hoehere Latenz.

DinosaurusRex
2018-07-17, 23:04:52
Das heißt es ist komplett egal, ob CPU und GPU auf einem Die sitzen und nur einen RAM Pool haben und der Grund warum die das machen ist ne reine Kostenfrage?

gravitationsfeld
2018-07-18, 03:29:27
Naja, man nutzt auch den vorhandenen Speicher besser aus.

robbitop
2018-07-18, 11:04:11
Kohaerenter Speicher ist <30GB/s fuer die GPU auf allen AMD-Konsolen. Lesen und Schreiben bevor du fragst.
Das Interface zwischen GPU und CPU limitiert hier? Bzw das Interface zwischen CPU und IMC?
Reichen die 30 GB/s nicht für diesen Zweck?


Das ist nicht mehr oder weniger moeglich. Man will keine Sync-Points mit der GPU in einem Frame, also muss man auch auf den Konsolen verzoegert arbeiten.
Wozu denn das ganze "Fusion" Konzept mit kohärentem Speicherzugriff und geringer Latenz (weil auf einem Die)? Ist es möglich hier hardwareseitig bessere Voraussetzungen zu schaffen?

gravitationsfeld
2018-07-18, 18:07:44
Das Interface zwischen GPU und CPU limitiert hier? Bzw das Interface zwischen CPU und IMC?
Reichen die 30 GB/s nicht für diesen Zweck?
Das Problem ist, dass die GPU durch Onion schreiben muss damit du zuruecklesen kannst. Das heisst es dauert einfach laenger. Es ist nicht so als waere das asynchron. Es ist entweder Garlic oder Onion. Was limitiert ist, dass die CPU Caches bei jedem Zugriff ueber Onion gefragt werden muessen "hast du diese Cacheline?". Garlic ist einfach direkter Zugriff zum DRAM ohne irgend was zu beachten.

AMD hatte dazu ein paar Slides: https://developer.amd.com/wordpress/media/2013/06/1004_final.pdf

Ich glaube die Ryzen-APUs mit Infinity-Fabric haben eine hoehere Bandbreite mit kohaerentem Zugriff, aber ich finde keine Zahlen.

pixelguy
2018-07-24, 10:21:37
Gerücht: Nächste Xbox erscheint auch als Hybrid-Streaming-Konsole

https://www.golem.de/news/spekulationen-um-scarlett-naechste-xbox-erscheint-auch-als-hybrid-streaming-konsole-1807-135645.html

Angeblich laufen alle Spiele auf beiden Systemen...

IC3M@N FX
2018-07-24, 10:25:21
Hoffen wir mal das Streaming floppen wird, dafür fehlt einfach die Infrastruktur auf der ganzen Welt.
Naja mit der übernächsten Generation bin ich eh zu alt fürs zoggen dann kann es mir egal sein...

drkohler
2018-07-24, 12:52:58
Gerücht: Nächste Xbox erscheint auch als Hybrid-Streaming-Konsole

https://www.golem.de/news/spekulationen-um-scarlett-naechste-xbox-erscheint-auch-als-hybrid-streaming-konsole-1807-135645.html
Wenn die Streaming-Box eine Low-Cost Lösung sein soll, dann taugt wohl eine XBox1S genauso gut dafür. Warum also eine neue Box kaufen wenn man schon Eine hat?
Viel Glück für Diejenigen, die keine Flatrate haben...

prinz_valium
2018-07-24, 18:34:33
Hoffen wir mal das Streaming floppen wird, dafür fehlt einfach die Infrastruktur auf der ganzen Welt.
Naja mit der übernächsten Generation bin ich eh zu alt fürs zoggen dann kann es mir egal sein...

Mit der Haltung wird natürlich die Infrastruktur dafür irgendwann einfach so da sein aus dem nichts :rolleyes:

Und wieso auf der ganzen Welt? Nach und nach immer mehr Menschen erreichen ist das Ziel. Außerdem wird doch sowieso massive in Daten Infrastruktur investiert.

Und wenn 0.1% der Bevölkerung nur DSL Lite in Deutschland haben ist das nun wirklich nicht das Problem an der Sache.

spotz
2018-07-24, 19:12:29
Zwei Xbox Versionen gäbe Mircrosoft die Möglichkeit einer zeitlich erheblich versetzten Veröffentlichung. So könnte die XBox-Stream wie im Artikel beschrieben relativ früh in 2020 veröffentlicht werden, während die rein lokal rechnende Xbox dann 1 bis 2 Jahre später erscheint.
Je nachdem wie dann die Produktionskosten sind oder der Entwicklungsstand ist, könnte das durchaus Sinn ergeben. MS hätte dann auch noch etwas zeitlichen Spielraum für Anpassungen an der XBox, um auf Sonys neue Playstation zu reagieren.

pixelguy
2018-07-24, 19:40:27
Ich stelle es mir für die Entwickler recht kompliziert vor... Die müssten ja dann für 2 grundlegend vers. Systeme entwickeln. Oder ist das nicht so wild?

just4FunTA
2018-07-24, 21:08:49
Zwei Xbox Versionen gäbe Mircrosoft die Möglichkeit einer zeitlich erheblich versetzten Veröffentlichung. So könnte die XBox-Stream wie im Artikel beschrieben relativ früh in 2020 veröffentlicht werden, während die rein lokal rechnende Xbox dann 1 bis 2 Jahre später erscheint.
Je nachdem wie dann die Produktionskosten sind oder der Entwicklungsstand ist, könnte das durchaus Sinn ergeben. MS hätte dann auch noch etwas zeitlichen Spielraum für Anpassungen an der XBox, um auf Sonys neue Playstation zu reagieren.


naja also veröffentlicht MS eine reine Streamingbox und Sony eine "echte" PS5 kriegt MS wie bei der xbox one beim Launch wieder die Arschkarte..

Im direkten Vergleich kann eine Streaminglösung einfach nicht bestehen..

spotz
2018-07-24, 22:55:00
Ja, in so einer Situation hätte MS wohl die Arschkarte. Außer die PS5 wäre dann sehr teuer.

Bisher gingen die Meisten hier im Thread davon aus, dass die neue Konsolengeneration eher Weihnachten 2021 erscheint, weil erst dann die 7nm Fertigung günstig genug sei. Im Golem Artikel steht aber das die Streaming XBox schon 2020 erscheinen könnte. In ihr würden ja auch nicht so leistungsfähige Chips benötigt.
Daher stammt meine Überlegung, ob MS die Konsolen vielleicht um 1 bis 2 Jahre zeitlich versetzt veröffentlichen könnte - je nach dem wie es um die Kosten und den Entwicklungsstand bestellt ist. Wenn es 2020 schon möglich ist eine alles lokal berechnende Konsole herauszubringen, werden das vermutlich sowohl MS wie auch Sony machen. Aber was wenn nicht? Bringt man dann die einfachere Streaming Version 1 bis 2 Jahre vorher?

Ich stelle es mir für die Entwickler recht kompliziert vor... Die müssten ja dann für 2 grundlegend vers. Systeme entwickeln. Oder ist das nicht so wild?
Ich kenne mich mit der Materie nicht aus, aber ich vermute mal das in den Cloud Server Farmen sowieso andere Hardware benutzt werden wird als die, die in den Konsolen steckt. Insofern werden die Entwickler wohl für verschiedene Systeme programmieren müssen. Ich vermute aber mal das dies kein großes Problem ist, da die meisten Spiele heute ja eh auf mehreren verschiedenen Systemen laufen.

urpils
2018-07-25, 06:29:57
Wenn es 2020 schon möglich ist eine alles lokal berechnende Konsole herauszubringen, werden das vermutlich sowohl MS wie auch Sony machen. Aber was wenn nicht? Bringt man dann die einfachere Streaming Version 1 bis 2 Jahre vorher?


für ne Streaming-Box brauchen sie ja GAR nix zu veröffentlichen. Das würde doch alles schon auf Xbox und PS4 laufen.

spotz
2018-07-25, 06:53:04
für ne Streaming-Box brauchen sie ja GAR nix zu veröffentlichen. Das würde doch alles schon auf Xbox und PS4 laufen.
Tun sie aber gemäß dem Leak von dem Golem und andere berichten und auf den sich mein Beitrag bezieht.

https://www.golem.de/news/spekulationen-um-scarlett-naechste-xbox-erscheint-auch-als-hybrid-streaming-konsole-1807-135645.html

pixelguy
2018-07-25, 07:53:00
Vielleicht ist es auch einfach nur eine Xbox One in neuem Gehäuse

IC3M@N FX
2018-07-25, 08:56:04
Jop es könnte wirklich eine nochmals geshrinkte SoC von der Xbox One S sein.
Vielleicht ergänzt mit diversen kleineren Chips die für das Streaming von Vorteil sind.
In einem sehr kleinen Gehäuse ohne Laufwerk und mit einer großen Festplatte im Jahr 2020/21 mehr als möglich.
Die Entwicklungskosten der Streaming Xbox und der verbrauch der SoC wären dank 7nm wirklich sehr überschaubar.

In Offline Modus laufen dann wegen der SoC nur Xbox Classic/360/One Games (Digitale Versionen)
In Online Modus laufen dann Xbox One X und Xbox NEXT Spiele (streaming).

][immy
2018-07-25, 08:57:38
Tun sie aber gemäß dem Leak von dem Golem und andere berichten und auf den sich mein Beitrag bezieht.

https://www.golem.de/news/spekulationen-um-scarlett-naechste-xbox-erscheint-auch-als-hybrid-streaming-konsole-1807-135645.html
das basiert alles auf dem gleichen "leak". Ich würde es erst mal als Gerücht ansehen.
Für eine Streaming-Box brauchen sie keine Next-Gen. Die können sie jederzeit veröffentlichen. Denn darauf könnten sie alle bisherigen spiele und jedes neue Streamen.
Das mit dem Lokalen Berechnungen ist natürlich ne andere Sache, aber ich glaube das wird überbewertet. Der Ansatz ist um einiges zu kompliziert für die Entwicklung von Spielen als das das was werden könnte.
Ich glaube kaum das die in der Next-Gen so Experimente machen werden nach dem Kinect 2 Desaster. Eher werden sie eine ganz normale Spielekonsole rausbringen (ein Upgrade wenn man so will) und eventuell irgendwann mal eine Streaming-Box.

Für alles andere würde die derzeitige Hardware auch ausreichen.

gravitationsfeld
2018-07-25, 09:54:09
Das Problem ist dass Google oder Amazon ihnen auf einmal ziemlich gefährlich werden könnten, wenn sie einfach nichts machen. Streaming wird meiner Meinung nach unterschätzt, wegen ein paar miserablen ersten Versuchen. Man braucht eine globale Edge-Server-Infrastruktur. Die haben nur die großen Firmen. Microsoft ist eine davon, Sony nicht.

robbitop
2018-07-25, 10:36:11
Kann Sony doch aber auch outsourcen. Bei Amazon oder anderen großen Cloudanbietern. Die Gewinne kommen ja eh nicht aus dem Hardwaregeschäft sondern aus dem Softwaregeschäft.
Die Konsolen werden dem PC in Bezug auf ihre Architektur eh immer ähnlicher. Man bräuchte also nichtmal unbedingt Spezialhardware.

Jasch
2018-07-25, 11:08:26
Das Problem ist doch aber nach wie vor die verfügbare Bandbreite auf der letzten Meile.
In meinem Bekanntenkreis sieht die Statistik so aus.(das hier im Forum mehr geht ist nicht der Durchschnitt, die wenigsten Leute die ich kenne suchen sich ihre Wohnung/Grundstück nach solchen Gesichtspunkten aus)
10% >50Mbit
10% 16Mbit-25Mbit
80% 6-10Mbit

und die Latenz der 80% ist auch eher für die Tonne.

In Großstädten mag das anders aussehen, aber so sieht meine Realität aus.

THEaaron
2018-07-25, 11:18:19
Wenn man die Lösung parallel betreibt, also mit einer lokalen Maschine und für andere die Streaming Lösung gibt es kein Problem in der Art. Den Rest macht der Fortschritt über die Zeit.

Ganon
2018-07-25, 11:23:17
Leute am Kabelnetz dürften dann gegen Abend echt das Kotzen kriegen, vermute ich. Ich weiß nicht wie das Netz so in den USA ausgebaut ist, aber zumindest in Deutschland dürfte man mit Streaming in der breiten Masse auf die Nase fliegen.

Letztendlich würde ich mir eh keine Streaming-Konsole kaufen. Dann sollen sie es direkt für den PC machen, alles andere halte ich für recht sinnlos.

Und Sony hat mit Playstation Now ja schon ein Streaming-Angebot. Also so schwer dürfte es für sie sicherlich nicht sein.

THEaaron
2018-07-25, 11:45:20
Streaming kommt mir für Spiele auch nicht in die Bude.

Ich denke aber, dass es da mittlerweile schon ein Publikum für gibt. Darüber hinaus unterstreicht es MS bestreben sich von dem Gedanken Plattform zu lösen und Dienste auf so vielen Endgeräten wie möglich anzubieten.

AffenJack
2018-07-25, 14:00:10
Ich kann mir Streaming durchaus vorstellen. Wenn ich mir meine Steambibliothek an nicht gespielten Spielen angucke, würde es mich bestimmt auch billiger kommen und kompetitiv spiele ich eher weniger, wo streamen ein Hindernis wäre.

Internet haben die meisten hier auch 50 mbit und einige 100mbit, in 2,3 Jahren ist dann hier wahrscheinlich 100 eher der Standard und ich seh da keine Probleme bei den Bandbreiten. Ist eben der Unterschied von Stadt zu Land. Aber eine geteilte Gen könnte von MS da durchaus ein guter Plan sein.

RLZ
2018-07-25, 14:09:51
Ich weiß nicht wie das Netz so in den USA ausgebaut ist, aber zumindest in Deutschland dürfte man mit Streaming in der breiten Masse auf die Nase fliegen.
Nicht wesentlich anders als bei uns. Auf dem Land meeehh, in Städten meistens ok.
Kannst du aber selber schauen:
https://broadbandnow.com/California/Los-Angeles

][immy
2018-07-25, 14:59:20
Leute am Kabelnetz dürften dann gegen Abend echt das Kotzen kriegen, vermute ich. Ich weiß nicht wie das Netz so in den USA ausgebaut ist, aber zumindest in Deutschland dürfte man mit Streaming in der breiten Masse auf die Nase fliegen.

Letztendlich würde ich mir eh keine Streaming-Konsole kaufen. Dann sollen sie es direkt für den PC machen, alles andere halte ich für recht sinnlos.

Und Sony hat mit Playstation Now ja schon ein Streaming-Angebot. Also so schwer dürfte es für sie sicherlich nicht sein.
Die Probleme mit Kabel-Netzen sind eigentlich nicht so groß. Klar teilt man sich eine Leitung, aber bei Telefon-Kabeln ist es nicht anders (spätestens an der Verteilerbox draußen). Docsis 3.0 und besonders Docsis 3.1 erhöhen hier massiv die zur Verfügung stehende Bandbreite. Das sieht in Zukunft auch noch deutlich besser aus (in Bochum ist bereits 1GB/s möglich). Ist eher das Problem das sie mit dem Upload noch recht knauserig sind. Aber der Spielt sowieso nur eine untergeordnete Rolle. Problem ist hier fast eher (wie auch bei allen anderen Anbietern) das man dank "HTTPS überall" nichts mehr Anbieterseitig cachen kann, was zwar beim Spielestreaming eh nicht klappt, aber zumindest die Netzte indirekt entlastet hat, weil dann nicht mehr jeder Server angesprochen werden musste bei jedem Paket.

Aber ja, Streaming … also selbst die Steam-Box die hausintern Streamt ist … naja nicht unbedingt dafür nützlich. Ich habe mal versucht damit z.B. Diablo 3 zu spielen ... das mache ich nicht wieder.
Selbst innerhalb des Hauses sind die Eingaben stark verzögert, Mausbedienung ist dafür einfach zu genau. Mit Controllern sieht das ganze zwar etwas "besser" aus, aber auch hier ist noch ein deutlicher Lag spürbar. Ich kann mir das nach wie vor nicht vorstellen wie sie das hinbekommen wollen.
Und so ein hybrides Konzept mag zwar durchaus seine Reize haben, aber ich kann mir nicht vorstellen, das dies funktioniert. Zumal es die Entwickler ja auch erst mal extra entwickeln müssen. Physik- oder KI-Berechnungen in der Cloud sind eine Sache, aber das Spiel rendern und zum Client schicken eine ganz andere. Btw, hat MS ja nicht mal sein Cloud-Vorzeigeprojekt rausgebracht (Crackdown 3). Das was man zuletzt gesehen hat, scheint ja eher eine offline-Variante des Ursprünglichen Spiels zu sein.

iuno
2018-07-25, 15:04:44
Leute am Kabelnetz dürften dann gegen Abend echt das Kotzen kriegen, vermute ich. Ich weiß nicht wie das Netz so in den USA ausgebaut ist, aber zumindest in Deutschland dürfte man mit Streaming in der breiten Masse auf die Nase fliegen.
Da bin ich mir nicht mal so sicher, wenn man sich anschaut, wie populaer die Video-Streaming Dienste inzwischen sind. Mit adaptiver Qualitaet "geht es schon". Die haben natuerlich den grossen Vorteil, dass man buffern kann, zumindest mit Cuscenes koennte man das aber auch machen. Und die paar Byte upstream fuer den input sollte man auch noch hinbekommen.
Also fuer recht anspruchslose Spiele(r) koennte das schon "funktionieren".

Gebrechlichkeit
2018-07-25, 15:11:34
Streaming geht ja seit der PS3 und der PSP via Remote Control oder ab der Vita. Es gibt genug Videos dazu, wie ein paar von der einen haelfte der USA auf der andere ihre PS4 auf die Vita streamen.

Streaming ist seit Jahren moeglich, dazu wird gar keine 599mb Leitung gebraucht. 10mbit fuer ein 1080p Video Signal ist ausreichend, je naeher man an einer "node" ist umso besser die Latenz. Duerfte eh nur bei Pruegel, Shooter Spiele von Relevanz sein. PSNow von PS3 Games soll ganz gut funtionieren ... und wenn der Preis stimmen sollte, why not?

aufkrawall
2018-07-25, 15:22:49
Weil Kabelnetz in Städten.

Argo Zero
2018-07-25, 15:26:39
Im lokalen Netz funktioniert Streaming ganz gut. Für schnellere Shooter reicht dort die Latenz aber auch nicht aus. Als Referenz nehme ich den Steam Link.
Wie schaut das dann online aus? Latenz von 30ms plus Inputlag des Bildschirms plus normale Verzögerung des Bildschirms. Das macht doch kein Spaß mehr. Für casual Spieler vielleicht relevant aber sonst sehe ich das die nächsten Jahre eher nicht auf uns zurollen.

Bucklew
2018-07-25, 15:28:35
Kabelnetz an allen fünf Standorten, die ich genauer kennen bzw. sogar gewohnt habe, waren bisher absolute Bombe. Alternative wären jedes Mal max. 16-50 MBit gewesen (so überhaupt), das ist mir seit >5 Jahren zu lahm :freak:

Selbst das eine Mal tendenziell überlastete Segment (DSL war absoluter Müll, trotz Innenstadt -> viele Kabelkunden) wurde innerhalb von wenigen Monaten per Netsplit perfekt gemacht. Eines Nachts war die Leitung tot und 5 Minuten später nur noch 30% der Segmentauslastung da :D

Gebrechlichkeit
2018-07-25, 15:41:41
Weil Kabelnetz in Städten.

10mbit ist alles was man braucht, egal ob ADSL, ADSL 2.0, Fiber oder per Flugpost. Internet ist flaechendeckend ueberall vorhanden, selbst im Kuhdorf Xyx in Bayern mit bloss 50 Bewohnern.

So fett muss die Leitung nicht sein, fuer FHD sind wie gesagt 10mbit genuege. WiFi gibt es mittlerweile auch ueberall gratis hingeschissen (als Notloesung) und per Handy muesste es via Hotspot auch funktionieren koennen (kostspieliger).

Also diese Narrative/Rethorik "... is nix mit Internet und so!" ist praktisch seit 2005 veraltert. Cablecom Ende der 90er bot schon VOD in der Schweiz testweise an, Telefonica seit 2005 bietet ihren ueberteuerten Kaese nurnoch per VOD/Internet an.

Entweder lebt ihr im hintersten Kaff oder seid einfach partout gegen Streaming. Ich will auch keins haben, aber wenn dadurch die Kosten gesenkt werden koennen (kein R&D fuer die Consolen Hardware)... dann nur zu. Evtl. wird durch die miese Latenz des Streamings die Mentalitaet der Spieleer veraendert, sprich keine Ego Shooter mehr, keine Multiplayer Mobas etc. mehr nur noch gutes altes Arcade Feeling... adieu online competitive gaming (was mit gaming nix zutun hat, ist aber ein anderes Thema).

Die Latenz im PSNow sei sehr gut, gemessen was die Tester so sagen. Will ja auch selbst mal dat Ding testen, ist aber hier im sonnigen Spanien nicht vorhanden. Fuer RPG, Indies und Co. sind die bis zu 100ms?Ping noch verkraftbar.

aufkrawall
2018-07-25, 15:46:20
Ich hab konstante 450mbit und trotzdem haben zig Leute, auch in Städten, häufig vorübergehende Einbrüche oder sonstige Störungen. Das sind keine Filme, die man buffern kann...

Exxtreme
2018-07-25, 15:49:31
Entweder lebt ihr im hintersten Kaff oder seid einfach partout gegen Streaming. Ich will auch keins haben, aber wenn dadurch die Kosten gesenkt werden koennen (kein R&D fuer die Consolen Hardware)... dann nur zu.
R&D-Kosten hat vielleicht nur noch Nintendo. Die restlichen Konsolen sind 95% bestehende PC-Technik. Zudem sind die Spiele der wahre Kostenbrocken wenn man es ambitionierter angeht.

Und für gutes altes Arcade-Feeling braucht's keine Konsole. Da reicht ein Browser, wenn Webassembly mal fertig wird dann erst recht. Da wird auch Streaming für die Katz sein bei einfacheren Spielen.

Bucklew
2018-07-25, 15:52:19
Ich hab konstante 450mbit und trotzdem haben zig Leute, auch in Städten, häufig vorübergehende Einbrüche oder sonstige Störungen. Das sind keine Filme, die man buffern kann...
Ja. Haben sie aber auch mit DSL. Oder mit <hier Technologie einsetzen>. Im Konsumerbereich keinerlei Überbuchung zu haben, wäre schlicht unbezahlbar.

Aber warum sollten dann nicht du und ich, die eben konstante Leitungen haben, nicht diese fürs Streaming nutzen?

xyleph
2018-07-25, 16:02:03
R&D-Kosten hat vielleicht nur noch Nintendo. Die restlichen Konsolen sind 95% bestehende PC-Technik.


Es soll also einzig Nintendo mit der Switch und dem Tegra X1 gegenüber Sonys und MS PS4One und deren Customchips R&D Kosten für die Hardware haben?:freak:
Interessant

][immy
2018-07-25, 16:08:50
Es soll also einzig Nintendo mit der Switch und dem Tegra X1 gegenüber Sonys und MS PS4One und deren Customchips R&D Kosten für die Hardware haben?:freak:
Interessant
Ja, Nintendo ist was die interne Hardware angeht wohl noch am günstigsten weg gekommen.
Sony & MS haben ja zumindest noch was an der Hardware modifiziert. Controller-Design-Kosten haben sie trotzdem alle noch.

Grendizer
2018-07-25, 16:24:48
10mbit ist alles was man braucht, egal ob ADSL, ADSL 2.0, Fiber oder per Flugpost. Internet ist flaechendeckend ueberall vorhanden, selbst im Kuhdorf Xyx in Bayern mit bloss 50 Bewohnern.


Leider nicht .... sobald man in den ländlichen Raum kommt, wird es eng. Kenne schon im Schwarzwald einige Haushalte in denen nur DSL Light mit 768 kbit verfügbar ist. Keine Ahnung wo die Mähr herkommt, das "überall" eine Internetgrundversorgung vorhanden ist. Deutschland ist einfach ein Witz was (digitale) Infrastruktur angeht.

Die Telekom nimmt es sich seit einigen Jahren auch raus, Neubaugebiete nicht zu erschließen, wenn Kosten und Ertrag nicht stimmen.

https://www.teltarif.de/hausbau-neubau-telefonanschluss-telekom-internet/news/49177.html

Jasch
2018-07-25, 17:48:12
10mbit ist alles was man braucht, egal ob ADSL, ADSL 2.0, Fiber oder per Flugpost. Internet ist flaechendeckend ueberall vorhanden, selbst im Kuhdorf Xyx in Bayern mit bloss 50 Bewohnern.

So fett muss die Leitung nicht sein, fuer FHD sind wie gesagt 10mbit genuege. WiFi gibt es mittlerweile auch ueberall gratis hingeschissen (als Notloesung) und per Handy muesste es via Hotspot auch funktionieren koennen (kostspieliger).

Also diese Narrative/Rethorik "... is nix mit Internet und so!" ist praktisch seit 2005 veraltert. Cablecom Ende der 90er bot schon VOD in der Schweiz testweise an, Telefonica seit 2005 bietet ihren ueberteuerten Kaese nurnoch per VOD/Internet an.

Entweder lebt ihr im hintersten Kaff oder seid einfach partout gegen Streaming. Ich will auch keins haben, aber wenn dadurch die Kosten gesenkt werden koennen (kein R&D fuer die Consolen Hardware)... dann nur zu. Evtl. wird durch die miese Latenz des Streamings die Mentalitaet der Spieleer veraendert, sprich keine Ego Shooter mehr, keine Multiplayer Mobas etc. mehr nur noch gutes altes Arcade Feeling... adieu online competitive gaming (was mit gaming nix zutun hat, ist aber ein anderes Thema).

Die Latenz im PSNow sei sehr gut, gemessen was die Tester so sagen. Will ja auch selbst mal dat Ding testen, ist aber hier im sonnigen Spanien nicht vorhanden. Fuer RPG, Indies und Co. sind die bis zu 100ms?Ping noch verkraftbar.

Dann leb ich und Millionen anderer wohl dort, und 10 mbit sind eben nicht genug.
Was meinst, passiert mit der Latenz an nem ollen DSL Anschluss wenn man den Downstream voll macht.
Aha Wifi überall, verlass mal bitte dein Kaff Zentrum....
LTE geht Latenz mässig garnicht, und nicht vergessen ausshalb deines Weltzentrums stehen überall 800MHz Masten.

Karümel
2018-07-25, 18:05:35
Falls es eine Streamvariante geben wird, denke ich das das eher eine Art Testballon wird.
Also das Teil für minimale Stückzahlen gedacht ist.

Wehe hier fängt jetzt jemand an mit 5G oder so.

DinosaurusRex
2018-07-25, 19:07:33
Das Problem ist doch aber nach wie vor die verfügbare Bandbreite auf der letzten Meile.
(...)

Das wird aber nicht so bleiben. Nach dieser Logik hätte es Dienste wie Spotify oder Netflix niemals geben dürfen, denn früher gab es dafür auch nicht genug Bandbreite. Heute streamt jeder Depp seine Filme mit 4k ins Wohnzimmer. Das Streaming kommen wird ist so sicher wie das Amen in der Kirche und es wird die traditionelle, lokale Rechenleistung auch verdrängen.

Ich weiß auch gar nicht, warum sich immer so viele dagegen wehren? Ich bin ehrlich gesagt ziemlich froh, dass ich keine CDs, DvDs und BluRays mehr kaufen muss. Für Videospiele wünsche ich mir das gleiche. Ich finde es immer bemerkenswert, wie fortschrittsfeindlich viele Teilnehmer in Technikforen sind.


Wehe hier fängt jetzt jemand an mit 5G oder so.

https://www.askideas.com/media/37/Jim-Carry-Laughing-Funny-Gif-Picture.gif

aufkrawall
2018-07-25, 19:11:33
Bis es Streaming ohne Chroma Subsampling gibt, ist wahrscheinlich das halbe Board hier schon gestorben. Toller "Fortschritt"...

DinosaurusRex
2018-07-25, 19:18:45
Bis es Streaming ohne Chroma Subsampling gibt, ist wahrscheinlich das halbe Board hier schon gestorben. Toller "Fortschritt"...

Das glaube ich nicht. Egal wo man hinguckt, die Hardcore Szene ist immer am konservativsten. Geh mal in ein Hifi Forum, da gibt es immer noch so viele, die sich einzelne Bausteine hinstellen wie vor 30 Jahren, obwohl eine rein aktive Digitalkette in jeder Hinsicht die bessere Lösung ist. Oder bei Autos, da sind es die Autofans gewesen, die am lautesten gegen Elektroantriebe gewettert haben, obwohl ein Tesla alles verbläst, was ihm in die Quere kommt. Und selbst bei den Filmen ist es so: Da verzichten die Leute auf Streaming, weil der Sound einer BluRay ja doch um so toller ist (und am Ende aktivieren sie trotzdem die Loudness am Receiver, damit sie die Dialoge besser verstehen...).

Ich denke Hardcore Fans eifern ihren Jugendträumen nach (die fette Anlage, der Ferrari, der high-end Rechner) und wenn es dann einen Paradigmenwechsel gibt, wollen sie das nicht akzeptieren.

aufkrawall
2018-07-25, 19:28:54
Das glaube ich nicht. Egal wo man hinguckt, die Hardcore Szene ist immer am konservativsten.
Was hat das Eine jetzt mit dem Anderen zu tun? :freak:
Schau dir Screenshots von Farbbombern wie Trine 2/3 mit und ohne 4:2:0 CSS an, das ist eine völlige Zerstörung der BQ. Das ist auch schon wieder überhaupt nicht mit Filmen oder Musik vergleichbar...
Klar ist das technisch kein großes Problem, aber imho wird das aus Ignoranz erstmal lange verkackt werden.

HOT
2018-07-25, 19:31:07
Das ist ein Hype. Den versucht die Industrie jetzt mit biegen und brechen zu forcieren und dann verschwindet der Mist wieder in eine Nische, wo es hingehört. Ähnliches ist ja VR wiederfahren... Sind halt $$$ für die Industrie, Abos sind super kalkulierbare Einnahmen, aber in der Praxis schlicht irrelevant, da die Probleme schlicht unlösbar sind. Der Markt wirds en gros einfach nicht annehmen, das ist jetzt schon klar. Es gibt dann halt wieder optisch eher minderwertige Sachen, die dann darüber problemlos machbar sind, also ne Konsole für zwischendurch vllt, aber jemand, der aufwendige Titel spielen möchte, ist das schlicht irrelevant, der wirds nicht kaufen.

DinosaurusRex
2018-07-25, 19:31:22
Schau dir Screenshots von Farbbombern wie Trine 2/3 mit und ohne 4:2:0 CSS an, das ist eine völlige Zerstörung der BQ. Das ist auch schon wieder überhaupt nicht mit Filmen oder Musik vergleichbar...
Klar ist das technisch kein großes Problem, aber imho wird das aus Ignoranz erstmal lange verkackt werden.


Ich wette das fällt 99% der potenziellen Kundschaft überhaupt nicht auf. Klar, wenn man einen 5.000€ TV vom Profi kalibrieren lässt, dann kann man sich über sowas aufregen.

HOT
2018-07-25, 19:36:44
Ich wette das fällt 99% der potenziellen Kundschaft überhaupt nicht auf. Klar, wenn man einen 5.000€ TV vom Profi kalibrieren lässt, dann kann man sich über sowas aufregen.
Es geht nicht darum, was auffällt. Es wird einfach nicht angenommen von der Kundschaft, weil es schlechter ist als Hardware. Das wissen die Käufer ganz einfach. Wer ne Konsole kauft, möchte ein starkes Spielegerät, der will nen Golf, keine Ente. Warum soll der ne Ente kaufen? Das ist der ganze Denkfehler bei diesem Hype. Es geht ganz einfach an der Zielgruppe vorbei.