Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)
Nightspider
2016-11-02, 15:10:44
Wird beim Checkerboard Rendering die Vegetation, welche ja meist nicht aus Geometrie besteht, auch in 4K gerendert, also gerade sowas wie Grashalme,Baumblätter und Äste usw?
robbitop
2016-11-02, 15:11:35
Der Trick bei Sonys Variante des Checkerboarding ist, dass Geometrie in voller Aufloesung gerendert werden kann (Z- und ID-Buffer liegen dann in voller 4k-Aufloesung vor) und die Farbsamples eben im Schachbrett, wodurch feine Details etwas besser rekonstruiert werden koennen (und bei statischen Szenen durch Wechsel des Musters von Frame zu Frame und temporale Rekonstruktion die volle 4k-Aufloesung hinbekommt). Das war es aber auch schon so ziemlich, auch wenn das ganz clever ist.
IIRC kommt auch 2xMSAA zum Einsatz für die Rekonstruktion, oder? Ich hatte es zumindest so im Hinterkopf.
Wird beim Checkerboard Rendering die Vegetation, welche ja meist nicht aus Geometrie besteht, auch in 4K gerendert, also gerade sowas wie Grashalme,Baumblätter und Äste usw?
Für 9 von 9 Pixeln liegt Geometrie vor, für 4 von 9 wird der Farbwert berechnet. Die verbleibenden 5 Pixel wird aus diesen 4 Werten, der vorhandenen Geometrie + Werte aus dem Vorgängerbild rekonstruiert. Der Informationsinhalt entspricht ungefähr 1800p. Das Ergebnis ist durch die Verteilung und die temporale Rekonstruktion aber besser als ein von 1800P auf 2160P aufskaliertes Bild. (der Vergleich zur Xbox One S hinkt, weil diese ja nur von 1080p auf 2160p aufbläst - die Pro packt Faktor 2,3x an Informationen in das Bild)
Nichtgeometrie neigt in Bewegung vermutlich eher zu Nachteilen... Um das halbwegs zu kompensieren gibt es die temporale Komponente. Soweit ich weiß, wird die Position der 4 berechneten Pixel von Bild zu Bild alterniert, so dass Pixelpositionen, die im Frame n fehlen, in Frame n-1 abgetastet wurden.
aufkrawall
2016-11-02, 15:16:08
Neuronale Netzwerke, die (mit aehnlichen Bildern!) trainiert werden muessen und dann im Prinzip nicht vorhandene Details dazu halluzinieren? Ernsthaft?
Funktioniert immerhin schon mal bei Video mit NNEDI3 sehr gut in Echtzeit.
Allerdings für 4k eben immens teuer, einen teuren Scaler mit Compute Shadern bekommt man wohl nicht mal eben so in FF-Einheiten.
Besser als Lanczos2 oder 3 (bzw. Alles was im Prinzip aehnlich aussieht, dazu gehoeren auch die bikubischen Filter) wird es in der Praxis kaum werden. Da kann man hoechstens an Details feilen.
Lineare Scaler verlieren bei hohen Skalierungs-Faktoren schon arg gegen Verdoppler wie NNEDI3 oder super-xbr. Linear ist immer ziemlich aliased im Vergleich.
Lurtz
2016-11-02, 15:28:41
Digital Foundry hat Spiele mit Checkerboard Upscaling gesehen - die fanden es erstaunlich gut. DF ist dafür bekannt, bei solchen Dingen eher differenziert und kritisch zu sein. Natives 4K wird dennich besser sein - soviel ist klar.
Absolut.
http://666kb.com/i/ddrxnon1cejt0msp4.png
Als besonders kritisch ist mir Digital Foundry nicht wirklich bekannt. Und ja, ich lese mehr als die Überschriften.
robbitop
2016-11-02, 15:39:23
Sie sind die einzigen, die vernünftige Analysen zu Frameraten, Frameratenverteilung, Geometrie- Texturdetails für Konsolen bieten. In der Regel sind diese Analysen sehr detailiert und differenziert.
Zeige bitte konkrete Gegenbeispiele in Artikeln oder Youtubevideos.
aufkrawall
2016-11-02, 15:40:26
Aber nicht kritisch.
robbitop
2016-11-02, 15:43:24
Je nach dem, wo man den Maßstab setzt. IMO sind sie, wenn es um Tech-Analyse für Konsolen geht, jedenfalls die Nr. 1.
Lurtz
2016-11-02, 15:47:21
Sie sind die einzigen, die vernünftige Analysen zu Frameraten, Frameratenverteilung, Geometrie- Texturdetails für Konsolen bieten. In der Regel sind diese Analysen sehr detailiert und differenziert.
Zeige bitte konkrete Gegenbeispiele in Artikeln oder Youtubevideos.
Ja, das tun sie sehr gut und ausführlich.
Das heißt noch lange nicht, dass sie unbedingt kritisch oder ohne Bias vorgehen.
Zumal sich ihre Benchmarks im PC-Bereich auch regelmäßig mit anderen Seiten beißen.
aufkrawall
2016-11-02, 15:49:02
Das würde ich so nicht unterschreiben. Die Benchmark-Szenen sind halt transparent und immerhin immer mit FCAT-Frametimes.
Wenn, dann liegen wohl eher andere Seiten falsch. Bei ME: C hatten sie auch ihre Ergebnisse mit der VRAM-Beschränkung korrigiert.
robbitop
2016-11-02, 16:01:02
Wenn das Verfahren nicht besonders gut funktionieren würde, wären sie nicht so begeistert davon. Sie haben es ja im Video relativ detailiert beschrieben und auch entsprechend der gezeigten Szenen und Spiele differenziert. Ob nun super kritisch oder nicht. Reputation bleibt Reputation.
Auch würden die Spiele würden es nicht implementieren, wenn sie alternativ einfaches 1800p Upscaling machen könnten, ohne ein schlechteres Ergebnis zu erzielen.
Selbstverständlich ist natives 4K besser.
Ich vermute, dass das Ergebnis des Verfahrens von Spiel zu Spiel variiert. So wie es mit allen Rekonstruktionsverfahren ist. Es gibt Spiele da sieht SMAA T2x / T1x sehr gut aus, blurt und flimmert wenig - und es gibt Spiele, da ghostet und/oder flimmert es wie sonstwas.
Das steht und fällt mit der Implementierung und Konfiguration. Sony täte gut daran, die Implementierung des Verfahrens bei jedem Studio zu begleiten...
Gipsel
2016-11-02, 20:13:27
Ja. Stell dir mal vor, man würde aus mehrere Frames wieder Details herbeihalluzinieren, die grade durch zu grobes Sampling verschwunden sind. Klingt absolut unbrauchbar...Ja es ist für den allgemeinen Fall unbrauchbar, weil die hervorgezauberten Details gar nicht im Ausgangsmaterial vorhanden waren. Abhängig vom Trainingsmaterial (und den gewählten Parametern) erzeugst Du Artefakte. Anders gesagt zwingst Du den Algorithmus dazu, Muster im Rauschen oder Tiere in Wolken zu sehen, auch wenn gar keine da sind. Das macht das Bild nicht wahrheitsgetreuer. Auch wenn es (je nach Training) realistisch aussehen mag, ist es weiter vom Original weg als andere Upscaling-Methoden.
Man könnte meinen, dass du nicht weißt wie Research funktioniert, was ich mir aber nicht vorstellen kann.
Das hier war nie für Echtzeitgrafik gedacht. Trotzdem gab es daraus (nicht in dem Link...) viele Ideen was man für Echtzeitgrafik ausprobieren könnte. Da wird natürlich niemand solch starkes Upsampling machen, aber ich bin mir recht sicher, dass wir in der Grafikpipeline in 10 Jahren an einige Stellen simple Netze haben werden.
Selbst beim Checkerboard Rendering kann man vielleicht noch etwas an Qualität rausholen.Mein Anspruch an Qualität ist eine möglichst geringe Abweichung zum (hochaufgelösten) Original. Das kann man quantifizieren. Neuronale Netze können helfen, wenn (unregelmäßige) Störungen oder sonstwas das Bild schlechter machen, weil dann eine Mustererkennung dieses teilweise kompensieren kann. Aber für das Skalieren von Grafik würde ich lieber bei bewährten und beweisbar guten Methoden bleiben.
IIRC kommt auch 2xMSAA zum Einsatz für die Rekonstruktion, oder? Ich hatte es zumindest so im Hinterkopf.Das Samplepattern entspricht ein wenig 2x MSAA (hochskaliert). Damit wird das wohl bei Rainbow Six gemacht (die rendern also technisch tatsächlich z.B. 1080p mit 2xMSAA). Dann fehlen aber die zusätzlichen Samples, auf die die PS4Pro zugreifen kann (und der ID-Buffer auch).
Denn bei der PS4Pro kann man offenbar die Samplingfrequenz für Pixelshader flexibler gesetzt werden. In DirectX kann man die Pixelshader entweder mit Samplingfrequenz laufen lassen (also für jedes AA-Sample, dann macht man Supersampling) oder mit Pixelfrequenz (also für jeden Pixel, das ist dann Multisampling, Z- und Color-Buffer haben aber immer die voller Sampleanzahl). Auf der PS4Pro gibt es verschiedene, funktional äquivalente Betrachtungsweisen beim Checkerboard, aber am einfachsten ist wohl folgende:
Man rendert 4k, läßt den Pixelshader aber nur mit halber Pixelfrequenz laufen (im Schachbrett angeordnet) oder gar nur mit einem Viertel der Pixelfrequenz (nennt Sony Geometry-Rendering).
Dabei nutzt man wohl, daß die Hardware relativ flexibel ist, für welche Samples genau dann jetzt die Pixelshader wirklich ausgeführt wird und nutzt die für MSAA eingebauten Optimierungen und daß man die Werte der einzelnen Samples für einen Pixel aus Farb- und Z-Buffer auch getrennt einlesen kann. Technisch entspricht das im Prinzip erstmal einem 1080p Rendering mit 4xAA, was nicht komplett zum SSAA aufgewertet wurde, sondern nur halb (doppelt so viele Multisamples wie Supersamples). Anschließend rechnet man die Samples von den 4 Positionen (an 2 Positionen hat man Pixelshader-/Farb- Z- und ID-Samples, an zwei weiteren Positionen nur Z- und ID-Buffersamples [evtl. wird der Farbpuffer an den Positionen der "fehlenden" Pixelshaderausführungen wie bei MSAA mit den Farbwerten des nächstgelegenen Samples vorbelegt]) nicht wie bei AA zu einem einzigen Pixel zusammen sondern rekonstruiert daraus das Bild mit voller 4k Sampleauflösung.
Für 9 von 9 Pixeln liegt Geometrie vor, für 4 von 9 wird der Farbwert berechnet. Die verbleibenden 5 Pixel wird aus diesen 4 Werten, der vorhandenen Geometrie + Werte aus dem Vorgängerbild rekonstruiert. Der Informationsinhalt entspricht ungefähr 1800p. Das Ergebnis ist durch die Verteilung und die temporale Rekonstruktion aber besser als ein von 1800P auf 2160P aufskaliertes Bild. (der Vergleich zur Xbox One S hinkt, weil diese ja nur von 1080p auf 2160p aufbläst - die Pro packt Faktor 2,3x an Informationen in das Bild)Das mit den 4 von 9 Pixeln stimmt nur, wenn man das jeweils zentriert um ein "fehlendes" Pixel betrachtet. Ansonsten werden die Pixelshader für exakt die Hälfte aller finalen Pixel ausgeführt. Z- und ID-Buffer mitsamt den Geometrieinformationen enstprechen vollen 4k, die Farbinformationen (Texturen) etwa 1530p (sind dabei aber durch das Schachbrett etwas günstiger angeordnet, so daß die Rekonstruktion etwas bessere Ergebnisse liefert). Das gilt vor dem Einsatz temporaler Rekonstruktion. Und ja, das Samplemuster kann von Frame zu Frame variiert werden, so daß in statischen Szenen nach zwei Frames theoretisch volle 4k zur Verfügung stehen (bei Bewegung muß man mehr Aufwand treiben, geht aber im Prinzip in gewissen Grenzen auch; Artefakte werden sich nicht gänzlich vermeiden lassen, die kann man nur minimieren).
Funktioniert immerhin schon mal bei Video mit NNEDI3 sehr gut in Echtzeit.
Allerdings für 4k eben immens teuer, einen teuren Scaler mit Compute Shadern bekommt man wohl nicht mal eben so in FF-Einheiten.Und das ist noch ein relativ simpler Deinterlacer/Skalierer der auf Faktor 2 (oder Potenzen davon) limitiert ist. Und ich bezweifle übrigens ganz prinzipiell, daß die wirklich bessere Bilder liefern (siehe Anfang des Posts).
Lineare Scaler verlieren bei hohen Skalierungs-Faktoren schon arg gegen Verdoppler wie NNEDI3 oder super-xbr. Linear ist immer ziemlich aliased im Vergleich.Was verstehst Du genau unter "linearen Scalern"? (Bi)lineare Interpolation ist tatsächlich relativ schlecht, aber davon redet ja auch keiner.
Übrigens würde ich wetten wollen, daß wenn man ein hochauflösendes Bild/Video runterskaliert und diese reduzierte Auflösung wieder auf die Ausgangsauflösung hochzieht, diese Neural Network Scaler größere Unterschiede zum Original zeigen als ein "herkömmlicher" guter Scaler. Also im allgemeinen Fall (beliebige Bildinformation mit allen möglichen und unmöglichen Strukturen), nicht irgendwas Einfaches, was geradezu darauf designt ist, den neuralen Netzwerken zu gefallen.
Mein Anspruch an Qualität ist eine möglichst geringe Abweichung zum (hochaufgelösten) Original. Das kann man quantifizieren. Neuronale Netze können helfen, wenn (unregelmäßige) Störungen oder sonstwas das Bild schlechter machen, weil dann eine Mustererkennung dieses teilweise kompensieren kann. Aber für das Skalieren von Grafik würde ich lieber bei bewährten und beweisbar guten Methoden bleiben.
Ich unterstelle dir nach der Antwort mal Wissenslücken in dem Bereich.
Wir können aber ja in 10 Jahren mal schauen und falls du recht behalten hast, gebe ich dir auch gerne ein Bier aus. ;)
aufkrawall
2016-11-03, 01:08:25
Und das ist noch ein relativ simpler Deinterlacer/Skalierer der auf Faktor 2 (oder Potenzen davon) limitiert ist. Und ich bezweifle übrigens ganz prinzipiell, daß die wirklich bessere Bilder liefern (siehe Anfang des Posts).
Was verstehst Du genau unter "linearen Scalern"?
Keine Ahnung, ob diese Terminologie außerhalb von Video-Scaling Gebrauch findet: Alles, was nicht auf Achsen-Verdopplung beschränkt ist.
Linear passt auch insofern ganz gut, als dass die Artefakte entsprechend mit dem Skalierungsfaktor zunehmen.
Bei niedrig aufgelösten Cartoons vernichtet NNEDI3 dementsprechend jeden linearen Scaler.
Übrigens würde ich wetten wollen, daß wenn man ein hochauflösendes Bild/Video runterskaliert und diese reduzierte Auflösung wieder auf die Ausgangsauflösung hochzieht, diese Neural Network Scaler größere Unterschiede zum Original zeigen als ein "herkömmlicher" guter Scaler. Also im allgemeinen Fall (beliebige Bildinformation mit allen möglichen und unmöglichen Strukturen), nicht irgendwas Einfaches, was geradezu darauf designt ist, den neuralen Netzwerken zu gefallen.
Das wurde im doom9-Forum ausgiebig für madVR getestet:
http://forum.doom9.org/showpost.php?p=1730855&postcount=31986
Den künstlichen Look von NNEDI3 kann man mit SuperRes (https://github.com/zachsaw/MPDN_Extensions/tree/master/Extensions/RenderScripts/SuperRes) gut korrigieren, das Aliasing von herkömmlichen linearen Scalern nicht.
Gipsel
2016-11-03, 09:07:57
Keine Ahnung, ob diese Terminologie außerhalb von Video-Scaling Gebrauch findet: Alles, was nicht auf Achsen-Verdopplung beschränkt ist.Was hat denn die Linearität eines Scalers mit der Beschränkung der Skalierungsfaktoren zu tun? Na egal.
Bei niedrig aufgelösten Cartoons vernichtet NNEDI3 dementsprechend jeden linearen Scaler.Ich war am überlegen, ob ich diesen Spezialfall explizit erwähne. Die hierbei auftretenden klaren Kanten und Flächen eignen sich halt gut.
Das wurde im doom9-Forum ausgiebig für madVR getestet:
http://forum.doom9.org/showpost.php?p=1730855&postcount=31986
Den künstlichen Look von NNEDI3 kann man mit SuperRes (https://github.com/zachsaw/MPDN_Extensions/tree/master/Extensions/RenderScripts/SuperRes) gut korrigieren, das Aliasing von herkömmlichen linearen Scalern nicht.Also out-of the box liefert z.B. Lanczos da mehr Details als NNEDI und die Treppcheneffekte an schrägen Kanten sind ein eindeutiger Hinweis darauf, daß dort ein sogenannter separierbarer Filter mit quadratischem Filterkernel eingesetzt wird. Der ist numerisch einfach (x und y-Richtung werden unabhängig/separat behandelt), aber ist bekannt für genau diese Artefakte. Mit einem echten 2D-Kernel mit runder Form sind die weg. Dann hätte man mehr Schärfe und keine Treppen an den Kanten (ich habe selber mal ein wenig mit verschiedenen Filterformen rumgespielt, separierbare Filter produzieren eigentlich immer Artefakte auf Diagonalen, also schrägen Kanten; sind halt billig, aber eben auch nicht wirklich gut). Lusterweise produziert die Superres-Nachschärfung auch wieder Treppchenartefakte.
Aber wir kommen immer weiter vom Thema weg. Gibt bestimmt irgendeinen alten Technologiethread, den man dafür wiederbeleben könnte.
aufkrawall
2016-11-03, 15:04:07
afaik nutzt der Jinc-Scaler einen 2D-Kernel, und auch der baut der mit starker Skalierung sichtbares Aliasing ein. Und das ist natürlich unabhängig vom Content vorhanden.
Das SuperRes-PP kann mit aggressiver Einstellung Aliasing verursachen, ja. Der positive Effekt ist aber auch bei geringerer Stärke noch sehr deutlich und Aliasing mit NNEDI3 als Prescaler kaum vorhanden.
Ich würd dir aber insofern recht geben, als dass es wohl möglich sein sollte, für den Konsolen-Fall 1800p -> 4k ein gutes Ergebnis mit einem scharfen, weniger rechenintensivem Scaler zu erreichen.
Wie wärs, wenn du für das MPDN (http://forum.doom9.org/showthread.php?t=171120)-Framework bastelst, was du meinst?
tobor
2016-12-08, 22:56:29
Welche Merkmale Ps5 und Xbox 2 wohl haben werden, um sich von den Vorgänger abzusetzen. Mindestens 10-12 Teraflops und Hbm? Wird Sony weiterhin auf Checkerboard setzen und verbessern oder auf natives 4k setzen? "Secret Sauce", da Leistungssteigerungen durch bessere Fertigung immer schwerer zu erzielen ist?
DinosaurusRex
2016-12-09, 08:27:11
Falls es eine neue richtige Generation überhaupt geben wird, dann glaube ich, dass der Fokus auf Services und Ökosystem liegen wird und nicht mehr so sehr auf der Hardware. Soziale Interaktion, Streaming, etc.
Hauptgegner der neuen Konsolen werden im Gegensatz zu dieser Gen nicht mehr Gaming PCs sein, sondern Smartphones mit richtig coolen Augmented Reality Features.
THEaaron
2016-12-09, 08:40:53
Das glaube ich absolut nicht. Für augmented reality gibt es bisher nur ein großes erfolgreiches Beispiel und das ist Pokemon Go. Ich sehe eine weitere Gen mit Fokus auf mehr Leistung und VR.
DinosaurusRex
2016-12-09, 08:44:19
Ich sehe eine weitere Gen mit Fokus auf mehr Leistung und VR.
Kein Management der Welt, das einigermaßen zurechnungsfähig ist, wird nach den letzten Monaten großartig in VR investieren. Null Wachstum, Vive und OR sind mehr oder weniger gefloppt und selbst die Prognosen für PSVR wurden um Faktor 5 nach unten korrigiert.
THEaaron
2016-12-09, 08:48:11
Das kann man genauso über den Gegner "Smartphone" sagen. Das ist einfach kein konkurrierender Markt.
€: Smartphones als Gaming Geräte taugen einfach schon aus Gründen der Haptik und Bedienbarkeit nicht um als wirklicher Konkurrent zu gelten. Nicht, dass wir uns falsch verstehen. ;)
DinosaurusRex
2016-12-09, 09:14:26
Genau so haben damals auch schon Spiegelreflex-Besitzer argumentiert. Heute fotografieren nur noch Profis und Rentner mit solchen Geräten. Das Smartphone ist Fotoapparat Nummer Eins.
Und grundsätzlich steht ein Smartphone nicht in Konkurrenz zu Peripheriegeräten. Es steht in Konkurrenz zu stationärer Rechenleistung, wie sie PCs und Konsolen derzeit bieten. Smartphone + Dockingstation + Controller und schon braucht kein Schwein mehr eine Heimkonsole.
Ich glaube, dass Smartphones innerhalb der nächsten fünf bis zehn Jahre PCs und Konsolen vollständig abgelöst haben werden. Einzige Ausnahme sind professionelle Anwendungsgebiete.
THEaaron
2016-12-09, 09:17:36
Zehn Jahre vielleicht. Fünf? Niemals. Dafür rennt die stationäre Rechenleistung noch zu sehr der mobilen davon. Wir werden ja mit Switch sehen wie viel Power man für 250-350€ als Gaming Tablet bekommt. Du musst diese Leistung ja erstmal mit einem Smartphone erreichen und bis dahin ist die stationäre Rechenleistung einfach schon wieder viel zu weit.
Bis sich das Smartphone als Ersatz für die stationäre Rechenleistung anbietet muss noch das ein oder andere kleine Wunder geschehen, imho.
Lurtz
2016-12-09, 09:18:02
Kein Management der Welt, das einigermaßen zurechnungsfähig ist, wird nach den letzten Monaten großartig in VR investieren. Null Wachstum, Vive und OR sind mehr oder weniger gefloppt und selbst die Prognosen für PSVR wurden um Faktor 5 nach unten korrigiert.
Mit Smartphones verdient ja auch keiner außer Apple (und Google selbst) Geld.
Ich denke der Markt wird sich komplett aufteilen. Einmal die Enthusiasten, die immer mehr Geld in teure Insellösungen investieren, auf der anderen Seite immer "billigere" (zu produzierende) Massentitel.
DinosaurusRex
2016-12-09, 09:21:33
Mit Smartphones verdient ja auch keiner außer Apple (und Google selbst) Geld.
In jedem iPhone steckt eine Sony Kamera, ein Samsung Display, ein Qualcomm Modem, etc. Von den unzähligen Software-Herstellern mal ganz zu schweigen. Da verdienen genug Parteien mit. Das ist eine riesige Wertschöpfungskette.
Kein Management der Welt, das einigermaßen zurechnungsfähig ist, wird nach den letzten Monaten großartig in VR investieren. Null Wachstum, Vive und OR sind mehr oder weniger gefloppt und selbst die Prognosen für PSVR wurden um Faktor 5 nach unten korrigiert.
Die PSVR Prognosen der Analysten wurden nach unten korrigiert unter anderem weil Sony nicht mehr liefern kann, obwohl sie die Produktion schon nach oben geschraubt haben. Das war ganz klar ein Griff ins Hype Klo. Für Sony selbst wurden die Erwartungen wohl übertroffen....
THEaaron
2016-12-09, 09:43:24
Related
http://www.ign.com/articles/2016/11/01/psvr-sales-are-on-track-according-to-sony
DinosaurusRex
2016-12-09, 09:49:59
Für Sony selbst wurden die Erwartungen wohl übertroffen....
Eher im Gegenteil. Kaz Hirai hat die neue strategische Ausrichtung auf Smartphones bereits im Herbst angekündigt. In meinen Augen komplett richtig. Sonys Fate / Grand Order macht in Japan sogar mehr Knete als Pokemon Go.
Quelle (http://m.neogaf.com/showthread.php?t=1322421)
ravage
2016-12-09, 09:53:32
Das Beispiel mit den Kameras hinkt gewaltig. Hobby Knipser kommen problemlos mit einem Smartphone aus. Mobilität und der immer-dabei Vorteil sind hier das wichtigste. Die zusätzliche Leistung einer richtigen Kamera wird nicht benötigt. Nur Profils greifen noch zu teuren Kameras.
Bei PCs (und Konsolen profitieren von der PC Entwicklung) wird die zusätzliche Leistung sowohl im Profi Bereich (Workstations) als auch gerade im Hobby (Gaming) bereich gebraucht. Hier können Smartphones höchstens Office PCs überflüssig machen.
THEaaron
2016-12-09, 09:54:20
Eher im Gegenteil. Kaz Hirai hat die neue strategische Ausrichtung auf Smartphones bereits im Herbst angekündigt. In meinen Augen komplett richtig. Sonys Fate / Grand Order macht in Japan sogar mehr Knete als Pokemon Go.
Quelle (http://m.neogaf.com/showthread.php?t=1322421)
In Japan. Da ist der stationäre Konsolenmarkt so gut wie nicht mehr vorhanden. Dazu gibt es nirgendwo etwas wo gesagt wird, dass man sein Hauptgeschäft auf den mobilen Sektor ausrichten würde.
Das ist eher ein zusätzlicher Markt als ein kompletter Fokus auf was neues.
DinosaurusRex
2016-12-09, 10:10:31
Bei PCs (und Konsolen profitieren von der PC Entwicklung) wird die zusätzliche Leistung sowohl im Profi Bereich (Workstations) als auch gerade im Hobby (Gaming) bereich gebraucht.
Professionelle Anwendungsgebiete habe ich bewusst ausgeklammert, aber für alles andere ist der Mehrwert für die breite Masse, den die Integration mitbringt, viel größer als der Mehrwert einer höheren Rechenleistung.
ravage
2016-12-09, 10:18:34
Professionelle Anwendungsgebiete habe ich bewusst ausgeklammert, aber für alles andere ist der Mehrwert für die breite Masse, den die Integration mitbringt, viel größer als der Mehrwert einer höheren Rechenleistung.
Wo siehst du denn da den Übergang? Auch heute haben Konsolen wie die PS4 (Pro) nur noch den Vorteil der höheren Leistung.
Man kann auch heute schon sein Smartphone an den TV stecken und mit einem Bluetooth Controller zocken. Nur macht das keiner. Da kauft man sich lieber eine PS4.
Und Mobiles Gaming mit dem Smartphone, auch der ganze AR kram, ist nur eine Ergänzung und niemals ein Ersatz zu Konsolen.
Eher im Gegenteil. Kaz Hirai hat die neue strategische Ausrichtung auf Smartphones bereits im Herbst angekündigt. In meinen Augen komplett richtig. Sonys Fate / Grand Order macht in Japan sogar mehr Knete als Pokemon Go.
Quelle (http://m.neogaf.com/showthread.php?t=1322421)
Da besteht imo kein direkter Zusammenhang. Den muss man sich schon irgendwie dazu dichten
DinosaurusRex
2016-12-09, 13:12:49
Da besteht imo kein direkter Zusammenhang. Den muss man sich schon irgendwie dazu dichten
Kaz Hirai hat in diesem Jahr öffentlich gesagt, dass er nicht daran glaubt, dass VR das Next Big Thing der Unterhaltungselektronik wird. Gleichzeitig hat er die Wichtigkeit von Smartphones betont. PSVR hat praktisch null Marketing-Präsenz im Vergleich zum Rest der PlayStation-Sparte und erst vor ein paar Wochen hat Sony Studios eingestampft, die exklusiv an VR-Spielen gearbeitet haben. Der einzige, der hier was erdichtet bist du, in dem du harte Fakten nicht anerkennen willst. Die Verkaufszahlen von VR sind durch die Bank beschissen und Wachstum ist in diesem Markt praktisch nicht vorhanden. Der Markt ist jetzt schon tot, die Hersteller werden nur noch ihre Bestände abverkaufen und im nächsten Jahr bricht das Augmented Reality-Zeitalter an.
Kaz Hirai hat in diesem Jahr öffentlich gesagt, dass er nicht daran glaubt, dass VR das Next Big Thing der Unterhaltungselektronik wird. Gleichzeitig hat er die Wichtigkeit von Smartphones betont. PSVR hat praktisch null Marketing-Präsenz im Vergleich zum Rest der PlayStation-Sparte und erst vor ein paar Wochen hat Sony Studios eingestampft, die exklusiv an VR-Spielen gearbeitet haben. Der einzige, der hier was erdichtet bist du, in dem du harte Fakten nicht anerkennen willst. Die Verkaufszahlen von VR sind durch die Bank beschissen und Wachstum ist in diesem Markt praktisch nicht vorhanden. Der Markt ist jetzt schon tot, die Hersteller werden nur noch ihre Bestände abverkaufen und im nächsten Jahr bricht das Augmented Reality-Zeitalter an.
Die Erwartungen die Sony an VR hat wurden größtenteils von Analysten angedichtet. Genauso wie sie den VR Hype generiert haben, der für jeden mit etwas Verstand übertrieben war.
Deine Augmented Reality Meinung in allen Ehren. Aber da sind wir von brauchbarer Hardware und Anwendungen noch wesentlich weiter entfernt. Aber es ist halt der nächste Analysten Liebling.
DinosaurusRex
2016-12-09, 13:43:54
Deine Augmented Reality Meinung in allen Ehren. Aber da sind wir von brauchbarer Hardware und Anwendungen noch wesentlich weiter entfernt. Aber es ist halt der nächste Analysten Liebling.
Was heißt hier weit entfernt? Was glaubst du, warum alle high-end Smartphones mit dual cameras ausgestattet werden?
Was heißt hier weit entfernt? Was glaubst du, warum alle high-end Smartphones mit dual cameras ausgestattet werden?
Sehr weit und nein, die Dual Kameras haben damit nichts zu tun.
Die Ideen kommen das aus Computational Photography....
Woher nimmt man eigentlich eine solche Motivation zur destruktiven Stimmungsmache?
DinosaurusRex
2016-12-09, 16:02:16
Woher nimmt man eigentlich eine solche Motivation zur destruktiven Stimmungsmache?
Ich äußere nur meine Meinung. Wenn du mir Autorität zusprichst, bist du selber Schuld.
IC3M@N FX
2016-12-09, 19:33:20
Ich kann das nicht nachvollziehen, die Playstation VR ist überall ausverkauft. Es gibt sie weder bei Amazon, Saturn, Media Markt, Otto oder Neckermann...... sie ist komplett weg die erste und zweite Charge ist weg! Welche Analysten sollen das gewesen sein?
In USA gibt sie nicht mehr über Wallmart oder Amazon.com direkt! Nur noch überteuerter Privatverkauf bei Amazon. Woher zum teufel kommt die Annahme die würde sich nicht verkaufen?????
Loeschzwerg
2016-12-09, 20:08:22
Gibt es Aussagen zur Stückzahl von PS VR?
Superdata:
https://www.vg247.com/2016/11/30/vr-was-the-biggest-loser-in-sales-this-year-psvr-sales-forecast-greatly-lowered-superdata/
IC3M@N FX
2016-12-09, 20:43:00
Superdata:
https://www.vg247.com/2016/11/30/vr-was-the-biggest-loser-in-sales-this-year-psvr-sales-forecast-greatly-lowered-superdata/
Diese sogenannten Analysten, können die mir vielleicht erklären warum die Playstation VR restlos ausverkauft ist überall? Wenn sie doch die biggest loser sind als Endgerät. Eher ist es so das nicht mehr verkauft werden können, weil schlichtweg die Geräte fehlen! Die Nachfrage und bedarf übersteigt weit mehr als der Bestand also die Produktions Menge......
Diese sogenannten Analysten, können die mir vielleicht erklären warum die Playstation VR restlos ausverkauft ist überall?
Analysten machen halt keine Fehler. Wenn sie komplett daneben liegen, ist das die Schuld der anderen und nicht der eigene. Eine Argumentation dafür findet man immer.
Nightspider
2016-12-09, 22:17:41
Welche Merkmale Ps5 und Xbox 2 wohl haben werden, um sich von den Vorgänger abzusetzen. Mindestens 10-12 Teraflops und Hbm? Wird Sony weiterhin auf Checkerboard setzen und verbessern oder auf natives 4k setzen? "Secret Sauce", da Leistungssteigerungen durch bessere Fertigung immer schwerer zu erzielen ist?
10-12 Teraflops klingen recht realistisch. Dazu ~16-24 GB GDDR5 oder HBM2.
Die neuen Konsolen dürften dann auch ~500GB PCIe SSDs Speicher bekommen, welcher mit bis zu 3TB/s angebunden sein könnte. (NVMe)
Wenn die Spiele auf so hohe Speicherbandbreiten optimiert werden könnte das schon zu paar neuen Entwicklungen führen.
Mich würde es auch nicht wundern wenn in alle Controller dann noch eine Kamera eingebaut wird.
Foobar2001
2016-12-09, 22:55:36
500GB ist viel zu wenig fuer zukuenftige Spiele.
IC3M@N FX
2016-12-09, 23:28:28
Selbst 1TB ist schon zu wenig die meisten ambitionierten Spiele haben zwischen 50-75GB wie soll 500GB da reichen???
Spätestens zur PS5/Xbox Next wird 80-120GB pro Spiel keine Seltenheit mehr sein. Ich bezweifele sogar das SSD Platten serienmäßig da reinkommen werden, entweder es kommen normale Platten 1TB groß und parallel eine Deluxe Version 3TB HDD oder SSHD niemals eine SSD das ist Wunschdenken. Ich kann mir 16 GB HBM2 vorstellen, es wird aber bei 8 Kernen bleiben denk ich, die IPC wird um 60-80% erhöht pro Kern, die werden diesmal keine Lowcost CPU nehmen eher unteres Midrange.... die GPU hat sicher 10-12 Teraflops dann wird 4K normal sein, wie es auch erst bei der Xbox One/PS4 900p-1080p normal war obwohl die Xbox 360/PS3 als FullHD Konsolen damals angepriesen wurden unabhängig von Content und Asset......
Foobar2001
2016-12-09, 23:33:10
Ich denke es wird auf ein Hybrid-System mit SSD-Cache hinauslaufen. So wie die HDD bei der PS3-Generation als Cache fuer die optischen Laufwerke eingesetzt wurde.
Demogod
2016-12-10, 02:28:17
die gecrackte version von quantum break is 172gb w00t
Nightspider
2016-12-10, 02:42:12
Ich schätze mal das die Videosequenzen in 4K in Zukunft vllt eh optional gestreamt werden können damit man keine riesigen Dateien mehr auf den kleinen HDDs der Konsolen braucht.
vad4r
2016-12-10, 03:19:30
Klingt plausibel, ich kann mir aber auch vorstellen, das man sich dann einfach Datengräber dazukaufen darf. 2TB sind drin, wer will, muss eben blechen. Früher wurde auf die Datenmenge noch Rücksicht genommen, die Zeiten sind lange vorbei...
][immy
2016-12-10, 08:53:56
Diese sogenannten Analysten, können die mir vielleicht erklären warum die Playstation VR restlos ausverkauft ist überall? Wenn sie doch die biggest loser sind als Endgerät. Eher ist es so das nicht mehr verkauft werden können, weil schlichtweg die Geräte fehlen! Die Nachfrage und bedarf übersteigt weit mehr als der Bestand also die Produktions Menge......
Nö, zumindest hier im ruhrgebiet gibt es die noch recht häufig. Aber sony scheint auch nicht so besonders viele ausgeliefert zu haben, vermutlich weil sie nicht am ende drauf sitzen bleiben wollten. Ist halt nach wie vor ein Nischen-Produkt. Dank der ps4pro ist es um osvr auch ziemlich ruhig geworden, das war aber auch zu erwarten bei so einem quasi gleichzeitigem launch.
IC3M@N FX
2016-12-10, 09:38:03
Wo denn im Ruhrgebiet???? Die ganzen Elektronik/Kaufhäuser haben ein Onlineshop, und da ist nix mehr vorhanden! Privatverkauf zählt nicht die verlangen andere Preise........
Loeschzwerg
2016-12-10, 10:50:13
[immy;11233000']Nö, zumindest hier im ruhrgebiet gibt es die noch recht häufig. Aber sony scheint auch nicht so besonders viele ausgeliefert zu haben, vermutlich weil sie nicht am ende drauf sitzen bleiben wollten. Ist halt nach wie vor ein Nischen-Produkt. Dank der ps4pro ist es um osvr auch ziemlich ruhig geworden, das war aber auch zu erwarten bei so einem quasi gleichzeitigem launch.
Deswegen meine Frage nach den Stückzahlen.
---
Von den 4 PSVR Besitzern in meinem Freundeskreis nutzt aktuell keiner mehr das Ding. Einer wird die PSVR mit Resi7 wieder auspacken, der Rest überlegt den Verkauf.
Das ganze VR Thema ist für mich eine absolute Enttäuschung weil schlichtweg kein Titel vorhanden sind und auch nicht viel in der Pipeline ist.
Kabellos, besseres Display und mehr Inhalt, dann erst kann das Thema was werden (weil für die Masse zugänglicher).
Das ganze VR Thema ist für mich eine absolute Enttäuschung weil schlichtweg kein Titel vorhanden sind und auch nicht viel in der Pipeline ist.
Was haben sie denn ausprobiert?
Meine Erfahrung ist, dass viele die mitgelieferten Demos ausprobieren, die nicht so extrem cool sind und dann war es das. Falls das generell der Fall ist, wäre das ein eindeutiges Marketingproblem... Weil so wenige Spiele gibt es nicht.
Loeschzwerg
2016-12-10, 11:09:54
Die haben überwiegend natürlich die Demos gespielt und hätten sich daraufhin für weitere Spiele entschieden. Einer hat das Display bemängelt (Auflösung), zwei weitere die Kabel (bzw. den Kabelsalat), dem anderen ist schlecht geworden ^^
Robinson: The Journey fände ich z.B. ganz interessant, aber ich zahle für ~5 Stunden Spielzeit keinen Vollpreis.
Ich bin da ein Stück weit bei dir, das Marketing ist nicht ideal. Es gibt zwar einige Spiele (http://https://www.netzwelt.de/playstation-vr/155583-playstation-vr-189-spiele-sonys-psvr-brille-entwickelt-21-november.html), aber richtig aus den Socken haut mich davon keines.
Botcruscher
2016-12-10, 11:18:03
Kabellos, besseres Display und mehr Inhalt, dann erst kann das Thema was werden (weil für die Masse zugänglicher).
Den ersten Punkt kannst du schon mal abschreiben. Für die nötige Bandbreite existieren im Markt noch nicht mal das nötige DP1.4 als Kabelanbindung. Ordentlich Displays für VR fangen irgendwo bei 4K low-persistence pro Auge an. Der Inhalt ist ein Henne Ei Problem wobei weite Teile schlicht Kotzinkompatibel sind und nie für VR kommen werden.
Die Frage ist eher was sich nach dem großen Hype als tragfähig erweisen wird.
Loeschzwerg
2016-12-10, 11:28:05
Ich glaube da bleibt nicht viel übrig, weil für die Publisher vermutlich zu wenig Geschäft hinter VR steckt.
Deswegen neuer Anlauf mit kabelloser Brille (einfach Handling für Endanwender) und neuen Spielideen/Konzepten.
IC3M@N FX
2016-12-10, 13:03:31
Deswegen meine Frage nach den Stückzahlen.
---
Von den 4 PSVR Besitzern in meinem Freundeskreis nutzt aktuell keiner mehr das Ding. Einer wird die PSVR mit Resi7 wieder auspacken, der Rest überlegt den Verkauf.
Das ganze VR Thema ist für mich eine absolute Enttäuschung weil schlichtweg kein Titel vorhanden sind und auch nicht viel in der Pipeline ist.
Kabellos, besseres Display und mehr Inhalt, dann erst kann das Thema was werden (weil für die Masse zugänglicher).
Mal ganz ehrlich was habt ihr erwartet das es zum Launch der PS VR 5-6 AAA+ Spiele gibt????
Das ding ist gerade mal 1-2 Monate alt und was ihr alle erwartet hier, es werden schon Enttäuschungen laut...... Glaubst du VR Spiele wachsen wie Äpfel aus dem Bäumen......? Die Hersteller tasten sich ran das ist absolutes Neuland für die.
Das wird noch locker 1 Jahr dauern bis was anständiges dabei rauskommt, und in der Zwischenzeit wird es weiter VR Mini Spiele geben oder zumindest AAA+ Spiele die VR Support haben! Was eigenständiges und hochkarätiges wird es für VR erstmal nicht geben das braucht einfach seine Zeit! Du kannst auch nicht sagen das die DEV´s schon die Geräte und Zeit hatten dabei was ordentliches rauszubekommen. Die hatten ihr 1/2-1 Jahr und mehr als antasten und ausprobieren ist halt erstmal nicht drin. Die müssen erstmal wissen welche Spielmechaniken sinnvoll sind und die Bedienung für den Spieler. So das erste AAA Spiel kommt mit Resident Evil 7 mit kompletten VR support, ich finde es okay das Lineup zumindest momentan, gibt schlechteres zum Launch einer neuen Konsole z.b
Loeschzwerg
2016-12-10, 14:09:46
Kein Grund hier gleich mit ??!! um sich zu werfen ;) ICH habe mir das Ding nicht gekauft und gebe hier lediglich meine zugetragenen Erfahrungen aus dem Gamer-Bereich (keine Hardware-Nerds mit Background) wieder.
Das ist leider der ungeschönte allgemeine Tenor, finde dich damit ab.
Was kann man also daraus schließen? Z.B. dass es hier ein Marketingproblem (siehe Botcruscher) gibt und/oder die ganze Sache evtl. viel zu früh gestartet bzw. zu sehr gehypt wurde.
Für mich ist die ganze Sache in den Brunnen gefallen => Neuer Versuch mit der nächsten Generation
---
Die Stückzahlen zur PSVR würden mich immer noch interessieren.
tobor
2016-12-10, 14:27:55
Leider kann ich den Threadtitel nicht anpassen, aber eine Aktualisierung(nach Ps4 pro, Xbox Scorpio und Nintendo Switch) wäre ganz gut...
IC3M@N FX
2016-12-10, 15:17:57
Kein Grund hier gleich mit ??!! um sich zu werfen ;) ICH habe mir das Ding nicht gekauft und gebe hier lediglich meine zugetragenen Erfahrungen aus dem Gamer-Bereich (keine Hardware-Nerds mit Background) wieder.
Das ist leider der ungeschönte allgemeine Tenor, finde dich damit ab.
Was kann man also daraus schließen? Z.B. dass es hier ein Marketingproblem (siehe Botcruscher) gibt und/oder die ganze Sache evtl. viel zu früh gestartet bzw. zu sehr gehypt wurde.
Für mich ist die ganze Sache in den Brunnen gefallen => Neuer Versuch mit der nächsten Generation
---
Die Stückzahlen zur PSVR würden mich immer noch interessieren.
Sry wollte dich jetzt nicht angreifen, nur muss man auch realistisch bleiben, das ding ist halt neu genauso wie die PS4 Pro. Wo es jetzt schon auch einige Enttäuschungen laut werden. Diese Leute vergessen halt das ein Spiel nachträglich für den Pro Modus gepatcht wurde, nicht wirklich aussagekräftig ist über die Leistung der Konsole. Bestes beispiel Rise of the Tomb Raider Patch 1.04 im Pro und non Pro Modus läuft sauber und stabil Patch 1.05 ruckelt egal welche PS4 Konsole wegen Frame Pacing Probleme. Den Pro Modus wird man erst wirklich bei Spielen sehen die von vorne herein bei der Entwicklung des Spiels berücksichtigt werden z.b bei Horizon Zero Dawn.
krötenfresse
2016-12-15, 22:06:00
Leider kann ich den Threadtitel nicht anpassen, aber eine Aktualisierung(nach Ps4 pro, Xbox Scorpio und Nintendo Switch) wäre ganz gut...
scorpio ist doch noch gar nicht raus ;)
tobor
2017-01-26, 15:54:51
Nun, die Scorpio hat leider kein Hbm. Da wird man wohl bist zur nächsten Generation (2020-2021) warten müssen, bis Spielkonsolen sowas haben.
Ravenhearth
2017-01-26, 16:52:37
Mein Wunsch für die neuen Konsolen in ~2020 wäre:
- Gefertigt in einem der 7nm-Prozesse (zB. GloFo)
- CPU mit Zen oder Zen+ Kernen, höhere Taktrate (über 3GHz), mindestens 4 Kerne plus HT
- GPU in der Klasse von Vega10, also 4096 SPs in der dann aktuellen Iteration der Vega-Architektur, eventuell einige NCUs deaktiviert, etwas weniger Takt (~1,2 GHz). Würde für grob 9 TFLOPs ausreichen
- 16GB HBM-Speicher mit 512 GB/s
- evtl. SSD?
Das sollte laut Milchmädchenrechnung in max. 350mm² machbar sein, je nach Konfiguration und ist durch 7nm und HBM trotzdem etwas kostspieliger als bspw. die originale PS4. Deswegen bis zu $499 Startpreis, je nach Ausstattung (auch Speicher). Ich denke das wäre realistisch.
EvilTechno
2017-01-28, 15:05:03
Was hält dich davon ab, Ravenhearth?
Kauf dir halt einfach einen solchen PC. Subventioniere eventuelle Mehrkosten einfach indem du die PC-Spielepreise mit den Konsolenspielepreisen verrechnest.
Und Gamepads und Zeugs sollte kein Problem sein. Außer vielleicht bei Perlen wie Fallout 4, aber die gehören auch mit Kaufverweigerung bestraft.
Ravenhearth
2017-01-28, 17:14:10
Was hält dich davon ab, Ravenhearth?
Kauf dir halt einfach einen solchen PC. Subventioniere eventuelle Mehrkosten einfach indem du die PC-Spielepreise mit den Konsolenspielepreisen verrechnest.
Und Gamepads und Zeugs sollte kein Problem sein. Außer vielleicht bei Perlen wie Fallout 4, aber die gehören auch mit Kaufverweigerung bestraft.
Ich hab einen PC, steht auch im Profil, und der wird bald aufgerüstet. Aber darum Multiplattformtitel auf neuen Konsolen zu spielen, gehts mir auch nicht. Denn viele andere Leute spielen diese Spiele halt auf Konsolen, und deswegen orientieren sich die Entwickler eben größtenteils an deren Leistung. Ist ja auch kein Geheimnis. Und damit die Grafik wieder einen ordentlichen Sprung hinlegt, müssen die kommenden Konsolen eben schön schnell sein, sonst langweilt sich mein PC in Zukunft. Davon abgesehen habe ich auch eine PS4 für die Exclusives, wo mehr Leistung auch gerne gesehen wäre. ;)
EvilTechno
2017-01-28, 18:43:31
Geschenkt. Ok, eine PS4 ist kein PC. Aber welchen Unterschied macht das? Auf Scorpio soll doch auch XBoxOne Software laufen. Die PS4 MarkII zeigt doch, dass die Konsolen schneller klassische PC Eigenschaften angenommen haben, als angenommen. Vor einiger Zeit nannte ich die neuen Konsolen "Hardwaredongles für besonders teure PC Spiele". Das mag technisch gesehen falsch sein. Aber es spiegelt doch die Realität wieder. Dass Konsolen wichtig seien für die Entwicklung erschließt sich mir nicht. Minecraft wurde nicht für Konsole entwickelt.
Wenn Konsolen helfen sollen AAA Spiele zu finanzieren, dann wird das zeitlich interessant. Die Konsolenhardware darf nicht zu teuer sein, kann also nur begrenzt lange up to date sein. Und da rein muss nun die AAA Produktion fallen. Da werden doch die Konsolenzyklen so kurz, dass Abwärtskompatibilität wichtig ist, da sonst die Gerätebasis zu klein ist.
Sieht so aus als würde der PC wieder wichtiger und die Konsolen unwichtiger.
das_Apo
2017-01-29, 09:19:52
Spannend finde ich, wann und mit welchem Fertigungsverfahren die nächsten Konsolen kommen werden, wenn man mal einen Blick auf die bislang bekannten Fakten & 3dc-Schätzungen (https://www.3dcenter.org/news/tsmc-mit-geringeren-technischen-fortschritten-bei-der-10nm-und-7nm-fertigung) wirft:
10nm
- Flächenbedarf: -50% zu 16FF+
- Takt & Strom: +20% oder -40% zu 16FF+
- Massenfertigung ab Ende 2016
- kaufbar: Grafikchips geschätzt ab Anfang 2018 (nVidiia GV100)
7nm
- Flächenbedarf: -38,5% zu 10nm
- +15-20% oder -35-40% zu 10nm
- Riskfertigung ab Q1/2017
- kaufbar: Grafikchips geschätzt ab Sommer 2019
Angenommen die nächste Konsolengeneration soll wirklich noch 2019 erscheinen, dann ist 7nm raus und es wird 10nm. Die technologischen Neuerungen würden dann doch wahrscheinlich in einem verhältnismäßig kleineren TF-Sprung auf GPU-Seite und mehr in einer potenteren CPU-Architektur (Ryzen) sowie ggf. neuer Speichertechnologie (HBM) stattfinden.
Wenn es Ende 2020 wird, dann wäre mit 7nm an allen Fronten (CPU + GPU) mehr drin. Voraussetzung ist natürlich, dass die Chipfertiger mit den Fertigungstechnologien, wie geplant vorankommen.
Ravenhearth
2017-01-29, 15:05:18
Ich würde es nicht für gänzlich ausgeschlossen halten, dass die neuen Konsolen schon Ende 2019 in 7nm kommen, auch wenn erste GPUs erst zur Mitte des Jahres erscheinen sollten. Die ersten 14/16nm-GPUs kamen auch erst Mitte 2016 und trotzdem haben Microsoft und Sony ihre Konsolenchips schnell geshrinkt, und Sony hat sogar die PS4 Pro herausgebracht. Natürlich wäre der dann ausgereifte 10nm-Prozess hinsichtlich Yield und Kosten wohl besser, aber 7nm kann sich aufgrund dessen Vorteile trotzdem lohnen, zumal GF eh 10nm überspringt.
das_Apo
2017-01-29, 18:00:22
Klar, gänzlich ausschließen sollte man es nicht. Aber die letzten Jahre haben mich doch etwas pessimistisch gestimmt, was die versprochene/erwartete Verfügbarkeit von Fertigungstechnologien anbelangt. :)
Aber die Konsolenhersteller sind ja auch nicht gezwungen ihre neuen Konsolen am Ende eines Jahres herauszubringen. Wenn es 7nm werden soll, dann wäre ja auch denkbar, dass die ersten Systeme irgendwann zwischen Ende 2019 und Ende 2020 herauskommen. Allerdings können sie dann nicht mehr die Feiertagszeit Ende 2019 mitnehmen.
Ich fänd es jedenfalls schade, wenn man auf eine nur paar Monate entfernte neue Fertigung zugunsten einer früheren Veröffentlichung verzichten würde.
tobor
2017-02-06, 16:38:36
Inwieweit koennte den Checkerboardrendering verbessert/ ergaenzt werden? Ich gehe ja davon aus, dass Ps5 und co zwar Spiele in 4k in hoher Qualitaet darstellen koennen, die Spielentwickler darauf verzichten und die Leistung fuer mehr "eye candy" in ihren Spielen nutzen moechten.
deekey777
2017-07-09, 21:59:50
In Theory: is AMD's Ryzen CPU the game-changer for next-gen consoles? (http://www.eurogamer.net/articles/digitalfoundry-2017-is-ryzen-the-game-changer-for-next-gen-console-in-theory)
PlayStation 5 with Backwards Compatibility Likely in 2019 Says Pachter (https://gamerant.com/playstation-5-release-date-backward-compatibility-2019/)
:weg:
LadyWhirlwind
2017-07-09, 22:47:58
In Theory: is AMD's Ryzen CPU the game-changer for next-gen consoles? (http://www.eurogamer.net/articles/digitalfoundry-2017-is-ryzen-the-game-changer-for-next-gen-console-in-theory)
PlayStation 5 with Backwards Compatibility Likely in 2019 Says Pachter (https://gamerant.com/playstation-5-release-date-backward-compatibility-2019/)
:weg:
Das Ryzen der Game-Changer für die Next-Gen Konsole sein wird, war ja absehbar.
Ich halte eine Ankündigung der PS5 zur E3 nächstes Jahr für möglich, mit einem Release im späten Frühjahr 2019. Das wäre optimal, da dann Sony mit einer guten Verfügbarkeit in die Holiday-Season 2019 gehen könnte.
Wieso geht der Artikel eigentlich von einem CCX aus? Zwei wären doch bei 7nm sicher auch nicht soo teuer, oder? Und dazu die Leistung von Vega?
Sardaukar.nsn
2017-07-10, 06:23:25
Zumal durch die Abwärtskompatibilität ja auch bei neuen Spielen wohl immer noch die PS4 bzw. die Jaguar CPUs berücksichtigt werden. Erst mit PS5 only Spielen dürfte dann wirklich etwas neues kommen.
The_Invisible
2017-07-10, 07:23:36
Wieso geht der Artikel eigentlich von einem CCX aus? Zwei wären doch bei 7nm sicher auch nicht soo teuer, oder? Und dazu die Leistung von Vega?
Wenn nur einer kommt halten aktuelle 8 Threads CPUs (für PC) noch länger. Würde aber auch 8C/16T erwarten da aktuell bei Konsolen ja auch schon 8T am werkeln sind. Die neuen Cores wären zwar viel stärker aber trotzdem.
tobibobi
2017-07-10, 09:23:17
Ich wette, dass Sonys neue Konsole ohne Abwärtskompatibilität kommt. Und Sony Jünger werden es bejubeln als fortschrittlich, denn dann kann sich Sony voll auf die neue gen konzentrieren..bla..bla...usw. Das Gerücht von Abwärtskompatibilität wird nur von fanboys am Leben gehalten, damit keine Spieler auf die Xbox 🎮 X wechseln. Sony selbst hat sich immer negativ dazu geäußert.
THEaaron
2017-07-10, 09:32:02
Wobei Abwärtskompatiblität auch einfach viel weniger Bedeutung hat als der Wind der darum gemacht wird.
mboeller
2017-07-10, 09:42:01
Das Ryzen der Game-Changer für die Next-Gen Konsole sein wird, war ja absehbar.
Ich halte eine Ankündigung der PS5 zur E3 nächstes Jahr für möglich, mit einem Release im späten Frühjahr 2019. Das wäre optimal, da dann Sony mit einer guten Verfügbarkeit in die Holiday-Season 2019 gehen könnte.
Wieso geht der Artikel eigentlich von einem CCX aus? Zwei wären doch bei 7nm sicher auch nicht soo teuer, oder? Und dazu die Leistung von Vega?
1 CCX = 6 Core/12 Threads; das sollte doch reichen?
deekey777
2017-07-10, 09:43:21
...
Wieso geht der Artikel eigentlich von einem CCX aus? Zwei wären doch bei 7nm sicher auch nicht soo teuer, oder? Und dazu die Leistung von Vega?
Weil es sonst heißen würde: "Was testet ihr mit 6C/12T? Das ist realitätsfremd!"
4C/8T waren sehr realistisch.
Man wird auf die Die-Fläche achten müssen. Die ersten SoCs der Xbox One und der PS4 waren 363 mm² bzw. 348 mm², dann wurden sie grob um 100 mm² geshrinkt. Die SoCs der Pro und der X sind wieder deutlich über 300 mm² (PS4Pro weniger deutlich), der SoC der X hat die Diefläche des SoCs der Xbox One.
Eine RR-APU (wohl GHO, mit 4C/8T und 11 CUs) hat die Diefläche eines Ryzen 7, also kleiner als die geshrinkten SoCs der Xbox One S und PS4 Slim (aber 14 nm GloFo vs. 16 nm TSMC!). Ein Konsolen-SoC braucht deutlich weniger I/O wie PCIe-Lanes, dafür könnte der Speichercontroller komplizierter sein. Hinzu kommt, dass ein Zen-Kern an sich komplizierter aufgebaut ist als die Jaguärchen.
Die Frage für Microsoft und Sony wird somit sein: Sollen die SoCs wieder deutlich über 300 mm² groß werden? Wie viel Mehrleistung werden sie bieten müssen? Werden die neuen Konsolen mehr Takt und/oder mehr Einheiten haben? Die GPU der Xbox One X hat 40 CUs und taktet bereits mit 1,172 GHz. Das wird man toppen müssen, aber zu welchem Preis?
robbitop
2017-07-10, 10:32:19
Ich frage mich, ob sie bei Ryzen 2/3 (7nm) die CCX auf 6C aufbohren oder einfach einen CCX dazu packen. Letzteres wäre sicherlich einfacher.
LadyWhirlwind
2017-07-10, 11:22:04
Ich frage mich, ob sie bei Ryzen 2/3 (7nm) die CCX auf 6C aufbohren oder einfach einen CCX dazu packen. Letzteres wäre sicherlich einfacher.
Bei einem 6C CCX wird die PS5 sicher diesen verwenden. 4C/8T fände ich allerdings etwas wenig. Gab es schon eine Info dazu von AMD oder ist das Spekulation?
Bezüglich Abwärtskompatibilität: Solange es zu keinem Architekturwechsel kommt, dürfte das nicht so ein Thema sein, oder hat AMD etwas in den PS4 Chip eingebaut, dass ein deutlich Leistungsfähiger Chip nicht emulieren kann?
deekey777
2017-07-10, 11:30:26
Ich frage mich, ob sie bei Ryzen 2/3 (7nm) die CCX auf 6C aufbohren oder einfach einen CCX dazu packen. Letzteres wäre sicherlich einfacher.
Was ist komplizierter: ein großer CCX oder zwei kleinere, aber mit den ganzen Kommunikationsleitungen zueinander?
tobibobi
2017-07-10, 11:34:57
Wobei Abwärtskompatiblität auch einfach viel weniger Bedeutung hat als der Wind der darum gemacht wird.
Wirklich? Komisch dass das was auf dem PC normal ist, hier als unbedeutend angetan wird. Ich stelle mir grade vor was passieren würde hätte MS verkündet: Mit Windows 10 funktionieren nur kommende spiele, wer lastgen zocken will, muss bei win 7 oder 8 bleiben. MS macht auf konsole das möglich was bis dato nur der pc konnte: Man nehmt die ganze Spielesammlung mit egal wie oft man den PC wechselt oder upgradet.
LadyWhirlwind
2017-07-10, 11:40:08
Was ist komplizierter: ein großer CCX oder zwei kleinere, aber mit den ganzen Kommunikationsleitungen zueinander?
Ich denke Sony wird da den AMD Standard nehmen und keine Extra-Wurst fahren.
Ich denke ein 6C CCX dürfte einfacher sein als einfach ein zusätzlicher CCX, weil sich das auf die ganze Produktpalette auswirkt. Wenn die Grösse ungefähr gleich bleibt bei 7nm, kann die bestehende Struktur wahrscheinlich zum grossen Teil weiterverwendet werden.
Monsta
2017-07-10, 11:44:47
Ich behalte grundsätzlich meine alten Konsolen.
Abwärtskompatibilität ist mir unwichtig.
Es macht mir auch Spaß eine alte Konsole anzuschließen, und damit einen Abend zu verbringen.
THEaaron
2017-07-10, 11:45:06
Wirklich? Komisch dass das was auf dem PC normal ist, hier als unbedeutend angetan wird. Ich stelle mir grade vor was passieren würde hätte MS verkündet: Mit Windows 10 funktionieren nur kommende spiele, wer lastgen zocken will, muss bei win 7 oder 8 bleiben. MS macht auf konsole das möglich was bis dato nur der pc konnte: Man nehmt die ganze Spielesammlung mit egal wie oft man den PC wechselt oder upgradet.
Auf dem PC ist das gar kein Thema. Das ist schon historisch bedingt gar nicht Wert in dem Kontext betrachtet zu werden. Gerade weil Konsolen und das Konzept der Generationen da einfach auch ganz andere Wege einschlagen.
Vor allem Microsoft steckt in dieser Generation viel Aufwand in eine scheinbar stark gewünschte Abwärtskompatibilität, die letzten Endes aber selten genutzt wird.
https://arstechnica.com/gaming/2017/06/backward-compatible-xbox-360-games-are-less-than-2-of-xbox-one-usage-time/
(ist nicht super genau und umstritten aber das genaueste an Zahlen was man hat; groß posaunt wurde mit der Nutzung von BC auch nicht)
deekey777
2017-07-10, 11:45:19
Nur ist die Konsolenmentalität anders: Man kann die alte Konsole einfach behalten*.
Das, was Microsoft macht, hat nur einen Zweck: Die Xbox360-Nutzer zum Umstiegt auf die Xbox One zu bewegen, also Erhöhung der Nutzerzahlen, die bereit sind, neue Spiele zu kaufen (für die Xbox One). Natürlich hat das schöne Nebeneffekte, wenn Leute Geld für X360-Spiele ausgeben.
*Krasses Beispiel ist iOS 11 und macOS High Sierra: Man wird auf neue OS umsteigen und verliert dabei viele Anwendungen, insbesondere viele Spiele, weil sie nicht aktualisiert werden.
tobibobi
2017-07-10, 11:56:21
Auf dem PC ist das gar kein Thema. Das ist schon historisch bedingt gar nicht Wert in dem Kontext betrachtet zu werden. Gerade weil Konsolen und das Konzept der Generationen da einfach auch ganz andere Wege einschlagen..
MS hat doch zig mal verkündet, dass für sie "konsolen generationen" vorbei sind, man verkauft Services und die dazu nötigen Geräte.
Sony bleibt altem Schema treu, die zeit wird zeigen wer klüger gehandelt hat.
tobibobi
2017-07-10, 11:59:10
*.
Das, was Microsoft macht, hat nur einen Zweck: Die Xbox360-Nutzer zum Umstiegt auf die Xbox One zu bewegen, also Erhöhung der Nutzerzahlen, die bereit sind, neue Spiele zu kaufen (für die Xbox One). Natürlich hat das schöne Nebeneffekte, wenn Leute Geld für X360-Spiele ausgeben.
. Wird sicher auch eine Rolle gespielt haben
deekey777
2017-07-10, 12:02:08
Wird sicher auch eine Rolle gespielt haben
Das ist die offizielle Erklärung von Microsoft.
THEaaron
2017-07-10, 12:05:21
MS hat doch zig mal verkündet, dass für sie "konsolen generationen" vorbei sind, man verkauft Services und die dazu nötigen Geräte.
Sony bleibt altem Schema treu, die zeit wird zeigen wer klüger gehandelt hat.
Wobei da solche Aussagen auch gerne mal revidiert werden oder die Strategie einfach geändert wird.
Vor der Ankündigung von Scorpio wurde auch vehement behauptet so ein mid-gen refresh wäre ja nix.
Ist die Frage was mehr für den Kunden zieht. Sony kann schön alte Zöpfe abschneiden und lässt sich so nicht von Altlasten abhalten. Wobei ich mir auch am ehesten vorstellen kann, dass Microsoft weiter versuchen wird Windows
als einheitliche Plattform zu etablieren. Ob die Leute dann einen PC oder eine Xbox nutzen ist dann deren Sache. Charmant ist der Ansatz aber auf jeden Fall, gerade wenn eine Spielelizenz dann auf PC und Xbox abspielbar ist. Eine konsequente Verfolgung dieser Strategie finde ich persönlich auch am wahrscheinlichsten für den weiteren Weg von Microsoft.
Wahrscheinlich wird eine kommende Ankündigung von Sony auch noch etwas Einfluss auf die Politik haben. Wird auf jeden Fall spannend. :)
just4FunTA
2017-07-10, 12:25:02
Wahrscheinlich wird eine kommende Ankündigung von Sony auch noch etwas Einfluss auf die Politik haben. Wird auf jeden Fall spannend. :)
Was? Worum gehts? Von welcher Ankündigung sprichst du?
deekey777
2017-07-10, 12:31:32
Stellt euch vor: Microsoft lässt die Bombe platzen und erweitert die Xbox One (also alle) um Windows 10 S mit Maus- und Tastaturunterstützung. Das wäre für PC-Hersteller keine schöne Entwicklung und es wäre das, wovon Sweeney uns gewarnt hat. :ulol:
Die Xbox One ist noch zu sehr Konsole, auch wenn ihr exklusive Oberkracher fehlen. Daher wird Microsoft versuchen, die Käufer noch mehr an sich zu binden, dass sie eigene Services nutzen und für Fremdservices Geld ausgeben und Microsoft mitverdient.
Crazy_Bon
2017-07-10, 12:36:47
Was? Worum gehts? Von welcher Ankündigung sprichst du?
Manche glauben, daß Sony wegen der Xbox One X die Hosen voll haben und bereits mit einer PS5 um die Ecke steht.
just4FunTA
2017-07-10, 12:39:58
Kann mir nicht vorstellen das sie vor 2019 schon die ps5 raushauen.
LadyWhirlwind
2017-07-10, 12:45:39
Das Problem von Microsoft ist doch, dass sie das Timing mit dem Release-Zyklus nicht gut hingekriegt haben und sich quasi von Sony hertreiben lassen. Klar ist die XBX knapp 1/3 schneller als die PS4P , aber eben auch ein Jahr später und teurer als die PS4P bei Release war. Wahrscheinlich wird Sony mit $299 gegen die XBX antreten. Daneben gibt es noch Nintendo mit der Switch, die auch um Käufer mitbuhlt.
Wenn Sony dann eine deutlich stärkere PS5 ankündigt, ist die XBX auch nicht mehr „High-End“. Auch ist die Rechenleistung der XBX dann wahrscheinlich am unteren Ende von aktueller Desktop Hardware. Doppelte Rechenleistung dürfte dann bezahlbar sein, während High-End Desktop Maschinen dann wohl auf das 3-fache kommen. Das macht das Spieleangebot auch nicht attraktiver.
00-Schneider
2017-07-10, 12:51:24
Ich halte eine Ankündigung der PS5 zur E3 nächstes Jahr für möglich, mit einem Release im späten Frühjahr 2019. Das wäre optimal, da dann Sony mit einer guten Verfügbarkeit in die Holiday-Season 2019 gehen könnte.
Ich tippe eher auf Oktober/November 2019 oder sogar erst 2020.
3 Jahre PS4(Ende 2013 bis Ende 2016), dann 3 Jahre PS4 Pro(Ende 2016 bis Ende 2019) passt ganz gut finde ich. Kürzer als 3 Jahre sollten die Zyklen zwischen den Konsolen dann bitte nicht sein.
Wobei Abwärtskompatiblität auch einfach viel weniger Bedeutung hat als der Wind der darum gemacht wird.
Kommt darauf an. Wenn man Games automatisch in besserer Optik bzw. besseren FPS auf der neuen Konsole zocken kann, dann ist das schon nice. Siehe XOX, wo die FPS stabiler sind, und automatisch 16xAF eingefügt werden.
-------------------
Mit wie vielen TF kann man denn 2019 bei einer PS5 rechnen? Sind da schon ~10TF drin, wenn die Konsole maximal 500$ kosten soll?
THEaaron
2017-07-10, 12:57:15
Manche glauben, daß Sony wegen der Xbox One X die Hosen voll haben und bereits mit einer PS5 um die Ecke steht.
Das sollte jetzt gar nicht so spezifisch klingen. Ich persönlich gehe erstmal von einer Ankündigung 2019 und einem Release 2020 aus. Mir ging es nur darum, dass Sonys Strategie auch noch die von MS beeinflussen könnte/wird.
LadyWhirlwind
2017-07-10, 13:08:10
Ich tippe eher auf Oktober/November 2019 oder sogar erst 2020.
3 Jahre PS4(Ende 2013 bis Ende 2016), dann 3 Jahre PS4 Pro(Ende 2016 bis Ende 2019) passt ganz gut finde ich. Kürzer als 3 Jahre sollten die Zyklen zwischen den Konsolen dann bitte nicht sein.
Kommt darauf an. Wenn man Games automatisch in besserer Optik bzw. besseren FPS auf der neuen Konsole zocken kann, dann ist das schon nice. Siehe XOX, wo die FPS stabiler sind, und automatisch 16xAF eingefügt werden.
-------------------
Mit wie vielen TF kann man denn 2019 bei einer PS5 rechnen? Sind da schon ~10TF drin, wenn die Konsole maximal 500$ kosten soll?
Grundsätzlich hast du ja recht, allerdings wäre für eine gute Verfügbarkeit zur Holiday Season ein Release im späten Frühjahr, bzw. Sommer sicher sinnvoller. Auf die paar Monate kommt es dann auch nicht mehr an. Vorproduzieren wäre zwar Möglich, verursacht aber nur Lagerkosten für Sony.
Das sollte jetzt gar nicht so spezifisch klingen. Ich persönlich gehe erstmal von einer Ankündigung 2019 und einem Release 2020 aus. Mir ging es nur darum, dass Sonys Strategie auch noch die von MS beeinflussen könnte/wird.
Natürlich, allerdings bleibt Microsoft bei einem 3 Jahreszyklus nicht viel Spielraum.
Thoro
2017-07-10, 13:17:11
Das Problem von Microsoft ist doch, dass sie das Timing mit dem Release-Zyklus nicht gut hingekriegt haben und sich quasi von Sony hertreiben lassen. Klar ist die XBX knapp 1/3 schneller als die PS4P , aber eben auch ein Jahr später und teurer als die PS4P bei Release war. Wahrscheinlich wird Sony mit $299 gegen die XBX antreten. Daneben gibt es noch Nintendo mit der Switch, die auch um Käufer mitbuhlt.
Sehe ich auch so. Die Pro hat doch gut eingeschlagen und jetzt kann man wahrscheinlich schon eine billigere Pro, vl noch als Slim-Version oder dergleichen, als direkte Konkurrenz gegen die X auflegen. Für mein Gefühl hat MS da die Releasezyklen schlecht hinbekommen.
Nightspider
2017-07-10, 13:39:01
PS5 mit 4C/8T? Das ist doch schon sehr absurd. Vor allem da die Programmierer sich endlich an 8C gewöhnt haben. 8C/16T ist das absolut Minimum.
Realistisch würde ich eher mit 12C rechnen.
deekey777
2017-07-10, 13:43:51
PS5 mit 4C/8T? Das ist doch schon sehr absurd. Vor allem da die Programmierer sich endlich an 8C gewöhnt haben. 8C/16T ist das absolut Minimum.
Realistisch würde ich eher mit 12C rechnen.
Sehr realisitisch.
Wie groß wäre dann so ein Die zusammen mit weit über 40 CUs?
Nightspider
2017-07-10, 13:46:00
In 7nm? Klein genug. Vor allem die CPU Cores sind doch ein Witz von der Größe und das schon in 14nm. Jetzt zieh davon nochmal grob 75% ab.
Daredevil
2017-07-10, 13:52:42
Zumal Sony als auch Microsoft eigentlich dazu genötigt werden, relativ starke Hardware zu verbauen.
Verbaut einer nun 4/8, wartet der andere ein Jahr und verbaut 6/12 und das ist nun wieder "FAASTEST CONSOLE APU IN HISTORYYY".
Ist doch ein Katz und Maus rennen irgendwie.
xyleph
2017-07-10, 14:02:37
In 7nm? Klein genug. Vor allem die CPU Cores sind doch ein Witz von der Größe und das schon in 14nm. Jetzt zieh davon nochmal grob 75% ab.
Wie groß im Verhältnis zu den Jaguars, die Sony und MS in ihre Konsolen verbauten?
Kartenlehrling
2017-07-10, 14:07:21
Man kann immer noch am meisten durch erhöhen der Taktrate rausholen, lieber eine Konsole mit 6/6@3.0ghz als ein 4/8@2.3ghz.
Für den Mediabereich der Cosolen kann man ja zusätzlich ein Mobilchip verbauen, gibt ja für Table auch.
Argo Zero
2017-07-10, 14:07:38
Sony befindet sich aktuell in einer recht komfortablen Situation mit seinen Entwicklerstudios. Liefern diese entsprechend die gewohnte Qualität ab, muss die nächste Konsole nicht zwangsläufig eine absolutes "ÜBER"-Konsole sein. Knapp hinter der Xbox reicht dann auch aus.
Rein visuell wird es sowieso keiner merken, weil auf der Xbox Exklusivtitel-Knappheit herrscht.
Gipsel
2017-07-10, 14:11:19
Wie groß im Verhältnis zu den Jaguars, die Sony und MS in ihre Konsolen verbauten?Ein 4C-Jaguar-Modul inklusive 2MB L2 in 28nm (womit die XB1/PS4-Generation gestartet ist) maß exakt 26,2mm². Zwei davon wurden verbaut. Ein 4C/8T-Zen-CCX inklusive 2MB L2 und 8MB L3 mißt 44mm² in 14nm. In 7nm ist das also wohl deutlich kleiner als ein Jaguar-Modul in 28nm.
=> 8C/16T sind in 7nm problemlos machbar zum Start der nächsten Konsolengeneration, wenn die wieder so gute 300mm² Siliziumbudget haben sollten (XBox One: 363mm2, XBox One X: 360mm², PS4: 348mm²).
mboeller
2017-07-10, 14:18:40
Ein 4C-Jaguar-Modul inklusive 2MB L2 in 28nm (womit die XB1/PS4-Generation gestartet ist) maß exakt 26,2mm². Zwei davon wurden verbaut. Ein 4C/8T-Zen-CCX inklusive 2MB L2 und 8MB L3 mißt 44mm² in 14nm. In 7nm ist das also wohl deutlich kleiner als ein Jaguar-Modul in 28nm.
=> 8C/16T sind in 7nm problemlos machbar zum Start der nächsten Konsolengeneration, wenn die wieder so gute 300mm² Siliziumbudget haben sollten.
aus den 44mm² in 14nm werden aber nur ca. 22mm² in 7nm.
2 CCX wären dann min. wieder 44 mm² groß.
Gipsel
2017-07-10, 14:23:12
aus den 44mm² in 14nm werden aber nur ca. 22mm² in 7nm.
2 CCX wären dann min. wieder 44 mm² groß.Nö, das skaliert besser (laut den veröffentlichten Zahlen ungefähr auf 36% [6 Track Standardzelle] bis 41% [6T-SRAM] der Fläche [wären dann ~16-18mm² pro CCX]; GF selber gibt allerdings nur >50% Area-Scaling an). Und selbst wenn, 44mm² wären immer noch kleiner als die 52,4mm², die die beiden Jaguar-Module in der XB1 und PS4 einnehmen. ;)
xyleph
2017-07-10, 14:41:31
Ein 4C-Jaguar-Modul inklusive 2MB L2 in 28nm (womit die XB1/PS4-Generation gestartet ist) maß exakt 26,2mm². Zwei davon wurden verbaut. Ein 4C/8T-Zen-CCX inklusive 2MB L2 und 8MB L3 mißt 44mm² in 14nm. In 7nm ist das also wohl deutlich kleiner als ein Jaguar-Modul in 28nm.
=> 8C/16T sind in 7nm problemlos machbar zum Start der nächsten Konsolengeneration, wenn die wieder so gute 300mm² Siliziumbudget haben sollten (XBox One: 363mm2, XBox One X: 360mm², PS4: 348mm²).
Hört sich schon einmal gut an, hätte die Ryzens größer eingeschätzt, da die Jaguars ja schon Winzlinge waren. Wäre noch der Verbrauch zu betrachten.
Würde auch 8C/16T favorisieren. Vier Kerne fände ich zu dünn bemessen, dafür das die Konsole erst >=2019 kommen wird und dann auch wieder ein paar Jahre halten soll. AK ist bei realen acht Kernen wohl auch besser umzusetzen als bei einer 4C/8T Lösung.
Die Frage des Preises wird interessant, inwieweit sich eine ~350mm² DIE in 7nm anno >=2019 für 399 umsetzen lässt, mit allen Drum und Dran einer Konsole. Mich würde es aber auch nicht wundern, wenn der Preis höher geht, da es sonst auch schwerer wird sich von PS4ProXOX abzusetzen.
Daredevil
2017-07-10, 14:44:59
Spannend wird wohl auch, ob es wirklich eine nächste Generation wird mit grundsätzlichen neuen NextGen Spielen, oder man einfach wieder nur die gleichen PC Spiele anbietet mit verbesserter Grafik ect.
Gebrechlichkeit
2017-07-10, 14:57:44
Wenn man bei der gleichen Architektur bleibt, werden Spiele ab 2020 "bloss" in hoeherer Aufloesung daher kommen. Die Animationen bleiben gleich "starr" und auch in 2030 wird Telltales ihre fugly Spiele produzieren mit Texturen/Assets von 1999.
Ich will endlich Raytracing verdammt nochmal ...
Gipsel
2017-07-10, 15:01:45
Hört sich schon einmal gut an, hätte die Ryzens größer eingeschätzt, da die Jaguars ja schon Winzlinge waren. Wäre noch der Verbrauch zu betrachten.Na zu 28nm liegen ja auch ein paar Prozeßnodes dazwischen. In 7nm würde man die Jaguar-Kerne auf dem Die wohl nicht mehr finden. ;)
Was den Stromverbrauch angeht, sind ~3GHz auf 8Kernen ja jetzt schon recht sparsam (<65W). In 7nm dürfte sich das nochmal locker halbieren, inbesondere wenn man das Design darauf auslegt (man macht ja sowieso ein extra Tapeout für die Konsolen, dann kann man das auch auf einen Sweetspottakt von ~3GHz tunen, die müssen ja keine 4+GHz erreichen). Damit wäre man voll im Rahmen (~30W Powerbudget für die CPU).
Die Frage des Preises wird interessant, inwieweit sich eine ~350mm² DIE in 7nm anno >=2019 für 399 umsetzen lässt, mit allen Drum und Dran einer Konsole. Mich würde es aber auch nicht wundern, wenn der Preis höher geht, da es sonst auch schwerer wird sich von PS4ProXOX abzusetzen.Ich könnte mir vorstellen, daß man auf nur ~300mm² setzt, um die gestiegenden Kosten des Prozesses abzufangen (gegenüber 14FF plant GF angeblich 30% geringere Kosten bei gleicher Transistormenge, pro Fläche wird es also teurer).
Nightspider
2017-07-10, 15:03:02
Wenn man bei der gleichen Architektur bleibt, werden Spiele ab 2020 "bloss" in hoeherer Aufloesung daher kommen.
Unsinn. Auflösung hat man jetzt genug erhöht.
Man wird mit Sicherheit bei 4K und oft CBR bleiben, vllt kombiniert mit dynamischer Auflösung.
Die Mehrleistung wird sicherlich ausschließlich in bessere Effekte bzw. Grafik fließen.
Und die Animationen haben mal auch gar nichts mit der Hardware zu tun. Die sind wie immer ein Faktor bei den Entwicklungskosten.
Gipsel
2017-07-10, 15:03:42
Wenn man bei der gleichen Architektur bleibt, werden Spiele ab 2020 "bloss" in hoeherer Aufloesung daher kommen. Die Animationen bleiben gleich "starr" und auch in 2030 wird Telltales ihre fugly Spiele produzieren mit Texturen/Assets von 1999.
Ich will endlich Raytracing verdammt nochmal ...Raytracing is overrated. Und mit der Qualität der Animationen hat es schon mal gleich gar nichts zu tun. :rolleyes:
Jupiter
2017-07-10, 15:04:42
Raytracing Schatten in The Division haben eine filmische Optik.
_
Hohe Auflösung nützt wenig mit 30fps. Die ganzen Informationen gehen in Bewegung für den Zuschauer verloren. Da ist es sinnvoller 1620p und 60fps zu nehmen als UHD in 30fps.
Gipsel
2017-07-10, 15:13:49
Raytracing Schatten in The Division haben eine filmische Optik.Das eingesetzte HFTS (Hybrid Frustum Traced Shadows) ist nur nicht wirklich Raytracing. Es erfordert für eine performante Umsetzung sogar den Rasterizer (der conservative raster unterstützen muß). ;)
Jupiter
2017-07-10, 15:19:44
Klar, es heißt auch Hybrid Frustum Traced Shadows. In den NVIDIA Dokumenten wurde auch genaueres dazu geschrieben. Allein das Betrachten der Schatten finde ich mit der Technologie faszinierend. Leider betrifft es nur die globale Beleuchtung.
Sardaukar.nsn
2017-07-10, 19:37:05
Raytracing Schatten in The Division haben eine filmische Optik.
_
Hohe Auflösung nützt wenig mit 30fps. Die ganzen Informationen gehen in Bewegung für den Zuschauer verloren. Da ist es sinnvoller 1620p und 60fps zu nehmen als UHD in 30fps.
Mit HDMI 2.1 soll ja auch eine variable Bildwiderholrate á la G-Sync bzw. FreeSync möglich sein. So weit ich mit erinnern kann hat die X box X das feature schon eingebaut, aber die passenden TV Bildschirme gibt es noch nicht. Wird aber sicher kommen und ein Variabler V-Sync bis 120hz wäre ein echter Segen.
Hier noch mal der Link: http://www.eurogamer.net/articles/digitalfoundry-2017-project-scorpio-supports-freesync-and-hdmi-vrr
Gebrechlichkeit
2017-07-10, 19:55:42
Raytracing is overrated. Und mit der Qualität der Animationen hat es schon mal gleich gar nichts zu tun. :rolleyes:
Ich rede hier von einer Revolution und nicht von einer weitern oeden Evolutionsstufe in der Branche. 4K haben wir jetzt schon, damit werden Sony und Co. keinen mehr vor dem Ofen hervor locken koennen, wenn es die PS5 zu kaufen gibt. Mark Cerny wollte ja sogar weg vom traditionellen Rasterizer und hatte gar eine Raytracing "GPU" fuer die PS4 vorgehabt ... dieses Konzept kam wohl bei den faulen "Schreiberlinge" nicht gut an.
Ihr glaubt doch nicht etwa, dass mit der PS5 auf einmal die Grafik "fetter aussehen" wird?! Die PS5 ist bloss eine PS4 mit 5mal soviel Shadern ... das wars auch schon wieder. Wir fahren seit 2004 auf der gleichen Schiene unterwegs ... it is time for something new (at least raytracing? Voxel? New gpu architecture? New API ... DX13 :tongue:).
2013 PS4 mit 1152 Shadereinheiten
2019 PS5 mit 7000 Shadereinheiten oder mehr, sollte Sony wirklich Bock auf VR haben (2x4K). Rest bleibt gleich, mehr Cache, doppelt soviel Ram und Bandbreite ... PS4 Spiele sehen dann wie PC Spiele von 95 aus, die man heute in 4K zockt und sich an den ganzen Ecken (Edges) haengen bleibt bzw. daran schneidet ... kapiere nicht wie man heute alte Gamellen von vor 40 Jahren in 4K zocken kann.
Mag den Typen nicht, aber dieses Mal muss ich dem Patcher zustimmen. Die PS5 wird bloss eine aktualisierte PS4 Pro sein mit 100% mehr Specs. Viele heulen jetzt schon, die PS4 sei "marginal" besser als die PS3 in Sachen Grafik (was mittlerweile nicht mehr stimmt). Aber diesen Quantensprung von PS2 auf PS3 ... wird es nicht mehr geben. Es kann doch nicht sein, dass die "Shader Era - 2004" das "ultimative Format" ist/darstellt ... da muss doch was neues her! Sind denn alle zu faul, ist die Industrie nicht mehr rentabel genug wenn man auf was neues umsatteln (lernen) muss? Wetten dass Fallout 5 viele Assets vom 3 und 4 Teil haben wird ...
Nightspider
2017-07-10, 20:17:38
Für VR 2x4K reicht in Zukunft auch PS4 Pro Leistung dank Eyetracking und Foveated Rendering.
Dürfte nicht mehr Leistung fressen als normales 2D 4K.
VR sehe ich in Zukunft sogar sparsamer. Simultaneous Multi-Projection und ähnliche Methoden steigern die Leistung ebenfalls nochmal merklich. 2020 gibts dann wahrscheinlich eher 2x5K in VR, alleine schon um größere Blickwinkel zu ermöglichen.
pixeljetstream
2017-07-10, 20:41:30
Wir haben schon Titel die ausgefallene Technik nutzen (voxel etc.) nur sind die halt in der Minderheit.
Persönlich glaube ich nicht an die große Revolution, selbst wenn die Technik krass mehr hergibt, so ist die Pipeline der Industrie (content workflows etc.) ein konservativer Faktor. PC Markt, high/low end alles Kunden/Märkte die versorgt werden müssen.
Nur die exklusiv Studios könnten es sich "leisten". Aber auch hier gilt wenn du allein zu sehr abweichst musst du auch die Kosten viel selbst stemmen.
Vielleicht trägt machine learning etc. bei die Kosten zu senken.
Ich finde eigentlich dass wir schon weit gekommen sind von Details usw. und finde das schrittweise Verbessern nicht schlimm. Im Prinzip war die Industrie schon sehr erfolgreich viele wichtige Effekte gut hinzubekommen.
Sind denn alle zu faul, ist die Industrie nicht mehr rentabel genug wenn man auf was neues umsatteln (lernen) muss?
Genau das wird es sein. In der Industrie sind alle nur zu dumm/faul, um deine Gedankgänge zu teilen. :freak:
Gebrechlichkeit
2017-07-11, 00:35:57
Ich finde eigentlich dass wir schon weit gekommen sind von Details usw. und finde das schrittweise Verbessern nicht schlimm. Im Prinzip war die Industrie schon sehr erfolgreich viele wichtige Effekte gut hinzubekommen.
Das sehe ich anders, das Wasser, der Schnee, das Feuer etc... alle "Elemente" wurden bis heute nie wirklich gut gemeistert. Das Feuer in Kingpin Crime war glaube ich noch das beste, ansonsten hat kein Spiel mich ueberzeugen koennen was das Wasser "Element" angeht. ... und viele haben es versucht. :smile:
gravitationsfeld
2017-07-11, 00:44:59
Kingpin :ulol: :facepalm:
Jupiter
2017-07-11, 00:57:28
Wasser (Stillgewässer exkludiert) fand ich zuletzt in Watch Dogs 2 am beeindruckensten. In AC: Origins wird es ähnlich aussehen.
Viele Interaktionsmöglichkeiten gibt es mit Wasser normalerweise nicht. Von großen AAA-Spielen fand ich diesbezüglich Crysis 2 nachdem DX 11 Patch am besten.
basix
2017-07-11, 01:46:08
=> 8C/16T sind in 7nm problemlos machbar zum Start der nächsten Konsolengeneration, wenn die wieder so gute 300mm² Siliziumbudget haben sollten (XBox One: 363mm2, XBox One X: 360mm², PS4: 348mm²).
Das würde ungefähr auf eine 4096 Shader rauslaufen (Navi ?). Wären ungefähr 200mm2 für die GPU und 50mm2 für die CPU. Eigentlich noch ziemlich kompakt. Wer weiss, vielleicht darf man von 12C / 6k Shader träumen bei dann aber niedrigerem Takt, dafür sehr effizient. Das wären dann aber wahrscheinlich ein bisschen mehr als 350mm2. Ein 8C Ryzen (hier dann wohl Ryzen 2) @ 3.0GHz hat schon mächtig Leistung und ist sehr effizient. Die GPU bei 6k @ 1.25 GHz und man wäre bei 15 TFLOPs. Bleibt die Frage vom Power Budget: 100W? 150W? 200W?
Nightspider
2017-07-11, 01:56:16
Nochmal zum Produktionspreis:
Ich sehe jetzt nicht warum das Die schrumpfen muss wegen 7nm. Die zukünftigen Fertigungsschritte werden noch teurer.
Ich sehe da eher Sony den Preis um 50 Euro anheben. 450€ Markteinführung sind auch klasse. Halbes Jahr später nur noch 400 und ein Jahr später 350€.
Bzw. wenn Sony alles richtig macht wie bei der PS4 ist auch ein Nullsummenspiel möglich. Wegen 30-50€ höheren Fertigungskosten des SoC wird Sony sich bestimmt nicht ins Hemd machen wenn dafür am Ende 50% mehr CPU Leistung drin steckt. Dann lieber 12C und 10-20mm² mehr CPU Anteil als bei der PS4. Laut Gipsels Rechnung passt das.
Interessant wird auch ob man bei HDDs bleibt oder wenigstens einen SSD Cache verbaut.
aufkrawall
2017-07-11, 02:08:01
Im Prinzip war die Industrie schon sehr erfolgreich viele wichtige Effekte gut hinzubekommen.
Ich finde die Spannweite bei der Qualität viel zu extrem. Auch heute noch sieht SSAO häufig viel schlechter aus als sie könnte, Studios bauen für SSR kein Cubemap-Fallback ein, einige Studios bekommen einfach keinen bandingfreies Rendering hin, andere überhaupt kein TAA usw.
Mit Vulkan kann man jetzt auch wieder bilineares Mipmapping nutzen. Ich "freue" mich schon drauf, dass irgendein japanisches Studio das sicherlich auch noch wieder verkacken wird.
Ist genau so "unwahrscheinlich" wie das nicht abschaltbare negative LOD-Bias in einigen Frostbite-Titeln. Dummheit stirbt nicht aus.
reaperrr
2017-07-11, 04:42:26
2019 PS5 mit 7000 Shadereinheiten oder mehr, sollte Sony wirklich Bock auf VR haben (2x4K).
Im Leben nicht, macht den Chip viel zu groß und teuer.
Wir können froh sein, wenn wir etwas in Richtung 4096 SE @ 1.1-1.2 GHz bekommen, meiner Meinung nach.
Mein optimistischer Tipp wäre:
- 8 Zen2 Kerne (2 CCX) @ <= 3GHz
- Navi GPU mit 64 ROPs, 3072 ALUs ~1.3-1.4 GHz oder 4096 ALUs @ ~1.1-1.2 GHz
- 256-bit GDDR6-SI, 16GB GDDR6 @ 13-14Gbps
Gegenüber der PS4Pro wäre das ca. >= 2-fache Leistung in jeder Hinsicht, ggü. der Original-PS4 ca. Faktor 3 bei CPU und Faktor 4,5 bei GPU.
Mehr wird's kaum geben, dafür wird der 7nm Prozess anfangs einfach zu teuer pro mm² sein.
deekey777
2017-07-11, 09:36:46
Ein 4C-Jaguar-Modul inklusive 2MB L2 in 28nm (womit die XB1/PS4-Generation gestartet ist) maß exakt 26,2mm². Zwei davon wurden verbaut. Ein 4C/8T-Zen-CCX inklusive 2MB L2 und 8MB L3 mißt 44mm² in 14nm. In 7nm ist das also wohl deutlich kleiner als ein Jaguar-Modul in 28nm.
=> 8C/16T sind in 7nm problemlos machbar zum Start der nächsten Konsolengeneration, wenn die wieder so gute 300mm² Siliziumbudget haben sollten (XBox One: 363mm2, XBox One X: 360mm², PS4: 348mm²).
Auch wenn es sich nicht um denselben Prozess handelt:
2013 war 28nm nicht neu, die HD7900 war die erste Grafikkarte mit einem großen Chip in 28 nm gefertigt. 7 nm wird 2020 wohl gewöhnlich sein, aber auch günstig?
Es ist natürlich ein gutes und legitimes Argument, dass die APUs von 2013 und in der Pro/X ~350 mm² groß sind, so dass wahrscheinlich ist, dass die nächste Generation ähnlich große SoCs haben wird, so dass genügend Platz für 2 CCX bleibt.
Auf der anderen Seite dürften die CPU-Kerne der Pro oder der X deutlich weniger Platz beanspruchen als 2x26 mm², der Schwerpunkt liegt auf den Grafikeinheiten, deren Anzahl sich verdoppelt bzw. fast verdreifacht hat und auf der X dazu noch deutlich höher takten. Nur traut sich niemand dieses "CPU-Budget" als Grundlage zu nehmen, schließlich werden erneut APUs über 300 mm² erwartet.
][immy
2017-07-11, 11:15:15
Auch wenn es sich nicht um denselben Prozess handelt:
2013 war 28nm nicht neu, die HD7900 war die erste Grafikkarte mit einem großen Chip in 28 nm gefertigt. 7 nm wird 2020 wohl gewöhnlich sein, aber auch günstig?
Es ist natürlich ein gutes und legitimes Argument, dass die APUs von 2013 und in der Pro/X ~350 mm² groß sind, so dass wahrscheinlich ist, dass die nächste Generation ähnlich große SoCs haben wird, so dass genügend Platz für 2 CCX bleibt.
Auf der anderen Seite dürften die CPU-Kerne der Pro oder der X deutlich weniger Platz beanspruchen als 2x26 mm², der Schwerpunkt liegt auf den Grafikeinheiten, deren Anzahl sich verdoppelt bzw. fast verdreifacht hat und auf der X dazu noch deutlich höher takten. Nur traut sich niemand dieses "CPU-Budget" als Grundlage zu nehmen, schließlich werden erneut APUs über 300 mm² erwartet.
du vergisst hier aber etwas. 2013 war 28nm zwar nicht mehr neu, aber es gab auch nichts wirklich besseres. Schon 2011 hat man den 28nm Prozess genutzt. Der 16nm Prozess wird grad mal etwas über ein Jahr für die Masse genutzt. Wie schnell glaubst du wird sich hier ein 7nm Prozess durchsetzen können um günstig genug für Konsolen zu sein?
Dann muss sich auch erst mal noch zeigen das 7nm das bringt was es verspricht. ein paar andere Prozessschritte hat man ja auch ausgelassen weil es sich nicht gelohnt hat (22nm, 32nm, ...)
Auf 28nm wurde über 4 Jahre produziert, kann also etwas dauern bis man 16/14nm ablöst. Es wird eher länger dauern als kürzer.
deekey777
2017-07-11, 12:06:38
[immy;11427117']du vergisst hier aber etwas. 2013 war 28nm zwar nicht mehr neu, aber es gab auch nichts wirklich besseres. Schon 2011 hat man den 28nm Prozess genutzt.
Genau das habe ich geschrieben, die HD7900 wurde in der zweiten Hälfte 2011 veröffentlich. :)
GloFo hat die Fertigung in 7 nm für 2018 angekündigt, wohl für die zweite Jahreshälfte. Daher ist 2020 gar nicht so abwegig, was "Gewöhnlichkeit" angeht. 10 nm wird ja bereits für Apple A10X (TSMC), Samsung und Qualcomm SOCs (beide Samsung?) eingesetzt.
Gemunkelt wird, dass die kommende Generation 52-56 NCUs haben wird (Vega oder schon Covfefe), das ist nicht wenig. Zusammen mit 2 CCX (nicht vergessen, dass da viel Zeug noch dazu kommt) können es erneut über 300 mm². Und das muss kostengünstig sein.
basix
2017-07-11, 16:36:54
Was den Stromverbrauch angeht, sind ~3GHz auf 8Kernen ja jetzt schon recht sparsam (<65W). In 7nm dürfte sich das nochmal locker halbieren, inbesondere wenn man das Design darauf auslegt (man macht ja sowieso ein extra Tapeout für die Konsolen, dann kann man das auch auf einen Sweetspottakt von ~3GHz tunen, die müssen ja keine 4+GHz erreichen). Damit wäre man voll im Rahmen (~30W Powerbudget für die CPU).
Heute sind es ca. 60W bei 8C @ 3.3GHz handoptimiert und das bei AVX/FMA!. Ohne HT spart man nochmals 20%. Bei 3.0GHz anstatt 3.3GHz gewinnt man nochmals fast 30%. Also würde man bei 8C/8T @ 3.0GHz bei ca. 40W landen. Und das bei einem "Standard-Design".
30W sollten also mindestens drin liegen, wenn nicht sogar bessere Werte oder halt mehr Cores beim selben Power Budget. Siehe hier bezüglich der genannten Werte:
https://forums.anandtech.com/threads/ryzen-strictly-technical.2500572/
Edit:
Könnte bei einer Konsole der HBCC ein Game Changer sein was realistisches Rendering angeht? AMD hat da doch mal was gezeigt @Realtime
pixeljetstream
2017-07-11, 16:40:13
Das sehe ich anders, das Wasser, der Schnee, das Feuer etc... alle "Elemente" wurden bis heute nie wirklich gut gemeistert. Das Feuer in Kingpin Crime war glaube ich noch das beste, ansonsten hat kein Spiel mich ueberzeugen koennen was das Wasser "Element" angeht. ... und viele haben es versucht. :smile:
es ist immer Luft nach oben, aber sind dann auch die Sachen wo jeder Effekt Film ne neue offline Simulation bekommt ;)
Gefühlt in jedem Making Of geht's um Wasser oder Haar/Fell und die Leute sitzen Jahre dran.
Mein Argument war ja nicht dass alles super ist, nur dass Sprünge wegen dem schon erreichtbaren (Top Titel), eben kleiner sein werden, weil die schon auf hohem Niveau arbeiten und viele Themen abdecken.
Ich kann auch keine standard speedtree Bäume mehr sehen oder wenn CPU limitierte CAD Software kein dsr/aa benutzt was ja gratis wäre ;)
Aber die Gründe dafür sind eben nicht die Hardware allein.
Rampage 2
2017-07-11, 17:13:22
Im Leben nicht, macht den Chip viel zu groß und teuer.
Wir können froh sein, wenn wir etwas in Richtung 4096 SE @ 1.1-1.2 GHz bekommen, meiner Meinung nach.
Mein optimistischer Tipp wäre:
- 8 Zen2 Kerne (2 CCX) @ <= 3GHz
- Navi GPU mit 64 ROPs, 3072 ALUs ~1.3-1.4 GHz oder 4096 ALUs @ ~1.1-1.2 GHz
- 256-bit GDDR6-SI, 16GB GDDR6 @ 13-14Gbps
Gegenüber der PS4Pro wäre das ca. >= 2-fache Leistung in jeder Hinsicht, ggü. der Original-PS4 ca. Faktor 3 bei CPU und Faktor 4,5 bei GPU.
Mehr wird's kaum geben, dafür wird der 7nm Prozess anfangs einfach zu teuer pro mm² sein.
Jede Konsolengeneration sollte mindestens 10x so viel Leistung haben wie die vorherige. Die PS3 hatte damals Killer-Hardware verbaut und war mit Sicherheit weit mehr als "nur" 10x so leistungsfähig wie die PS2 (schade nur, dass die G71-GPU so stark kastriert wurde...). Und im Hinblick auf die PS3 ist sowohl die Rohleistung als auch die Praxisleistung der aktuellen Konsolengeneration (PS4/XBOne, auch PS4Pro) mehr als nur enttäuschend - außer vielleicht die kommende XB Scorpio.
Für eine PS5 erwarte ich mindestens:
- 8C/16T Zen2 oder Zen3 @ 7nm (Takt irgendwo zwischen 3 - 3.5 GHz)
- mindestens 15-20 TFlops Rechenleistung für den Grafikchip; 6144SPs @ 1.5GHz wären perfekt (= 18.4 TFlops -> exakt die 10fache Rechenleistung der normalen PS4). Wieviel Die-Fläche würde ein solcher Chip @ 7nm einnehmen?
- 512-1024GB Speicherbandbreite - die normale PS4 hatte nur 176GB/sec.; also sollten bei der PS5 880GB/sec. + TBR und weitere Optimierungen im Praxiseinsatz eine ~ 10fach höhere Speicherbandbreite als die normale PS4 ergeben.
- sehr großer Speicherpool. 16-32GB HBM3-RAM oder noch besser 8-16GB HBM3-RAM + HBCC + 32GB GDDR6-RAM. Letzteres wäre wohl sinnvoller und vermutlich auch billiger;)
Damit könnten dann wirklich die meisten Spiele in nativem 4K @ 60Hz dargestellt werden und vielleicht gäbe es dann auch noch genug Luftraum für VR-Spielereien.
R2
][immy
2017-07-11, 17:52:16
Ich will es ja eigentlich nicht noch mal sagen, aber Ryzen ist viel zu groß. Selbst in 7nm. Ein Grund warum auf Jaguar kerne gesetzt wurde damals war, die benötigen weder viel Leistung noch sind sie besonders groß. Sehr sparsam und winzig. Ryzen ist ein riesiger chip, selbst auf 7nm wäre der noch viel zu groß. ich bin mal mal gespannt wie die APU modelle von Ryzen aussehen werden.
Alles was die CPU schon an platz verbraucht wird bei der GPU abgezogen. Sprich wenn ryzen verwendet werden würde, dürfte es z.b. nur eine stark kastrierte form (z.B. ohne den großen l3 Speicher und reduzierte L2 Speicher) sein. Ansonsten kommt ihr nie in die Richtung eurer GPU-Wünsche ohne jedes Konsolen-Budget zu sprengen.
Wenn wir davon ausgehen das eine 700+€ Konsole (basis) ok ist, dann ok, packt dicke Teile rein die auch mit 7nm noch recht groß sein werden.
Btw, die Jaguar kernchen sind gar nicht so leistungsschwach. Denen fehlt nur ein wenig die Frequenz und vielleicht aktuelle Erweiterungen. Könnte mir gut vorstellen das auch die Kernchen mal in richtung von 3GHz gehen werden. Der vorteil bei den kleinen Dingern ist halt, das man ohne viel mehr platz zu benötigen trotzdem mal eben die anzahl verdoppeln kann und wäre immernoch weit unterhalb der größe von Ryzen.
Ändert aber an sich nichts daran, das die CPU verhältnismäßig unwichtig geworden ist. Mehr und mehr wird auf GPU berechnungen gesetzt. Das dürfte in den nächsten jahren nicht wirklich anders werden. Fragt sich dann was denn eine ryzen CPU überhaupt bringen würde.
Ein problem sehe ich derzeit auch beim Speicher. die 1080TI ist wohl derzeit die schnellste karte, benutzt aber GDDR5X speicher. Nun fällt besonders beim Mining auf so richtig Berechnungsfreundlich ist dieser speicher nicht grad.
An HBM in größeren mengen in konsolen glaube ich auch in 2020 noch nicht (dafür ist es zu teuer wenn mal was schief läuft). GDDR? speicher wäre da nach wie vor wohl sinnvoller. Allerdings merkt man ja das die Zugriffszeiten hier dann doch sehr zu wünschen übrig lassen. Für die GPUs ist das normalerweise ja noch relativ egal, aber wenn die CPU ebenfalls drauf zugreift dürfte es mit den Timings dort sehr schlecht laufen.
00-Schneider
2017-07-11, 18:08:55
bla bla bla
Konsolen sollten nicht mehr wie 500$ kosten. Deine Rechnung ist ganz nett, aber absolut realitätsfern.
gravitationsfeld
2017-07-11, 18:45:08
Jede Konsolengeneration sollte mindestens 10x so viel Leistung haben wie die vorherige. Die PS3 hatte damals Killer-Hardware verbaut und war mit Sicherheit weit mehr als "nur" 10x so leistungsfähig wie die PS2 (schade nur, dass die G71-GPU so stark kastriert wurde...).
Was war an RSX "kastriert"? G70 war ziemlicher Muell.
robbitop
2017-07-11, 19:07:36
@Jimmy
Gipsel hat doch schon dargestellt, dass die 2x Zen CCX in 7nm sowohl was Größe als auch Leistungsaufnahme betrifft vergleichbar (sogar eher kleiner) mit den 8 Jahuarkernen im PS4 28nm SoC wären.
@3GHz sind bereits heute 8C sehr sparsam. In 7nm noch sparsamer.
Ryzen ist vor allem wegen seines I/O so groß. Das sieht in einem Konsolen SoC aber völlig anders aus.
Die Zen Cores haben deutlich mehr IPC (insbesondere wenn man SMT und AVX mitbetrachtet) und lassen seitens mArch auch andere Taktraten zu. Jaguar müsste man auf 3 GHz "prügeln".
Außerdem kann man sehr vieles eben doch nicht auf die CPU legen. Diese wird nicht unwichtiger. Die Entwickler müssen sich halt zügeln, weil nicht viel Leistung da ist. Das ist eher ein Henne/Ei Problem
Jupiter
2017-07-11, 19:12:01
Ist genau so "unwahrscheinlich" wie das nicht abschaltbare negative LOD-Bias in einigen Frostbite-Titeln. Dummheit stirbt nicht aus.
BATTLEFRONT II hat das bisher auch. Es wird sehr peinlich für DICE, wenn sie das in der Endversion so lassen (Siehe Battlefield 1). Die Bildqualität leidet extrem darunter. Was nützen einen hohe Auflösungen wenn das gesamte Bild flimmert? Erst ab einer sehr hohen Auflösung ab zirka 1620p nimmt die Auffälligkeit signifikant ab.
deekey777
2017-07-11, 19:14:35
Was war an RSX "kastriert"? G70 war ziemlicher Muell.
Im Vergleich zur Desktopversion des G70/G71 betrug das SI des RSX 128 bit. Sonst entsprach der RSX damals der Tophardware von Nvidia, bis der :massa: G80 kam.
robbitop
2017-07-11, 19:17:50
Im Vergleich zur Desktopversion des G70/G71 betrug das SI des RSX 128 bit. Sonst entsprach der RSX damals der Tophardware von Nvidia, bis der :massa: G80 kam.
Er hatte über Cell aber noch Zugriff auf den XDR Speicher. Soweit ich weiß, wurde das auch stark genutzt.
xyleph
2017-07-11, 19:57:50
Und der Texturencache war vergrößert, wenn ich mich recht entsinne.
basix
2017-07-12, 10:54:03
- mindestens 15-20 TFlops Rechenleistung für den Grafikchip; 6144SPs @ 1.5GHz wären perfekt (= 18.4 TFlops -> exakt die 10fache Rechenleistung der normalen PS4). Wieviel Die-Fläche würde ein solcher Chip @ 7nm einnehmen?
6144 SPs sind wahrscheinlich das Maximum. Vega 10 = 484mm2 * 0.4 = 194mm2. Faktor 0.4 ist der Skalierungsfaktor zu 7nm mit einer gewissen Unschärfe. Er ist sicher <0.5.
194mm2*1.5 = 291mm2. Dann noch ein 8C Zen CPU und ein wenig I/O und man landet bei ca. 350mm2 +/- 30mm2. Könnte also wirklich knapp hinkommen, ist aber eher der Optimalfall. An 1.5GHz Takt glaube ich aber nicht. Wenn man schon so viele SPs verbaut, muss man irgendwie den Stromverbrauch im Griff haben. Ergo weniger Takt. Ich würde 1.1-1.2GHz erwarten, ausser 7nm und/oder Navi stellt sich als Taktwunder heraus.
AffenJack
2017-07-12, 12:02:33
@basix
Bei den Kosten von 7nm bist du bei der Größe aber wohl schon bei einer 500$ Konsole oder wirst zuzahlen müssen. Aber Sony wird nicht über 400$ gehen wollen. Das hat sich gut bewährt gerade. Daher glaube ich nicht, dass wir >300mm² in 7nm sehen werden. Die Fläche ist prinzipiell auch erstmal egal. 7nm ist laut Gf um 30% billiger pro Transistor als 16nm. Ergo du kannst bei gleichem Preis 50% mehr Transistoren in 7nm verbauen als in 16nm. Ich erwarte daher eher kleinere Chips die den Preis gleich wie bei 16nm halten, aber dafür höhere Taktraten. Sowas wie Vega 4096SP bei 1,5Ghz klingt eher machbar.
basix
2017-07-12, 15:51:09
Sowas wie Vega 4096SP bei 1,5Ghz klingt eher machbar.
Machbar auf jedenfall. Ist nur die Frage, wie sich der Stromverbrauch bei diesem Takt verhält. Die PS4 benötigt ca. 150W @ Gaming. Hier ein 8C Ryzen und 4k SPs mit entsprechendem Takt reinzudrücken ist sicher sportlich, auch wenn es 7nm sind. Es kommt ja noch die Festplatte und anderes Zeugs dazu. Ein handoptimierter 8C / 16T Ryzen @ 3.0GHz benötigt ca. 45-50W. Eine Vega 10 mit entsprechenden Taktraten sagen wir mal 250W. Ryzen ist GF und Vega TSMC, das spielt mal hier für die Betrachtung keine Rolle. Bei einer Stromverbrauchsreduktion um 60% wie es für GF 7LP im Gespräch ist, ergäbe das ca. 120W. Die 150W könnten also zu schaffen sein. Zudem wären für mich CPU und GPU gut ausbalanciert. Für 4k könnten es auf GPU Seite aber auch noch mehr sein.
LadyWhirlwind
2017-07-12, 16:41:52
@basix
Bei den Kosten von 7nm bist du bei der Größe aber wohl schon bei einer 500$ Konsole oder wirst zuzahlen müssen. Aber Sony wird nicht über 400$ gehen wollen. Das hat sich gut bewährt gerade. Daher glaube ich nicht, dass wir >300mm² in 7nm sehen werden. Die Fläche ist prinzipiell auch erstmal egal. 7nm ist laut Gf um 30% billiger pro Transistor als 16nm. Ergo du kannst bei gleichem Preis 50% mehr Transistoren in 7nm verbauen als in 16nm. Ich erwarte daher eher kleinere Chips die den Preis gleich wie bei 16nm halten, aber dafür höhere Taktraten. Sowas wie Vega 4096SP bei 1,5Ghz klingt eher machbar.
Wobei ich sagen würde, dass wenn Sony Dies ohne Anpassungen verwendet die Kosten auch niedriger sein könnten als bei Jaguar.
Entropy
2017-07-12, 18:17:41
Was war an RSX "kastriert"?
Speicherinterface und alles was dran war, z.B. 8 statt 16 ROPs.
https://forum.beyond3d.com/threads/8-rops-on-the-rsx-bad-engineering-decision.42184/
G70 war ziemlicher Muell.
Damals war G70 top für Spiele.
robbitop
2017-07-12, 18:23:08
G70 hat schon vor G80 Launch massiv an Pipelinestalls gelitten - TEX / Arithmetiek blockiert sich gegenseitig. Erbe der Rampage mArch in CineFX. In Shaderlastingen Spielen drehte R580 Kreise um G70/71. bspw Oblivion.
@Konsole konnte man die Pipestalls aber wohl umgehen (Optimierung)
Durch den Zugriff auf den xdr war eigentlich genug Bandbreite da. Dazu iirc kostenloses nrm_pp (für dot3 bm). Cell hat ja gern noch das Backfaceculling und bei DR Engines bei der Beleuchtung nachgeholfen. Voll optimiert (zB TLOU, U3 etc) ist die Grafikleistung sicher ein bisschen über Xenos Niveau. Das war ab 2010 bei Exclusives der Fall. Xenos hingegen war da etwas robuster und fuhr früher seine Leistung aus.
Entropy
2017-07-12, 18:48:23
G70 hat schon vor G80 Launch massiv an Pipelinestalls gelitten - TEX / Arithmetiek blockiert sich gegenseitig. Erbe der Rampage mArch in CineFX. In Shaderlastingen Spielen drehte R580 Kreise um G70/71. bspw Oblivion.
njain, was TEX latenz verstecken angeht, war G70 besser, wie du sagst, war es noch die triviale CineFX Sache, deswegen war SM3.0 so komplett gegen die Architektur. Stalls bei ALU kannst du nur haben, wenn nicht genug in der Pipeline ist, aber dann bist du vermutlich eh gerade sehr schnell.
R580 hatte weit aus besseres HSR, gerade bei viel Overdraw war das von Vorteil.
@Konsole konnte man die Pipestalls aber wohl umgehen (Optimierung)
Eigentlich gab es nicht viele Pipestalls die optimiert werden mussten, den Klassiker: Shader- oder Statewechsel ist teuer, kannte jeder auf dem Desktop auch.
VLIW war eher woran optimiert werden konnte.
Durch den Zugriff auf den xdr war eigentlich genug Bandbreite da.Theoretisch, aber es war eher selten, dass ein Spiel die ~200MB auch noch für GFX Daten nutzte. Das Ding kam raus als Crysis unter 32 Bit Vista manchmal "Memory Allocation Failed" hatte.
deekey777
2017-07-12, 19:05:28
Damals war G70 top für Spiele.
Im Sommer 2005 definitiv, im Sommer 2006 immer noch, aber dann ging's bergab, insbesondere mit dem Aufkommen der UE3-Spiele.
robbitop
2017-07-12, 19:06:00
@Entropy
Nein es hatte mit der Arithmetiklast und den davon abhängigen stalls zu tun. Sagte zumindest Demirug, der selbst AAA Entwickler war/ist. War auch auffällig, dass je arithmetiklastiger die Spiele, desto mehr kackte G7x ab. Und zwar zT brutal. Die Theoretische peakleistung war gar nicht so schlecht.
VLIW war erst ab R600 iirc.
Soweit ich weiß, nutzt rsx bei TLOU beide Speicherpools um genug Bandbreite zu bekommen.
lumines
2017-07-12, 19:16:26
Jede Konsolengeneration sollte mindestens 10x so viel Leistung haben wie die vorherige. Die PS3 hatte damals Killer-Hardware verbaut und war mit Sicherheit weit mehr als "nur" 10x so leistungsfähig wie die PS2 (schade nur, dass die G71-GPU so stark kastriert wurde...). Und im Hinblick auf die PS3 ist sowohl die Rohleistung als auch die Praxisleistung der aktuellen Konsolengeneration (PS4/XBOne, auch PS4Pro) mehr als nur enttäuschend - außer vielleicht die kommende XB Scorpio.
Da kann ich mich auch nur gravitationsfeld anschließen. Die GPU der PS3 war nicht kastriert, sie war wirklich einfach nur ein bisschen veraltet verglichen mit der in der 360. Verstehe daher auch nicht, wie man da von Killerhardware sprechen kann. Im Schnitt war die 360 stärker und moderner. Die PS3 hatte eben einige sehr gute First-Party-Titel, aber da könnte man sich natürlich fragen, ob die nicht auch so auf der 360 möglich gewesen wären. Cell war letztendlich für Videospiele doch nicht so geeignet, wie Sony ursprünglich gedacht hat. Von der GPU braucht man nicht anfangen.
Die PS3 kam mit ihrer GPU einfach zu einem ungünstigen Zeitpunkt. Die GPU war nie wirklich für die Zukunft gerüstet, sondern für die Spiele zum Zeitpunkt ihres Releases und davor. Die PS3 wollte die technische Spitze ihrer Generation sein, aber das ist ja leider nicht geglückt. Mich wundert auch ein bisschen, dass MS damals nicht mehr Salz in die Wunde gestreut hat, als sich herausgestellt hat, dass sie die bessere Architektur für Videospiele hatten.
Ich denke mal die Nostalgie für die Generation der 360 und PS3 kommt auch einfach daher, dass danach keine fundamental neuen Genres durch mehr Leistung möglich waren. Auf einmal hatte man Open-World-Spiele. Die PS3 und 360 waren auch die ersten Konsolen mit einer annehmbaren Online-Anbindung. Das sind alles Dinge, die vielleicht erst rückblickend die Generation geprägt hat und die technischen Unterschiede zur heutigen Konsolengeneration kleiner erscheinen lassen, als sie tatsächlich sind.
Zu den Next-Gen-Generationen: Hier wird ja immer angenommen, dass eine PS5 und ein Nachfolger Xbox One in naher Zukunft erscheinen wird, aber eventuell wird das nicht so schnell passieren. Eine neue Konsolenplattform zu releasen ist doch immer relativ heikel und risikoreich für den Hersteller. Damals hatten die Konsolen klare Flaschenhälse, aber heute? Im Grunde fragt man sich nur noch, in welcher Auflösung gerendert wird. Damals ging es da noch um so ganz klare Probleme wie ewige Ladezeiten durch extrem miese I/O-Performance und andere nervige Probleme. Damals hat man nicht nur auf bessere Leistung geschielt, sondern auch mehr Convenience. Das ist heute weniger der Fall.
Ich denke mal, dass die Hersteller eine neue Generation so lange wie möglich herauszögern wollen. Die Zwischenschritte mit der PS4 Pro und Scorpio sollte man vielleicht auch nicht als Überbrückung sehen, sondern eher um eine Konkurrenz im eigenen Haus zu haben, die den Leuten das Gefühl gibt, dass sie schon jetzt eine Option mit mehr Leistung haben. Die meisten Leute da draußen haben von den genauen Specs ja keine Ahnung. Das Bedürfnis nach mehr Leistung innerhalb einer Konsolengeneration zu befriedigen ist vielleicht einfach eine Risikobegrenzung und soll die Käufer abschröpfen, die sonst nur beim Release einer komplett neuen Generation eine Konsole kaufen. Der Hype um die Leistung einer komplett neuen Generation scheint Sony / MS nicht so zu gefallen. Eventuell wollen sie den Hype damit bewusst von neuen Generationen entkoppeln.
Aus der Sicht heraus macht eine Next Gen nicht so wahnsinnig viel Sinn, wenn sie sich nur durch mehr Leistung abheben soll. Die meisten Käufer hat man mit der PS4 Pro und Scorpio schon bedient.
THEaaron
2017-07-12, 19:25:49
Gerade ist der Markt bezüglich Hardware auch einfach gesättigt. PS4Pro, Nintendo Switch, Xbox One X, ... die Leute stehen zwar auf neue Hardware aber sie brauchen auch mal ein bis zwei Jahre Ruhe um den Bedarf wieder zu wecken.
Darüber hinaus macht Sony z.B. jetzt erst richtig Kohle mit ihrer Software. Man braucht nun mal eine gewisse Nutzerbasis um mit den Lizenzen der Softwarehersteller zu kassieren.
Und Hand aufs Herz: verglichen mit der Generation PS360 steht man visuell gegenüber dem PC und der aktuellen Software noch extrem gut da.
LadyWhirlwind
2017-07-12, 19:51:26
Gerade ist der Markt bezüglich Hardware auch einfach gesättigt. PS4Pro, Nintendo Switch, Xbox One X, ... die Leute stehen zwar auf neue Hardware aber sie brauchen auch mal ein bis zwei Jahre Ruhe um den Bedarf wieder zu wecken.
Darüber hinaus macht Sony z.B. jetzt erst richtig Kohle mit ihrer Software. Man braucht nun mal eine gewisse Nutzerbasis um mit den Lizenzen der Softwarehersteller zu kassieren.
Und Hand aufs Herz: verglichen mit der Generation PS360 steht man visuell gegenüber dem PC und der aktuellen Software noch extrem gut da.
Wenn Sony mit einer wirklich viel stärkeren PS5 kommt, dann werden die Leute die kaufen. Es wird aber sicher so sein, dass die Inhalte im Vergleich zur Grafik wichtiger werden. 15+ Teraflops reichen für gute Grafik in 4k durchaus aus. Klar kann man die Leistung immer irgendwo versenken, aber wieviel mehr Bildqualität braucht es wirklich?
just4FunTA
2017-07-12, 20:05:58
Wenn Sony mit einer wirklich viel stärkeren PS5 kommt, dann werden die Leute die kaufen. Es wird aber sicher so sein, dass die Inhalte im Vergleich zur Grafik wichtiger werden. 15+ Teraflops reichen für gute Grafik in 4k durchaus aus. Klar kann man die Leistung immer irgendwo versenken, aber wieviel mehr Bildqualität braucht es wirklich?
sehr sehr sehr viel mehr wenn du mich fragst. :D :)
Sardaukar.nsn
2017-07-12, 20:46:17
Gerade ist der Markt bezüglich Hardware auch einfach gesättigt. PS4Pro, Nintendo Switch, Xbox One X, ... die Leute stehen zwar auf neue Hardware aber sie brauchen auch mal ein bis zwei Jahre Ruhe um den Bedarf wieder zu wecken.
Darüber hinaus macht Sony z.B. jetzt erst richtig Kohle mit ihrer Software. Man braucht nun mal eine gewisse Nutzerbasis um mit den Lizenzen der Softwarehersteller zu kassieren.
Und Hand aufs Herz: verglichen mit der Generation PS360 steht man visuell gegenüber dem PC und der aktuellen Software noch extrem gut da.
Sehe ich ähnlich, bei der PS4 wird jetzt erst mal ordentlich Geld für die Spiele ausgegeben da sich die Entwicklung von AAA Titel aufgrund der großen Hardware Basis so richtig lohnt. Sieh vermeintliche "must-have-titel" wie Horizon, oder bald das God of War usw. zudem hat man für die Besitzer von 4k TVs auch noch was im Angebot.
LadyWhirlwind
2017-07-12, 21:15:16
sehr sehr sehr viel mehr wenn du mich fragst. :D :)
Ja, aber kaufst du ein Spiel wegen der Bildqualität oder weil es einfach gut ist? Oder kaufst du dir wegen einer etwas besserer Bildqualität eine 400 EUR Konsole?
Was ich sagen will ist, das es in der nächsten Generation nicht reichen wird, eine leicht schnellere Konsole zu haben. Microsoft hat eigentlich nur schlechte Optionen: Warten sie nach dem erscheinen 1 Jahr, dann ist die Konsole nicht deutlich besser und die Konsole mit den besseren Exklusives wird wahrscheinlich das rennen machen. Warten Sie zwei Jahre, kommt Sony schon 1 Jahr später mit der PS5 Pro. Ebenso riskiert Microsoft das die Kunden eine Sony-Konsole kaufen. Wieder gilt: Ohne gute Exklusives werden nur wenige Kunden zurück wechseln.
00-Schneider
2017-07-12, 22:11:33
aber wieviel mehr Bildqualität braucht es wirklich?
Dauerhaft 60fps mit 4K CBR wäre mal ne Ansage für Next Gen.
30fps -> 60fps wird der nächste große Schritt bei der nächsten Gen.
Nightspider
2017-07-12, 22:14:25
Ist der logische Weg.
Die OLEDs werden in Zukunft ja auch alle Richtung 200Hz marschieren.
Dazu eventuell noch Async.
LadyWhirlwind
2017-07-12, 22:25:01
Dauerhaft 60fps mit 4K CBR wäre mal ne Ansage für Next Gen.
30fps -> 60fps wird der nächste große Schritt bei der nächsten Gen.
Klar ist mehr immer besser, aber viele können auch mit unter 60 fps leben, bzw. werden sich für eine Konsole die 60 fps vielleicht ein bisschen öfter erreicht, keine 400 EUR ausgeben. Und in der Regel wird eher die Konsole als Massstab genommen, die weiter verbreitet ist.
just4FunTA
2017-07-12, 22:26:35
Dauerhaft 60fps mit 4K CBR wäre mal ne Ansage für Next Gen.
30fps -> 60fps wird der nächste große Schritt bei der nächsten Gen.
ich glaube nicht wirklich drann das ohne Zwang von Sony/MS alle Entwickler auf 60fps setzen. Man hat mit 30fps einfach viel mehr Power zu Verfügung die man in zusätzliches eyecandy investieren kann.
00-Schneider
2017-07-12, 22:40:33
ich glaube nicht wirklich drann das ohne Zwang von Sony/MS alle Entwickler auf 60fps setzen. Man hat mit 30fps einfach viel mehr Power zu Verfügung die man in zusätzliches eyecandy investieren kann.
Eyecandy einzubauen bzw. zu entwickeln ist teuer. 60fps ist billiger, und macht jedes Game besser.
just4FunTA
2017-07-12, 22:48:21
eyecandy sieht der Kunde aber sofort und zwar auch auf Bildern, das ist mit 60fps nicht der Fall das merkt er erst beim Zocken. Und stabile 60fps sind sicherlich auch nicht billig da musst du schon viel optimierungsarbeit reinstecken.
LadyWhirlwind
2017-07-12, 23:09:26
Was man im 3dcenter für wichtig hält, muss die Masse nicht auch so sehen. Es gibt genügend Spiele ohne 60fps die sich gut verkauften.
Ich würd sogar behaupten, dass den meisten das egal ist.
Jupiter
2017-07-12, 23:11:43
Der Kunde sieht auch keinen Unterschied zwischen 720p und 1080p. Zumindest wurde das häufig kommuniziert. 60fps sind für das Gameplay um ein vielfaches wichtiger. 30fps spiele ich selbst mit Gamepad sehr ungern. Wenn mal 30fps probiert wird, wird schnell wieder zurück auf 60fps in einer niedrigeren Auflösung gewechselt. Solange ich keine Wandersimulation konsumiere, sind 30fps für mich auf Dauer unspielbar. Das halte ich nicht aus.
30fps in der nächsten Generation würde ich peinlich finden, sofern nichts revolutionär neues mit 30fps angestellt wird. Mit 60fps würden sich die nächsten Plattformen auch von der PlayStation 4 Pro und Xbox One X deutlich abheben. Wegen der Verwendung von HDMI 2.1 und Freesync kann die Bildrate dann auch leicht unter 60fps fallen.
pixeljetstream
2017-07-12, 23:24:07
würde mich nicht wundern wenn die solange warten bis sich das vr/ar zeug mainstream tauglich fertigen lässt. An irgendwas womit man extra mehrwert demonstrieren kann, sollte man eine neue Generation schon koppeln imo. Marektingtechnisch ist das besser als nur specs, und man kann sich dann auch deutlicher vom PC abheben imo, der ja immer bissl eco system clusterfuck ist.
Natürlich darf man nicht den Fehler machen wie bei der Kinekt und es erzwingen wollen, aber irgendwas "neues" noch dabei zu haben wäre schon gut.
][immy
2017-07-13, 08:13:13
Eyecandy einzubauen bzw. zu entwickeln ist teuer. 60fps ist billiger, und macht jedes Game besser.
nö
stabile 60 fps zu erreichen ist schon ziemlich teuer und erfordert einiges an Optimierungen. Eye-Candy ist hingegen eigentlich relativ günstig, wenn es nicht grad um hoch aufgelöste Assets geht.
Raus kommen dann am ende vergleiche wie Driveclub vs Forza. Klar das eines von beiden besser aussieht da es eben nur 30 fps gerade mal eben so hält. Und dann nörgeln die Leute wieder warum das 60fps spiel nicht genauso toll aussehen kann.
60 fps ist nach wie vor kein Thema und wird es auch nicht sein auf Konsolen (breitflächig). Es wird hin und wieder ausnahmen geben aber das wars dann auch. VR spiele haben's da sogar noch schwerer. Diese müssen nicht nur minimal 60fps erreichen sondern auch noch 2 Bilder aus unterschiedlichen Perspektiven abliefern.
Nightspider
2017-07-13, 10:11:32
Klar ist mehr immer besser, aber viele können auch mit unter 60 fps leben, bzw. werden sich für eine Konsole die 60 fps vielleicht ein bisschen öfter erreicht, keine 400 EUR ausgeben. Und in der Regel wird eher die Konsole als Massstab genommen, die weiter verbreitet ist.
Das Gleiche kannste aber eigentlich auch bei 4K sagen...von daher...
Die 60fps sind ja auch nicht das Verkaufsargument für die PS5 sondern die bessere Grafik, Technik usw...besseres Gameplay ermöglicht durch viel schnellere CPU Kerne usw.
LadyWhirlwind
2017-07-13, 11:31:10
Das Gleiche kannste aber eigentlich auch bei 4K sagen...von daher...
Die 60fps sind ja auch nicht das Verkaufsargument für die PS5 sondern die bessere Grafik, Technik usw...besseres Gameplay ermöglicht durch viel schnellere CPU Kerne usw.
4k fähig habe ich jetzt mal als gegeben angenommen.
Ja klar, es wird aber innerhalb einer Leistungsgeneration keine grossen Unterschiede geben, weil die Hersteller ihre grossen Titel ja auf beiden Plattformen verkaufen wollen.
Vorallem wenn der Hersteller der leicht stärkeren Konsole der Underdog ist, werden die Entwickler nicht viel unternehmen um die Zusatzleistung auszureizen.
Entropy
2017-07-14, 19:02:51
@Entropy
Nein es hatte mit der Arithmetiklast und den davon abhängigen stalls zu tun. Sagte zumindest Demirug, der selbst AAA Entwickler war/ist. War auch auffällig, dass je arithmetiklastiger die Spiele, desto mehr kackte G7x ab. Und zwar zT brutal. Die Theoretische peakleistung war gar nicht so schlecht.Würde das nicht sehr gut dazu passen, dass HSR schlechter war? Denn wenn die Arithmetiklast steigt, sollte die Pipeline eigentlich Stalls viel besser verstecken, macht sie auch.
Wenn HSR jedoch schlecht ist, wirst du diese Arithmetik nicht mehr hinter anderen Dingen, z.B. Framebuffer-laden verstecken.
VLIW war erst ab R600 iirc.
http://www.neogaf.com/forum/showthread.php?t=55072
Ich lege nicht meine Hand ins Feuer, dass das alles richtig ist, aber im Groben kannst du sehen, dass pro Takt viele unterschiedliche Operationen ausgeführt werden konnten, das zu steuern bedarf VLIW.
Soweit ich weiß, nutzt rsx bei TLOU beide Speicherpools um genug Bandbreite zu bekommen.
Platformspezialisten, die nichts anderes machen, und quasi von 0 anfangen, haben vermutlich beide Speicher benutzt, und jede andere Möglichkeit der PS3. Cross-Platform Spiele haben da weniger möglichkeit, da der Cell fast nicht vom VRam lesen kann, also beschränkt ist auf die 200MB.
https://en.wikipedia.org/wiki/RSX_Reality_Synthesizer#Speed.2C_Bandwidth.2C_and_Latency
gravitationsfeld
2017-07-14, 21:47:10
G70 war Vec3 + Scalar "VLIW" iirc.
deekey777
2017-07-14, 22:00:54
G70 war Vec3 + Scalar "VLIW" iirc.
Oder Vec2+Vec2 (?). (Pixelshader)
Aus dem Cine FX-Artike von 2003:
http://alt.3dcenter.org/artikel/cinefx/index7.php
Tauchen wir nun noch tiefer, findet sich eine weitere Leistungsquelle, die der Treiber unter Umständen noch anzapfen könnte. nVidia folgte beim Design von CineFX einer Kombination aus VLIW (Very Large Instruction Word) und SIMD (Single Instruction Multiple Data). Auf viele Daten (hier 4 Pixel) wird in einem Schritt eine große Anzahl von einzelnen Rechenoperationen auf vielen Recheneinheiten durchgeführt. Für eine Grafikkarte auf Pixelshader 2.X-Level ohne dynamisches Branching ist dieser Ansatz geradezu ideal.
gravitationsfeld
2017-07-14, 22:06:30
Die PS3 hatte uebrigens einen lustigen Hardware-Bug. Reads von Cell aus RSX-Speicher war <10MB/s.
robbitop
2017-07-15, 00:41:20
@entropy
https://forum.beyond3d.com/threads/what-can-be-defined-as-an-alu-exactly.26625/
Akkarin
2017-07-15, 14:09:33
Wie glaubt ihr dass sich die Preise für HBM entwickeln ? Meines Verständnis nach kommen die höheren kosten ja hauptsächlich durch das Stacking zu Stande, nicht durch die kosten der Chips an sich.
In den nächsten Jahren wird man das Stacking wohl besser hinbekommen, und die Preisdifferenz zu GDDR wird geringer (vor allem ggü. GGDR5X o. GDDR6). Gleichzeitig wird 7nm teurer, so dass die Einsparungen durch die kleinen PHYs größer werden.
Fiji bekommt man inzwischen ja hinter her geschmissen, auch auch zum Launch waren sie gar nicht mal so teuer. Deshalb stehen die Chancen mMn sehr hoch das auch die next-gen Konsolen mit HBM kommen.
Rampage 2
2017-07-16, 16:48:45
Da kann ich mich auch nur gravitationsfeld anschließen. Die GPU der PS3 war nicht kastriert, sie war wirklich einfach nur ein bisschen veraltet verglichen mit der in der 360. Verstehe daher auch nicht, wie man da von Killerhardware sprechen kann.
Bei der RSX war die Hälfte der ROPs (8 statt 16) und die Hälfte des SI (128Bit statt 256Bit) beschnitten. Beides (insbesondere Ersteres) dürfte langfristig betrachtet eine äußerst folgenschwere Entscheidung gewesen sein.
"Veraltet" war der RSX nicht gerade wirklich - wie deekey777 schon schrieb, entsprach sie der damaligen Top-Hardware von Nvidia (7800 GTX, 7900 GTX) und war den Desktop-Versionen in einigen Bereichen sogar überlegen:
https://en.wikipedia.org/wiki/RSX_Reality_Synthesizer#Differences_with_the_G70_architecture
Aber die Entscheidung, den Chip in einigen seiner fundamentalen Eigenschaften (ROPs, Speicherinterface) zu beschneiden, düfte sich wohl ziemlich negativ für die Zukunftstauglichkeit ausgewirkt haben...
Cell war letztendlich für Videospiele doch nicht so geeignet, wie Sony ursprünglich gedacht hat. Von der GPU braucht man nicht anfangen.
Bis du dir sicher? Von der Cell-CPU hörte ich bis jetzt immer, dass sie sehr leistungsfähig und eine der Stärken der PS3 ggü der XB360 sein soll. Laut Kazunori Yamauchi ist der Cell die Stärke und der RSX die Schwäche der PS3:
How dangerous driving helped Sony’s Kazunori Yamauchi design Gran Turismo 6 (interview) (https://venturebeat.com/2013/06/14/how-dangerous-race-driving-helped-sonys-kazunori-yamauchi-design-gran-turismo-6-interview)
When the [PlayStation 2] came out, one unique characteristic of that system was that the screen fill rate was very fast. Even looking back now, it’s very fast. In some cases, it’s faster than the PS3. There, we were able to use a lot of textures. It was able to do that read-modify-write, where it reads the screen, you take the screenshot, and you modify it and send it back. It could do that very quickly.
I don’t know if anybody remembers, but when the PS2 first came out, the first thing I did on that was a demo for the announcement. I showed a demo of GT3 that showed the Seattle course at sunset with the heat rising off the ground and shimmering. You can’t re-create that heat haze effect on the PS3 because the read-modify-write just isn’t as fast as when we were using the PS2. There are things like that. Another reason is because of the transition to full HD.
The PS3 was a combination of a poor GPU with an SPU that’s really fast if you use it right. It’s not a very well-balanced machine. It’s hard to use the hardware properly. That’s one reason why it took us five years to develop GT5. Using the SPU properly, though, that in itself is really interesting. On the PS3, in the demo, we showed the adaptive tessellation. That’s the kind of technology that you normally wouldn’t be able to do unless you were on the PS4-generation of machines. When you optimize the use of the SPU properly, you can do that even on the PS3.
Die PS3 kam mit ihrer GPU einfach zu einem ungünstigen Zeitpunkt. Die GPU war nie wirklich für die Zukunft gerüstet, sondern für die Spiele zum Zeitpunkt ihres Releases und davor. Die PS3 wollte die technische Spitze ihrer Generation sein, aber das ist ja leider nicht geglückt. Mich wundert auch ein bisschen, dass MS damals nicht mehr Salz in die Wunde gestreut hat, als sich herausgestellt hat, dass sie die bessere Architektur für Videospiele hatten.
Wäre die PS3 1 oder 2 Jahre später rausgekommen, hätte sie vermutlich die G80-GPU als Grafikprozessor gehabt - das in Kombination mit der Cell-CPU hätte wohl jedem Gamer (und Game-Developer) ein feuchtes Höschen bereitet. Aber leider kam es nicht dazu:redface:
Ich denke mal die Nostalgie für die Generation der 360 und PS3 kommt auch einfach daher, dass danach keine fundamental neuen Genres durch mehr Leistung möglich waren. Auf einmal hatte man Open-World-Spiele. Die PS3 und 360 waren auch die ersten Konsolen mit einer annehmbaren Online-Anbindung. Das sind alles Dinge, die vielleicht erst rückblickend die Generation geprägt hat und die technischen Unterschiede zur heutigen Konsolengeneration kleiner erscheinen lassen, als sie tatsächlich sind.
Jup, PS3 und XB360 waren wohl die 2. Welle der wirklich modernen Konsolengeneration (die 1. war die PS1 mit ihrem optischem Laufwerk) - eben wegen der Onlinetauglichkeit, eigenem OS, Möglichkeit von System-Updates, Möglichkeit von Spiele-Updates/Patches, Online-Gaming und echte Festplatte statt Memory-Cards.
Zu den Next-Gen-Generationen: Hier wird ja immer angenommen, dass eine PS5 und ein Nachfolger Xbox One in naher Zukunft erscheinen wird, aber eventuell wird das nicht so schnell passieren.
PS4 & XBOne sind einfach zu schwach - sie sind halt für die für Zukunft nicht so stark gerüstet, wie es die PS3 & XB360 damals waren - und das liegt primär an der verbauten (schwachen) Hardware. Zugegeben, zumindest bei der normalen PS4 sind der 8GB RAM und die 176GB Bandbreite nicht "sooo" schlecht - zumindest verglichen mit der XBOne:freak:;D
Ich denke mal, dass die Hersteller eine neue Generation so lange wie möglich herauszögern wollen.
Ich habe nichts dagegen zu warten - sollen sie meinetwegen später kommen, aber dann mit wirklich für die Zukunft gerüsteter HW/Leistung;)
Das Problem ist halt, dass die eher schwache Hardware der aktuellen Konsolengeneration das Warten erheblich erschwert:D
Soviel erstmal...
R2
deekey777
2017-07-16, 17:31:08
Die PS3 hatte uebrigens einen lustigen Hardware-Bug. Reads von Cell aus RSX-Speicher war <10MB/s.
War das nicht auf einer Folie zu sehen, wegen der sich die Fanboys die Köpfe einschlugen?
Sony hat sich bei der Wahl des Grafikchips vertan. Der RSX basierte auf dem G70/G71 und damit auf der (stark) verbesserten Cine FX. So ab 2007 ging es mit dem G70/G71 bergab, während Grafikkarte mit dem R580 oder RV570 länger hielten.
Und wenn man bedenkt, was Sony so alles mit dem Cell abseits der PS3 vorhatte und was daraus geworden ist... Das Problem der PS3 war, dass exklusive Titel aus dem eigenen Haus wirklich beeindruckend waren, während die Multis recht schnell auf der Xbox360 besser liefen.
Sony hatte bei der PS4 den richtigen Riecher, nur die CPU hätte etwas höher takten können.
Entropy
2017-07-16, 18:15:19
G70 war Vec3 + Scalar "VLIW" iirc.
Oder Vec2+Vec2 (?). (Pixelshader)
Aus dem Cine FX-Artike von 2003:
http://alt.3dcenter.org/artikel/cinefx/index7.php
vec3+vec1 oder vec2+vec2 ist nicht VLIW. Wie der Artikel sagt, war es SIMD und VLIW zur gleichen Zeit. Die GPUs damals hatten, wie jede CPU auch, viele "Ports" die für verschiedene Aufgaben ausgelegt waren. Wie auch bei CPUs, sind manche Ports redundant, manche sehr spezialisiert, dazu kommt Registerallokation und wie der Artikel sagt "Der VLIW Anteil macht einen Instruction Sequencer überflüssig. Wenn man bedenkt, dass bei modernen Chips alleine dieser Sequenzer oft mehr als die Hälfte des Transistoren innerhalb der Executions-Pipeline braucht, dürfte verständlich sein, warum man diesen Teil einer modernen CPU nicht in eine GPU übernehmen wollte."
Es war deswegen ein VLIW Chip, denn alles was ein "Sequenzer" oder "Instruction Scheduler" zur Laufzeit machen muss, kann der Compiler auch, denn "Branching" und unvorhersehbare speicherabhängige Stalls gibt es in PS2.0 nicht.
Die PS3 hatte uebrigens einen lustigen Hardware-Bug. Reads von Cell aus RSX-Speicher war <10MB/s.
Das war kein Bug, oder hast du dich damals nicht gewundert, weshalb in OGL und D3D z.B. Framebuffer-Lesen so unglaublich langsam war ;) bzw. um genau zu sein, eine lange Latenz hatte.
@entropy
https://forum.beyond3d.com/threads/what-can-be-defined-as-an-alu-exactly.26625/
Ich hab jetzt nur die erste Seite von den 6 gelesen, gibt es etwas im Speziellen worauf ich achten soll? Ich sehe nur, dass die Flops zählen wollen, gibt es eine Stelle wo von Pipelinestalls gesprochen wird?
Entropy
2017-07-16, 18:24:15
Bei der RSX war die Hälfte der ROPs (8 statt 16) und die Hälfte des SI (128Bit statt 256Bit) beschnitten. Beides (insbesondere Ersteres) dürfte langfristig betrachtet eine äußerst folgenschwere Entscheidung gewesen sein.
Es war vermutlich eine Kostenentscheidung, die Bandbreite war das, was du mit einer 7600 GT bekommst. Die denken nicht nur über den Erscheinungsmoment, sondern wieviel kleiner alles in 5 Jahren werden kann und wie billige es dann ist.
Rampage 2
2017-07-16, 19:35:25
Es war vermutlich eine Kostenentscheidung, die Bandbreite war das, was du mit einer 7600 GT bekommst. Die denken nicht nur über den Erscheinungsmoment, sondern wieviel kleiner alles in 5 Jahren werden kann und wie billige es dann ist.
Aber so wie ich es hier von euch lese, scheint es der RSX zumindest nicht an Bandbreite gefehlt zu haben - es war ja über den XDR-RAM an den Cell angebunden und die gemeinsame Bandbreite betrug insgesamt 48GB/sec. (25,6GB/sec. des XDR-RAMs + 22,4GB/sec. des RSX selbst). Der Speicher war insgesamt 512MB groß (256MB XDR-RAM + 256MB GDDR3-RAM) und es war Shared Memory, so dass sowohl Cell als auch RSX darauf zugreifen konnten - so war es auch schon bei der allerersten X-Box gewesen (bei der PS2 auch?).
Ehrlich gesagt, finde ich das Verschmelzen von Arbeitspeicher und Grafikspeicher (bzw. überhaupt die Verschmelzung von CPU- und GPU-Interface an sich) eine sehr elegante und raffinierte Lösung. Dadurch können beide Komponenten die Workloads gemeinsam abarbeiten und sich gegenseitig synergistisch verstärken. Warum wurde so etwas noch nie am PC etabliert?:|
R2
gravitationsfeld
2017-07-16, 19:59:16
Das war kein Bug, oder hast du dich damals nicht gewundert, weshalb in OGL und D3D z.B. Framebuffer-Lesen so unglaublich langsam war ;) bzw. um genau zu sein, eine lange Latenz hatte.
Doch, das war ein Bug. Das hatte nichts mit Latenz zu tun. Und nein, es hatte auch null mit der PC-Situation zu tun. Da bekam man die normale PCIe-Transferrate. Ja auch bei Readbacks.
*Writes* von RSX nach Cell-Speicher hatten die volle Bandbreite. Ueber die selben Leitungen. Wenn man was zuruecklesen wollte musste man also immer die GPU dazu bemuehen.
robbitop
2017-07-16, 20:00:43
@entropy
Seite 5 oder 6
Ansonsten auch von aths:
Dazu ein kurzer Abstecher zum NV40 und G70: Dort sieht es zum Beispiel so aus, als würde beim Texturzugriff die erste Shader-ALU (beim NV40 MUL, beim G70 MAD) blockiert. Bei CineFX hat man nun eine "Durchlauf-Pipe": Alles, was in die Tex-Unit geht, die zwischen Shader-ALU 1 und 2 liegt, muss zunächst durch Shader-ALU 1. Diese übernimmt mit ihrer MUL-Einheit zudem noch einen Teil der Perspektiv-Korrektur. Auch beim G80 dürfte die Perspektiv-Korrektur nicht gänzlich Aufgabe des Interpolators, sondern wieder teilweise der anderen Shader-ALUs sein. Das erklärt aber nicht, dass sich bisher nur ein MUL pro Takt nutzen lässt. Hier hilft nur zu warten, was die Zeit bringt.
https://alt.3dcenter.org/artikel/2006/12-28_a.php
Und ansonsten hatte es wie gesagt Demirug (AAA Entwickler bei EA) auch vor gut 10 Jahren hier mehrfach im Forum gepostet, dass es zu stalls kommt. Ich finde seine Posts nicht mehr. Aths und Demirug kann man schon glauben.
Bis vor einigen Jahren war es wohl auch bei Mobile GPUs (Mali zB iirc) auch so, dass TEX und Arithmetik nicht richtig entkoppelt waren. Passt das Verhältnis der jeweiligen Applikation in Bezug auf texturoperationen und arithmetikoperationen nicht zum Aufbau der Quadpipeline, gibt/gab es Stalls.
Ich stecke leider auch nicht mehr so recht im Thema, da es mehr als 1 Jahrzehnt her ist.
R5xx und G80 haben je moderner die Spiele wurden Kreise um G7x auf dem PC gedreht. 2005 war G7x in den damaligen Spielen noch ganz vorn. 2007 wurde es dann ziemlich bitter. Rein rechnerisch hat G7x eine gar nicht so schlechte Rohleistung.
Entropy
2017-07-16, 22:36:37
Aber so wie ich es hier von euch lese, scheint es der RSX zumindest nicht an Bandbreite gefehlt zu haben - es war ja über den XDR-RAM an den Cell angebunden und die gemeinsame Bandbreite betrug insgesamt 48GB/sec. (25,6GB/sec. des XDR-RAMs + 22,4GB/sec. des RSX selbst). Der Speicher war insgesamt 512MB groß (256MB XDR-RAM + 256MB GDDR3-RAM) und es war Shared Memory, so dass sowohl Cell als auch RSX darauf zugreifen konnten - so war es auch schon bei der allerersten X-Box gewesen (bei der PS2 auch?).
Das stimmt, die RSX war schon eine sehr gut ausbalanzierte Sache. Natürlich ist irgendwo "mehr" auch besser, aber das war die letzte Generation vor G80, NVidia hatte seit CineFX alles ausgeschliffen, was nicht rund lief.
Ehrlich gesagt, finde ich das Verschmelzen von Arbeitspeicher und Grafikspeicher (bzw. überhaupt die Verschmelzung von CPU- und GPU-Interface an sich) eine sehr elegante und raffinierte Lösung. Dadurch können beide Komponenten die Workloads gemeinsam abarbeiten und sich gegenseitig synergistisch verstärken. Warum wurde so etwas noch nie am PC etabliert?:|
R2Das ist die PC Architektur, du hast Hauptspeicher und VRam.
Rampage 2
2017-07-16, 22:50:43
Das ist die PC Architektur, du hast Hauptspeicher und VRam.
Ist hier PCI-Express der Flaschenhals? (also Kommunikation zwischen RAM und Grafikchip/VRAM)
Wovon hängt es in der PC-Architektur ab, wie gut CPU und GPU miteinander kommunizieren können? Wo sind hier die Flaschenhälse?
R2
Entropy
2017-07-16, 22:57:57
Doch, das war ein Bug. Das hatte nichts mit Latenz zu tun. Und nein, es hatte auch null mit der PC-Situation zu tun. Das war kein Bug. Das mit der Latenz war mein Zaunpfahl an dich.
Da bekam man die normale PCIe-Transferrate. Ja auch bei Readbacks.Du bekommst auf PS3 auch die vollen 20GB/s, wenn die RSX das macht. Wenn das on-demand passiert, wäre die Latenz natürlich...
*Writes* von RSX nach Cell-Speicher hatten die volle Bandbreite. Ueber die selben Leitungen. Wenn man was zuruecklesen wollte musste man also immer die GPU dazu bemuehen.
Es geht nicht um die Leitungen, denn die konnten mit dem RSX voll ausgelastet werden, es geht um das Interface. Jeder Chip hat soeines.
Entropy
2017-07-16, 23:32:37
https://alt.3dcenter.org/artikel/2006/12-28_a.php
Ich glaube da hab ich dich mit "Stall" falsch verstanden. Ich dachte du meintest sowas wie dass die GPU bzw. Shader nichts tun und warten. So wie er das beschreibt, teilen ein paar Einheiten den Port mit dem "Texturzugriff".
Das hätte ich nicht als Stall bezeichnet, aber aus der Sicht stimmt das.
Und ansonsten hatte es wie gesagt Demirug (AAA Entwickler bei EA) auch vor gut 10 Jahren hier mehrfach im Forum gepostet, dass es zu stalls kommt. Ich finde seine Posts nicht mehr. Aths und Demirug kann man schon glauben.
Unter der Ansicht, dass damit ein Port "blockiert" ist, ist das natürlich Richtig.
Ich dachte du meintest sowas wie ein Stall durch einen Sync.
Bis vor einigen Jahren war es wohl auch bei Mobile GPUs (Mali zB iirc) auch so, dass TEX und Arithmetik nicht richtig entkoppelt waren. Passt das Verhältnis der jeweiligen Applikation in Bezug auf texturoperationen und arithmetikoperationen nicht zum Aufbau der Quadpipeline, gibt/gab es Stalls.
Moderne GPUs können immer noch direkt aus dem Speicher lesen, an den Textureinheiten vorbei. Das ist von der Architektur genau wie bei der RSX. Wenn das kohärent passiert und genug Pixel abgearbeitet werden, ist es nicht anders als auf der RSX. Wenn du inkohärent lesen würdest, stallt das natürlich die ganze Pipeline, wie auf der RSX.
Ich stecke leider auch nicht mehr so recht im Thema, da es mehr als 1 Jahrzehnt her ist.
R5xx und G80 haben je moderner die Spiele wurden Kreise um G7x auf dem PC gedreht. 2005 war G7x in den damaligen Spielen noch ganz vorn. 2007 wurde es dann ziemlich bitter. Rein rechnerisch hat G7x eine gar nicht so schlechte Rohleistung.
<G80 waren für sehr kohärentes Arbeiten gebaut. Solange alle Pixel gleichmässig im Speicher lesen, gibt es kein Problem. Mit G80 kamen auch dinge wie SSAO, bei dem jedes Pixelquad irgendwo im Speicher liest. Das Problem ist dann nicht die TEX-ALU entkopplung, sondern dass es eben nicht nur Wavefronts mit 64 Pixeln sind. Bei G70 weisst du genau, dass jeder Texturzugriff z.B. 300 Takte braucht (Latenz), damit kannst du genau berechnen, wieviele Pixel du parallel abgearbeiten musst, damit es keinen Stall gibt. Damit bist du natürlich bei Branching oder SSAO ziemlich auf dem falschen Bein, wenn du ein G70 bist.
Aus der Sicht gebe ich dir Recht, dafür war G70 nicht zukunftssicher. Aber beim normalen Rendern war der G70 um so besser beim Latenzverstecken, da alles sehr vordefiniert ausgerechnet werden konnte.
gravitationsfeld
2017-07-16, 23:35:02
Das war kein Bug. Das mit der Latenz war mein Zaunpfahl an dich.
Du kannst dich drehen und wenden. Das war ein Bug. Das Interface zwischen Cell und RSX (IOIFO) ist fuer 20GB/s ausgelegt. Wenn da <10MB/s durchkommen, ist es ein Hardware-Bug.
Das wurde von Sony auch genau so kommuniziert.
Ich glaube da hab ich dich mit "Stall" falsch verstanden. Ich dachte du meintest sowas wie dass die GPU bzw. Shader nichts tun und warten. So wie er das beschreibt, teilen ein paar Einheiten den Port mit dem "Texturzugriff".
Das hätte ich nicht als Stall bezeichnet, aber aus der Sicht stimmt das.
Die ALUs muessen auf Tex warten bei G70, wenn sie nicht in einem Takt fertig werden. Es gibt keine separaten Ports.
Sobald indirekte Texturierung verwendet wird (Cache-Misses) oder anisotrope Filterung stallt das Ding die ganze Zeit. Deshalb hat NVIDIA auch das grottenhaessliche kaputtoptimierte AF gehabt bei G70.
Ich verstehe echt nicht, warum du hier Hardware vom letzten Jahrzehnt verteidigen musst. Das Zeug war einfach Schrott.
Entropy
2017-07-17, 00:13:07
Ist hier PCI-Express der Flaschenhals? (also Kommunikation zwischen RAM und Grafikchip/VRAM)
Wovon hängt es in der PC-Architektur ab, wie gut CPU und GPU miteinander kommunizieren können? Wo sind hier die Flaschenhälse?
R2
Die Probleme sind sehr weitläufig, ich könnte dir Seiten schreiben.
Das schlichteste Problem ist das, was alle Prozessoren haben die miteinander Daten teilen: Kohärenz.
Es gibt viele Wege zu synchronisieren, das eine Extrem ist mit low level Protokollen, wie z.B. bei CPUs zwischen den Cores, diese haben aber viel Fixkosten, da alle Zugriffe abgeglichen werden. Aber selbst moderne Intel CPUs sind nicht 100% abgeglichen.
Das andere Ende ist, dass fast nichts auf der Hardware synchron ist und dann muss die Software den "Besitz" von Speicher verwalten.
Das zweitere ist wie PCIe implementiert ist, es gibt natürlich Versuche aufbauend auf PCIe was zu entwickeln (https://en.wikipedia.org/wiki/Coherent_Accelerator_Processor_Interface).
Wenn also eine CPU und GPU zusammenarbeiten, muss jemand bei jedem Datenaustausch Caches "flushen".
GPUs haben zum Teil ihre Schnelligkeit, weil die vordefinierten Arbeitsabläufe auf Cachekohärenz verzichten können. Wenn du z.B. unter Cuda aus einer Textur lilest die du gerade mit Compute überschrieben hast, kann es sein, dass die Textureeinheit aus dem Cache noch die alten Daten liefert.
Bei Maxwell und Pascal geht Lesen und Schreiben in Compute auch am L1 vorbei direkt zum L2, weil L1 und L2 nicht kohärent sind.
APIs wie OpenGL und D3D verbieten entsprechend einige Operationen, weil diese u.U. nicht kohärent wären, z.B. in eine Textur zu rendern die gebunden ist. Wenn du eine Textur bindest, in die du gerendert hast, macht der Treiber für dich einen "Flush".
OpenGL hat aber eine Erweiterung mit der du die Textur gebunden halten kannst, du musst dann selbst den "Flush" machen: https://www.khronos.org/registry/OpenGL/extensions/NV/NV_texture_barrier.txt
Wenn du also willst dass CPU und GPU richtig gut miteinander kommunizieren, bezahlst du das mit viel viel Fixkosten, die beim Rendern vielleicht mehr kosten als sie bringen. Und die Kosten sind hoch, wenn du bedenkst, dass die GPU nichtmal in sich kohärent ist.
Die meisten Konsolen verzichten deswegen auch auf Kohärenz, bei z.B. einem GameCube wirst du vor jedem "Abschicken" eine Commandbuffers, einen "Flush" machen. Bei PSP hat die MIPS-CPU den ganzen Speicher zweimal im Adressraum, einmal mit Caching und einmal ohne. Wenn du Daten an die "GPU" schicken willst, hast du immer am Cache vorbei geschrieben.
Entropy
2017-07-17, 00:40:18
Das wurde von Sony auch genau so kommuniziert. Link bitte.
Die ALUs muessen auf Tex warten bei G70, wenn sie nicht in einem Takt fertig werden. Keine Instruktion wird in einem Takt fertig, GPUs haben unmengen Fragmente auf denen Sie arbeiten um Latenz zu verstecken, nicht erst seit G80 oder GCN. Was glaubst du wieso CineFX-Optimierungen so auf Half setzten ;) (sag nicht es lag am Normalisieren).
Ich verstehe echt nicht, warum du hier Hardware vom letzten Jahrzehnt verteidigen musst. Das Zeug war einfach Schrott.
Eigentlich wollte ich nur Tatsachen richtigstellen, die ich aus erster Hand erfahren habe, damit die, die hier sind um sich Wissenswertes anzueignen, etwas von mir bekommen, da ich hier auch von Leuten wie z.B. Skysnake, robbitop, usw. Interesantes erfahren habe.
Ich hatte nicht vor gegen starke Meinungen zu argumentieren, aber du hast Recht, wenn du es anders weisst als ich, belassen wir es dabei. Kein PS3-Entwickler wird es hier im Forum klarstellen.
Gipsel
2017-07-17, 01:06:02
Moderne GPUs können immer noch direkt aus dem Speicher lesen, an den Textureinheiten vorbei. Das ist von der Architektur genau wie bei der RSX. Wenn das kohärent passiert und genug Pixel abgearbeitet werden, ist es nicht anders als auf der RSX. Wenn du inkohärent lesen würdest, stallt das natürlich die ganze Pipeline, wie auf der RSX.Wie meinst Du denn das? Bei GCN interessiert es den Shaderkern nicht die Bohne, ob Du die gelesenen Daten noch filtern läßt oder nicht. Der Datenpfad und der Ablauf ist der gleiche. Es wird immer (über einen separaten issue port) eine vector memory Instruktion abgesetzt (ob es nun aus einem buffer liest oder einem image [Textur] konfiguriert nur die Art der Adressierung und eventuelle Filterung), was den zugehörigen dependency counter um eins erhöht. Dann kann die CU hoffentlich noch irgendwas anderes in der Zwischenzeit tun (aus der gleichen Wave oder aus anderen), bis die Daten zurück kommen (dependency counter wird dann verringert). Vor der vom Speicherzugriff abhängigen Anweisung steht eine spezielle Instruktion, die als eine Art Barriere die weitere Ausführung des Codes der Wave unterbindet, bis der passende Counterwert erreicht wird (danach steht die Wave wieder zur weiteren Ausführung zur Verfügung).
Das Gleiche passiert auch bei Zugriff auf Dinge, die von der Wave gemeinsam benutzt werden, nur daß dann der scalar memory Datenpfad (und ein anderer dependency counter) genutzt wird (auf constant buffer wird bei GCN normalerweise so zugegriffen). Und auch LDS- oder GDS-Zugriffe funktionieren "entkoppelt" mit dependency countern als Barrieren, um die korrekte Ausführung zu gewährleisten. Ich denke schon, daß sich das etwas vom Verhalten des G70 unterscheidet.
Im Übrigen sind wir hier im NextGen-Konsolenthread. Die Beschränkungen des G70 dürften dafür kaum relevant sein ;).
========================================
Ich hatte nicht vor gegen starke Meinungen zu argumentieren, aber du hast Recht, wenn du es anders weisst als ich, belassen wir es dabei. Kein PS3-Entwickler wird es hier im Forum klarstellen.Ähm, ich würde fast vermuten, daß gravitationsfeld als Entwickler auch mal mit einer PS3 zu tun hatte. ;)
Entropy
2017-07-17, 01:58:56
Wie meinst Du denn das?
Bei Cuda kannst du auf einigen Wegen aus dem Speicher laden, dafür gibt es dedizierte Instruktionen, was sogar von Generation zu Generation anders ist.
Pascal: Direkte Loads gehen nicht über Texturen, da diese nichtmal Kohärent sind, eher was hier als ROPs bezeichnet wird.
Deswegen kannst du bei Texturen, innerhalb eines kleinen Bereichs, ohne Nachteile willkürlich lesen. Beim direkten Lesen hast du hingegen Nachteile, wenn du nicht vorbestimmte "coalesce pattern" nutzt.
Das trifft nicht nur auf den VRam zu, sondern auch auf "Shared Memory", wenn du dort in falschen Mustern liest, stallt die ganze Warp. Im schlimmsten Fall hast du 1 read/cycle. "Shared Memory" ist bei GCN nicht viel anders.
Mit Texturen kannst du schlechter als 1 read/cycle enden, allerdings können viele Warps das mildern. RSX hat diesen Luxus nicht, weshalb robbitop da recht hat was Zukunfstauglichkeit angeht. Aber beim normalen Arbeiten stallt die RSX nicht.
Ähm, ich würde fast vermuten, daß gravitationsfeld als Entwickler auch mal mit einer PS3 zu tun hatte. ;)Wäre er dann nicht unter NDA und durfte garnichts zur PS3 sagen, schon garnicht von Bugs?
Naja, ich kann "mal mit einer PS3 zu tun hatte" nicht recht deuten, aber vielleicht kennt er einen Spezi der das aufklärt.
gravitationsfeld
2017-07-17, 02:02:58
Link bitte.
Witzbold. Sowas wird nicht oeffentlich bekannt gemacht.
Sony und Microsoft setzen alles unter NDA und kontrollieren dann die Message. Du weisst gar nicht wieviel Scheiss im Internet steht ueber die Konsolen. Und niemand kann es korrigieren.
Es hat aber garantiert nichts mit Kohaerenz zu tun. Es war schlicht ein Harware-Bug weshalb es immer durch einen Slow-Path im Interconnect ging. Wurde nicht korrigiert weil sie eh schon spaet dran waren.
Keine Instruktion wird in einem Takt fertig, GPUs haben unmengen Fragmente auf denen Sie arbeiten um Latenz zu verstecken, nicht erst seit G80 oder GCN. Was glaubst du wieso CineFX-Optimierungen so auf Half setzten ;) (sag nicht es lag am Normalisieren).
G70 funktioniert anders als moderne GPUs. Die Branch-Granularitaet ist Z.B. auch mehrere tausend Pixel.
Ich weiss nicht genau was sie konstruiert hatten, aber Texture-Latenzen waren definitiv ein grosses Problem.
Entropy
2017-07-17, 02:37:01
Witzbold. Sowas wird nicht oeffentlich bekannt gemacht.Ich wuste nicht dass du von NDA Quellen sprachst, kein Grund herablassend zu sein.
Es hat aber garantiert nichts mit Kohaerenz Latenz zu tun. Es war schlicht ein Harware-Bug weshalb es immer durch einen Slow-Path im Interconnect ging. Wurde nicht korrigiert weil sie eh schon spaet dran waren.Von Kohärenz sprach ich bei TEX. Latenz war auf PC Locks auf Buffer bezogen, aber damit hab ich mehr verwirrt als geklärt.
G70 funktioniert anders als moderne GPUs. Die Branch-Granularitaet ist Z.B. auch mehrere tausend Pixel.Genau deswegen stallt die RSX beim normalen TEX nicht, sofern es genug Pixel gibt. Da ist es dann auch logisch, dass jede Instruktion auf Durchsatz und nicht auf Latenz gebaut ist, deswegen ist "Die ALUs muessen auf Tex warten bei G70, wenn sie nicht in einem Takt fertig werden" nicht richtig. Bei den "mehrere tausend Pixel" arbeitet die RSX erst mehrere tausend cycle später an dem Pixel. Wenn du also manchmal einen miss im TEX hast, ist das relativ egal. Erst wenn du sehr viele misses hast, hast du einen Stall.
Ich weiss nicht genau was sie konstruiert hatten, aber Texture-Latenzen waren definitiv ein grosses Problem.Beim normalen Rendern nicht. Bei sowas wie SSAO schon, aber das limitiert am TEX, da ist es relativ egal wo der Sync ist. Bei GCN usw. wird es besser, weil die Granularität 64 ist und nicht "mehrere tausend Pixel".
Locuza
2017-07-17, 02:44:20
http://www.topofcool.com/wp-content/uploads/2006/06/PS3_memory_bandwidths.jpg
http://i328.photobucket.com/albums/l327/encia/Decoupled.jpg
Entropy
2017-07-17, 02:59:49
http://www.topofcool.com/wp-content/uploads/2006/06/PS3_memory_bandwidths.jpg
Hatte ich das nicht schon von wikipedia verlinkt? ;)
Es zeigt, dass die Local Memory->Main Memory "Leistungen" 22.4GB/s schaffen, nur der Cell hat 16 MB/s.
Sagen wir für eine Sekunde, dass das Absicht wäre. In welchem Fall wäre soeine Verbindung überhaupt nützlich?
http://i328.photobucket.com/albums/l327/encia/Decoupled.jpg
Das ist ein wenig:
Sony und Microsoft setzen alles unter NDA und kontrollieren dann die Message. Du weisst gar nicht wieviel Scheiss im Internet steht ueber die Konsolen. Und niemand kann es korrigieren.
Bitte glaubt nicht diese Marketingstrahlengraphen :(, gravitationsfeld sagte schon, dass da "mehrere tausend Pixel" sind. Das wird im Bild verschwiegen. Auch dass G80 das TEX-Lesen nicht in einem Takt abschicken kann.
gravitationsfeld
2017-07-17, 03:06:57
Hatte ich das nicht schon von wikipedia verlinkt? ;)
Es zeigt, dass die Local Memory->Main Memory "Leistungen" 22.4GB/s schaffen, nur der Cell hat 16 MB/s.
Sagen wir für eine Sekunde, dass das Absicht wäre. In welchem Fall wäre soeine Verbindung überhaupt nützlich?
Es ist ein Bug. Deshalb ist es nicht nuetzlich. Urspruenglich waren die "normalen" 4GB/s auch bei Reads vorgesehen.
Beim normalen Rendern nicht. Bei sowas wie SSAO schon, aber das limitiert am TEX, da ist es relativ egal wo der Sync ist. Bei GCN usw. wird es besser, weil die Granularität 64 ist und nicht "mehrere tausend Pixel".
Ok, ergibt Sinn.
Locuza
2017-07-17, 03:09:16
@ Entropy
Für Anwendungen selber vermutlich gar keine, deswegen mussten die Entwickler drum herum entwickeln.
Und deswegen auch der Kommentar, dass dies ein Hardware-Bug ist, da unter 16MB Durchsatz ja nicht so geplant gewesen sein kann.
Ansonsten, wer hat verlässliche Daten oder kann immerhin einen groben Richtwert liefern, wie sehr sich das Tex-Stalling in der Praxis ausgewirkt hat?
Wenn niemand, dann kann man hier nur gutgläubig sein oder alles in Frage stellen.
Entropy
2017-07-17, 03:26:06
Für die Anwendung vermutlich gar keine, deswegen mussten die Entwickler drum herum entwickeln.
Und deswegen auch der Kommentar, dass dies ein Hardware-Bug ist, da unter 16MB Durchsatz ja nicht so geplant gewesen sein kann.
Wenn es nutzlos wäre, hätte es Sony wohl nichtmal angegeben bzw. freigegeben.
Ansonsten wer hat verlässliche Daten oder kann immerhin einen groben Richtwert liefern, wie sehr sich das Tex-Stalling in der Praxis ausgewirkt hat?
Wenn niemand, dann kann man hier jedem gutgläubig glauben oder alles in Frage stellen und die ganze Diskussion kommt nie auf einen Punkt.
Wir sprechen auch nicht nur von der Praxis, sondern auch, ob das Design vom G70 schon den fundamentalen Fehler hatte, dass es Tex-Stalling als normalität gab. Ich denke, aufgrund dessen was öffentlich bekannt ist, kann schon spekuliert werden.
robbitop
2017-07-17, 10:04:16
Was glaubst du wieso CineFX-Optimierungen so auf Half setzten ;) (sag nicht es lag am Normalisieren).
Register waren wohl damals relativ knapp. Bei NV40/G70 sicherlich weniger problematisch als NV3x - soll aber wohl immernoch ein Thema gewesen sein. Hatte G7x noch das "kostenlose" nrm_pp? Für dot3-Mapping sicherlich nicht verkehrt. (Wobei das ja immer weniger genutzt wurde und eher durch parallax mapping mehr und mehr ersetzt wurde in der Lebenszeit der ps360...?) :)
robbitop
2017-07-17, 10:14:40
@ Entropy
Für Anwendungen selber vermutlich gar keine, deswegen mussten die Entwickler drum herum entwickeln.
Und deswegen auch der Kommentar, dass dies ein Hardware-Bug ist, da unter 16MB Durchsatz ja nicht so geplant gewesen sein kann.
Ansonsten, wer hat verlässliche Daten oder kann immerhin einen groben Richtwert liefern, wie sehr sich das Tex-Stalling in der Praxis ausgewirkt hat?
Wenn niemand, dann kann man hier nur gutgläubig sein oder alles in Frage stellen.
Alphatier (afaik dice stockholm) hatte iirc mal geschrieben, dass es @PS3 kein großes Problem war, weil eine feste Plattform. Da konnte man den Shadercode wohl so anpassen, dass es nicht/kaum stallte.
Auf dem PC war es wie gesagt ab 2007 ein Gemetzel. G7x wurde von R5xx ähnlich auseinandergenommen wie NV3x von R3xx in DX9 Games (in DX7/8 Titeln war NV3x durchaus stark). Zu seinem (G7x Glück gab es seit Ende 2006 aber schon G80. Hat dann auch kaum noch Interesse geweckt.
deekey777
2017-07-17, 11:06:35
...
Im Übrigen sind wir hier im NextGen-Konsolenthread. Die Beschränkungen des G70 dürften dafür kaum relevant sein ;).
Die technischen Beschränkungen natürlich.
Die dazwichengegrätschten PS4Pro und Xbox One X sind zu stark geraten. Die gewohnte Leistungssteigerung der Nextgen-Konsolen wird eher kleiner ausfallen, denn sie werden leistungsmäßig nicht an der originalen PS4 bzw. Xbox One gemessen, sondern an der PS4Pro bzw. Xbox One X. Auch die Xbox360 hatte für November 2005 einen Grafikchip, der leistungsmäßig stärker war als der frisch veröffentlichte R520. Der Leistungssprung zur originalen Xbox war riesig.
robbitop
2017-07-17, 11:16:54
Diese Sprünge wird man nie wieder sehen, weil:
1.) shrinks dauern heute länger
2.) die BOM war zu teuer (also nur noch 3xx sqmm)
3.) Gesetz des sinkenden Grenzertrags - grafisch sichtbare Vorteile werden immer teurer - ähnliche optisch sichtbare Speünge sind heute sicherlich viel viel teurer (performancedelta) als noch vor 10 Jahren
Was Scorpio und PS4PRO angeht: die Spiele müssen ja auch auf den Basismodellen noch laufen. Somit "verballern" diese primär ihre Leistubg in Auflösung. Das pro Pixeldetail steigt ja kaum.
Eine richtige neue Konsole muss darauf keine Rücksicht nehmen und kann das Pixeldetail steigern. (wobei diese vermutlich eine ähnliche Auflösung anpeilen werden wie Scorpio und pro). Aber diese werden massiv mehr CPU Leistung haben und wahrscheinlich mehr RAM.
Aber ja: unterm Strich werden die Sprünge immer kleiner.
deekey777
2017-07-17, 12:48:06
Es stellt sich fast die Frage, ob überhaupt noch Spielekonsolen im eigentlichen Sinn kommen (außer Nintendo natürlich). Die Xbox One ist bereits ein verkappter Wohnzimmer-PC, Microsoft muss nur ein Windows 10 S for Xbox bringen.
Zu 3:
Vielleicht ist es auch gewollt, um die Kosten der Spieleentwicklung etwas einzubremsen. Egal ob Xbox One oder Xbox One X: Es ist immer das gleiche Spiel, nur eben mit paar Effekten mehr und/oder höherer Auflösung. Quasi Fortsetzung des Playanywhere-Programms. Oder was man vom PC seit Jahrzehnten kennt.
IC3M@N FX
2017-07-17, 13:37:46
Mal ne andere frage warum gehen viele (Medien, hier im Forum einige Leute) davon aus das die PS5 ende 2019 rauskommt.
Nach mehrmaligen überlegen spricht eigentlich gar nichts dafür das die PS5 2019 rauskommen sollte.
Was dagegen spricht:
Die PS4 Pro ist erst ende 2016 erschienen mit der PSVR, das ding ist nicht mal ein Jahr alt. Wenn man sich die mühe macht ist bei der PS4/Pro bei der Spiele Programmierung noch einiges mehr möglich als die jetzigen Spiele.
Es sind bisher gerade mal 64-66 Millionen Konsolen verkauft worden, da ist noch ne menge Luft nach oben.
Die Xbox One X kommt erst Okt/Nov 2017 raus, und ist eigentlich keine Konkurrenz, die wirklich druck ausüben könnte weil das Software Portfolio von Microsoft gleich null ist, dieses Jahr....
Für das nächste Jahr sieht es nur minimal besser aus für Microsoft, ansonsten auch nichts zu holen.
Also warum 2019??
Vor allem darf man nicht vergessen das gegen ende der PS3/Xbox 360 Ära ein riesen Hunger auf was neues da wa,r was zu dieser Generation nicht
vorhanden ist bei der breiten Masse....
Gebrechlichkeit
2017-07-17, 14:53:38
Weil es glaube ich nicht zu einem Leap kommen wird in den naechsten 2 Jahren, dafuer ist die Technologie nicht da. Wir reden hier von einem Quantum Sprung, und nicht bloss eine weitere Evolutionsstufe.
Kein Plan wie gross die DIE sind, mit 5,000? Shader APU samt CPU ...von nun an "diktiert" diese "Mobile Phone" Mentalitaet sprich upgraden alle 2 Jahren, duerfte auch kostenguenstige sein als jedes 5te Jahr was fettes rauswerfen (sofern die Hardware parat is).
Akkarin
2017-07-17, 16:05:21
Es ist durch die die G70 Diskussion etwas untergegangen, deswegen wiederhole ich einfach mal meine Frage:
Wie glaubt ihr dass sich die Preise für HBM entwickeln ? Meines Verständnis nach kommen die höheren kosten ja hauptsächlich durch das Stacking zu Stande, nicht durch die kosten der Chips an sich.
In den nächsten Jahren wird man das Stacking wohl besser hinbekommen, und die Preisdifferenz zu GDDR wird geringer (vor allem ggü. GGDR5X o. GDDR6). Gleichzeitig wird 7nm teurer, so dass die Einsparungen durch die kleinen PHYs größer werden.
Fiji bekommt man inzwischen ja hinter her geschmissen, auch auch zum Launch waren sie gar nicht mal so teuer. Deshalb stehen die Chancen mMn sehr hoch das auch die next-gen Konsolen mit HBM kommen.
Gipsel
2017-07-17, 17:41:22
Bei Cuda kannst du auf einigen Wegen aus dem Speicher laden, dafür gibt es dedizierte Instruktionen, was sogar von Generation zu Generation anders ist.
Pascal: Direkte Loads gehen nicht über Texturen, da diese nichtmal Kohärent sind, eher was hier als ROPs bezeichnet wird.
Deswegen kannst du bei Texturen, innerhalb eines kleinen Bereichs, ohne Nachteile willkürlich lesen. Beim direkten Lesen hast du hingegen Nachteile, wenn du nicht vorbestimmte "coalesce pattern" nutzt.
Das trifft nicht nur auf den VRam zu, sondern auch auf "Shared Memory", wenn du dort in falschen Mustern liest, stallt die ganze Warp. Im schlimmsten Fall hast du 1 read/cycle. "Shared Memory" ist bei GCN nicht viel anders.Auch bei modernen nV-GPUs kannst Du nicht wirklich an den TMUs vorbei lesen (zumindest nicht wenn Du nicht nur die Filtereinheiten sondern auch die Adresseinheiten da mit zuzählst, vom Shadercore aus gesehen geht beides den gleichen Weg; und über die ROPs liest Du im Normalfall schon mal gleich gar nicht). Seit Maxwell ist genau wie bei GCN der TMU-Datenpfad mit dem für general purpose reads identisch (vorher gab es einen getrennten GP-L1 und einen read only Texture-L1 und tatsächlich zwei Datenpfade, jetzt nur noch einen für Beides, das läuft also Alles da durch). Was CUDA Dir (unter Anderem aus Kompatibilitätsgründen) anbietet, ist nicht unbedingt das, was die Hardware macht ;).
Aber im Prinzip bist Du schon halbwegs auf der richtigen Spur. Das Datenlayout und die Adressierung variieren natürlich, um es auf den Anwendungsfall abzustimmen (hatte ich ja schon oben bei der Beschreibung des Ablaufs für GCN erwähnt). Trotzdem gibt es da keinen anderen Datenpfad (und bei Volta kommt shared memory auch noch da mit rein).
Wie auch immer Du das ansiehst, das Verhalten moderner GPUs ist deutlich unterschiedlich von den alten (die eine Pipeline mit festgelegter TEX-ALU-Abfolgen hatten, durch die der Chip geloopt hat, das war relativ unflexibel).
Mit Texturen kannst du schlechter als 1 read/cycle enden, allerdings können viele Warps das mildern.Das kannst Du bei allen möglichen Speicherzugriffen. Das ist nicht auf Texturen begrenzt.
RSX hat diesen Luxus nicht, weshalb robbitop da recht hat was Zukunfstauglichkeit angeht. Aber beim normalen Arbeiten stallt die RSX nicht.Was sind denn "normale Arbeiten"? Ich würde mal behaupten, modernere Workloads fallen schon aus diesem Bereich raus (wenn der Rest des Chips überhaupt damit klarkommen würde).
Korvaun
2017-07-17, 21:08:28
Ich denke die nächste Generation hängt hauptsächlich am nächsten richtigen Fertigungssprung. In 14/16nm werden wir nix mehr sehen, mit der XOneX ist Schluß damit. Wenn 7(/10)nm gut verfügbar und bezahlbar sind dann wird es so weit sein, wahrscheinlich in Richtung ZEN+ & Vega/Navi. Natürlich wieder rückwärtskompatibel, aber neue Spiele müssen dann keine Rücksicht mehr auf PS4/XOne nehmen. Die alten Konsolen werden dann "abgespeckte" Versionen bekommen um an der Masse der installierten Basis ordentlich zu verdienen...
LadyWhirlwind
2017-07-17, 21:36:58
Diese Sprünge wird man nie wieder sehen, weil:
1.) shrinks dauern heute länger
2.) die BOM war zu teuer (also nur noch 3xx sqmm)
3.) Gesetz des sinkenden Grenzertrags - grafisch sichtbare Vorteile werden immer teurer - ähnliche optisch sichtbare Speünge sind heute sicherlich viel viel teurer (performancedelta) als noch vor 10 Jahren
Was Scorpio und PS4PRO angeht: die Spiele müssen ja auch auf den Basismodellen noch laufen. Somit "verballern" diese primär ihre Leistubg in Auflösung. Das pro Pixeldetail steigt ja kaum.
Eine richtige neue Konsole muss darauf keine Rücksicht nehmen und kann das Pixeldetail steigern. (wobei diese vermutlich eine ähnliche Auflösung anpeilen werden wie Scorpio und pro). Aber diese werden massiv mehr CPU Leistung haben und wahrscheinlich mehr RAM.
Aber ja: unterm Strich werden die Sprünge immer kleiner.
Ja, wir werden 4k sehen in der nächsten Generation. Ja, wir werden bessere Grafik sehen. Ja, die Entwickler werden Sachen tun, wie auf Grund der eher schwachbrünstigen CPU in der akutellen Generation nicht möglich war.
Aber das ist kein Alleinstellungsmerkmal, denn der sichtbare Unterschied in einer Leistungsgeneration wird gering sein. Wer sich von der Konkurrenz absetzen will, muss sich etwas anderes einfallen lassen. m.M.n. wird die Qualität der Titel / Exklusiv-Titel bzw. der gesamten Plattform ausschlaggebend sein, wer am Ende vorne liegt. Ich denke, dass sich die Entwickler zuerst einmal auf die massiv gestiegene CPU-Leistung stürzen werden und erst einmal diese ausnutzen, bevor sie bei der Grafik noch eine schippe drauf legen.
Ausserdem glaube ich nicht, dass die Entwicklerbudget noch massiv steigen werden.
][immy
2017-07-18, 00:08:37
Ja, wir werden 4k sehen in der nächsten Generation. Ja, wir werden bessere Grafik sehen. Ja, die Entwickler werden Sachen tun, wie auf Grund der eher schwachbrünstigen CPU in der akutellen Generation nicht möglich war.
Aber das ist kein Alleinstellungsmerkmal, denn der sichtbare Unterschied in einer Leistungsgeneration wird gering sein. Wer sich von der Konkurrenz absetzen will, muss sich etwas anderes einfallen lassen. m.M.n. wird die Qualität der Titel / Exklusiv-Titel bzw. der gesamten Plattform ausschlaggebend sein, wer am Ende vorne liegt. Ich denke, dass sich die Entwickler zuerst einmal auf die massiv gestiegene CPU-Leistung stürzen werden und erst einmal diese ausnutzen, bevor sie bei der Grafik noch eine schippe drauf legen.
Ausserdem glaube ich nicht, dass die Entwicklerbudget noch massiv steigen werden.
Da bin ich aber mal gespannt, was sich aufgrund der "schwachen" CPUs (immerhin 7 für spiele Verfügbar) nicht möglich war zu realisieren?
Ist wie bei der Grafikleistung, ich erwarte da überhaupt keine großen Sprünge mehr. Wenn das ist es nur Detailarbeit.
Siehe z.B. Assassins Creed. Ja man konnte große Mengen an Leuten in die Welt werfen (lief halt auf den Konsolen mehr oder minder gut) aber zu welchem Preis?
Physikspielchen waren auch schon vorher möglich (das haben die Spiele der Vergangenheit die auch auf einem Kern schon gut liefen gezeigt). Also das Gameplay wird durch die CPUs eher nicht eingeschränkt. In den Letzten >10 Jahren gab es nichts weltbewegendes was irgendwie großartig und gerechtfertigt CPU Limitiert war.
Klar wird es kleinere Verbesserungen geben (z.B. höhere Genauigkeit) aber einen riesen Unterschied wie damals PS1 -> PS2 wird es wohl nicht mehr geben. Und auch dieser war eher dem Grafikchip & Speicher zuzuschreiben. Man darf nicht vergessen spiele wie GTA waren auch schon früher möglich. Einzig die Größe der Welt, die Anzahl der Passanten hat zugenommen.
Das Problem hierbei ist (wie bei einer vernünftigen KI) will man diese verbessern erfordert das beträchtlich mehr Leistung als derzeit zur Verfügung steht. Man wird eher nur kleinere Verbesserungen sehen können.
Die CPU hat auch rein gar nichts mit 60fps spielen zu tun. Es ist immer eine Sache der Kompromisse.
Alle andere was immens große Welten erfordert wo Wirtschaftssimulationen oder sonstiges dran hängt geht Richtung MMO und einer Servergestützten Architektur. Auch hier braucht man auf Clientseite nicht massig CPU Leistung.
Selbst wenn wir 16 Kerne mit 5GHz in den Konsolen hätten würde immer irgendwo die CPU limitieren, schließen würde man die GPU dann entsprechend riesig dimensionieren.
Man sollte von der Next gen (wobei wir grad noch mitten in der aktuellen Gen sind) nicht zu viel erwarten. Die Sichtbaren schritte bei Spielen etc werden immer kleiner. Solche Revolutionen wie ab mitte der 90er bis ~2005 werden wir wohl nicht mehr so schnell sehen. Da ging es Jahr für Jahr rasant weiter. Wir sind einfach an einem Punkt angelangt wo es einfach wahnsinnig teuer geworden ist in eine verbesserte Optik zu investieren und gehen herrlich verschwenderisch mit so etwas wie CPU-Leistung um. Aber wir leben auch in einer Zeit wo selbst eine Webseite die eigentlich nichts anzeigt oder macht immens viel Speicher & Rechenleistung verschlingt.
Sardaukar.nsn
2017-07-18, 08:08:37
[immy;11433030']Da bin ich aber mal gespannt, was sich aufgrund der "schwachen" CPUs (immerhin 7 für spiele Verfügbar) nicht möglich war zu realisieren?...
Zum Beispiel nicht mehr als 30fps bei Destiny 2. Auch auf der Scorpio limitiert hier die CPU. Direkt darauf angesprochen äußerten sich die Entwickler bei Bungie durchaus klar.
...Systeme im Spiel wie zum Beispiel die künstliche Intelligenz, die Umgebungsgröße oder die Anzahl an Spielern, welche ausschließlich von der CPU abhängen...
Quelle: http://www.pcgameshardware.de/Destiny-2-Spiel-59880/News/Darum-laeuft-die-Xbox-One-X-nur-mit-30-Fps-1230721/
Leonidas
2017-07-18, 11:15:04
- 8C/16T Zen2 oder Zen3 @ 7nm (Takt irgendwo zwischen 3 - 3.5 GHz)
- mindestens 15-20 TFlops Rechenleistung für den Grafikchip; 6144SPs @ 1.5GHz wären perfekt (= 18.4 TFlops -> exakt die 10fache Rechenleistung der normalen PS4). Wieviel Die-Fläche würde ein solcher Chip @ 7nm einnehmen?
AMD macht in 14nm 4096SE in 484mm² ohne große Profi-Features. Unter 7nm sind daher locker 6144SE in 250-330mm² machbar, je nach verbautem Speicherinterface (GDDR6 ist dicker als HBM2).
Die CPU selber ist einfacher zu ermitteln: Ca. 70-75mm² in 7nm für 8C ohne Speicherinterface (ist schon beim Grafikchip einberechnet).
Im besten Fall sind dies 320mm². Im schlechtesten 405mm². Mitte liegt bei 362mm². Könnte grad so klappen, mehr ist aber nicht drin. Aufgrund der höheren Kosten von 7nm sicherlich grenzwertig.
Es stellt sich fast die Frage, ob überhaupt noch Spielekonsolen im eigentlichen Sinn kommen (außer Nintendo natürlich).
Der entscheidende Punkt hierzu ist: So lange es sich verkauft - ja, in jedem Fall.
Wie glaubt ihr dass sich die Preise für HBM entwickeln ? Meines Verständnis nach kommen die höheren kosten ja hauptsächlich durch das Stacking zu Stande, nicht durch die kosten der Chips an sich.
Normalerweise sollten sich gute Effekte durch Vega ergeben, weil damit HBM2 erstmals Massenware wird und damit auch die Produktionskosten endlich sinken sollten. Wo exakt die Kostenlage liegt, kann ich aber nicht so sagen, normalerweise muß man das Stacking eigentlich nur beherrschen, ob das so viel kostet?
Entropy
2017-07-18, 11:36:01
...Was CUDA Dir (unter Anderem aus Kompatibilitätsgründen) anbietet, ist nicht unbedingt das, was die Hardware macht...
Ich berufe mich auf die Dokumentation, wenn du sagst es ist anders, dann... ¯\_(ツ)_/¯
Wie auch immer Du das ansiehst, das Verhalten moderner GPUs ist deutlich unterschiedlich von den alten (die eine Pipeline mit festgelegter TEX-ALU-Abfolgen hatten, durch die der Chip geloopt hat, das war relativ unflexibel).
Es ging nicht um Flexibilität, daran zweifelt niemand, sondern darum, ob TEX die ALU Instruktionen bei shaderlastigen Arbeiten stallt. Wie gravitationsfeld sagte, waren viele tausend Pixel in Bearbeitung. Bis das erste Pixel was Texturen anforderte wieder dran war, waren entsprechend auch tausende Cycle vergangen, genug damit du im normalen Fall nie einen Stall hast.
Was sind denn "normale Arbeiten"? Ich würde mal behaupten, modernere Workloads fallen schon aus diesem Bereich raus (wenn der Rest des Chips überhaupt damit klarkommen würde).
Das kommt darauf an was du zu "modernere Workloads" zählst. Sowas wie Tone Mapping, Deferred Shading, Bloom (Gauss) wird nicht stallen. SSAO, aus Cubemaps mit Lod-Selection lesen (PBR), usw. wird stallen, aber auch auf modernen GPUs wirst du bei SSAO an den Texturen hängen.
Unter "normale Arbeiten" verstehe ich das, was Spiele verwendet haben, als G70 rauskam. Wenn du bei einer GCN GPU ohne MIPs renderst, würdest du auch nur an TEX stallen, das wäre nicht "normales Arbeiten" aus meiner Sicht.
Entropy
2017-07-18, 11:58:54
Register waren wohl damals relativ knapp. Bei NV40/G70 sicherlich weniger problematisch als NV3x - soll aber wohl immernoch ein Thema gewesen sein. Hatte G7x noch das "kostenlose" nrm_pp? Für dot3-Mapping sicherlich nicht verkehrt. (Wobei das ja immer weniger genutzt wurde und eher durch parallax mapping mehr und mehr ersetzt wurde in der Lebenszeit der ps360...?) :)
CineFX hatte wohl bis zum RIP alles an half optimierungen. nrm_pp ist nicht nur für dot3 gut. sehr vieles was aus Interpolatoren kam, musste normalisiert werden, dazu bei berechnungen (z.b. Reflect). Echt verwunderlich weshalb moderne GPUs nicht wenigstens ein approximiertes rsq(dot3(..)) als eine Instruktion haben, zumindest auf Mobile wäre das sehr effizient.
Alphatier (afaik dice stockholm) hatte iirc mal geschrieben, dass es @PS3 kein großes Problem war, weil eine feste Plattform. Da konnte man den Shadercode wohl so anpassen, dass es nicht/kaum stallte.Lag vermutlich viel an VLIW.
Auf dem PC war es wie gesagt ab 2007 ein Gemetzel. G7x wurde von R5xx ähnlich auseinandergenommen wie NV3x von R3xx in DX9 Games (in DX7/8 Titeln war NV3x durchaus stark). Zu seinem (G7x Glück gab es seit Ende 2006 aber schon G80. Hat dann auch kaum noch Interesse geweckt.Ich würde das bei R520 immer noch auf das wirklich gute HSR und die 4x4 Wavefront zurückführen. Gerade mit viel Alphatest war die GPU z.T. weit vorne
http://www.hardwaresecrets.com/wp-content/uploads/x1000-farcry-1600x1200-high6.gif
Entropy
2017-07-18, 12:03:17
Normalerweise sollten sich gute Effekte durch Vega ergeben, weil damit HBM2 erstmals Massenware wird und damit auch die Produktionskosten endlich sinken sollten. Wo exakt die Kostenlage liegt, kann ich aber nicht so sagen, normalerweise muß man das Stacking eigentlich nur beherrschen, ob das so viel kostet?
Sollte AMD nicht eigentlich als Zugpferd sehr gute Preise bekommen, ist doch der einzige Volumenabnehmer bei Hynix und Samsung? Wenn durch die "Massenware" irgendwann die Produktionskosten sinken, könnte ich mir vorstellen, dass das als Marge dient.
][immy
2017-07-18, 12:58:57
Zum Beispiel nicht mehr als 30fps bei Destiny 2. Auch auf der Scorpio limitiert hier die CPU. Direkt darauf angesprochen äußerten sich die Entwickler bei Bungie durchaus klar.
Quelle: http://www.pcgameshardware.de/Destiny-2-Spiel-59880/News/Darum-laeuft-die-Xbox-One-X-nur-mit-30-Fps-1230721/
60 fps hat erst mal gar nichts mit der CPU zu tun.
Natürlich ist die CPU zu schwach um plötzlich die doppelte arbeit durch 60fps zu schultern wenn das spiel auf 30 fps ausgelegt ist.
Hätten aber schon PS4 & xbox one eine stärkere CPU gehabt wäre das spiel trotzdem auf 30 fps ausgelegt gewesen.
Es ist halt immer ein Kompromiss. Eine Neue Konsole mit stärkerer CPU wird daran nichts ändern.
Die Entwickler werden dann halt die CPU Leistung woanders einsetzen und trotzdem auf 30fps setzen. Zumal dann die GPU-Leistung wieder nicht ausreichen würde um 60 fps und eine höhere Auflösung zu verkraften.
Sardaukar.nsn
2017-07-18, 21:51:38
[immy;11433336']...Hätten aber schon PS4 & xbox one eine stärkere CPU gehabt wäre das spiel trotzdem auf 30 fps ausgelegt gewesen...
Aber es gibt doch in fast jedem Spiel irgenwelche Szenen die am CPU Limit laufen, weil dort viel Geometrie, NPCs usw. zusammen kommen. Bei Destiny 2 können z.B. 24 Spieler in einer Zone rumlaufen miteinander interagieren, Kollisionsabfrage usw. das ist doch CPU arbeit?
Trotzdem wäre es unklug das Spiel auf den "4k Konsolen" mit 60 FPS raus zu bringen, wenn es denn überhaupt gegangen wäre. Grund wird wohl der Multiplayer Teils sein, wenn da einer mit PS4pro und 60fps gegen andere mit PS4 und 30fps spielt und dadurch Vorteile hat.
xxxgamerxxx
2017-07-19, 08:19:04
Grund kann auch Sony sein, die einen Exklusiv Vertrag mit Activision haben.
Denn Vorteile beim MP kann es eigentlich nicht sein. Theoretisch vielleicht. Nur dann stellt sich die Frage, warum das kein Thema beim PC ist. Denn dort kann man zu 99% ausschließen, dass alle Spieler exakt dieselben FPS haben.
Ansonsten müsste man dort ein Matchmaking haben oder Serverrestriktionen, die zu deiner Grafikkarte Durchschnitts FPS zum entsprechenden Spiel mit einbezieht.
THEaaron
2017-07-19, 08:35:39
Weiß gar nicht warum Sony so auf die FPS picht. Mit deren lizensierten Hori M&T Emulatoren wirkt diese Einschränkung auch sehr fadenscheinig. Denn damit weicht man das Paradigma "alle mit den gleichen Voraussetzungen" sowieso schon im Kern total auf.
tobor
2017-09-04, 12:15:50
Könnten Spielkonsolen eigentlich von einer Art Npu (wie beim neuesten Kirin-Soc von Huawei) profitieren, die die Cpu bei Ai-Berechnungen entlastet?
Loeschzwerg
2017-09-05, 06:36:22
Hätte ich nichts dagegen wenn das verstärkt kommen würde:
https://www.heise.de/newsticker/meldung/Xbox-One-Microsoft-bringt-Maus-und-Tastatursteuerung-fuer-Xbox-Spiele-3821604.html
][immy
2017-09-05, 07:56:40
Aber es gibt doch in fast jedem Spiel irgenwelche Szenen die am CPU Limit laufen, weil dort viel Geometrie, NPCs usw. zusammen kommen. Bei Destiny 2 können z.B. 24 Spieler in einer Zone rumlaufen miteinander interagieren, Kollisionsabfrage usw. das ist doch CPU arbeit?
Trotzdem wäre es unklug das Spiel auf den "4k Konsolen" mit 60 FPS raus zu bringen, wenn es denn überhaupt gegangen wäre. Grund wird wohl der Multiplayer Teils sein, wenn da einer mit PS4pro und 60fps gegen andere mit PS4 und 30fps spielt und dadurch Vorteile hat.
Ich weiß, die Antwort kommt spät, hatte es bisher aber übersehen.
24 Spieler ist doch wirklich mal nichts für die CPUs. Bei Forza 6 (wohl auch 7) gibt es 24 Autos auf der Strecke. Die kannst du auch alle vor dir haben und trotzdem läuft es mit 60fps. Und hier kommen KI Berechnungen etc noch auf die CPU zu.
Destiny (2)... 24 Spieler, keine nennenswerte Server-Arbeit (da P2P). Jede Konsole macht ihre eigene Kolisionsabfrage und zwar nur für den entsprechenden Spieler und sendet die Endposition + Ausrichtung etc an die anderen Spieler.
Guck dir WoW an. Das kommt mit einem Bruchteil der CPU-Performance aus und kann >300 Spieler darstellen. Wenn es ruckelt liegt es dann eher an der Internetleitung & dem Server. Destiny hat hier eher das Problem das da kein wirklicher Server dazwischen steht der für viel Rechenleistung ausgelegt ist. Sondern alles möglichst günstig was die Kosten für den Anbieter angeht. Daher gibt es ja auch kein Abo-Modell oder sonstige pay2Win Komponenten die das Spiel finanzieren.
Das mit den 60 vs 30 fps ist schon häufig diskutiert worden. Klar gibt es minimale Vorteile aber auf dem PC klappt es trotzdem ganz gut. Solange es z.B. auch um stabile 30fps (und gleichmäßig verteilte) gegen stabile 60fps geht wäre das ganze leicht zu verschmerzen. Bei unstabilen 30fps könnte das ganze aber schon anders aussehen, weil es dann einfach nicht mehr flüssig läuft.
Gipsel
2017-09-05, 11:56:32
Ich berufe mich auf die Dokumentation, wenn du sagst es ist anders, dann... ¯\_(ツ)_/¯Auch die Dokumentation für CUDA gibt Dir nicht unbedingt an, wie die Hardware intern arbeitet. Um die Performance-Pitfalls zu verstehen, muß man Letzteres kennen. ;)
Das kommt darauf an was du zu "modernere Workloads" zählst.
[..]
Unter "normale Arbeiten" verstehe ich das, was Spiele verwendet haben, als G70 rauskam.Schau mal auf den Thread-Titel! Da steht was von "Next-Generation". Die Einschränkungen und Performance-Charakteristik von G70 dürfte für den "normalen/modernen" Workload der NextGen-Konsolen ziemlich irrelevant sein und war hier nie mein Thema. Denn wie schon mehrfach festgestellt, funktionieren moderne GPUs inzwischen doch etwas anders.
dildo4u
2017-09-05, 12:03:29
Grund kann auch Sony sein, die einen Exklusiv Vertrag mit Activision haben.
Denn Vorteile beim MP kann es eigentlich nicht sein. Theoretisch vielleicht. Nur dann stellt sich die Frage, warum das kein Thema beim PC ist. Denn dort kann man zu 99% ausschließen, dass alle Spieler exakt dieselben FPS haben.
Ansonsten müsste man dort ein Matchmaking haben oder Serverrestriktionen, die zu deiner Grafikkarte Durchschnitts FPS zum entsprechenden Spiel mit einbezieht.
MS pocht noch mehr auf 4k als Sony,da sind 60fps nie ein Thema gewesen.
megachip800
2017-09-24, 17:11:18
[immy;11428955']nö
stabile 60 fps zu erreichen ist schon ziemlich teuer und erfordert einiges an Optimierungen. Eye-Candy ist hingegen eigentlich relativ günstig, wenn es nicht grad um hoch aufgelöste Assets geht.
Raus kommen dann am ende vergleiche wie Driveclub vs Forza. Klar das eines von beiden besser aussieht da es eben nur 30 fps gerade mal eben so hält. Und dann nörgeln die Leute wieder warum das 60fps spiel nicht genauso toll aussehen kann.
60 fps ist nach wie vor kein Thema und wird es auch nicht sein auf Konsolen (breitflächig). Es wird hin und wieder ausnahmen geben aber das wars dann auch. VR spiele haben's da sogar noch schwerer. Diese müssen nicht nur minimal 60fps erreichen sondern auch noch 2 Bilder aus unterschiedlichen Perspektiven abliefern.
60 Fps wird als solches nicht Standard werden aber was man als Standard machen kann das man auf der Ps5 bei den Spielen ein 1080p/Performance Modus implementiert um eine höhere
Bildrate zu erzielen ich hoffe das es sowas geben wird und nicht ein 4k Zwang. Ebenso wird die
Ps5 bestimmt freesync unterstützen ende 2019 wird es schon Tvs geben die das bieten. Man kann dann ja weiter solche Sachen wie Checkerboarding/Temporal Injection , Tilebase Rendering , DCC verwenden um Bandbreite einzusparen. Wir brauchen auch mehr Datenkanäle zum Speicher für bessere Render und Farbqualität in den Spielen und ebenso die Cpu damit 8 Kerne wirklich parallel arbeiten können und daher glaube ich kaum das bei der PS5 Gddr6 und ein 256 Bit bus zur Anwendung kommt damit wäre die Konsole 2020 nicht mehr Up to Date speziell wenn dort zu dem Zeitpunkt HBM2 sich am Pc immer mehr durchsetzen wird. Gddr6 bietet auch ein schlechtere Leistung/Watt Wert als Hbm2 und brauch auf dem Motherboard mehr Platz , Hbm2 macht eine Konsole kompakter und senkt den Stromverbrauch. Laut den Gerüchten soll bei der PS5 keine APU verwendet werden sondern seperate Komponenten ....mal sehen ob sich das bewahrheiten wird ich denke auch das das Soc/Apu Konzept ausgereizt ist und man zuviele Konpromisse machen muss in Leistung und Featureset ...
Kartenlehrling
2017-09-24, 17:34:08
Der neuste Philips OLED beweist ja das ein 30fps reichen würde um ein ruhiges bild zu bekommen, (https://www.youtube.com/watch?v=9eYH_me14pg)
besser als krampfhaft zu versuchen an 60fps zu kommen, selbst 55-60fps ohne variable refresh rate feature ist halt Gift.
][immy
2017-09-24, 17:54:57
Der neuste Philips OLED beweist ja das ein 30fps reichen würde um ein ruhiges bild zu bekommen, (https://www.youtube.com/watch?v=9eYH_me14pg)
besser als krampfhaft zu versuchen an 60fps zu kommen, selbst 55-60fps ohne variable refresh rate feature ist halt Gift.
Das problem sind (abseits von VR) auch selten die 30fps, sondern das die Steuerung ein paar Frames hinterher hinkt. Wäre schon gut wenn man hier eine möglichst geringe Verzögerung hat und z.B. bereits im nächsten Frame die entsprechende Änderung ankommt.
Aber dann stellt sich natürlich wieder die situation ein, das es mit 60fps halt noch besser übersetzt werden kann, weil die Zeit je frame geringer ist und man im Zweifelsfall nicht 33-65ms wartet sondern lediglich 16-32ms ... allerdings sind das eher Traumzeiten :)
Eine guter Kompromiss wäre noch ein 50Hz Modus bzw. 50fps, das sollte jeder HDTV können und man hätte noch mal 4ms Extrazeit für die frames. Und flimmern sollte auf den heutigen Bildschirmen ja schließlich auch nichts mehr, wäre auch herrlich kompatibel mit den 100Hz Bildschirmen.
basix
2017-09-24, 19:02:52
AMD macht in 14nm 4096SE in 484mm² ohne große Profi-Features. Unter 7nm sind daher locker 6144SE in 250-330mm² machbar, je nach verbautem Speicherinterface (GDDR6 ist dicker als HBM2).
Hier erwarte ich eher 300mm2 für 6k Shader, aber es wäre eine sehr dicke GPU für eine Konsole (rein von der Die Fläche). Dann eher nur 4k Shader und 2.0 GHz Takt (wenn es die Leistungsaufnahme zulässt). Das wäre in ca. 220-240mm2 realistischer. Mehr erhofft man sich aber trotzdem :)
Die CPU selber ist einfacher zu ermitteln: Ca. 70-75mm² in 7nm für 8C ohne Speicherinterface (ist schon beim Grafikchip einberechnet).
Wie kommst du auf so eine hohe Zahl (1x CCX = 44mm2)? Bei Summit Ridge sind es 88mm2 für 8C. Bei 7nm und anhand Global Fondries Folien >2x Flächenreduktion wären es vielleicht 40mm2 für 8C. Also tendiere ich eher zu 12C und somit 60mm2 :) Das wäre aus zwei Gründen "schlau":
Niedrigerer Takt für selbe MT CPU-Leistung bedeutet geringere TDP. Die GPU wird schon genug vom restlichen Power-Budget auffressen.
Zukunftsicherheit à la "PS5 Pro", wenigstens wäre dann die CPU nicht so ein grosses Bottleneck wie heute bei entsprechend grösserer GPU.
Zudem sollten 12C @ 3.0 GHz nur etwa 30W verbrauchen, sollten die 7nm Prozess-Angaben stimmen. Referenz ist hier der R7 1700: 65W / 1.1 (weniger Takt) * 1.5 (12C) / 2.5x (7nm) = 35W. Noch den Speichercontroller rausrechnen und man landet bei 30W. Die 10W / 20mm2 Unterschied 8C vs. 12C stehen aus meiner Sicht in keinem Verhältnis zu den potentiell +50% CPU-Leistung (11 vs. 7 nutzbare Cores in Games bei etwas weniger Takt). Insbesondere in Anbetracht des "PS5 Pro" Gedanken. Ob man dadurch halt 10-20% Takt verschenkt ist meiner Meinung nach untergeordnet. Selbst ein 3.0 GHz Ryzen hat ca. 4-fache Single Threaded Performance einer PS4. Das ist schon ein ordentlicher Sprung. Bringt Zen 2 noch gut was an IPC sind es vielleicht schon 5x mehr. Ausserdem wird Zen 2 auf dem Desktop eher mit 12C anstatt 8C kommen und Intel wird irgendwo seit 2 Jahren im Mainstream mit 6C unterwegs sein sowie mit Ice Lake ebenfalls mit 8C im Maintstream Sockel aufschlagen. Dann laufen auf dem PC 1-2x Konsolen-Threads auf einem Kern bei oftmals einiges höherem Takt. Für mich wäre also eine relativ einfache Portierbarkeit auf den PC gegeben mit genug grosser bestehender User-Basis, zumindest was die CPU und die Threadverteilung anbelangt.
Im besten Fall sind dies 320mm². Im schlechtesten 405mm². Mitte liegt bei 362mm². Könnte grad so klappen, mehr ist aber nicht drin. Aufgrund der höheren Kosten von 7nm sicherlich grenzwertig.
Mit den obigen Ausführungen komme ich ebenfalls auf etwa diese Werte, allerdings mit 12C. Zudem muss ein wenig I/O ja auch noch drauf (PCIe / SATA / Netzwerk).
Edit:
12C + 4K Shader @ 2.0 GHz wären super (16 TFLOPs). PS5 Pro mit 12C + 8-12K Shader ein schönes Leistungsupgrade. Fast 50 TFLOPs im Optimalfall und das wäre für 4k / 60fps ein Traum ;)
Platos
2017-09-24, 21:43:01
60 Fps wird als solches nicht Standard werden aber was man als Standard machen kann das man auf der Ps5 bei den Spielen ein 1080p/Performance Modus implementiert um eine höhere
Bildrate zu erzielen ich hoffe das es sowas geben wird und nicht ein 4k Zwang. Ebenso wird die
Ps5 bestimmt freesync unterstützen ende 2019 wird es schon Tvs geben die das bieten. Man kann dann ja weiter solche Sachen wie Checkerboarding/Temporal Injection , Tilebase Rendering , DCC verwenden um Bandbreite einzusparen. Wir brauchen auch mehr Datenkanäle zum Speicher für bessere Render und Farbqualität in den Spielen und ebenso die Cpu damit 8 Kerne wirklich parallel arbeiten können und daher glaube ich kaum das bei der PS5 Gddr6 und ein 256 Bit bus zur Anwendung kommt damit wäre die Konsole 2020 nicht mehr Up to Date speziell wenn dort zu dem Zeitpunkt HBM2 sich am Pc immer mehr durchsetzen wird. Gddr6 bietet auch ein schlechtere Leistung/Watt Wert als Hbm2 und brauch auf dem Motherboard mehr Platz , Hbm2 macht eine Konsole kompakter und senkt den Stromverbrauch. Laut den Gerüchten soll bei der PS5 keine APU verwendet werden sondern seperate Komponenten ....mal sehen ob sich das bewahrheiten wird ich denke auch das das Soc/Apu Konzept ausgereizt ist und man zuviele Konpromisse machen muss in Leistung und Featureset ...
Wo hast du denn das Gerücht her ? Das glaube ich eher weniger.
Hier erwarte ich eher 300mm2 für 6k Shader, aber es wäre eine sehr dicke GPU für eine Konsole (rein von der Die Fläche). Dann eher nur 4k Shader und 2.0 GHz Takt (wenn es die Leistungsaufnahme zulässt). Das wäre in ca. 220-240mm2 realistischer. Mehr erhofft man sich aber trotzdem :)
Wie kommst du auf so eine hohe Zahl (1x CCX = 44mm2)? Bei Summit Ridge sind es 88mm2 für 8C. Bei 7nm und anhand Global Fondries Folien >2x Flächenreduktion wären es vielleicht 40mm2 für 8C. Also tendiere ich eher zu 12C und somit 60mm2 :) Das wäre aus zwei Gründen "schlau":
Niedrigerer Takt für selbe MT CPU-Leistung bedeutet geringere TDP. Die GPU wird schon genug vom restlichen Power-Budget auffressen.
Zukunftsicherheit à la "PS5 Pro", wenigstens wäre dann die CPU nicht so ein grosses Bottleneck wie heute bei entsprechend grösserer GPU.
Zudem sollten 12C @ 3.0 GHz nur etwa 30W verbrauchen, sollten die 7nm Prozess-Angaben stimmen. Referenz ist hier der R7 1700: 65W / 1.1 (weniger Takt) * 1.5 (12C) / 2.5x (7nm) = 35W. Noch den Speichercontroller rausrechnen und man landet bei 30W. Die 10W / 20mm2 Unterschied 8C vs. 12C stehen aus meiner Sicht in keinem Verhältnis zu den potentiell +50% CPU-Leistung (11 vs. 7 nutzbare Cores in Games bei etwas weniger Takt). Insbesondere in Anbetracht des "PS5 Pro" Gedanken. Ob man dadurch halt 10-20% Takt verschenkt ist meiner Meinung nach untergeordnet. Selbst ein 3.0 GHz Ryzen hat ca. 4-fache Single Threaded Performance einer PS4. Das ist schon ein ordentlicher Sprung. Bringt Zen 2 noch gut was an IPC sind es vielleicht schon 5x mehr. Ausserdem wird Zen 2 auf dem Desktop eher mit 12C anstatt 8C kommen und Intel wird irgendwo seit 2 Jahren im Mainstream mit 6C unterwegs sein sowie mit Ice Lake ebenfalls mit 8C im Maintstream Sockel aufschlagen. Dann laufen auf dem PC 1-2x Konsolen-Threads auf einem Kern bei oftmals einiges höherem Takt. Für mich wäre also eine relativ einfache Portierbarkeit auf den PC gegeben mit genug grosser bestehender User-Basis, zumindest was die CPU und die Threadverteilung anbelangt.
Mit den obigen Ausführungen komme ich ebenfalls auf etwa diese Werte, allerdings mit 12C. Zudem muss ein wenig I/O ja auch noch drauf (PCIe / SATA / Netzwerk).
Edit:
12C + 4K Shader @ 2.0 GHz wären super (16 TFLOPs). PS5 Pro mit 12C + 8-12K Shader ein schönes Leistungsupgrade. Fast 50 TFLOPs im Optimalfall und das wäre für 4k / 60fps ein Traum ;)
Das es eine PS5 Pro gibt, ist noch nicht sicher, aber abgesehen davon... 50TFlops ? Und von was träumst du Nachts ^^
Und es wird noch laaange gehen, bis 50% der PC-Gamer 8 Kerne haben.
basix
2017-09-25, 01:03:46
Das es eine PS5 Pro gibt, ist noch nicht sicher, aber abgesehen davon... 50TFlops ? Und von was träumst du Nachts ^^
Dazu zwei Zitate von Niels Bohr :D
Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen.
Alles ist möglich, vorausgesetzt, daß es genügend unvernünftig ist.
Nicht, dass ich das effektiv so erwarte. Das wäre einfach Best Case. Zudem ist positives Denken wesentlich erfreulicher :)
16 TFLOPs sind jetzt nicht extrem unrealistisch für eine PS5 / XBox Next. Das ist 2.7x mehr als die Xbox One X haben wird.
3-fache Rohleistung nach einem zusätzlichen Full-Node Shrink inkl. Architekturverbesserungen ebenfalls nicht.
Natürlich ist weniger realistischer (eher so 14 und 30 TFLOPs), im Bereich des Möglichen könnte es aber liegen. Das hängt stark von den Fertigungsprozessen, allfälligen Architekturverbesserungen, Performance / Watt sowie auch finanziellen Aspekten ab. Ob es eine PS5 Pro gibt, steht in den Sternen. Anhand der jetzigen Produktpolitik von Sony und M$ könnte es aber gut sein.
Und es wird noch laaange gehen, bis 50% der PC-Gamer 8 Kerne haben.
8 Cores wird wirklich einige Zeit dauern, da hast du recht. Ist aber auch nicht zwingend nötig. Momentan reichen ja auch Quadcores ohne HT für Konsolen-Ports ;) Beim PC hat man einfach höhere Taktraten + Power Budgets. Da reichen auch weniger Kerne. Zum anderen ist 8C seit Ryzen für fast jedermann erschwinglich geworden (in Form des R7 1700). Mit Zen 2 werden es wahrscheinlich 12C. Ich nehme ausserdem an, dass bei den NextGen Konsolen mit 4k / 60fps kalkuliert wird. Viele Spiele kann man auch mit 40-60fps noch gut bis genügend Spielen oder man dreht an den Details.
4770K / 4790K / 6700K / 7700K sind weit verbreitet in Spieler-Kreisen und werden Ende 2019 oder Ende 2020 (dann erwarte ich die NextGen) noch einigermassen was reissen können. Vielleicht schaffen sie noch die 40fps von NextGen Konsolenspielen. Gehen tut es. Wirklich Freude machen werden sie aber meiner Meinung nach nicht mehr. Der 4770K kam 2013(!) auf den Markt und ist OC auf 4790K Niveau (2014). 6700K ist kaum schneller, 7700K (Januar 2017) knapp 10-15%. Im Herbst 2019 wird ein 7700K schon fast 3 Jahre auf dem Buckel haben. Eine neue Konsolengeneration wäre doch ein guter Aufrüstgrund für alle mit Quad Core :D
Coffee Lake wird sich sehr gut verkaufen, genau so Ice Lake und Zen+ / Zen 2. Viele mit 2600K usw. werden auf 6+ Cores wechseln in den nächsten 2 Jahren. Und wenn nicht, wäre es wie gesagt mal ein konkreter Aufrüstgrund. Meines Erachtens etwas, was AMD von seiner Seite her pushen könnte (Sony und M$ eher zu 12C anstatt 8C raten). Für die Konsolenhersteller ein Verkaufsargument: Stärker als die meisten PCs zuhause und zudem ein Langlebigkeitsfaktor für die Plattform (7nm soll anscheinend sehr langlebig werden à la 28nm). Für AMD würde es die Verkäufe der eigenen Desktop-Prozessoren ankurbeln, welche optimalerweise ebenfalls 12C oder sogar mehr bieten können. Die 2019er 8C Derivate ab bezahlbaren 220$ machen es über die höheren Taktraten wett. Kommen die neuen Konsolen erst 2020, ist schon Zen 3 mit wahrscheinlich 16C released worden. Dann gäbe es 12C für 220$, analog zum heutigen R5 1600. Preise sind reine Speku, dies entspricht einfach dem heutigen Preisgefüge bei AMD, wenn Zen 2 mit 12C und Zen 3 mit 16C erscheinen sollten.
Vielleicht überrascht uns AMD Anfang 2018 ja sogar noch mit einem 12C Pinnacle Ridge und brettert Intel eine Breitseite rein :D Die 15% Flächeneinsparung von 12LP entsprechen 27mm2, auf das gesamte Summit Ridge Die angewandt. Der Cache wird wahrscheinlich überproportional kleiner, da man vor allem auf 7.5T SRAM Zellen setzt anstatt 9T Zellen. Sagen wir mal 20%. L2 plus L3 machen immerhin die Hälfte eines CCX aus (22mm2). Dann würde man für +4C bei ca. +40mm2 oder gerade mal +13mm2 mehr als Summit Ridge benötigen. Da 12LP grundsätzlich nicht wirklich etwas anderes als 14nm ist, sollte die Fertigung auch nicht teurer sein als heute.
So nun viel Text mit nur am Rande Topic-Bezug. Ich wollte einfach herausstreichen, dass es technisch nicht wirklich Gründe gegen 12C gibt. Auch auf Desktop Seite im Mainstream-Bereich nicht. Wenn, dann sind es eher strategische Gründe auf Seiten Konsolenhersteller, welchen aber mit frühzeitig erscheinenden Prozessoren mit genug Cores entgegengewirkt werden kann. Dies wäre auch im Interesse von AMD. Sie könnten Intel stark angreifen, wenn die Konsolen 12C haben sollten und Intel das nicht im Mainstream bieten kann.
Platos
2017-09-25, 10:49:19
Also das mit den ca. 15 TFLOPS halte ich selbst auch für machbar. Ich denke nur, dass dann innerhalb von 3-4 Jahren nicht einfach mal locker 50 TFLOPS aus dem Hut gezaubert wird. Nur weil von der PS4 zur PS4 Pro das 3-Fache raus kam, muss das dann bei einer PS5 Pro nicht auch so sein. Der Fortschritt nimmt eher ab als zu. Aber ja, wie du schon sagst, ist eine Prognose schwierig.
Ich gehe davon aus, dass Sony und Microsoft nicht so "blöd" ist, die next Gen nicht auf 7nm zu produzieren. Und da so eine Konsole kein Marktexperiment sein darf/sollte, gehe ich von Ende 2020 als Release aus. Ende 2019/Anfang 2020 sollte dann 7nm auch bereit sein (für AMD), also kommt Ende 2020 gut, wenn man annimmt, dass die Konsole wieder gegen Ende Jahr (also Weihnachtsgeschäft) raus kommt. 2023-2024 schon 3nm für eine PS5 Pro drauf zu haben, ist auch fraglich. Ich denke da müsste man eher mit 2025 rechnen und ohne 3nm wäre eine Steigerung von 200-300% auch unrealistisch (und mit 5nm sind keine 50 TFlops drinn).
Es könnte aber auch sein, dass es keine PS5 Pro gibt. Das ganze könnte auch nur eine einmalige Sache gewesen sein, um das 4K TV Geschäft ein bisschen anzukurbeln. Wie man sieht, wird man die Konsolen zwar los, aber der technische Fortschritt wird dann einfach immer von der alten Version ausgebremst (oder umgekehrt, die alte wird unbrauchbar). Aus rein dieser Sicht wäre es sinnvoller einfach den Konsolenzyklus auf 5 Jahre zu verkürzen, anstatt alle 3-4 Jahre so ein Upgrade rauszubringen.
Aber das ist eine andere Sache. Kann gut sein, dass sie das von jetzt an so machen. Der Konsolenzyklus wird damit ja nicht verkürzt, aber in der Hälfte kann man nochmals Kunden gewinnen oder neue Features schmackhaft machen.
megachip800
2017-09-25, 12:19:28
Meine Wunsch Ps5:
-Zen oder Ryzen Cpu oder eine Customlösung von ARM mit mind. 3 Ghz
8 Kerne , 16MB cache plus L3 cache , erweiert mit zusätzlichen Ki/AI Funktionen
500 Gflops
-GPU mit ca. 1,5 Ghz , Hardwareunterstützung für Tilebase und Deffered
Redering, evtl. ein paar Raytraycingfunktionen basierend auf AMD Navi oder
wenn Nvidia ein V100 Abkömmling mit Tensorcores. 10-15 Gflops , FP64 Support
-16-32 Gbyte RAM, 512Bit - 2048Bit Si , 500-1000 Gbyte/s Busgeschwindigkeit.
Hbm2 Speicher oder eine Kombilösung aus DDR4 und Hbm2
-Mehr Kommunikationsverknüpfungen zwischen CPU und GPU Cores , grössere
GPU Caches
- mind. 7 nm Fertigungsprozess
- SSD Festplatte
- Preis 450-600€
- Super Exclusivspiele zum Start
- Kompaktes und schnelles OS mit geringen Speicherverbrauch
DrFreaK666
2017-09-25, 13:34:58
Eine PS5/Xbox two wäre ohne AMD-Hardware scheisse. Dann müsste MS schon wieder emulieren ^^
Platos
2017-09-25, 14:27:13
SSD Festplatte wird aber schwierig. Die Spiele werden auch nicht kleiner und 1 TB wird dann zum absoluten Minimum. Und eine 1TB SSD wird vermutlich auch in 2020-2021 noch an die 140-280 Euro kosten, je nach Modell. Ich wäre ja auch mit einer 500GB HDD zufrieden, dafür billiger und ich kaufe mir dann selbst eine 2TB SSD :biggrin:
Ich denke aber eine SSHD wäre machbar. 2TB HDD-Teil und 32-64 GB SSD Teil. Aber eine SSD wäre natürlich auch sehr sehr schön zu sehen, dann muss es aber schon mind. 1TB sein, sonst bringts das auch nicht wirklich.
Eine PS5 würde mMn mit Zen+(PR)-Kernen kommen und mit Vega/Navi-Hybridgrafik, also Vega-Grafik mit Navi und Custom-Elementen, aber ohne HBM, sondern mit GDDR6. Man wird bei den Speicher weiter aufteilen in 4GB DDR4 und 8GB GDDR6-Speicher, da sich die Speicherpreise nicht großartig erholen werden. Das ist dank HBCC auch problemlos machbar. Als wahrscheinlichster Fertigungsprozess kommt mMn 8LPP bei Samsung oder N7FF bei TSMC in Frage. Beide sind recht gut verfügbar. Start der Konsole würd ich Anfang 2019 schätzen, vllt. so März herum. Microsoft scheint erst mal nichts weiter in Planung zu haben. Die warten sicherlich, bis die voll-EUV-Prozesse verfügbar sind.
Die PS5 kommt zu knapp, um etwas anderes als AMD-Technik zu beinhalten. Das wär auch blödsinnig, weil die Softwareinfrastruktur nunmal steht und die PC-Kompatbilität sehr hilfreich ist. Zudem wird man die SoCs woanders nicht günstiger bekommen.
Eine PS5/Xbox two wäre ohne AMD-Hardware scheisse. Dann müsste MS schon wieder emulieren ^^
Das ist aber exakt deren Ziel. Die möchten am liebsten eine universelle Software auf sämtlicher verfügbarer Hardware betreiben. Das hat natürlich Grenzen, aber die stecken da eben extrem viel Arbeit rein.
drkohler
2017-09-25, 18:28:52
Eine PS5 würde mMn mit Zen+(PR)-Kernen kommen und mit Vega/Navi-Hybridgrafik, also Vega-Grafik mit Navi und Custom-Elementen, aber ohne HBM, sondern mit GDDR6. Man wird bei den Speicher weiter aufteilen in 4GB DDR4 und 8GB GDDR6-Speicher, da sich die Speicherpreise nicht großartig erholen werden. Das ist dank HBCC auch problemlos machbar. Als wahrscheinlichster Fertigungsprozess kommt mMn 8LPP bei Samsung oder N7FF bei TSMC in Frage. Beide sind recht gut verfügbar. Start der Konsole würd ich Anfang 2019 schätzen, vllt. so März herum. Microsoft scheint erst mal nichts weiter in Planung zu haben. Die warten sicherlich, bis die voll-EUV-Prozesse verfügbar sind.
Das ist doch alles Quatsch. Eine Konsole verkauft sich nicht im Massenmarkt, wenn sie teurer als $400 ist (und als Endziel sub-$300 anstreben muss).
7nm ist WESENTLICH teurer als Alles was jetzt gebraucht wird, und 7nm wird für Konsolen sicher in den nächsten 2 Jahren nicht massentauglich sein. Dann willst du auch noch irgend Etwas basteln mit zwei verschiedenen Speicherbussen.
Erstmal müssen die "Grossen" 7nm herausbringen. Dann muss das Ganze Massentauglich gemacht werden. Dann kann man ans integrieren gehen für Konsolen.
Wenn ich auch noch hier lese, dass Leute 128GByte Ram und 50TFlops "sehen", da kann ich nur den Kopf schütteln....
Hier sind die drei Asimovschen Gesetze für Konsolen:
1. Es muss billig sein
2. Es muss billig sein
3. Es muss billig sein
Platos
2017-09-25, 20:06:43
Eine PS5 würde mMn mit Zen+(PR)-Kernen kommen und mit Vega/Navi-Hybridgrafik, also Vega-Grafik mit Navi und Custom-Elementen, aber ohne HBM, sondern mit GDDR6. Man wird bei den Speicher weiter aufteilen in 4GB DDR4 und 8GB GDDR6-Speicher, da sich die Speicherpreise nicht großartig erholen werden. Das ist dank HBCC auch problemlos machbar. Als wahrscheinlichster Fertigungsprozess kommt mMn 8LPP bei Samsung oder N7FF bei TSMC in Frage. Beide sind recht gut verfügbar. Start der Konsole würd ich Anfang 2019 schätzen, vllt. so März herum. Microsoft scheint erst mal nichts weiter in Planung zu haben. Die warten sicherlich, bis die voll-EUV-Prozesse verfügbar sind.
Die PS5 kommt zu knapp, um etwas anderes als AMD-Technik zu beinhalten. Das wär auch blödsinnig, weil die Softwareinfrastruktur nunmal steht und die PC-Kompatbilität sehr hilfreich ist. Zudem wird man die SoCs woanders nicht günstiger bekommen.
Das ist aber exakt deren Ziel. Die möchten am liebsten eine universelle Software auf sämtlicher verfügbarer Hardware betreiben. Das hat natürlich Grenzen, aber die stecken da eben extrem viel Arbeit rein.
Warum denkst du denn, dass Sony die Konsole 2019 raus bringt und somit nicht mit dem 7nm Prozess fertigt ? Also welches Argument sollte Sony dazu bewegen ?Das wäre höchst unklug von Sony, denn dann gibts einen mageren Perfomanceschub. Anfangs 2019 kann man vlt. mit max. 8 TFlops rechnen. Das wäre sowas von selten dämlich von Sony. Gerade bei Konsolen muss man grosse Perfomancesprünge machen und nicht wie bei PC-Gamer 30-40% pro GraKa Gen. Aller höchstens 2.0-Fache Leistung würde man hinbringen, realistisch ist aber eher 1.7-1.8 Fache. Das wäre gerade so ein Lacher Wert. Das wäre gerade mal ein Drittel Mehrperfomance im Vergleich zur One X. Im Allgemeinen hat man nur Nachteile (ich sehe keinen einzigen Vorteil)
- Die Mehrperfomance ist schlecht
- Die PS4 Pro ist Anfangs 2019 gerade mal ca. 2,3 Jahre auf dem Markt.
- Das Konkurenzmodell ist zu jung um die Leistung gross überflügeln zu können
- Speicherpreise sind hoch. Sowohl bei einem SS(H)D Aufrüstdruck als auch bei mehr Speicher als bei der Konkurenz wirds teuer (und mindestens letzteres muss man erreichen).
- Sehr ungünstige (Zeit-) Wahl bezüglich GPU und CPU Teil. Wie gesagt, kein Navi, kein Zen 2 also auch kein 7nm.
- Da kein 7nm muss ein ordentlicher Kühler her (und das geht einfach nicht aus Kosten und Platzgründen).
Welche Gründe würden für einen Realease im Frühling 2019 sprechen? Ich sehe keinen einzigen. Die teure Fertigung von 7nm (die im Frühling 2019 eh nicht verfügbar ist) wäre ja eben gerade ein Grund noch länger zu warten, wenn man nicht gezwungen ist, im Jahr 2019 eine neue Konsole herauszubringen. Das ist man aber nicht, zumindest sehe ich keinen Zwang, der entgeht mir hier.
@drkohler: Also wenn ich das richtig in Erinnerung habe, kostete die PS4 499 . Abgesehen von der PS4 Pro, die glaube ich 450 kostete, waren doch alle PS und Xbox mind. 499 Euro ? Slim Varianten die erst 2 Jahre später kamen, sind natürlich billiger.
LadyWhirlwind
2017-09-25, 20:25:58
Warum denkst du denn, dass Sony die Konsole 2019 raus bringt und somit nicht mit dem 7nm Prozess fertigt ? Also welches Argument sollte Sony dazu bewegen ?Das wäre höchst unklug von Sony, denn dann gibts einen mageren Perfomanceschub. Anfangs 2019 kann man vlt. mit max. 8 TFlops rechnen. Das wäre sowas von selten dämlich von Sony. Gerade bei Konsolen muss man grosse Perfomancesprünge machen und nicht wie bei PC-Gamer 30-40% pro GraKa Gen. Aller höchstens 2.0-Fache Leistung würde man hinbringen, realistisch ist aber eher 1.7-1.8 Fache. Das wäre gerade so ein Lacher Wert. Das wäre gerade mal ein Drittel Mehrperfomance im Vergleich zur One X. Im Allgemeinen hat man nur Nachteile (ich sehe keinen einzigen Vorteil)
- Die Mehrperfomance ist schlecht
- Die PS4 Pro ist Anfangs 2019 gerade mal ca. 2,3 Jahre auf dem Markt.
- Das Konkurenzmodell ist zu jung um die Leistung gross überflügeln zu können
- Speicherpreise sind hoch. Sowohl bei einem SS(H)D Aufrüstdruck als auch bei mehr Speicher als bei der Konkurenz wirds teuer (und mindestens letzteres muss man erreichen).
- Sehr ungünstige (Zeit-) Wahl bezüglich GPU und CPU Teil. Wie gesagt, kein Navi, kein Zen 2 also auch kein 7nm.
- Da kein 7nm muss ein ordentlicher Kühler her (und das geht einfach nicht aus Kosten und Platzgründen).
Welche Gründe würden für einen Realease im Frühling 2019 sprechen? Ich sehe keinen einzigen. Die teure Fertigung von 7nm (die im Frühling 2019 eh nicht verfügbar ist) wäre ja eben gerade ein Grund noch länger zu warten, wenn man nicht gezwungen ist, im Jahr 2019 eine neue Konsole herauszubringen. Das ist man aber nicht, zumindest sehe ich keinen Zwang, der entgeht mir hier.
@drkohler: Also wenn ich das richtig in Erinnerung habe, kostete die PS4 499 . Abgesehen von der PS4 Pro, die glaube ich 450 kostete, waren doch alle PS und Xbox mind. 499 Euro ? Slim Varianten die erst 2 Jahre später kamen, sind natürlich billiger.
Ich denke die PS5 kommt frühestens im Herbst 2019. Wenn es sich mit der 7nm Fertigung ausgeht, word man das Weihnachtsgeschäft mitnehmen wollen. Aber früher macht keinen Sinn.
megachip800
2017-09-25, 20:26:26
Eine PS5 würde mMn mit Zen+(PR)-Kernen kommen und mit Vega/Navi-Hybridgrafik, also Vega-Grafik mit Navi und Custom-Elementen, aber ohne HBM, sondern mit GDDR6. Man wird bei den Speicher weiter aufteilen in 4GB DDR4 und 8GB GDDR6-Speicher, da sich die Speicherpreise nicht großartig erholen werden. Das ist dank HBCC auch problemlos machbar. Als wahrscheinlichster Fertigungsprozess kommt mMn 8LPP bei Samsung oder N7FF bei TSMC in Frage. Beide sind recht gut verfügbar. Start der Konsole würd ich Anfang 2019 schätzen, vllt. so März herum. Microsoft scheint erst mal nichts weiter in Planung zu haben. Die warten sicherlich, bis die voll-EUV-Prozesse verfügbar sind.
Die PS5 kommt zu knapp, um etwas anderes als AMD-Technik zu beinhalten. Das wär auch blödsinnig, weil die Softwareinfrastruktur nunmal steht und die PC-Kompatbilität sehr hilfreich ist. Zudem wird man die SoCs woanders nicht günstiger bekommen.
Das ist aber exakt deren Ziel. Die möchten am liebsten eine universelle Software auf sämtlicher verfügbarer Hardware betreiben. Das hat natürlich Grenzen, aber die stecken da eben extrem viel Arbeit rein.
Die Ps5 soll nur 12 gbyte RAM dann haben? Das kann ich beim besten Willen nicht glauben. Das ist ja genauso viel wie bei der Xbox X die jetzt erscheint 2 Jahre vor der PS5. Und niemand hat gesagt das die Ps5 abwärtskompatibel zur Ps4 sein wird. 7nm wird Ende 2019 machbar sein.
@drkohler
Nur weil die Ps4 399 € gekostet hat bedeutet das nicht das der Nachfolger genauso viel kostet bei dem Preis müsste man wieder zuviele Kompromisse machen , Sony hat zudem gesagt das die Ps4 Pro eine Ausnahme war und die Ps5 ein echter Nachfolger. So wie es aussieht wird es dann keine Pro Variante von der Ps5 geben dh. die Ps5 als einziges Basismodell muss schon vom Start weg sehr leistungsfähig sein , ebenso hat Sony gesagt das man die neue Xbox X nicht als Konkurrent zur Ps5 sieht dh. Sony ist nicht gezwungen mit der Ps5 die X preislich zu unterbieten. Im übrigen steigen die Preise für Unterhaltungselektronik und trotzdem ist von Seiten der Kunden eine hohe Nachfrage zu sehen. Nintendo Switch 369€ , Xbox X 499€ , Iphone X 1130€ , und die Vorbestellungen sind hier alle ausverkauft .....ich gehe davon aus das die Akzeptanz für etwas teurere Unterhaltungselektronik 2020 grösser sein wird als 2013 .
Platos
2017-09-25, 20:39:34
Ich denke die PS5 kommt frühestens im Herbst 2019. Wenn es sich mit der 7nm Fertigung ausgeht, word man das Weihnachtsgeschäft mitnehmen wollen. Aber früher macht keinen Sinn.
Ja, das sehe ich auch so. Die letzten 2 Mal lief es auch aufs Weihnachtsgeschäft raus. Wird aber bestimmt sehr sehr knapp mit 2019. AMD soll ja als erstes beliefert werden, wobei die Konsolen wahrscheinlich AMD Hardware haben wird (rein aus historischer Annahme). Aber ob Sony Geld und Risiko in ein absolut neuen Prozess invesitert ist dann die andere Frage.
Ok, Anfang 2019 ist zu früh, das sehe ich ein. Die restlichen Argumente kann ich nicht nachvollziehen. Der Chip wird ganz klar in 7nm ohne EUV gefertigt, weil das auf absehbare Zeit der günstigste Prozess ist, den Sony bekommen kann. Ob der Chip dann noch so groß ist wie heute, oder ob man auf mehr Takt und weniger Fläche setzt, ist schwer zu sagen, aber möglich.
Er wird sicherlich auf PinnacleRidge-Basis aufgebaut, weil das Design dann bewährt und verfügbar ist und auf 7nm TSMC transferiert werden kann.
Und ja, das Ding hat nur 12GB, maximal 16GB, davon bin ich fest überzeugt, da die Speicherpreise nicht großartig sinken werden bis dahin und das ist nunmal ein kritischer Punkt. Man muss natürlich auch das nehmen, was bis dahin verfügbar und sinnvoll ist.
Und ich wiederhol das auch gern nochmal, weil das auch hier gilt: TSMC hat 7nm ab Q2 2018 in Massenproduktion, Apple fertigt definitiv nicht in diesem Prozess (um dem bescheuerten Einwand vorzubeugen), was AMD genug Zeit gibt, den SoC auch fertigzustellen und Sony die Konsole fertigzuentwickeln bis Ende 2019. 7nm DUV ist definitiv der realistischste Prozess für die PS5. Hinzu kommt, dass AMD mit dem Prozess bereits arbeitet für den eigenen Vega20-Grafikchip, der ab Q3 verfügbar ist. Das werden die Leute machen, die den SoC für die XB1X entwickelt haben.
megachip800
2017-09-25, 21:01:50
Ok, Anfang 2019 ist zu früh, das sehe ich ein. Die restlichen Argumente kann ich nicht nachvollziehen. Der Chip wird ganz klar in 7nm ohne EUV gefertigt, weil das auf absehbare Zeit der günstigste Prozess ist, den Sony bekommen kann. Ob der Chip dann noch so groß ist wie heute, oder ob man auf mehr Takt und weniger Fläche setzt, ist schwer zu sagen, aber möglich.
Er wird sicherlich auf PinnacleRidge-Basis aufgebaut, weil das Design dann bewährt und verfügbar ist und auf 7nm TSMC transferiert werden kann.
Und ja, das Ding hat nur 12GB, maximal 16GB, davon bin ich fest überzeugt, da die Speicherpreise nicht großartig sinken werden bis dahin und das ist nunmal ein kritischer Punkt. Man muss natürlich auch das nehmen, was bis dahin verfügbar und sinnvoll ist.
Und ich wiederhol das auch gern nochmal, weil das auch hier gilt: TSMC hat 7nm ab Q2 2018 in Massenproduktion, Apple fertigt nicht in diesem Prozess (um dem bescheuerten Einwand vorzubeugen), was AMD genug Zeit gibt, den SoC auch fertigzustellen und Sony die Konsole fertigzuentwickeln bis Ende 2019.
Die Ps4 erschien ende 2013 mit 8 Gbyte Ram und in 6 Jahren müsste eine 4 x mal Steigerung möglich sein , früher waren es zwischen den Generationen sogar 8-16 fache Steigerung. Also ich tippe auf mind. 16 Gbyte , 24 Gbyte die Mitte , 32 Gbyte Maximum.
tobor
2017-09-25, 21:03:30
Bringt Avx512 bei Cpus was(fuer Spiele)?
Die Ps4 erschien ende 2013 mit 8 Gbyte Ram und in 6 Jahren müsste eine 4 x mal Steigerung möglich sein , früher waren es zwischen den Generationen sogar 8-16 fache Steigerung. Also ich tippe auf mind. 16 Gbyte , 24 Gbyte die Mitte , 32 Gbyte Maximum.
Das ist Träumerei. Wie gesagt, die Speicherpreise werden nicht mehr großartig sinken auf das Niveau, auf dem er 2014 schon mal war. Es gibt einfach zu wenig Produktionskapazität, nachdem 2 DRAM-Hersteller dichtgemacht haben und der Telefonmarkt immer mehr DRAM verschlingt. Die übrigen bauen jetzt langsam ihre Kapazitäten auf, aber das dauert. Eine Konsole muss in erster Linie günstig sein, da kann man sich nicht mehr als 12 oder 16GB erlauben, auch in 2019 nicht. MMn wird es erst dann wirklich Erleichterung im DRAM-Markt geben, wenn die Hersteller erste 16GBit-Chips auf den Markt werfen, das dauert aber mindestens bis 2019, eher 2020 mit dem DDR5-Standard. Speichermäßig ist jetzt erst mal ein paar Jahre Stillstand angesagt.
Bringt Avx512 bei Cpus was(fuer Spiele)?
Nein, definitiv nicht.
megachip800
2017-09-25, 21:13:01
Das ist Träumerei. Wie gesagt, die Speicherpreise werden nicht mehr großartig sinken auf das Niveau, auf dem er 2014 schon mal war. Es gibt einfach zu wenig Produktionskapazität, nachdem 2 DRAM-Hersteller dichtgemacht haben und der Telefonmarkt immer mehr DRAM verschlingt. Die übrigen bauen jetzt langsam ihre Kapazitäten auf, aber das dauert. Eine Konsole muss in erster Linie günstig sein, da kann man sich nicht mehr als 12 oder 16GB erlauben, auch in 2019 nicht. MMn wird es erst dann wirklich Erleichterung im DRAM-Markt geben, wenn die Hersteller erste 16MBit-Chips auf den Markt werfen, das dauert aber mindestens bis 2019, eher 2020 mit dem DDR5-Standard.
Die Rampreise werden doch nicht 3 Jahrelang stagnieren .....
Doch davon ist auszugehen. Erstmal erwarten wir jetzt die nächsten Monate durch die Bank eine Preissteigerung von mindestens 40% bei DRAM. Man darf nicht übersehen, im Moment sind wir mit 8GBit-Chips unterwegs, davon braucht ein Smartphone mit 3GB RAM eben 3. In 2018 wollen die Hersteller hoch auf 4 und im Mainstream auf 3, wie soll da ne Entspannung stattfinden?
megachip800
2017-09-25, 21:26:32
Die Vorteile von HBM gegenüber DRam :
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35308-warum-hbm-mehr-als-nur-eine-erhoehung-der-speicherbandbreite-ist.html
"Speichercontroller in modernen GPUs kommen mit ihrem 256 oder 384 Bit breiten Speicherinterface auf eine beachtliche Komplexität innerhalb einer GPU-Architektur. Aber nicht nur die Komplexität spielt eine Rolle, sondern auch der Platz, den sie inzwischen im Design und bei der Fertigung benötigen. Mit HBM sollen die Bandbreiten und die Leistung generell steigen, dies wird aber nicht mit komplexeren Speichercontrollern erkauft, sondern diese sollen im Gegenteil sogar weniger komplex werden."
basix
2017-09-25, 22:08:06
Meiner Meinung nach hat HBM praktisch nur Vorteile gegenüber normalem DDR. Die Ausnahmen sind die schwierigere Fertigung und vor allem der höhere Preis. In 2-3 Jahren, wenn die Konsolen erscheinen, sieht es wahrscheinlich besser aus, da die Technologie gereift ist.
Eine NPU wie im Kirin 970 SoC wäre evtl. was für AI. Wenn die wie auf Folien gezeigt 50x energieeffizienter sein soll wie eine CPU, wäre das evtl. eine Überlegung wert für massig NPCs oder sackstarke Bots :D Schon mit 1-2W max. Stromverbrauch wäre man bei FP16 Tensoroperationen schneller als jede denkbare Konsolen-CPU.
https://scr3.golem.de/screenshots/1709/Huawei-Kirin-970-IFA-2017/Kirin-970--IFA-2017-05.jpg
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.