PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84

DinosaurusRex
2015-01-10, 18:10:46
Aber jetzt mal ernsthaft: Dafür das ich keine Ahnung habe, ist mein PS5 Design doch ziemlich cool, oder nicht?

---


schau dir einfach mal an wie raytracing in der regel präsentiert wird: fast immer spiegelnde kugeln, viel zu stark spiegelnde autos, durchsichtige schachfiguren usw. weil raytracing in genau diesen situationen optisch beeindruckende szenen liefern kann die man anders fast nicht hin bekommt. in der spiele-realität spielt sowas aber eher selten eine rolle und wenn dann oft nur aus reinem selbstzweck. baut man eine fixed function unit für raytracing ein geht fläche für general purpose units verloren und man ist fast dazu gezwungen x% raytracing zu verwenden und ist in der handlungsmöglichkeit eingeschränkt.

Also das denke ich nicht. So ziemlich sämtliche Metalle spiegeln, Plastik spiegelt, Augen spiegeln (wenn man weint :(), alle Gläser und kristallartigen Dinge brauchen Refraktionen und das trifft auf Brillen zu oder Flaschen und Schmuck. Schau dich einfach mal um, genau jetzt, und untersuche mal, was alles reflektiert, refraktiert oder von einer präzisen Transparenzberechnung profitieren würde. Bei mir wären das unzählige Dinge, zB Schere, Taschenrechner-Display, Plastikflasche, Mixerydose, die goldene Schrift auf meiner Whiskey-Verpackung, die abgegriffene Plastikverpackung für meine Filter, und und und! Und das sind Dinge aus dem realen Leben. Stell dir mal vor, was man in einem Fantasy oder SciFi Setting noch alles Designen könnte. Und von der besseren Schattenberechnung würde ja wirklich ausnahmslos jedes Spiel profitieren.

Dieses PowerVR fixed-function Teil verballert 300 Millionen inkoheränte Strahlen pro Sekunde in einem "mobile power envelope". Die next-gen Konsolen werden aber keinen "mobile power envelope" haben, da dürfte also noch viel mehr gehen und das ohne dabei die ALUs zu belasten. Unity 5 hat bereits eine Implementierung für PowerVR Raytracing und Apple hat im Frühling 2014 eine umfassende und langjähre PowerVR Lizenz erworben. Es könnte also durchaus sein, dass diese Technik in Zukunft auch im Smartphone- und Tablet-Bereich gepusht wird.

Hier gibts eine Erklärung, wie man dieses sogenannte Hybrid Raytracing in Videospielen einsetzen könnte:

Practical techniques for ray tracing in games (http://www.gamasutra.com/blogs/AlexandruVoica/20140318/213148/Practical_techniques_for_ray_tracing_in_games.php)

Profitieren würden Schatten, Reflektionen, Refraktionen, Ambient Occlusion, Global Illumination, Pysikberechnungen und Collision Detection, KI und Line of Sight-Berechnungen, Lens Correction, sogar VR wird explizit genannt:

http://blog.imgtec.com/wp-content/uploads/2014/03/02_Ray-tracing-in-games_Ray-tracing-applications.png

RLZ
2015-01-10, 20:11:44
Also das denke ich nicht. So ziemlich sämtliche Metalle spiegeln, Plastik spiegelt, Augen spiegeln (wenn man weint :(), alle Gläser und kristallartigen Dinge brauchen Refraktionen und das trifft auf Brillen zu oder Flaschen und Schmuck.
Vorsicht. Für die meisten Spiegelungen eignen sich Strahlen eher schlecht.
Auch für Lichtquellen ist das problemetisch, da ich in 10 Jahren möglichst keine Punktlichtquelle mehr sehen will.
Die ganzen Beschreibungen und Artikel zeigen normal nur Sandkasten-Usecases.

Nakai
2015-01-10, 20:42:26
Ich fänds cool, wenn man einen fetten FPGA mitverbauen würde. Da könnte man schöne Spielereien mit anstellen. ;D

Aber neee, die nächste Gen wird noch kleiner, effizienter, einfacher, für eine gute basis Performance ausgelegt sein. Dafür wird viel woanders augelagert werden.

DinosaurusRex
2015-01-10, 20:56:16
Vorsicht. Für die meisten Spiegelungen eignen sich Strahlen eher schlecht.
Auch für Lichtquellen ist das problemetisch, da ich in 10 Jahren möglichst keine Punktlichtquelle mehr sehen will.
Die ganzen Beschreibungen und Artikel zeigen normal nur Sandkasten-Usecases.

In meinem Gamasutra Link steht, dass man in einem Hybrid Renderer das Raytracing-Ergebnis durch eine Diffuse Lighting- und Albedo-Berechnung schicken würde um realistische Reflektionen zu erhalten.

drkohler
2015-01-10, 21:34:50
Und was ist wenn man die Speicherbandbreite verzehnfacht?

GTX 980 mit 2TB/s Bandbreite bspw.Eine normale GTC980 kostet hier im Laden wesentlich mehr als eine Konsole.. Wenn du dann noch ein Mörderinterface drannageln willst, wird's auch nicht billiger..
Die Realität ist wohl so, dass auch die nächste Generation Konsolen in etwa mit einem heute gängigen GamerPC mithalten wird. Auf irgend welche "Wir sind an der vordersten Front des exotischen Chipdesigns" Wagnisse wird sich keiner einlassen. Die Entwickler werden einen Kostenrahmen forgesetzt bekommen (haben) und das definiert letzten Endes die Leistung.

Skysnake
2015-01-10, 22:30:35
Ich glaube du verwechselst Ursache und Wirkung.
Das momentene Verhältnis haben wir aufgrund technischer Limitierungen. Die Entwickler haben sich und die Algorithmen darauf angepasst.
Drehe extrem an einer Stellschraube und es wirkt erstmal unausgeglichen. 2-3 Jahre später hat sich das wieder eingependelt und für neue Anwendungen wären die alten Architekturen unausgeglichen.
Selbst wenn du ein TB an RAM-Bandbreite hast, das ist immer noch nur ein Bruchteil der Bandbreite von den Registerfiles. Klar, du musst weniger Datenlokalität haben, ohne dass die die Performance in die Knie geht, was IMMER! toll ist, aber es ist eben auch ineffizienter bzgl Energieverbrauch. Deswegen haben Caches schon ihren Nutzen.

Coda
2015-01-11, 01:05:54
Ich fänds cool, wenn man einen fetten FPGA mitverbauen würde. Da könnte man schöne Spielereien mit anstellen. ;D

Aber neee, die nächste Gen wird noch kleiner, effizienter, einfacher, für eine gute basis Performance ausgelegt sein. Dafür wird viel woanders augelagert werden.
Woher nimmst du die Engineers die dir die FPGAs programmieren? Das ist noch wesentlich spezialisierter als Grafik-Programmierer und die wachsen schon nicht auf Bäumen.

Der Aufwand wäre auch schlicht enorm. Multi-Prozessor-Programmierung ist schon schlimm genug.

Nakai
2015-01-11, 02:06:41
Woher nimmst du die Engineers die dir die FPGAs programmieren? Das ist noch wesentlich spezialisierter als Grafik-Programmierer und die wachsen schon nicht auf Bäumen.

Der Aufwand wäre auch schlicht enorm. Multi-Prozessor-Programmierung ist schon schlimm genug.

Ich werde jetzt keine Diskussion über diese Thematik lostreten...aber zur Beruhigung, das war nicht wirklich ernst gemeint, vor allem im Bezug auf Nextgen-Konsolen. Solche Leute werden auch eher in anderen Bereichen benötigt, bzw. sind tätig.

Deinorius
2015-01-11, 02:07:13
Man kann ja schon mal davon ausgehen, dass zumindest die Anzahl der CPU-Cores gleich bleibt.

Skysnake
2015-01-11, 09:53:03
Woher nimmst du die Engineers die dir die FPGAs programmieren? Das ist noch wesentlich spezialisierter als Grafik-Programmierer und die wachsen schon nicht auf Bäumen.

Der Aufwand wäre auch schlicht enorm. Multi-Prozessor-Programmierung ist schon schlimm genug.
/sign

Wenn überhaupt können sich das eine Handvoll von Studios leisten. Damit so etwas praktikabel ist, müsste als entwerde MS/Sony/AMD Libs entwickeln, die den Studios dann zur Verfügung stehen, oder aber eine Handvoll großer Studios nehmen das in ihre Engine entwicklung auf.

Dass die Studios die Kosten stemmen können, geschweige denn wollen bezweifle ich aber. Und wenn es MS/Sony/AMD machen, dann haben wir die Situation wie mit der UT-Engine, als alle Spiele ziemlich gleich aussahen bzw Möglichkeiten boten aufgrund der gleichen Engine. Keine Ahnung, ob das sooo ersterbenswert ist.

Aus irgend einem Grund schwirrt mir da der Begriff "Cell-Reloaded" durch den Kopf, und das ist nichts positives ;)

del_4901
2015-01-11, 10:17:11
Wieviel Schreibzyklen hat denn ein FPGA, soviel war dass doch auch nicht, damit jedes Game da seine Extras machen kann?

Skysnake
2015-01-11, 10:42:13
Schreibzyklen FPGA?:confused:

Noch nie von gehört. An sich wird ja, wenn ich das jetzt nicht falsch in Erinnerung habe, bei jedem "boot" Vorgang aus dem ROM alles komplett neu ausgelesen. Wenn kann sich der ROM abnutzen, aber bei der Verweundung in nem SOC könnte man die Daten ja auch von der Platte lesen.

Demirug
2015-01-11, 11:45:08
Schreibzyklen FPGA?:confused:

Noch nie von gehört. An sich wird ja, wenn ich das jetzt nicht falsch in Erinnerung habe, bei jedem "boot" Vorgang aus dem ROM alles komplett neu ausgelesen. Wenn kann sich der ROM abnutzen, aber bei der Verweundung in nem SOC könnte man die Daten ja auch von der Platte lesen.

Ja. Entwicklungskits benutzen gerne SD-Cards dafür.

Was das Programmieren angeht so kann man für Streamprocessing (das wäre für Spiele ja am interessantestem) durchaus auch in C programmieren. Abhängig von der Größe des FPGAs könnte man dann damit zum Beispiel Postprocessing Shader auf einen Takt pro Pixel bringen.

Ich sehe aber ein ganz anderes Problem. Aktuelle FPGAs brauchen relative lange zum konfigurieren. Das wiederum bedeutet das man das "Programm" nicht ständig dynamisch ändern kann. Entsprechenden bräuchte man einen sehr großen FPGA oder müsste sich auf sehr wenige oder gar eine einzige Funktion beschränken.

Skysnake
2015-01-11, 13:03:23
Jup, das mit dem Postprocessing ist wohl die sinnvollste Idee.

Denn wie du schon sagst, umprogrammieren dauert seine Zeit, wobei das auch immer so ne Sache ist. FPGAs sind riesen Dinger zum Teil, dass das dann natürlich ne Weile dauert, sollte klar sein. Auf der anderen Seite wird aber nur selten/gar nicht eine Teilconfiguration genutzt, sondern immer der gesamte FPGA reconfiguriert. Dabei geht das mit der Reconfiguration, sogar zur Laufzeit heutzutage. Das lassen sich die Hersteller nur meines Wissens nach ziemlich vergolden...

Spielt aber im Grunde keine Rolle. Man muss jede, aber auch wirklich jede Änderung durchs Placement&Route jagen, und dann auch noch prüfen, ob man eine Timeingclosure hat. Wenn nicht, muss man dran drehen, und wenn man mehr Perf haben will als es einfach durch die CPU/GPU zu jagen, wird man drehen müssen.

Die Idee mit dem C-Style ist ja auch ganz nett, dazu gab es ja auch einige Ansätze schon, aber keine hat sich wirklich durchgesetzt. Da war wohl einfach keine groß genügende Basis da, die das massiv gepushed hat. Es ist einfach gar nicht so einfach, da SDKs zu entwickeln, die einem die Arbeit abnehmen.

00-Schneider
2015-01-11, 13:29:13
Die Realität ist wohl so, dass auch die nächste Generation Konsolen in etwa mit einem heute gängigen GamerPC mithalten wird


Was stand jetzt 4-5TF GPU Leistung bedeuten würde. Da die neuen Konsolen schätzungsweise erst 2020 kommen, fände ich 4-5TF GPU Leistung dann doch arg wenig.

drkohler
2015-01-12, 04:17:14
Was stand jetzt 4-5TF GPU Leistung bedeuten würde. Da die neuen Konsolen schätzungsweise erst 2020 kommen, fände ich 4-5TF GPU Leistung dann doch arg wenig.Schwierig vorherzusagen, was als Nächstes wann kommt. Ob sich die beiden Konsolen wirklich noch sechs Jahre durchmogeln können? Werden die Konsolen der Zukunft nur noch kleine Kästchen sein, die hinten an der Cloud hängen und vorne an der VR Brille? Wenn nein, wann wird 16nm bezahlbar für Konsolenhersteller, oder verliert einer der Hersteller vorher die Nerven? Kommt noch ein Querschläger hinzu ins Konsolengeschäft?
So viele Fragen, so wenige Anhaltspunkte...

Gipsel
2015-01-12, 10:22:57
Hatten wir die FPGA-Diskussion nicht schon vor ein paar Jahren für die aktuelle Generation, weil irgendwer das als "secret sauce" für XB1 oder PS4 (kann mich nicht mehr genau dran erinnern) postuliert hat?

Die grundsätzlichen Überlegungen dazu haben sich meiner Meinung seitdem nicht geändert: Es hat damals keinen Sinn gemacht, es ergibt jetzt auch keinen Sinn und wird es vermutlich in 5 Jahren ebenfalls nicht tun.

Eher packt man irgendwann in irgendwelchen <10nm Prozessen Unmengen an spezialisierten fixed function Kram drauf (der ist typischerweise sehr energieeffizient, deutlich besser als FPGAs, wo man für die Rekonfigurierbarkeit einen ziemlich hohen Preis [auch Diefläche] bezahlt), um das dark Silicon Problem anzugehen. Zumindest wenn man zukünftig die Produktionskosten pro Transistor in den Griff bekommen sollte und die zukünftigen Chips nicht immer kleiner werden, um bezahlbar zu bleiben.

RLZ
2015-01-12, 10:37:44
Werden die Konsolen der Zukunft nur noch kleine Kästchen sein, die hinten an der Cloud hängen und vorne an der VR Brille?
Stand heute ist, dass wir lokal am PC kaum in der Lage sind die Latenz weit genug zu drücken.
Der Glaube, dass wir die Physik soweit überlisten können, um das Problem mit einer per WLAN angebundenen Konsole über Streaming besser lösen können, fehlt mir komplett.

Sven77
2015-01-12, 10:41:23
Jup, da muss was passieren.. das DK2 ist für mich in jeglicher Sicht unbrauchbar. Natürlich ist es nur ein Developer Kit, aber mir fehlt der Glaube das der Sprung zu der ersten Consumer-Variante so gross sein wird. Für mich ist VR momentan eine Seifenblase..

HOT
2015-01-12, 11:57:30
eDRAM und so ein Krempel wird verschwinden, stattdessen sind die nächsten Konsolen-SoCs sowieso mit Stacked-RAM ausgestattet in irgendeiner Form. Zudem wird man weiterhin auf Standardhardware bleiben und es wird weiterhin wichtig sein, mehr auf den SoC zu bekommen, also auch IVR und RAM. Eine plausible Variante wär eine potenzielle Konsole Ende 2017 mit 8 Zen oder K12-Kernen in 20nm FinFET und Post-GCN-Grafik mit 16 GB HBM und IVR als SoC. So simpel und leistungsfähig wie möglich eben. Astronomischer RAM-Ausbau ist nicht zu erwarten, dafür gibts PCs. Und da AMD schlicht die meiste Erfahrung mit sowas hat wirds auch bei AMD als Auftragsfertiger für Sony/Nintendo bleiben.
UHD-Grafik kann man sicherlich absolut vergessen bei der nächsten Generation, das wird nur der Videodecoder können. Die nächste Generation unterstützt mMn ganz normal Full-HD (diesmal wirklich). UHD und die dazu passenden Speichermengen bleiben dem PC vorbehalten.

Ob Microsoft noch mal ne Konsole macht steht mMn in den Sternen. Ob da noch was eigenes kommt, oder als Lizenzmodell oder gar nicht und man nur noch auf Windows10 setzt, wird sich zeigen. Denkbar wäre auch, dass PC-Hersteller auf die Idee kommen sich Custom-SoCs für ihre OEM-Ware entwickeln zu lassen. Grade für Apple wär sowas sehr interessant mMn. Da wird sich sehr viel ändern u.U. in den nächsten Jahren. Die Grenzen zwischen Konsolen und PCs verschwimmen noch weiter.

DinosaurusRex
2015-01-12, 12:03:28
Ich bin ja mal gespannt, wann das vielfach angepriesene Foveated Rendering praxisreif ist. Das ist ein Verfahren, bei dem die Bewegung des Auges mit entsprechender Sensorik verfolgt wird und sich die Berechnungen dann nur auf 2° des Sichtfelds beschränken.

http://abload.de/img/speedupvciw3.png
Microsoft Research (http://research.microsoft.com/apps/pubs/default.aspx?id=176610)

http://upload.wikimedia.org/wikipedia/commons/thumb/2/27/AcuityHumanEye.svg/270px-AcuityHumanEye.svg.png

Grundsätzlich gibt es zwei Typen von Augenbewegungen: Sogenanntes Smooth Pursuit (http://en.wikipedia.org/wiki/Smooth_pursuit) (etwa 30°/s) und sogenannte Saccades (http://en.wikipedia.org/wiki/Saccade) (bis zu 800°/s). Ein VR-Gerät das auf Foveated Rendering setzt, würde das Bild blurren, sobald eine Saccade registriert wird. Grundsätzlich würde eye-relative Motion Blur Temporal Aliasing-Artefakte mit sehr hoher Effizienz bekämpfen (bspw. Strobing, Wagon Wheel, Chronostasis, ...). Smooth Pursuit benötigt hingegen eine rasiermesserscharfe Darstellung. Die Sensorik muss dementsprechend nur schnell genug sein für letzteres und das ist bereits heute möglich, bspw in dieser Demo von Sony Computer Entertainment:

kKYr9MaZw3I

Als Tracking Device wird dabei das SensoMotoric Eye Tracking System (http://www.smivision.com/en/gaze-and-eye-tracking-systems/products/red-red250-red-500.html) eingesetzt.

Das größte Problem ist jetzt natürlich, dass du diese Sensorik in das VR-Headset einbauen musst, aber früher oder später wird das wohl klappen. Diese Technik böte auch für das Gameplay eine ganze Menge Möglichkeiten, etwa wenn man einem weiblichen NPC auf den Arsch glotzt und der dann entsprechend reagiert. Oder aber auch für die Darstellung von Interface-Elementen.

Eine Möglichkeit der praktischen Umsetzung wäre zum Beispiel ein Virtual Retina Display mit Beamsplitter (https://www.google.com/patents/WO1999036826A1?cl=en).

Hier gibts auch ein paar Infos von DICEs Johan Andersson zu diesem Thema:

<iframe frameborder="0" width="480" height="270" src="//www.dailymotion.com/embed/video/x1ehtw4" allowfullscreen></iframe><br /><a href="http://www.dailymotion.com/video/x1ehtw4_johan-andersson-foveated-rendering_tech" target="_blank">Johan Andersson - foveated rendering.</a> <i>von <a href="http://www.dailymotion.com/dubee1" target="_blank">dubee1</a></i>

Hatten wir die FPGA-Diskussion nicht schon vor ein paar Jahren für die aktuelle Generation, weil irgendwer das als "secret sauce" für XB1 oder PS4 (kann mich nicht mehr genau dran erinnern) postuliert hat?

Secret Sauce war der eSRAM. Der Audioblock der Xbox One wurde als FPGA fehlgedeutet.

Botcruscher
2015-01-12, 12:20:33
Ich bin ja mal gespannt, wann das vielfach angepriesene Foveated Rendering praxisreif ist. Das ist ein Verfahren, bei dem die Bewegung des Auges mit entsprechender Sensorik verfolgt wird und sich die Berechnungen dann nur auf 2° des Sichtfelds beschränken.

Ich hab den Abstract gelesen und laut gelacht. Wenn der Mensch nur die 2° sehen könnte, dann hätte die Natur nicht so viel Leistung auf 160° verbraten. Mit der Latenz des Systems und einem "festen" Hintergrund wird das ganz großes Kotzkino. PS: Die reden das wirklich von 1080p. 4K aufwärts im Zentrum und 1080 im Außenbereich wären da gleich viel besser. So eine Art variable dbi. Auf Augenverfolgung kann dann ganz verzichtet werden.

DinosaurusRex
2015-01-12, 12:22:42
Ich hab den Abstract gelesen und laut gelacht. Wenn der Mensch nur die 2° sehen könnte, dann hätte die Natur nicht so viel Leistung auf 160° verbraten. Mit der Latenz des Systems und einem "festen" Hintergrund wird das ganz großes Kotzkino.

Es geht darum, wieviel der Mensch scharf sehen kann.

---

Der 3D-Effekt würde durch so eine Technik auch "lebensecht" werden:

True 3D Displays (http://www.hitl.washington.edu/research/true3d/)

http://www.hitl.washington.edu/research/true3d/sarah-vrd-small.jpg

Hier gibts noch ein Video von der SIGGRAPH 2012 zu dem Thema: Foveated 3D Graphics (http://msrvideo.vo.msecnd.net/rmcvideos/173013/dl/173013.mp4)

---

Mal angenommen die kriegen das in einer Consumer VR Headset gestopft, dann wäre VR für jegliche Konsolen ein Kinderspiel und das bei richtig, richtig guter Grafik.

Wie ließe sich denn sowas mit so einem zuvor angesprochenen Raytracer kombinieren? Für Hollywood CGI-Qualität benötigt man irgendwas um die 18 bis 36 Strahlen pro Pixel und das pro Sekunde. Könnte man dem Raytracer sagen, dass er diese Menge auf den Foveated-Bereich ballern soll und auf die peripheren Bereiche entsprechend weniger?

Nakai
2015-01-12, 12:40:04
eDRAM und so ein Krempel wird verschwinden, stattdessen sind die nächsten Konsolen-SoCs sowieso mit Stacked-RAM ausgestattet in irgendeiner Form. Zudem wird man weiterhin auf Standardhardware bleiben und es wird weiterhin wichtig sein, mehr auf den SoC zu bekommen, also auch IVR und RAM. Eine plausible Variante wär eine potenzielle Konsole Ende 2017 mit 8 Zen oder K12-Kernen in 20nm FinFET und Post-GCN-Grafik mit 16 GB HBM und IVR als SoC. So simpel und leistungsfähig wie möglich eben. Astronomischer RAM-Ausbau ist nicht zu erwarten, dafür gibts PCs. Und da AMD schlicht die meiste Erfahrung mit sowas hat wirds auch bei AMD als Auftragsfertiger für Sony/Nintendo bleiben.

Es wird eher ARM werden, als X86.

Speicher ist immer eine Sache. Am Speicher kann man sparen, selbst MS hats bei der XBO versucht, indem man nur DDR3-Ram eingebaut bzw. damit konzipiert wurde. Heterogene Speichersysteme werden in Zukunft auch interessanter werden. Siehe AMD PIM, Intels Xeon PHI aka Knights Landing. Natürlich würde es das Design verkomplizieren...

Botcruscher
2015-01-12, 13:09:11
Es geht darum, wieviel der Mensch scharf sehen kann.

Das löst dir keines der Probleme von Eyetracking. Die Technik ist einfach viel zur langsam und wird es vermutlich immer sein. Mit der Leistung die man da verballert kann dann gleich ein richtiges Bild gerechnet werden. Jede Latenz im ms Bereich ist "zum kotzen". Normales VR scheitert ja schon an Kopfbewegungen.

Es wird eher ARM werden, als X86.
Ich wette dagegen. ARM bringt dir in einer 100W+ Konsole keine Vorteile aber einen ganzen Sack voll Nachteile. Gleiches beim Speicher. Da kommt ein großer HBM.
Der Weg von MS hat nur Nachteile. Dazu kostet jede Entwicklerstunde richtig Geld.

HOT
2015-01-12, 13:19:15
Es wird eher ARM werden, als X86.

Speicher ist immer eine Sache. Am Speicher kann man sparen, selbst MS hats bei der XBO versucht, indem man nur DDR3-Ram eingebaut bzw. damit konzipiert wurde. Heterogene Speichersysteme werden in Zukunft auch interessanter werden. Siehe AMD PIM, Intels Xeon PHI aka Knights Landing. Natürlich würde es das Design verkomplizieren...
Deswegen steht da auch K12 ;). Außerdem ist das ganz und gar nicht selbstverständlich, dass die eher ARM nehmen. Das wird an etlichen Faktoren hängen, ob Zen oder K12 zum Einsatz kommt für die Konsolen.
Da HBM ja günstiger als normaler Speicher ist, ist diese Frage eh akademisch. Das versteht sich von selbst. Da gibts nix zu sparen.

RLZ
2015-01-12, 13:30:07
Für Hollywood CGI-Qualität benötigt man irgendwas um die 18 bis 36 Strahlen pro Pixel und das pro Sekunde.
Nope.
Mit 18 Strahlen pro Pixel pro FRAME kannst du schon nicht wirklich viel anfangen. Mit einer Null hinten dran könnte man langsam anfangen drüber zu diskutieren

Könnte man dem Raytracer sagen, dass er diese Menge auf den Foveated-Bereich ballern soll und auf die peripheren Bereiche entsprechend weniger?
So einfach ist es nicht. Das würde sich zu Tode flimmern.

DinosaurusRex
2015-01-12, 13:39:22
Die Technik ist einfach viel zur langsam und wird es vermutlich immer sein.

Das Tracking-Teil aus der SCE Infamous Demo hat eine Latenz von <4ms.

Nope.
Mit 18 Strahlen pro Pixel pro FRAME kannst du schon nicht wirklich viel anfangen. Mit einer Null hinten dran könnte man langsam anfangen drüber zu diskutieren


Die Zahlen waren eh falsch, es müsste eigentlich 16 bis 32 Strahlen per Pixel heißen und das gilt nicht pro Sekunde, sondern du musst das dann mit deiner angestrebten Framerate multiplizieren. Die Angaben stammen von James McCombe, dem Director of Research bei Imagination Technologies. Der PowerVR Raytracer (wohlgemerkt für mobile Geräte) schafft zwischen 3 und 5 Strahlen per Pixel bei 1080p und 30Hz.

Quelle (http://techreport.com/news/26178/powervr-wizard-brings-ray-tracing-to-real-time-graphics)


So einfach ist es nicht. Das würde sich zu Tode flimmern.


Kann man das nicht einfach weg-blurren?

Sven77
2015-01-12, 13:41:55
Nope.
Mit 18 Strahlen pro Pixel pro FRAME kannst du schon nicht wirklich viel anfangen. Mit einer Null hinten dran könnte man langsam anfangen drüber zu diskutieren


So einfach ist es nicht. Das würde sich zu Tode flimmern.

Jup

im Anhang mal ein Setting mit dem ich Previews für Kunden rendere.. immer mit dem Disclaimer das es so nicht final aussehen wird.

http://abload.de/img/raytrace8duuy.png

RLZ
2015-01-12, 13:43:01
Die Angaben stammen von James McCombe, dem Director of Research bei Imagination Technologies.
Der Interesse hat sein eigenes Produkt zu vermarkten. Von mir aus kann auch der Papst drüber reden. Der soll von himmlischen Strahlen ja auch Ahnung haben.

Lass dich einfach nicht von einem Raytracing Hype anstecken. Die Sau wird alle 2-3 Jahre durchs Dorf getrieben seit bestimmt 20 Jahren.

Kann man das nicht einfach weg-blurren?
Nein

DinosaurusRex
2015-01-12, 13:51:16
Lass dich einfach nicht von einem Raytracing Hype anstecken. Die Sau wird alle 2-3 Jahre durchs Dorf getrieben seit bestimmt 20 Jahren.


Hmm okay, aber hier geht es ja nicht um die selbe Sau, oder? Dieses Hybrid-Gedöns ist doch neu. Es ist ja weiterhin Rastergrafik.

Und rein zufälligerweise will Eurogamer in Erfahrung gebracht haben, dass Nintendos Hardware-Partner für den Wii U-Nachfolger AMD und Imagination Technologies sind. Quelle (http://www.eurogamer.net/articles/digitalfoundry-2015-in-theory-nintendos-next-gen-hardware-and-the-strategy-behind-it)

https://i.imgur.com/mp5RmrI.gif

Nakai
2015-01-12, 13:52:59
Ich wette dagegen. ARM bringt dir in einer 100W+ Konsole keine Vorteile aber einen ganzen Sack voll Nachteile.

Welche?
Wenn du auf die gesamte Software-Infrastruktur anspielst, die nächste Gen ist noch ein paar Jahre entfernt. X86 ist im gesamten Mobile- und Embedded-Markt nicht wirklich präsent. Ob Spielekonsolen in der nächsten Iteration noch so aussehen, wie heute, darf bezweifelt werden.

Deswegen steht da auch K12 ;). Außerdem ist das ganz und gar nicht selbstverständlich, dass die eher ARM nehmen. Das wird an etlichen Faktoren hängen, ob Zen oder K12 zum Einsatz kommt für die Konsolen.
Da HBM ja günstiger als normaler Speicher ist, ist diese Frage eh akademisch. Das versteht sich von selbst. Da gibts nix zu sparen.

Wenn die bei AMD landen, wird es an einer Kosten-Leistungs-Relation entschieden werden. Beim Rest erwarte ich, dass es ziemlich egal sein wird.

Genauso wie beim Speicher. MS dachte wohl, dass eine ESRAM/DDR3-Kombi Vorteile hat und nette Features liefert...naja.:rolleyes:

Dass HBM billiger als normaler Speicher ist, wage ich zu bezweifeln. Eine genaue Kostenrechnung wäre hierbei interessant und zwar mit allem einbezogen(Package, PCB, Stromversorgung, etc.).

HOT
2015-01-12, 13:58:20
Hallo 2017
Früher gibt das eh nix, bis dahin ist Interposergedöns total normal und man macht es ja genau deshalb, weil es Kosten spart...

Im Gegensatz zu früher will ein Konsolenhersteller am liebsten nichts selbst entwickeln, außer der Software und der Plasikkiste. Das macht auch Sinn, weil nur ein echter Hardwarehersteller die Expertise hat, sowas günstig zu fertigen. Von daher nimmt man das Normale was da ist und keinen Exotenscheiss. Diese Zeiten sind endgültig vorbei. Ob das jetzt ARM wird oder nicht wird sich zeigen - ich glaub da nicht dran, weil x86 einfach besser für Spiele sein wird.

DinosaurusRex
2015-01-12, 14:01:20
Ist bis dahin eigentlich schon der Zen Core fertig? Weil mich würds nicht wundern, wenn die Zen und K12 in einen Konsolen-SoC stecken.

RLZ
2015-01-12, 14:03:18
Hmm okay, aber hier geht es ja nicht um die selbe Sau, oder? Dieses Hybrid-Gedöns ist doch neu.
Aber sicher ist das alt.
Die Hybrid Sau läuft immer brav nebendran her.

DinosaurusRex
2015-01-12, 14:06:39
Wenn mir Schweinchen Babe eins gelehrt hat, dann das man diese Tiere niemals unterschätzen sollte.

Coda
2015-01-12, 14:16:14
Ist das denn ein Phrasenschwein?

HOT
2015-01-12, 14:16:40
Ist bis dahin eigentlich schon der Zen Core fertig? Weil mich würds nicht wundern, wenn die Zen und K12 in einen Konsolen-SoC stecken.
Zen soll 2016 in erster Variante erscheinen. Wenn die neuen Konsolen spruchreif werden, dürften Zen und K12 schon ne ganze Weile auf dem Markt sein.

drkohler
2015-01-12, 15:24:07
Da HBM ja günstiger als normaler Speicher ist, ist diese Frage eh akademisch. Das versteht sich von selbst. Da gibts nix zu sparen.Quelle, Bitte...
4G GDDR5 Speicher das sind noch 4 Chips, die schon bald in die Massenfertigung gehen. Wenn Sony 100-200mio von Denen abnimmt pro Jahr, dann wird das wohl um die $12 kosten pro 4GB wenn's mal läuft.
Ich habe noch nirgends einen Preis für diese magischen Stacks gesehen. Ich zweifle aber extrem, dass der Preis eines 4G Stacks so klein ist, jetzt oder später. Dazu kommen dann die Kosten für den Interposer dazu, und der wird auch nicht so Ohne sein.

Knuddelbearli
2015-01-12, 15:27:57
dafür hast du aber auch ganz andere Leistungsregionen und Verdrahtungsaufwand was bei einem soc mit dicker Grafik massiv ins Gewicht fällt

DinosaurusRex
2015-01-12, 15:42:19
Aber was viel wichtiger ist:

Auf 'ner Skala von Supercharged bis Time to Triangle, wo werden sich die neuen Systeme einordnen? :confused:

HOT
2015-01-12, 16:42:52
Quelle, Bitte...
4G GDDR5 Speicher das sind noch 4 Chips, die schon bald in die Massenfertigung gehen. Wenn Sony 100-200mio von Denen abnimmt pro Jahr, dann wird das wohl um die $12 kosten pro 4GB wenn's mal läuft.
Ich habe noch nirgends einen Preis für diese magischen Stacks gesehen. Ich zweifle aber extrem, dass der Preis eines 4G Stacks so klein ist, jetzt oder später. Dazu kommen dann die Kosten für den Interposer dazu, und der wird auch nicht so Ohne sein.
Quelle für 2017? Das ist absurd. Bis dahin ist die Fertigung von dem Zeug aber schon so lange unterwegs, das wird kein Problem und kein Kostenpunkt sein. Bis dahin werden alle integrierten Systeme mit HBM laufen bei AMD, nur WS/Server-CPUs und evtl. Sockel-Desktop nicht.
Noch absurder ist es das mit GDDR5 zu vergleichen - das ist für die nächste Konsolengeneration total veraltet und keine Option mehr.

drkohler
2015-01-12, 22:47:10
Quelle für 2017?
Noch absurder ist es das mit GDDR5 zu vergleichen - das ist für die nächste Konsolengeneration total veraltet und keine Option mehr.Du hast geschrieben: "Da HBM ja günstiger als normaler Speicher ist.."
Da stand Nichts von 2017. Deshalb meine Frage nach der Preisliste von heute.

Also nochmal zum mitschreiben: Eine Konsole zu designen heisst NICHT, sich die absolut giggerigste Technologie der Zukunft zu visualisieren, die VIELLEICHT in ein paar Jahren billiger sein wird als die Technologie, die bereits HEUTE billig ist. Es geht darum, den vorhandenen Kostenrahmen einzuhalten.
Wenn du eine neue Konsole 2018 herausbringen willst, dann ist spätestens 2016 Torschluss mit der Komponentenauswahl. Dann wird auch schon die Massenware vorbestellt bei den Chipfoundries, nur so kannst du Geld sparen.

GDDR5 ist keineswegs veraltet, es ist (und ich denke das wird wahrscheinlich auch 2-3 Jahren noch so sein) die billigste Variante, sehr schnell einen Sack voll Bytes zu laden. Natürlich jubeln jetzt alle über HBM und Stacks, aber ich denke der Konsolenbau hat sich in ein Nullrisiko-Geschäft verwandelt was die Technolgie betrifft.

DinosaurusRex
2015-01-12, 22:56:24
Du gehst jetzt davon aus, dass die Konsolenhersteller einen festen Termin für die neuen Systeme bereits festgelegt hätten und auf jegliche zur Verfügung stehende Hardware zurückgreifen werden, um diesen Termin einzuhalten. Viel wahrscheinlicher ist aber doch sicher, dass der Release erst dann beschlossen wird, wenn die gewünschte Hardware verfügbar ist. Außer vielleicht bei Nintendo, weil die haben ja bekanntlicherweise einen Superflop mit der Wii U gelandet.

drkohler
2015-01-13, 03:08:59
Viel wahrscheinlicher ist aber doch sicher, dass der Release erst dann beschlossen wird, wenn die gewünschte Hardware verfügbar ist. Das wäre aber der hochriskante Weg. Natürlich verspricht jeder Hersteller, die beste Hardware zu entwickeln, das beste Spiel aller Zeiten zu erfinden in 2-3 Jahren.

Dann musst du auch definieren, was du mit "Release beschliessen" meinst.
"Release beschliessen" = Ja/Nein neue Konsole? Launch Datum? Entwicklungsstart Datum? Nächstes Hardware-Assessment Datum?

Entwickelt wird eine Konsole über mehrere Jahre hinweg, aber spätestens zwei bis drei Jahre vor Launch muss Alles definiert sein und teilweise wird auch schon HW bestellt. Wenn du erst 2020 auf den Markt kommen willst, dann kannst du jetzt erst mal prophylaktisch einige Designs auf Papier (und Papierversprechen der Chipmacher) durchrechnen und hoffen, dass dein bestes Design bezahlbar wird bis 2018.

Wer sich nicht bis 2020 durchhungern will/kann (mit einer Konsole, die schon 2016 "alt" aussehen wird), muss sich dieses Jahr entscheiden. Da braucht es sehr gute Hellseher. Ob sich Sony einen zweiten Crazy-Ken erlaubt, oder MS weiter massig Geld verlochen will, oder alle drei Konsolenhersteller konservativ denken, wird sich vielleicht schon in 1-2 Jahren zeigen.

DinosaurusRex
2015-01-13, 10:38:25
Der hochriskante Weg ist doch vielmehr deiner. Weil dann wartet die Konkurrenz flexiblerweise 12 Monate auf ihre Wunsch-Hardware und kommt plötzlich mit nem riesigen, technischen Vorsprung in die Arena und das zum selben Preis. Der Großteil kauft nicht im ersten Jahr und genau von denen holen sich dann bei gleichem Preis alle die Konsole, die bessere 3rd-party Performance abliefert. Letzte Gen war das die Xbox 360, diese Gen ist es die PS4. Und die machen doch sicher jetzt schon Testläufe mit neuer Hardware und wenn der Mr. Cerny dann sagt "Wir launchen nicht ohne soundsoviel stacked RAM, capiche?", dann werden die warten, bis das möglich ist. Genau dafür werden diese Dinge ja von Experten und nicht von BWLern entschieden. Außer natürlich da fackeln irgendwelche Fabriken ab oder Sony geht pleite oder sowas. Die Strategie wird sicher im Plenum gemeinsam entschieden, aber die ist den Ingenieuren jetzt schon bekannt (z.B. Launch immer im November, $399, etc). Das System wird von Anfang darauf zugeschnitten sein.

Sony Computer Entertainment wird eine Rekord-Gen hinlegen, die haben doch bis jetzt schon sämtliche Konsolenverkaufsrekorde durchbrochen, die man in so einem kleinen Zeitraum brechen konnte. Für die kann die Gen gar nicht spät genug enden. Microsoft hat sowieso Zeit, weil Zeit ist Geld und wenn Microsoft eines gut kann, dann ist das reich sein. Nintendo kann man schwer einschätzen. Die werden mindestens 12 Monate früher launchen als die Konkurrenz, aber wie stark das System sein wird? Nope...

Ich denke sowieso, dass Sony den Vorteil der Leadplatform hat und der wird sich darin äußern, dass in der nächsten Gen, ganz gleich was die Konkurrenz macht, sehr viele potenzielle Early Adopter warten werden und sagen "Ich schau mir erstmal die PS5 an".

HOT
2015-01-13, 13:17:47
Du hast geschrieben: "Da HBM ja günstiger als normaler Speicher ist.."
Da stand Nichts von 2017. Deshalb meine Frage nach der Preisliste von heute.

Also nochmal zum mitschreiben: Eine Konsole zu designen heisst NICHT, sich die absolut giggerigste Technologie der Zukunft zu visualisieren, die VIELLEICHT in ein paar Jahren billiger sein wird als die Technologie, die bereits HEUTE billig ist. Es geht darum, den vorhandenen Kostenrahmen einzuhalten.
Wenn du eine neue Konsole 2018 herausbringen willst, dann ist spätestens 2016 Torschluss mit der Komponentenauswahl. Dann wird auch schon die Massenware vorbestellt bei den Chipfoundries, nur so kannst du Geld sparen.

GDDR5 ist keineswegs veraltet, es ist (und ich denke das wird wahrscheinlich auch 2-3 Jahren noch so sein) die billigste Variante, sehr schnell einen Sack voll Bytes zu laden. Natürlich jubeln jetzt alle über HBM und Stacks, aber ich denke der Konsolenbau hat sich in ein Nullrisiko-Geschäft verwandelt was die Technolgie betrifft.
1.) Doch steht da, dass meine Annahme für 2017 war, da nach Quellen zu fragen bleibt absurd
2.) kann man sehr wohl kalkulieren für 2017, sonst braucht man nix entwickeln, wenn man es nicht kalkulieren kann
3.) ist 2017 GDDR5 ein veraltetes Nischenprodukt...

halten wir mal fest, sollte 2017 eine PS5 erscheinen,
- wird HBM (2,5D) absoluter Standardspeicher für embedded-Systeme sein
- wird man ganz sicher nirgendwo mehr GDDR5 verwenden, höchstens DDR4, wenn man Speichersockel braucht
- wird man aus Kostengründen einen Interposerträger mit IVR und integriertem Speicher bauen, damit man alles aus einer Hand gefertigt bekommt, was man nur noch billigst auf eine Platine löten muss.

DinosaurusRex
2015-01-13, 16:38:51
Was ich übrigens auch denke ist das die Konsolenhersteller, zumindest Microsoft und Sony, sehr genau wissen, bis wann es auf keinen Fall zum Release eines neuen Systems kommen wird und das werden die sicher auch an die 3rd Parties weitergeben, falls sie es noch nicht getan haben. Ich glaube dieser Punkt ist von allerhöchster Bedeutung, denn es geht darum, dass die Software-Partner Planungssicherheit haben. Irgendwann wird dann sicher Torschluss sein, also der Point of no Return für teure Produktionen (ohne next-gen Port).

Guest83
2015-01-13, 17:25:18
Gabs eigentlich einen ähnlichen Thread bei der letzten Konsolengeneration hier im Forum? Wäre sicher lustig die damaligen Vermutungen der User hier nachzulesen.

M4xw0lf
2015-01-13, 17:30:12
Na logo - nimm einfach ein "next" weg bei der Suche ;)

DinosaurusRex
2015-01-13, 17:36:34
Da wird man sicher die ganze Zeit lesen "Mehr als 4GB RAM? Träum weiter! Wer soll das bezahlen?".

M4xw0lf
2015-01-13, 17:47:43
Leider ist der Thread erst Anfang 2013 wirklich in Gang gekommen, als schon sehr zutreffende Gerüchte im Umlauf waren.

RLZ
2015-01-13, 19:31:06
... und das werden die sicher auch an die 3rd Parties weitergeben, falls sie es noch nicht getan haben.
Da hast du falsche Vorstellungen. Falls 3rd Party Publisher/Studios eingeweiht werden, sind es auf jeden Fall sehr sehr wenig.

DinosaurusRex
2015-01-14, 08:49:42
Ich denke doch. Nur weil solche Informationen nicht runter bis zur Klofrau kommuniziert werden, heißt das nicht, dass sie überhaupt nicht kommuniziert werden. Und die Personen, die Bescheid wissen, unterliegen mit Sicherheit auch einem NDA.

tobor
2015-01-14, 10:52:03
Was stand jetzt 4-5TF GPU Leistung bedeuten würde. Da die neuen Konsolen schätzungsweise erst 2020 kommen, fände ich 4-5TF GPU Leistung dann doch arg wenig.

Das wäre lächerlich wenig. 10-20 TF sollten möglich sein,zumal die jetzigen Kisten alles andere als Highend sind.

mboeller
2015-01-14, 12:55:55
Das wäre lächerlich wenig. 10-20 TF sollten möglich sein,zumal die jetzigen Kisten alles andere als Highend sind.

Wie soll das gehen?

In 4-5 Jahren ist vielleicht gerade einmal die 10nm Technologie im Einsatz. Der Fortschritt pro Jahr ist ja momentan nicht so toll.

Also nur 1 Technologiestufe besser als 14nm (=20nm + Finfet).

Finfet bringen 50-60% mehr Leistung pro Watt gegenüber 28nm; 10nm also wahrscheinlich nur eine Verdoppelung gegenüber 28nm. (28nm auf 20nm ergab auch nur +30% ohne die Finfets)

Wie willst du dann 10-20TF kühlen wenn heute noch nicht einmal die Highend-GPUs das leisten und dabei bis zu 300W verbraten?

Die einzige Möglichkeit um das Leistung/Watt Verhältnis zu verbessern ist es in die Breite zu gehen bei gleichzeitig reduzierten Frequenzen. Also statt ~300mm² Die's, ~500mm² Dies für die APU. Aber das will niemand bezahlen. Denn dann bist du wieder bei 600,- Euro für die Konsole und bei solchen Preisen verkaufen sich die Konsolen nicht gut wie man bei der PS3 gesehen hat.

und damit wir uns nicht misverstehen, das hier war mein Vorschlag für eine optimale PS4 (vor allem der BluRay-Player wäre cool :) ):
https://forum.beyond3d.com/threads/design-a-console-with-better-specs-than-ps4-and-xbone-constraints-apply.54277/page-3#post-1737724

Ich kann also gut verstehen wenn man vom momentanen "Fortschritt" ein wenig gefrustet ist.

DinosaurusRex
2015-01-14, 13:19:27
8 Jaguar Kerne mit 3,2 GHz? 1,2 GHz GPU-Takt? Das wären katastrophale Yield-Raten gewesen... ;)

HOT
2015-01-14, 14:34:26
Da wird man sicher die ganze Zeit lesen "Mehr als 4GB RAM? Träum weiter! Wer soll das bezahlen?".
Hätte sich bei der PS4 ja auch beinahe bewahrheitet.

Ich denke doch. Nur weil solche Informationen nicht runter bis zur Klofrau kommuniziert werden, heißt das nicht, dass sie überhaupt nicht kommuniziert werden. Und die Personen, die Bescheid wissen, unterliegen mit Sicherheit auch einem NDA.
Das ist für die CPU absolut nicht nötig. Zwar wär ein bisschen mehr ALU-Leistung bei Jaguar nett gewesen, aber diese monströse FP-Leistung kannst du in Spielen gar nicht umsetzen, zumal du für sowas auch einfach HSA nutzen könntest (wir reden ja von frühestens 2017).
Es wäre für die nächste Konsole in der Tat besser, wenn man zwar wieder 8 Kerne verwenden würde, diesmal mit deutlich mehr IPC pro Takt und Kern, um bei ca. 2GHz bleiben zu können, damit die Leistungsaufnahme im Rahmen bleibt (damit wär ARM dann auch wieder draußen übrigens). Wie sprechen hier von 20nm FinFET wohlgemerkt (Bei TSMC 16nm genannt und bei GloFo/Samsung 14nm), bis die Foundries bei echten 14nm sind (nennen GloFo und TSMC ja 10nm), wird sicherlich noch locker bis 2018 vergehen und man wird Konsolen SoCs nicht auf unfertige und noch teurere Fertigungsverfahren designen wollen. Also wird man für CPUs sicherlich ca. 40%-60% mehr Leistung pro Watt zum heutigen Standard 28nm draufrechnen können, alles darüber wär total unrealistisch.

mboeller
2015-01-14, 14:47:05
8 Jaguar Kerne mit 3,2 GHz? 1,2 GHz GPU-Takt? Das wären katastrophale Yield-Raten gewesen... ;)

Sicher, aber das Ziel des Threads war es ein Traumsystem zusammenzustellen. Die Jaguar hätten dafür dann sogar von GF in 32nm kommen müssen, also völlig abwegig. Aber als Phantasie doch ganz nett. :)

HOT
2015-01-14, 14:50:38
28nm SHP/A/HPP kann 3GHz locker. Das Design kanns nicht, 32nm wär da total kontraproduktiv gewesen, will heißen, höhere Spannungen nötig.

Locuza
2015-01-14, 15:07:12
Es wäre für die nächste Konsole in der Tat besser, wenn man zwar wieder 8 Kerne verwenden würde, diesmal mit deutlich mehr IPC pro Takt und Kern, um bei ca. 2GHz bleiben zu können, damit die Leistungsaufnahme im Rahmen bleibt (damit wär ARM dann auch wieder draußen übrigens).
Wieso wäre ARM draußen?


Wie sprechen hier von 20nm FinFET wohlgemerkt (Bei TSMC 16nm genannt und bei GloFo/Samsung 14nm), bis die Foundries bei echten 14nm sind (nennen GloFo und TSMC ja 10nm), wird sicherlich noch locker bis 2018 vergehen
20nm FinFET ist auch eine falsche Ausdrucksweise dafür, besonders bei Samsungs Prozess.
Auch die 10nm die das technische Marketing nennt, werden keine "echten" 14nm sein.

mboeller
2015-01-14, 15:33:49
28nm SHP/A/HPP kann 3GHz locker. Das Design kanns nicht, 32nm wär da total kontraproduktiv gewesen, will heißen, höhere Spannungen nötig.

2012? eher nicht. :)

DinosaurusRex
2015-01-14, 15:46:26
Wieso wäre ARM draußen?


War da nicht irgendwas mit dem Decoder, der bei x86 deutlich leistungsfähiger ist als bei ARM und deswegen die IPC idR höher ist? Oder sowas in die Richtung...

Locuza
2015-01-14, 15:49:33
War da nicht irgendwas mit dem Decoder, der bei x86 deutlich leistungsfähiger ist als bei ARM und deswegen die IPC idR höher ist? Oder sowas in die Richtung...
Nein.
Der Decoder bei x86 ist ISA bedingt komplexer als bei ARM.
Das führt aber nicht zu einer höheren IPC.

mboeller
2015-01-14, 16:12:47
Nein.
Der Decoder bei x86 ist ISA bedingt komplexer als bei ARM.
Das führt aber nicht zu einer höheren IPC.

Wenn du dem Vergleich hier glauben schenken willst dann haben die X86-Cores aber schon eine höhere IPC. Ob das aber auch für die Jaguar-Kerne zutrifft weiß ich nicht:

http://www.heise.de/newsticker/meldung/VISC-Ein-virtueller-Single-Core-Prozessor-2435023.html

Und bei den A57-Kernen verschiebt sich das Bild weiter. Die sollen laut ARM ja bis zu 50% schneller sein als die A15 (im gleichen Prozess, soweit ich mich erinnere)

Locuza
2015-01-14, 16:25:57
x86 Atom (Welcher?) IPC in dem Test = 0.69
x86 Haswell = 1.39

ARM A15 = 0.71
ARM A57 = 0.87 (+22% gegenüber A15)
Apple A7 = 1.0

Du kannst dir sicher vorstellen, dass Jaguar jedenfalls deutlich unter Haswell landen wird.
(Die ganzen Werte sind aber allgemein natürlich nicht sonderlich realitätsnah)

Letztendlich diktiert weder die ARM ISA noch x86, welches Niveau man grob erreichen kann.
Entsprechend lässt sich für die Next-Gen nicht ausschließen, welche ISA verwendet wird, wenn man nur auf die Leistungsdaten schauen möchte.

Gipsel
2015-01-14, 17:40:31
Zusätzlich zu den bereits genannten Punkten, muß man beim Vergleich von IPC-Werten in bestimmten Benchmarks*) auch konstatieren, daß es Probleme geben kann, die Anzahl der Instruktionen vergleichbar zu zählen. So benötigen RISC-Architekturen (ARM ist RISCy) meist mehr Instruktionen um eine Aufgabe zu erledigen als die CISC-x86er. Eine x86er-Instruktion ist zumeist mehr wert als eine RISC-Instruktion (prominentes Beispiel sind die Speicheroperanden, die es x86er-CPUs oft ermöglichen, eine getrennte load-Instruktion zu vermeiden). Andererseits berherrschen die ARMs ein paar Tricks (wie conditional execution), die wiederum in einigen Situationen Instruktionen einsparen können. Will sagen: einfach nur die verschiedenen Instruktionen zählen muß nicht immer ein 100% aussagekräftiges Bild ergeben.

*):
Nur so macht es überhaupt Sinn. Allgemein läßt sich kaum ein durchschnittlicher IPC-Wert für einen Prozessor angeben, da das viel zu sehr vom Code selber abhängt. So eine Angabe benötigt also zwingend auch die Angabe des zur Messung benutzen Codes.

tobor
2015-01-15, 14:24:12
Woher kam eigentlich dieser Optimus von Nvidia vor ein paar Jahren?
http://www.pcworld.idg.com.au/article/410230/nvidia_gaming_systems_reach_tens_teraflops_by_2019/

Marketinggewäsch? Oder die Entwicklung bei den Fertigungsverfahren überschätzt?

Skysnake
2015-01-15, 18:36:48
Wieso, bis 2019 ist noch ne menge Zeit. Aktuell ist man ja schon bei was warns? 5 TFlop/s bei ~200W. So 40 TFlop/s sollten durchaus drin sein bis 2019, und wenns nur 20 werden ists auch ok.

2phil4u
2015-01-16, 15:36:20
Gibts überhaupt schon irgendwelche Pläne für die nächste Generation.
Ich denke man wird noch sehr lange an den aktuellen Konsolen hängen, so lange keine wirklich neue bezahlbare Technik bereitsteht.
Durch die teure Fertigung wirds immer schwerer, wenn endlich mal neue Belichtungsverfahren (EUV, nanoprint) etc marktreif sind, wird viel passieren.
Mich würde ja mal interessieren, wie stark die Designbeschränkungen die Leistung derzeit drosseln, man muss sich mal vorstellen, die arbeiten mit Licht über 100 nm, um 14 nm herzustellen.
Sollte klar sein, dass die Qualität richtig mies ist, würde man das ganze unter ein Elektronenmikroskop legen würde man sicher üble Fehler und komische Geometrien erkennen, ich informier mich öfters mal über EUV, aber selbst das ist ja schon wieder zu gross, am besten wäre natürlich EUV mit 3 nm Wellenlänge.
Ich glaube schon, dass es irgendwann mal wieder einen richtigen Sprung geben wird, aber ich glaube das geht noch mindestens 4 Jahre, wenn nicht 10 Jahre.

IC3M@N FX
2015-01-16, 16:04:18
Ich glaube Sony/Microsoft werden sich wohl erst nächstes Jahr über ein Nachfolger Gedanken machen in Sachen sammeln von Ideen erstmal. Sie sammeln jetzt Feedback was jetzt demnächst gewünscht ist/wird, was machbar ist nach ihren Kommerziellen Zielen z.b VR und Social/Gaming Network in der aktuellen Generation.Danach wird bestimmt 2-3 Jahre lang durch eine kleine Abteilung geforscht über ne neue Konsole die dann Ende 2019 rauskommt. Abgesehen davon die sind noch lange nicht an der grenze ihrer Konsolen angelangt, durch Freischaltung eines zusätzlichen Kerns für Games und mehr Arbeitspeicher für Spiele freigeben kann man sicher mehr Hardware Power rausholen. Durch neue Firmware/Treiber Updates und neue SDK/Tools wird es auch effizienter Ressourcen zu verteilen.

DinosaurusRex
2015-01-16, 17:46:11
Irgendwer von Sony, keine Ahnung, Yoshida, Cerny oder House, hat letztes Jahr in einem Interview gesagt, dass die Entwicklung des neuen Systems unmittelbar nach dem Launch der PS4 gestartet ist. Ich denke bei der Konkurrenz läuft es nicht anders.

Und speziell bei PlayStation fiel im Hinblick auf die next-gen Hardware immer mal wieder der Name Ken Kutaragi. Der wird beim Design des neuen Systems wohl irgendwie eine beratende Rolle einnehmen oder sowas. Mark Cerny ist ja eher ein Software-Typ und der hatte ja mehrfach angedeutet, dass Kutaragi Ziehvater und Nemesis in einem für ihn gewesen ist.

Time to Triangle in allen Ehren, aber eine kleine Prise Kutaragi-Wahnsinn wäre für ein geschlossenes System sicher cool. Den Programmierern dürfte hingegen ein kalter Schauer über den Rücken laufen, wenn sie diesen Namen hören.

dildo4u
2015-01-16, 17:56:27
Die Große Frage ist ob 2019 32GB als Stacked Ram für 400€ machbar sind,Bandbreite scheint mir die größte Hürde,da Boards mit 384 oder 512 Bit zu schlecht nach unten skalieren wenn man dass Ding später für 200€ verkaufen will.Wobei 32GB vielleicht nicht reichen von PS3 zur PS4 wurde der Ram ja versechzehnfacht.

DinosaurusRex
2015-01-16, 18:06:13
Es reicht ja eigentlich, wenn ein kleiner Pool richtig krasse Bandbreiten und Latenzen hat. Ich meine mich an eine Präsentation eines SCE-Ingenieurs zu erinnern, in dem diese Herangehensweise als die perfekte Lösung für 3D, VR und holographische Displays angegeben wurde, eben weil auch die Latenz eine wichtige Rolle spielt. Der hat aber auch gesagt, dass sowas schwer zu kühlen ist und die Yields nicht optimal sind. Cerny hingegen hatte argumentiert, dass sowas die Entwickler vor zu große Probleme stellt.

Deinorius
2015-01-17, 18:06:55
Eine weitere Versechszehnfachung vom RAM? Die Regel dürfte ab dieser Generation wohl ungültig sein. Selbst die 32 GB müssen sich erstmal über die Jahre bewahrheiten.
Wer kann schon garantieren, dass die Standardauflösung in den nächsten Jahren auf 4K ansteigt? Die Grafikqualität möchte ja auch verbessert werden.

Botcruscher
2015-01-17, 20:06:28
Bei 16/32GB dürfte erst mal lange eine Grenze sein. Bedarf besteht bei brachialer Rohleistung für mehr Auflösung. Wobei sich schnell die Frage nach der Umsetzung in entsprechende Spiele stellt.

Slashman
2015-01-17, 22:34:45
Eine weitere Versechszehnfachung vom RAM? Die Regel dürfte ab dieser Generation wohl ungültig sein. Selbst die 32 GB müssen sich erstmal über die Jahre bewahrheiten.
Wer kann schon garantieren, dass die Standardauflösung in den nächsten Jahren auf 4K ansteigt? Die Grafikqualität möchte ja auch verbessert werden.
Von PS1 zu PS2 zu PS3 zu PS4 waren es immer 12-16x mehr RAM nix mit 10x^^.

4K wird standard nur nicht so schnell wie einst HD (720p/1080p/i) oder eben DVD. Schon jetzt gibt es TVs, Monitore, Notebooks mit 4K Displays. Und bis 2019 (mögliche Vorstellung der PS5 mit 2020 Release) ist es noch lange genug bis es viele Menschen im Haus haben.

Die PS5 wird dann nicht 4K als minimum Anforderung haben. Sie wird noch immer an normalen HD TVs laufen. Jedoch wird sie bestimmt 4K Unterstützen können.

Und ich glaube kaum das die PS5 nur 32 GB RAM haben wird. Das ist ja jetzt schon nix besonderes außer es wären 32 GB HBM Memory mit 1TB/s Leistung.
Frage an euch welche Texturauflösung wird momentan in Spielen werwendet?
Meine Einschätzung ist 2048 x 2048 und stellenweise 4096 x 4096? Man hat noch immer Spiele die nicht TOP Texturen nutzen wo man die Pixel kaum erkennt. Und trotzdem schlucken schon jetzt Spiele 4GB Vram+

Zu PS2 Zeiten waren 128 x 128 oder 256 x 256 Texturen normal
Zu PS3 Zeiten waren es maximal 1024 x 1024 und meist 512 x 512.
Jetzt (PS4) sind die Texturen eben 2048er oder 4096 aber eben nicht alle.
Auf der PS5 könnte dann jede Textur 8192 x 8192 oder höher nutzen und dann wäre jedes Objekt Tesseliert, das kann viel RAM/Vram kosten.

Zwar glaube ich inzwischen zwar nicht mehr an 128 GB RAM, aber an 64 oder 48 GB RAM halte ich fest.

Die Anforderung an PC Spiele haben erst jetzt angefangen anzusteigen. Mal sehen was so ein Battlefield 5 oder Crysis 4 bzw. Mass Effect 4 verlangt. Oder gar ein echtes GTA 6 (also wirklich Next Gen).
Denkt dran am Anfang der PS3 Zeit (2007) haben Spiele nur einen Pentium 4 mit 3 GHz, 512 MB RAM und Gforce 7600GT mit 256 MB Vram verlangt.
Später gegen 2010 waren es meist Dual Cores mit 3 GHz+ 1-2 GB RAM und Nvidia 8800 GT/GTS mit 512MB Vram. Also schon 3 Jahre später benötigte ein PS3 Port am PC minimum 3x PS3 Leistung und RAM.

Das bedeutet das schon 2016 erste Spiele erscheinen mit Mindestanforderungen wie hier:
AMD FX (8x 3,5 GHz) oder i7 mit 6x 3 GHz bzw. 4x 4 GHz
12-16 GB RAM
100+ GB HDD (höhere Texturdetail kosten Speicher und GTA5 soll schon 65GB schlucken MGS5 PP sogar ähnlich viel)
AMD R9 370X (etwa R9 290) oder Nvidia GTX 970+ mit minimum 6-8 GB Vram

Empfohlen dann wohl:
8x 5 GHz
16 GB RAM
AMD R9 390X 8-12 GB oder GTX Titan II/GTX 980Ti mit 12 GB GDDR5

2018 wohl die ersten Anforderungen Richtung minimum 32 GB RAM und 8-12 GB Vram. Also ist eine PS5 mit 64 GB nicht verkehrt bei 4K und mindestens 8192 Texturen.

Edit:
Was die Leistung betrifft denke ich zwar nicht an 40 TF (20x Leistung) sondern eher humane 10x mehr Power also 20 TF Leistung. Laut TSMC könnten 2017 erste 10nm Chips erscheinen und 7nm schon 2019. Dann könnte 2020 wirklich eine PS5 in 7nm kommen. GF ist sogar noch weiter und bietet schon bald 14nm an und soll 2016 schon bei 10nm sein und könnte für AMD früher 7nm Chips liefern. Samsung ist ja auch noch da und die könnten ebenso Chips für AMD fertigen oder wenistens GF dabei helfen.

Coda
2015-01-17, 22:52:31
Und speziell bei PlayStation fiel im Hinblick auf die next-gen Hardware immer mal wieder der Name Ken Kutaragi. Der wird beim Design des neuen Systems wohl irgendwie eine beratende Rolle einnehmen oder sowas.
Oh bitte verschont uns.

M4xw0lf
2015-01-17, 23:25:33
Wer ist der Mann?

Slashman
2015-01-17, 23:47:04
Wer ist der Mann?

Ganz einfach der Vater der Playstation wenn man so will. Er war für die PS1, PS2 und PS3 Entwicklung verantwortlich, aber weil er bei der PS3 die kosten zu hoch getrieben hat, hat er seinen Posten dazu abgeben müssen.

Grund war der extrem teure Cell Prozessor der nur auf dem Papier schnell war, aber sau Teuer in der Produktion war (komplex und der erste 8 Kerner der Welt mit 3,2 GHz).
Dazu der XDR RAM der auch nicht billig war und dann viele andere zu teure Techniken. Er hat bei der PS3 weniger drauf geachtet das es auch rendabel ist. Die erste PS3 verbrauchte was mit 250-350 Watt.
Für die PS4 war dann Mark Cerny der Chef und er achtete drauf das die PS4 in erster Linie günstig und schnell ist. Die PS4 liegt maximal bei 150 Watt und ist komplett aus effizienter Technik.

Lightning
2015-01-18, 00:00:32
Die erste PS3 verbrauchte was mit 250-350 Watt.

Eher 200 Watt (Quelle (http://www.hardcoreware.net/reviews/review-356-2.htm)). Trotzdem recht viel, vor allem im Vergleich zur vorigen Generation. Problematischer waren aber wie gesagt die Kosten und die Erscheinungsverzögerung (weiteres Stichwort: Blu-ray).

Die PS4 liegt maximal bei 150 Watt und ist komplett aus effizienter Technik.

Ich würde das mal eher auf "kosteneffizient" konkretisieren. ;)

aufkrawall
2015-01-18, 00:05:22
Gibt es eine feste Throttling-Grenze der PS4 bei 150W?
Sonst könnte The Tomorrow Children mit Asynchronous Compute neue Erkenntnisse bringen, was maximalen Energieverbrauch angeht.

Das Gerät soll ja schon jetzt recht laut werden können.

Slashman
2015-01-18, 00:17:32
Gibt es eine feste Throttling-Grenze der PS4 bei 150W?
Sonst könnte The Tomorrow Children mit Asynchronous Compute neue Erkenntnisse bringen, was maximalen Energieverbrauch angeht.

Das Gerät soll ja schon jetzt recht laut werden können.

Nein eigentlich läuft die PS4 nur bei 142 Watt, also etwa 10-12 Watt mehr als auf der Xbox One. Und da ich sie haben kann ich ruhig sagen abgesehen vom BD Player ist die PS4 recht leise fast so leise wie mein Notebook (ASUS G750J) beim zocken. Also laut ist die PS4 nicht, zwar lauter als die Xbox One, aber eben nicht laut (Subjektiv). Wenn ich meinen TV auf 1/8-1/6 der Lautstärke stelle ist die PS4 unmöglich zu hören.

Eher 200 Watt (Quelle (http://www.hardcoreware.net/reviews/review-356-2.htm)). Trotzdem recht viel, vor allem im Vergleich zur vorigen Generation.

Ja stimmt wie ich in Wiki und Seiten sehe waren es nur 200 Watt... trotzdem zu viel, wenn man bedenkt das eine PS2 wohl nur bei 20-30 Watt lag. Im Grunde war die PS3 kein stück effizient gebaut. Alles war zu viel des guten und ich meine wer hatte bitte schön die idee eine CPU im Jahr 2006 zu bringen mit 8 Kernen... Wenn bis dato nur maximal Dual Cores zu haben waren.

DinosaurusRex
2015-01-18, 09:10:39
Das Gerät soll ja schon jetzt recht laut werden können.

In puncto Lautstärke gibt es bei der PS4 eine enorm große Streuung. Das hatte sich aber schon kurz nach Release angedeutet, als verschiedene Seiten komplett widersprüchliche Lautstärketest veröffentlicht haben. Ich hatte ziemliches Glück, meine PS4 ist flüsterleise, selbst unter Last. Ich kann mir allerdings gut vorstellen, wie ätzend das für Zocker ist, die ein lautes Modell erwischt haben, immerhin zahlen ja alle den selben Preis. Ein Zeichen von Qualität ist das auf jeden Fall nicht.

Skysnake
2015-01-18, 09:24:27
Von PS1 zu PS2 zu PS3 zu PS4 waren es immer 12-16x mehr RAM nix mit 10x^^.

4K wird standard nur nicht so schnell wie einst HD (720p/1080p/i) oder eben DVD. Schon jetzt gibt es TVs, Monitore, Notebooks mit 4K Displays. Und bis 2019 (mögliche Vorstellung der PS5 mit 2020 Release) ist es noch lange genug bis es viele Menschen im Haus haben.

Die PS5 wird dann nicht 4K als minimum Anforderung haben. Sie wird noch immer an normalen HD TVs laufen. Jedoch wird sie bestimmt 4K Unterstützen können.

Und ich glaube kaum das die PS5 nur 32 GB RAM haben wird. Das ist ja jetzt schon nix besonderes außer es wären 32 GB HBM Memory mit 1TB/s Leistung.
Frage an euch welche Texturauflösung wird momentan in Spielen werwendet?
Meine Einschätzung ist 2048 x 2048 und stellenweise 4096 x 4096? Man hat noch immer Spiele die nicht TOP Texturen nutzen wo man die Pixel kaum erkennt. Und trotzdem schlucken schon jetzt Spiele 4GB Vram+

Zu PS2 Zeiten waren 128 x 128 oder 256 x 256 Texturen normal
Zu PS3 Zeiten waren es maximal 1024 x 1024 und meist 512 x 512.
Jetzt (PS4) sind die Texturen eben 2048er oder 4096 aber eben nicht alle.
Auf der PS5 könnte dann jede Textur 8192 x 8192 oder höher nutzen und dann wäre jedes Objekt Tesseliert, das kann viel RAM/Vram kosten.

Zwar glaube ich inzwischen zwar nicht mehr an 128 GB RAM, aber an 64 oder 48 GB RAM halte ich fest.

Die Anforderung an PC Spiele haben erst jetzt angefangen anzusteigen. Mal sehen was so ein Battlefield 5 oder Crysis 4 bzw. Mass Effect 4 verlangt. Oder gar ein echtes GTA 6 (also wirklich Next Gen).
Denkt dran am Anfang der PS3 Zeit (2007) haben Spiele nur einen Pentium 4 mit 3 GHz, 512 MB RAM und Gforce 7600GT mit 256 MB Vram verlangt.
Später gegen 2010 waren es meist Dual Cores mit 3 GHz+ 1-2 GB RAM und Nvidia 8800 GT/GTS mit 512MB Vram. Also schon 3 Jahre später benötigte ein PS3 Port am PC minimum 3x PS3 Leistung und RAM.

Das bedeutet das schon 2016 erste Spiele erscheinen mit Mindestanforderungen wie hier:
AMD FX (8x 3,5 GHz) oder i7 mit 6x 3 GHz bzw. 4x 4 GHz
12-16 GB RAM
100+ GB HDD (höhere Texturdetail kosten Speicher und GTA5 soll schon 65GB schlucken MGS5 PP sogar ähnlich viel)
AMD R9 370X (etwa R9 290) oder Nvidia GTX 970+ mit minimum 6-8 GB Vram

Empfohlen dann wohl:
8x 5 GHz
16 GB RAM
AMD R9 390X 8-12 GB oder GTX Titan II/GTX 980Ti mit 12 GB GDDR5

2018 wohl die ersten Anforderungen Richtung minimum 32 GB RAM und 8-12 GB Vram. Also ist eine PS5 mit 64 GB nicht verkehrt bei 4K und mindestens 8192 Texturen.

Edit:
Was die Leistung betrifft denke ich zwar nicht an 40 TF (20x Leistung) sondern eher humane 10x mehr Power also 20 TF Leistung. Laut TSMC könnten 2017 erste 10nm Chips erscheinen und 7nm schon 2019. Dann könnte 2020 wirklich eine PS5 in 7nm kommen. GF ist sogar noch weiter und bietet schon bald 14nm an und soll 2016 schon bei 10nm sein und könnte für AMD früher 7nm Chips liefern. Samsung ist ja auch noch da und die könnten ebenso Chips für AMD fertigen oder wenistens GF dabei helfen.
Slashman du vergisst viele Dinge bei deiner Betrachtung.

1. Wer soll denn den Content erstellen? Schon heute denkt man doch darüber nach, wie man die Contenterstellung billiger machen kann, z.B. durch Scanns von realen Objekte, damit die Kosten der Erstellung einem nicht um die Ohren fliegen

2. gibt es inzwischen Technicken, die es erlauben Texturen in Tiles zu packen, und eben NICHT! mehr die ganze Textur zu laden, sondern nur noch die Teile, die man braucht. Das spart natürlich auch sehr viel.

Von mir aus glaub weiter dran, das man 64GB oder sogar noch weitaus mehr sehen wird, aber sei nicht am Ende traurig, wenn es doch nicht so kommt. Sofern wir überhaupt nochmal eine echte neue Konsolengeneration sehen werden.

DinosaurusRex
2015-01-18, 09:59:46
Sofern wir überhaupt nochmal eine echte neue Konsolengeneration sehen werden.

100%ig. Im Vorfeld der current-gen hatten einige Schlaumeier ja sogar propagiert, dass Konsolen-Gaming tot sei, Steam Machines seien die Zukunft und so weiter und was haben wir jetzt? Alle paar Monate kann die Sony PR-Abteilung mit neuen rekordbrechenden Meilensteinen protzen. Wären alle drei Systeme geflopt, hätte man hinsichtlich einer next-gen Zweifel äussern können, aber so wie es derzeit aussieht, stellt sich diese Frage überhaupt nicht. Selbst die X1 läuft ja gut. Nicht so gut wie die PS4, klar, aber die ist ja auch die sich am schnellsten verkaufende Konsole aller Zeiten. Nur die Wii U ist geflopt und wenn man sich mal Hardware, Online-Infrastruktur, Preispolitik und so weiter ansieht, auch völlig verdient.

Coda
2015-01-18, 11:00:13
Ich würde das mal eher auf "kosteneffizient" konkretisieren. ;)
Es geht nicht um kosteneffizienz. Es ist einfach eine ordentliche, ausgewogene Architektur.

Die PS3 war nicht nur unglaublich beschissen zu programmieren, sie hatte auch noch Hardware-Bugs oben drauf. Was diese Kiste der Spieleindustrie an Arbeitszeit vernichtet hat will ich gar nicht wissen.

DinosaurusRex
2015-01-18, 11:09:29
Ich persönlich hab mich ja schon häufiger gefragt, wie groß Cernys Anteil an dieser Leistung wirklich ist. Weil als Systemarchitekt lässt der sich natürlich auch wunderbar vermarkten mit dem Lebenslauf und seiner sympathischen Art. Und ich wunder mich auch, warum der darauf besteht, als Freelancer zu arbeiten.

In einem Interview hat ein Programmierer den allerdings mal voll über den grünen Klee gelobt. Der hat es wohl auf dem Kasten mit Maschinensprache und allem drum und dran.

Seine Homepage ist übrigens der Kracher:

Link (http://www.cernygames.com)

-Miles_Prower-
2015-01-18, 11:25:29
In puncto Lautstärke gibt es bei der PS4 eine enorm große Streuung. Das hatte sich aber schon kurz nach Release angedeutet, als verschiedene Seiten komplett widersprüchliche Lautstärketest veröffentlicht haben. Ich hatte ziemliches Glück, meine PS4 ist flüsterleise, selbst unter Last. Ich kann mir allerdings gut vorstellen, wie ätzend das für Zocker ist, die ein lautes Modell erwischt haben, immerhin zahlen ja alle den selben Preis. Ein Zeichen von Qualität ist das auf jeden Fall nicht.

Lautstärkestreuung ist bei Sony Konsolen nichts neues, dies gab es der PS3 auch schon. Die Xbox One ist dagegen teilweise von Spulenfiepen betroffen, bei meiner ist es mit dem Oktober Update behoben worden. Es gibt aber auch Konsolen die nach dem Update weiter diese nervige Geräusch im Dashboard haben.

Knuddelbearli
2015-01-18, 13:20:41
4k für die spiele der nächsten Generation ja klar ^^

wie lange ist FHD standard und wieviele games laufen jetzt damit? ^^

Nächste Generation wird vermutlich irgenwo um die 2560*1440 rednern bestenfalls. Vermutlich aber eher nur durchgängig FHD damit man eine "schöne" Interpolation hat

aufkrawall
2015-01-18, 13:37:43
Die Xbox One ist dagegen teilweise von Spulenfiepen betroffen, bei meiner ist es mit dem Oktober Update behoben worden.
Wie will man das denn gemacht haben? fps-Limit oder Throttling?

DinosaurusRex
2015-01-18, 13:47:36
wie lange ist FHD standard und wieviele games laufen jetzt damit? ^^


Auf der PS4 laufen bis auf sehr wenige Ausnahmen, die du an einer Hand abzählen kannst, alle Spiele mit 1080p. Bei der X1 soll das letzte SDK Update diesbezüglich Besserung gebracht haben: Die effektivere Nutzung des ESRAMs wird wohl auch auf der X1 deutlich mehr 1080p-Spiele zur Folge haben. Selbst die Wii U hat 1080p Games. Mario Kart 8 läuft sogar mit 1080p60fps. Es ist ein Trade-Off, was ist daran so schwer zu verstehen? Das wurde hier doch immer wieder und wieder durchgekaut. Wenn ein Studio bspw einen VR-Titel entwickelt, dann wird es Auflösung und Framerate selbstverständlich viel stärker berücksichtigen. Spieleentwicklung ist ja immer auch Produkt-Design. Wenn du ein VR-Spiel mit 720p30fps und hammermäßiger Grafik auf den Markt wirfst, solltest du den Insolvenzberater schonmal auf die Schnellwahltaste legen. Mal angenommen VR setzt sich durch, dann werden die neuen Systeme selbstverständlich auch auf 4k@100fps ausgerichtet sein.

Locuza
2015-01-18, 13:53:18
Mario Kart 8 ist ein 720p, 60FPS Titel.
Super Smash Brothers for Wiiu läuft allerdings mit 1080p und 60 FPS.

Slashman
2015-01-18, 13:54:17
Slashman du vergisst viele Dinge bei deiner Betrachtung.

1. Wer soll denn den Content erstellen? Schon heute denkt man doch darüber nach, wie man die Contenterstellung billiger machen kann, z.B. durch Scanns von realen Objekte, damit die Kosten der Erstellung einem nicht um die Ohren fliegen

2. gibt es inzwischen Technicken, die es erlauben Texturen in Tiles zu packen, und eben NICHT! mehr die ganze Textur zu laden, sondern nur noch die Teile, die man braucht. Das spart natürlich auch sehr viel.

Von mir aus glaub weiter dran, das man 64GB oder sogar noch weitaus mehr sehen wird, aber sei nicht am Ende traurig, wenn es doch nicht so kommt. Sofern wir überhaupt nochmal eine echte neue Konsolengeneration sehen werden.

1. Ganz einfach jedes Spiel ist in 4K (schon eine Menge Leistung weg quasi nur noch 1/4 für das eigentliche Spiel im vergleich zu 1080p).

2. Jedes Game minimum HBAO+ oder was höheres
.
3. Jedes Spiel mit minimum 4096 Schatten mit 5 LOD Stufen quasi so:
(Crysis Config als beispiel)
e_shadows_max_texture_size=4096
r_ShadowJittering=4
e_gsm_lods_num=5 oder gar auf 6
e_gsm_range=4 bis zu 5 verträgt das ein PC denke ich.
e_gsm_range_step=3
e_shadows_cast_view_dist_ratio=1.0

4. jedes Spiel hat eine sehr hohe Sichtweite (LOD) und dann muss ein Char nicht unbedingt 1 mio Polygone haben, aber dank 4x Sichtweite (0 Pop Ups) ist es die selbe Last mit 250.000 Polygonen pro Char.

5. Texturen mit hoher Auflösug kosten keine extra Zeit oder Arbeit. Da sie eh von Anfang an in hoher Auflösung erstellt werden nur für die jeweilige Stufe runterskaliert werden.

6. Kein Streaming mehr (spart RAM, aber kostet leistung und verschlechter Texturen in der Distanz).

7. Nur noch Position Based Fluid Wasser (siehe Video... einfach der Hammer).

8. Tesselation wo es nur geht (um aus weniger Detail viel zu machen).

9. Jede Bodentextur nur mit POM.

10. 4-8x MSAA um selbst in 4K null Flimmern zu haben.

11. jedes Spiel nutzt minimum 16x HQAF um alles knackscharf zu halten.

12. Statt flache Texturen werden Gras und co wie in der realität von Gras verdeckt, das man sogar Automatisch regeln kann, das wenn Textur A verwendet wird Automatisch Objekt B drauf plaziert wird wie in der CryEngine 2/3 üblich.

Schon sind 20 TF weg mit ordentlicher Optik.


wie lange ist FHD standard und wieviele games laufen jetzt damit? ^^

gerade mal 3 PS4 Spiele bieten kein 1080p...
Einmal Battlefield 4 mit 900p und 50-60 FPS (hatte auf allen Plattformen, Bugs, Performance Probleme), dann Watch Dogs und AC Unity mit jeweils 900p und 30 FPS. Der Rest hat 1080p mit 30, 30-60 oder 60 FPS. über 50% der PS4 Spiele bieten 1080p und absolut ruckelfreie 60 FPS.
Und nein 2560 x 1440 wird 2020 sicher nicht Konsolen überlich sein. Ich denke 2160, 1920p oder minimum 1600p werden standard auf der PS5 oder Xbox 4.

DinosaurusRex
2015-01-18, 13:57:50
Mario Kart 8 ist ein 720p, 60FPS Titel.
Super Smash Brothers for Wiiu läuft allerdings mit 1080p und 60 FPS.

Ja oder so. Und das Teil hat mehr als zehnmal weniger Bandbreite als eine PS4. Und bei Nintendo dropt die Framerate traditionsgemäß eigentlich niemals.

mboeller
2015-01-18, 13:59:20
seufz... immer noch die Fantasie mit den 20TF. Werd erwachsen!

Jupiter
2015-01-18, 14:01:28
Ist es wirklich so sinnvoll, Videospiele auf einer Konsole Spiele in Ultra HD zu rendern? Das würde einfach zu viel Rechenleistung benötigen. Ich spiele RYSE am PC 2 Meter vor einen 65 Zoll-Gerät entfernt und die Bildqualität ist mit FullHD und den temporären SMAA ein Traum.

Zudem bringt Upsacaling am Fernseher auch etwas.

FullHD-Bild mit 2x2 großen Pixeln simuliert.
http://abload.de/thumb/verdoppelt_449621drcma.png (http://abload.de/image.php?img=verdoppelt_449621drcma.png)

UltraHD-Bild aus den ursprünglichen FullHD-Daten hochskaliert:
http://abload.de/thumb/lanczos_449620nviok.png (http://abload.de/image.php?img=lanczos_449620nviok.png)

Dies ist nur ein einfacher Skalierungsalgorithmus. Somit würde ein UHD-Fernseher auch bei geringeren Auflösungen Vorteile bringen.

DinosaurusRex
2015-01-18, 14:04:12
Für VR würde sogar 8k Sinn machen. Für traditionelles Zocken am TV ist das sicher Verschwendung, da stimme ich dir zu.

Slashman
2015-01-18, 14:07:36
seufz... immer noch die Fantasie mit den 20TF. Werd erwachsen!

Warum fantasie?

In 28nm gibt es schon GPUs mit 5-6 TF... OK 500mm² Monsterchips, aber es gibt diese schon. in 7nm (2020 bestimmt Massenware) ist 20TF sicher auch Mittelklasse und das bei 250-350mm² und auch nur dank 7nm (reale 10nm wohl eher).

Ich denke das eine PS5 minimum 15 TF Leistung haben wird alleine von der GPU und bis ich von dir keinen Gegenbeweis finde würde ich nicht so arrogant rüber kommen.

Was den RAM betrifft:
Bill Gates sagte mal mehr als 512kb RAM benötigt kein Mensch. Vor 1-2 Jahren glaubte keiner dran das mehr als 4 GB Vram vor 2016 benötigen wird und schon 2014 gabs Spiele die mehr nutzen konnten. Mal ehrlich keiner von euch hat eine funktionierende Glaskugel und kann sagen ob es eine PS5 geben wird oder ob sie 40, 20 oder 15 TF Leistung hat. Ich sage nur was möglich sein könnte und ja möglich ist es warum auch nicht! Die PS4 kann man schon jetzt mit 4x Leistung übertreffen in CPU, RAM und GPU Leistung. Warum soll das 2020 nicht besser und günstiger gehen.

Jupiter
2015-01-18, 14:13:58
Für VR würde sogar 8k Sinn machen. Für traditionelles Zocken am TV ist das sicher Verschwendung, da stimme ich dir zu.

VR ist selbstverständlich eine andere Angelegenheit.

Wichtig ist es, die Kantenglättung zu optimieren. Wenn Videospiele die Bildqualität von RYSE am PC hätten, würde das mit Sicherheit für einen Großteil der Konsolennutzer auch im Jahre 2020 reichen. Das beinahe kostenlose SMAA finde ich in RYSE besser als 8xMSAA in Crysis 3. So viel kann allein schon hier gespart werden.

DinosaurusRex
2015-01-18, 14:27:36
Einer von Sucker Punch (Infamous-Serie) hat gesagt, dass sie SMAA an alle anderen SCE Worldwide Studios weiterempfohlen haben. Infamous auf der PS4 nutzt SMAA T2x. TLOU Remastered hat auch ne super Kantenglättung, aber ich weiß gar nicht, was die einsetzen.

mboeller
2015-01-18, 15:00:51
Warum fantasie?

In 28nm gibt es schon GPUs mit 5-6 TF... OK 500mm² Monsterchips, aber es gibt diese schon. in 7nm (2020 bestimmt Massenware) ist 20TF sicher auch Mittelklasse und das bei 250-350mm² und auch nur dank 7nm (reale 10nm wohl eher).


Nein eben nicht!

28nm -> 20nm hat wie lange gedauert? Richtig, es gibt noch keine Highend-GPU in 20nm. Also mindestens 2, wahrscheinlich 2,5 Jahre.

20nm -> 16nm dauert noch, laut Gerüchten/Infos bis Mitte/Ende 2016

10nm ... also nochmal wahrscheinlich 3 Jahre später. 10nm wir damit wahrscheinlich erst 2019/2020 der Highend-Prozess sein (Intel außen vor).

klar 10nm erlaubt ca. 7,5x mehr Transistoren, wenn du sie kühlen kannst.
Also theoretisch 7,5x mehr Leistung. ABER der Verbrauch steigt massiv an.
Wenn der Verbrauch nicht durch die Decke gehen soll (mein posting mit den 1KW etc... hast du wohl überlesen) musst du die Frequenz massiv beschneiden. Basierend auf den mobile-GPUs würde ich mal sagen 400-500MHz sind dann das äußerste.

Bleibt also eine 3-4 fach höhere Leistung im Vergleich zur PS4 übrig.

Wenn du jetzt also nicht irgendwas findest was hohe Leistung bei extrem geringen Verbrauch erlaubt wirst du dich von den 20TF also verabschieden können. Realistisch sind 8-10TF, wobei 10TF schon einen Verbrauch von 200W nach sich ziehen werden. Und ohne eine Leistungsfähige CPU sind die 10TF wahrscheinlich auch verschwendet.

Aber vielleicht kommt ja AMD doch zu deiner Rettung :) Die haben mal was von einer massiv besseren Leistung pro Watt für 2020 gefaselt.

Jupiter
2015-01-18, 15:01:07
Zwar ist das Bild in inFamous noch nicht so sauber wie in RYSE am PC (SMAA wurde hier weiterentwickelt), aber hier kann für spätere Spiele weiter optimiert werden. Ich bin der festen Überzeugung, dass t-SMAA unter Deferred Rendering plattformübergreifend visuell als auch performancemäßig der richtige Weg sei. Auch im Hinblick auf die nächste Konsolengeneration, da hierfür die frei verfügbare Rechenleistung für andere Prozesse verwendet werden kann. Dagegen spart The Order 1886 wegen Forward bekanntermaßen Ressourcen für den Einsatz von MSAA. Unter Forward Rendering ist MSAA auch in der Zukunft aus meiner Sicht noch sinnvoll.

Second Son ist das Action-Konsolenspiel mit der besten Bildqualität, welches ich kenne. TLoU fand ich diesbezüglich nicht überzeugend.

DinosaurusRex
2015-01-18, 15:04:50
Kann man fixed-function Hardware eigentlich auch in FLOPS spezifizieren?

Slashman
2015-01-18, 15:19:38
Nein eben nicht!

28nm -> 20nm hat wie lange gedauert? Richtig, es gibt noch keine Highend-GPU in 20nm. Also mindestens 2, wahrscheinlich 2,5 Jahre.

20nm -> 16nm dauert noch, laut Gerüchten/Infos bis Mitte/Ende 2016

10nm ... also nochmal wahrscheinlich 3 Jahre später. 10nm wir damit wahrscheinlich erst 2019/2020 der Highend-Prozess sein (Intel außen vor).

klar 10nm erlaubt ca. 7,5x mehr Transistoren, wenn du sie kühlen kannst.
Also theoretisch 7,5x mehr Leistung. ABER der Verbrauch steigt massiv an.
Wenn der Verbrauch nicht durch die Decke gehen soll (mein posting mit den 1KW etc... hast du wohl überlesen) musst du die Frequenz massiv beschneiden. Basierend auf den mobile-GPUs würde ich mal sagen 400-500MHz sind dann das äußerste.

Bleibt also eine 3-4 fach höhere Leistung im Vergleich zur PS4 übrig.

Wenn du jetzt also nicht irgendwas findest was hohe Leistung bei extrem geringen Verbrauch erlaubt wirst du dich von den 20TF also verabschieden können. Realistisch sind 8-10TF, wobei 10TF schon einen Verbrauch von 200W nach sich ziehen werden. Und ohne eine Leistungsfähige CPU sind die 10TF wahrscheinlich auch verschwendet.

Aber vielleicht kommt ja AMD doch zu deiner Rettung :) Die haben mal was von einer massiv besseren Leistung pro Watt für 2020 gefaselt.
20nm gibt es schon länger eben nur nicht für Desktop Karten sondern Handy SoCs.
nächstes Jahr sollen 16nm FinFET Karten erscheinen und von Global Foundries sogar 14nm FinFet. Samsung ist ebenso weit und Intel will dieses Jahr ihre 14nm CPUs bringen. Ich frage mich wie du auf 2,5 Jahre kommst bei 20 bzw. 16nm?

Auch deine Behauptung 7nm GPUs würden dank mehr Transistoren mehr Verbrauchen als sagen wir mal 28nm GPUs müsste dann eine 300mm² GPU von heute in 28nm gut 10x so viel verbrauchen als eine 110nm 300mm² GPU wie der 7800 GTX.
Dumme logik, weil dann würden PCs von heute locker 10x so viel schlucken wie damals 2005. Echt dummes argument. Die 7nm erlauben es ja mehr Trasistoren zu verbauen in die selben mm² als in 14nm bzw. 28nm ohne dabei groß mehr zu verbrauchen. Oder verbraucht eine HD 5870 (1600 ALUs bei 40nm) 2x so viel wie eine HD 4890 (800 ALUs bei 55nm) oder verbraucht eine HD 7970 2x so viel wie eine HD 6970?

Eine HD 5870 hat eine TDP von 188 Watt und eine HD 4890 eine TDP von 190 Watt... Warum das deiner logik nach müsste die 2x so komplexe GPU locker 2x so viel verbrauchen, aber nein die 40nm GPU verbraucht trotz 2x größe weniger Watt als die 55nm GPU... hmm da kann was nicht stimmen?
http://de.wikipedia.org/wiki/ATI-Radeon-HD-5000-Serie#Leistungsaufnahmedaten
HD 5870 1600 ALUs, 2,1 mrd Transistoren bei 334mm² und das mit 188 Watt TDP bei 40nm

http://de.wikipedia.org/wiki/ATI-Radeon-HD-4000-Serie#Leistungsaufnahmedaten
HD 4890 800 ALUs, 959 mio Transistoren bei 282mm² und das mit 190 Watt TDP bei 55nm

die HD 5870 ist größer, komplexer, 2x so schnell und verbraucht weniger? wie das du Keule? Ich sags dir 40nm statt 55nm bringt wie man sieht doch mehr. Und genauso wird eine 7nm 300mm² GPU nicht mehr verbrauchen als eine 28nm 300mm² GPU, das war selten bis nie so. Tahiti (HD 7970 GHz) von AMD verbraucht nur mehr als eine HD 5870, weil sie fast 400mm² groß ist und höher Taktet. Anders gesagt da hilft dann auch 28nm nix.

Ich glaube nie im leben das eine PS5 nur 3-4x schneller sein wird als eine PS4... Das ist nicht drin, weil kein Kunde würde dafür 7 Jahre warten... Stell dir vor du kaufst dir einen PC und 7 Jahre später ist ein PC nur 4x so schnell.. Sorry das kam nie vor und wird nicht vor 2-4nm so sein. Ich glaube zwar nicht mehr an den Spung von PS2 zu PS3 (20x Leistung), aber an eine 8-12x Leistung glaube ich definitiv. Alleine wegen der 7nm die es bis 2020 massenhaft geben soll laut TSMC, GF und Samsung. Wenn du jedoch 3-4x mehr CPU Leistung meinst gebe ich dir recht mehr wird es sicher nicht sein, aber die GPU wird ohne wenn und aber mehr als nur 4x mehr Leistung haben. Alles andere wäre total Sinlos und es würde bedeuten das PCs 2020 auch nur 3-4x schneller wären als heute...

Von 110nm zu 90nm zu 80nm zu 65nm zu 55nm zu 40nm zu 28nm wurden die Karten bei gleicher mm² jeweils bis zu 2x so komplex und das bei nahezu selber TDP.
Ich verstehe beim besten willen nicht warum es dann nicht weiter gehen sollte.
16/14nm zu 10nm zu 7nm zu 5nm. Geh doch mal vergleichen in dem du aus jeder nm Generation die 300mm² GPU nimmst (Performanceklasse) und sie vergleichst.

mboeller
2015-01-18, 16:01:33
20nm gibt es schon länger eben nur nicht für Desktop Karten sondern Handy SoCs.


Handy-SoC zählen nicht. Das ist vom Verbrauch und den Anforderungen ein ganz anderes Feld


nächstes Jahr sollen 16nm FinFET Karten erscheinen und von Global Foundries sogar 14nm FinFet. Samsung ist ebenso weit und Intel will dieses Jahr ihre 14nm CPUs bringen. Ich frage mich wie du auf 2,5 Jahre kommst bei 20 bzw. 16nm?


zählen solltest du schon noch können... ich komme für Desktop-GPUs auf 1,25-1,5 Jahre. Frühjahr 2015 - max. Herbst 2016


Auch deine Behauptung 7nm GPUs würden dank mehr Transistoren mehr Verbrauchen als sagen wir mal 28nm GPUs müsste dann eine 300mm² GPU von heute in 28nm gut 10x so viel verbrauchen als eine 110nm 300mm² GPU wie der 7800 GTX.


seufz... 2-3x mehr reicht schon. Und wenn du die letzen 4 Jahre nicht unter einem Felsblock oder in einer Hölle verbracht hast wirst du wohl schon gelesen haben welche großen Probleme AMD und auch Nvidia mit dem Verbrauch bekommen haben. 20nm ist hier sogar noch schlechter als üblich weil es nur max. 30% mehr Leistung pro watt erlaubt. Die Finfets erlauben dann wieder 60-80% mehr Leistung pro Watt im Vergleich zu 28nm... aber zw. 16nm und 10nm sollten es dann wieder nur 30-40% sein. Die großen Sprünge sind halt vorbei (zumindest mit der jetzigen konventionellen Technik)


Ich glaube nie im leben das eine PS5 nur 3-4x schneller sein wird als eine PS4... Das ist nicht drin, weil kein Kunde würde dafür 7 Jahre warten... Stell dir vor du kaufst dir einen PC und 7 Jahre später ist ein PC nur 4x so schnell..


doch!

edit: http://www.7-cpu.com/ Vergleich mal einen Pentium4 mit einem Ivy Bridge pro Core :)
nicht der beste Benchmark, die Verbesserungen pro MHz sind überschaubar.


Sorry das kam nie vor und wird nicht vor 2-4nm so sein. Ich glaube zwar nicht mehr an den Spung von PS2 zu PS3 (20x Leistung), aber an eine 8-12x Leistung glaube ich definitiv. Alleine wegen der 7nm die es bis 2020 massenhaft geben soll laut TSMC, GF und Samsung. Wenn du jedoch 3-4x mehr CPU Leistung meinst gebe ich dir recht mehr wird es sicher nicht sein, aber die GPU wird ohne wenn und aber mehr als nur 4x mehr Leistung haben. Alles andere wäre total Sinlos und es würde bedeuten das PCs 2020 auch nur 3-4x schneller wären als heute...


was du glaubst und hoffst ist irrelevant. Die Technologie ist an der Grenze. Da geht nicht mehr viel mit normaler Technik. Weiter schrumpfen hilft nicht mehr viel. Die Leckströme etc.. nehmen überhand. Erst mit völlig neuen Logik-konzepten wird es wieder einen neuen Aufschwung geben. Das dauert aber noch einige Jahre, wenn überhaupt.


Von 110nm zu 90nm zu 80nm zu 65nm zu 55nm zu 40nm zu 28nm wurden die Karten bei gleicher mm² jeweils bis zu 2x so komplex und das bei nahezu selber TDP.


Schnarch! Die Geschichte vom toten Pferd hilft dir nicht. Du musst dich schon ein wenig mit der Technik von morgen beschäftigen um zu sehen war noch möglich ist.


Ich verstehe beim besten willen nicht warum es dann nicht weiter gehen sollte.


dann informiere dich!

Monsta
2015-01-18, 16:29:53
lol was, ein Pentium 4 + SSE3, 3,6 GHz hat 14.4 GFLOPS ohne SSE3 und 3.2 GHZ dümpelt das Ding bei 3.1 GFLOP
Ein Haswell wird ohne die GPU fast die selbe Fläche haben.
Der 4770 knallt bei 3.5GHZ 177 GLOPS auf die Strasse. Und der Verbrauch sollte zugunsten des 4770 stehen.

Slashman
2015-01-18, 16:38:19
Handy-SoC zählen nicht. Das ist vom Verbrauch und den Anforderungen ein ganz anderes Feld
zählen solltest du schon noch können... ich komme für Desktop-GPUs auf 1,25-1,5 Jahre. Frühjahr 2015 - max. Herbst 2016
20nm wird es kaum geben beim Desktop (lohnt sich kaum)
16nm FinFet wird von Nvidia 2016 genutzt
14nm FinFet wird dann von AMD ende 2015 anfang 2016 genutzt.
Intel soll schon 2016 10nm nutzen können (laut ihnen).

seufz... 2-3x mehr reicht schon. Und wenn du die letzen 4 Jahre nicht unter einem Felsblock oder in einer Hölle verbracht hast wirst du wohl schon gelesen haben welche großen Probleme AMD und auch Nvidia mit dem Verbrauch bekommen haben. 20nm ist hier sogar noch schlechter als üblich weil es nur max. 30% mehr Leistung pro watt erlaubt. Die Finfets erlauben dann wieder 60-80% mehr Leistung pro Watt im Vergleich zu 28nm... aber zw. 16nm und 10nm sollten es dann wieder nur 30-40% sein. Die großen Sprünge sind halt vorbei (zumindest mit der jetzigen konventionellen Technik)
Deshalb hat man ja 20nm übersprungen und gleich auf 16/14nm FinFET gesetzt. Auch vergessen das es keine 20nm GPU geben wird zumindestens nicht von AMD. Die setzen gleich auf 14nm FinFET.
Und nur so nebenbei 2-3x Leistung langt doch jetzt schon nicht wirklich? Eine HD 7970 oder R9 290X ist schon 3-4x so schnell und schon jetzt gibt es Spiele die in 1080p und Max Details (ohne AA) ruckeln und Crysis 3 ist selbst jetzt nicht auf Max Details in 1080p mit konstanten 60 FPS Spielbar. Wie will man mit 2-3x Leistung zur PS4 bitte 4K Unterstützen mach dich bitte nicht zum Affen.

doch!

edit: http://www.7-cpu.com/ Vergleich mal einen Pentium4 mit einem Ivy Bridge pro Core :)
nicht der beste Benchmark, die Verbesserungen pro MHz sind überschaubar.

Also ein i7 2630QM (4x 2 GHz) ist um einiges schneller als ein Core 2Q Q9000 (4x 2 GHz).
Oder ein i7 4710MQ (4x 2,5 GHz) ist auch um einiges schneller als ein QX9300 (4x 2,5 GHz).
Ein Core 2 Duo mit 2,8 GHz ist auch schneller als ein pentium D mit 2,8 GHz.
Klar die 40% mehr pro MHz werden wir so schnell nicht mehr sehen zumnindestens nicht in der nächsten Gen, aber später könnte es kommen du kannst das sicher nicht wissen.

was du glaubst und hoffst ist irrelevant. Die Technologie ist an der Grenze. Da geht nicht mehr viel mit normaler Technik. Weiter schrumpfen hilft nicht mehr viel. Die Leckströme etc.. nehmen überhand. Erst mit völlig neuen Logik-konzepten wird es wieder einen neuen Aufschwung geben. Das dauert aber noch einige Jahre, wenn überhaupt.
Du bist mir ja ein Witzbolt mit die Technologie ist an der Grenze... Selten so gelacht... Ok dann musst du ja nach der GTX 980 keine neue Karte mehr kaufen... 4k und 8K kannst du vergessen. Die GTX 980 ist ja am Limit des möglichen. Sorry, aber ich denke vor 5nm ist die Grenze sicher nicht in Sicht. Auch dann werden Computer schneller nur eben auf andere Art und Weise.


Schnarch! Die Geschichte vom toten Pferd hilft dir nicht. Du musst dich schon ein wenig mit der Technik von morgen beschäftigen um zu sehen war noch möglich ist.
Du hast doch behauptet je mehr Transistoren umso mehr verbrauch. Sorry, aber in den letzten 10 Jahren ist mir nichts aufgefallen. Dank jeder neuer nm Fertigung konnte das mühelos aufgefangen werden. Ich denke ... nein ich weiß eine 7nm GPU wird bei 300mm² und 900mhz keinen deut mehr verbrauchen als eine 28nm GPU in 300mm² mit 900 MHz. So war es bisher so und bevor du jetzt wieder auf Experte/Meister oder Profi machst nenne mir ein Beispiel.

DinosaurusRex
2015-01-18, 17:14:39
Und nur so nebenbei 2-3x Leistung langt doch jetzt schon nicht wirklich? Eine HD 7970 oder R9 290X ist schon 3-4x so schnell und schon jetzt gibt es Spiele die in 1080p und Max Details (ohne AA) ruckeln und Crysis 3 ist selbst jetzt nicht auf Max Details in 1080p mit konstanten 60 FPS Spielbar. Wie will man mit 2-3x Leistung zur PS4 bitte 4K Unterstützen mach dich bitte nicht zum Affen.


Das Argument hatten wir schon mal. Du ignorierst, dass die theoretische Rechenleistung des Grafikprozessors nur ein Faktor von vielen für die real-world Performance des Systems ist. Selbst aktuelle ultra high-end Grafikkarten haben nur marginal mehr Bandbreite zur Verfügung als eine PS4. Mit neuen Speichertechnologien könntest du die Bandbreite sicher verzehnfachen, unter Umständen sogar noch mehr, und dann kriegst du aus einem Prozessor, der auf dem Papier nur eine um ein paar Faktoren höhere Rechenleistung hat, auch eine ganze andere Performance rausgequetscht.

Von dem pornomäßigen Raytracer, der dann noch aufs Die gelötet wird, ganz zu schweigen... ^_^

mboeller
2015-01-18, 17:51:28
lol was, ein Pentium 4 + SSE3, 3,6 GHz hat 14.4 GFLOPS ohne SSE3 und 3.2 GHZ dümpelt das Ding bei 3.1 GFLOP
Ein Haswell wird ohne die GPU fast die selbe Fläche haben.
Der 4770 knallt bei 3.5GHZ 177 GLOPS auf die Strasse. Und der Verbrauch sollte zugunsten des 4770 stehen.

Wenn interessieren FLOPS? Das macht die Grafikkarte! Integer ist immer noch viel wichtiger. :P

basix
2015-01-18, 18:57:44
klar 10nm erlaubt ca. 7,5x mehr Transistoren, wenn du sie kühlen kannst. Also theoretisch 7,5x mehr Leistung

Falsch ;) 16nm @ TSMC ist 20nm mit FinFET. Dort hast du keine Flächenensparungen. Also kommst du maximal auf 4x mehr Transistoren gegenüber 28nm. Allerdings behauptet TSMC mit 10nm bereits 1 Jahr nach 16nm FinFET bereit zu sein. TSMC ist aber definitiv nicht dafür bekannt, ihre Roadmaps zeitlich einzuhalten :freak:

Wie weit die anderen Foundries wie z.B. Global Foundries / Samsung sein werden ist eine andere Frage.

... nicht unter einem Felsblock oder in einer Hölle verbracht hast...

Haha, ich hoffe doch schwer es war nicht die "Hölle" ;D

Skysnake
2015-01-18, 19:25:26
Kann man fixed-function Hardware eigentlich auch in FLOPS spezifizieren?
Prinzipiell ja. Man schaut sich z.B. an, was ein effizienter Algorithmus in Software an Flops benötigen würde und rechnet das hoch. Ist aber so ne Sache.

Knuddelbearli
2015-01-18, 19:27:36
gerade mal 3 PS4 Spiele bieten kein 1080p...
Einmal Battlefield 4 mit 900p und 50-60 FPS (hatte auf allen Plattformen, Bugs, Performance Probleme), dann Watch Dogs und AC Unity mit jeweils 900p und 30 FPS. Der Rest hat 1080p mit 30, 30-60 oder 60 FPS. über 50% der PS4 Spiele bieten 1080p und absolut ruckelfreie 60 FPS.
Und nein 2560 x 1440 wird 2020 sicher nicht Konsolen überlich sein. Ich denke 2160, 1920p oder minimum 1600p werden standard auf der PS5 oder Xbox 4.


Lässte mir bitte deine RL Daten zukommen und wetten wir Kohle?

Sogut wie der gesamte GPU Leistungsgewinn bis zur nächsten Konsole würde für 2160p draufgehen. Da können die dann wirklich Insolvenz anmelden

Monsta
2015-01-18, 19:47:45
@mboeller

die Verbesserungen pro MHz und Core sind ja mal richtig uninteressant.
Verbesserung pro Fläche und Watt zählt. Und da sind die P4 mal richtig kacke im vergleich zum Haswell.
Ein Iphone 5 mit 1Ghz putzt einen 2.4GHz P4. In der Integer Leistung.
Ich würde schon sagen das sich sehr viel getan hat.
Wenn AMD nicht so am Ende wäre, hätten wir längst 8 Kerne und keine stinkige GPU in der CPU. Und das für einen "normalen" Preis.

drkohler
2015-01-18, 23:04:47
Ich verstehe beim besten willen nicht warum es dann nicht weiter gehen sollte.
16/14nm zu 10nm zu 7nm zu 5nm.
Also nochmal zum Mitschreiben:

1. Bei einem grösseren Dingens (was immer auch das Dingens ist) zahlst du als Konsolenhersteller pro Transistor. Wenn du ein Mörderdingens in 7nm willst, das kannst du bekommen in ein paar Jahren. Wenn es 20mal so schnell sein soll wie dein Dingens heute, dann zahlst du grob zehnmal so viel wie heute. Wenn wir noch nicht gefundene Tricks zur Effizienzsteigerung miteinplanen. Nicht eingeschlossen dabei sind die Entwicklungskosten deines Dingens, die etwa das 50-fache der heutigen Kosten betragen dürften, wenn du wirklich als Erster "Neue Konsole!" schreien willst.

2. Du kannst dein 7nm Dingens nicht mehr kühlen. IBM forscht sicher seit 20 Jahren an Kühlmethoden für "Extremdingens". Und sie werden auch weiterforschen weil das immer noch ein riesiges, ungelöstes Problem ist.

Stell dir einfach vor, du drehst deinen Kochherd voll auf. Die Herdplatte wird verdammt heiss. Sie wird BEI WEITEM NICHT so heiss wie es Innen drin in deinem heutigen Dingens zu- und hergeht. Es gibt schon einen Grund, warum die Graka-Kühler immer grösser und teurer werden. Und warum es die ersten 20nm Dingens nur für Mobilzeug geben wird. Jeder Versuch, solche Mobildingens auf Desktopgeschwindigkeiten zu bringen würden zu einem sofortigen Knall führen. Bei jedem Design gibt es eine Grenze, an der die Leckströme durch die Decke gehen.

3. Nochmal zur Erinnerung: Ein 14nm Dingens hat nicht viermal soviele Transistoren wie ein 28nm Chip. Ein 7nm Dingens hat nicht 16 mal soviele Transitoren wie ein 28nm Dingens. Nichts in einem xx nm Chip misst xx nm (typischer weise 3*xx so gross). Du kannst Transistoren und Leitungen in einem Dingens nicht beliebig verkleinern. Du erodierst deine Leitungen und Transistoren einfach weg bei hohen Taktraten. Konsolenhersteller müssen spätestens Ende 2016 die Kerndesigns festlegen für ihre Dingens, wenn sie 2019/2020 eine neue Konsole auftischen wollen. 2016 kannst du nur träumen von <14nm (Marketing-)Strukturen. Konsolen werden nie mit (besseren) GamerPCs mithalten können, weil sie ein Kostenlimit haben das unterhalb einer giggerigen Grafikkarte liegt. 1TFlop kostet dich heute grob 50-60W. Die Annahme, 1TFlop kostet dich in ein paar Jahren nur ein paar Watt ist Wunschdenken. Die Physik sagt nein und das kannst du nicht wegwünschen.

Monsta
2015-01-18, 23:46:28
Naja intel hat von 32nm auf 22nm ungefähr doppelt soviele Transistoren pro mm2 eingedampft. Und von 22 auf 14 nochmal das doppelte. Geht also doch.

Slashman
2015-01-19, 04:05:07
Also nochmal zum Mitschreiben:

1. Bei einem grösseren Dingens (was immer auch das Dingens ist) zahlst du als Konsolenhersteller pro Transistor. Wenn du ein Mörderdingens in 7nm willst, das kannst du bekommen in ein paar Jahren. Wenn es 20mal so schnell sein soll wie dein Dingens heute, dann zahlst du grob zehnmal so viel wie heute. Wenn wir noch nicht gefundene Tricks zur Effizienzsteigerung miteinplanen. Nicht eingeschlossen dabei sind die Entwicklungskosten deines Dingens, die etwa das 50-fache der heutigen Kosten betragen dürften, wenn du wirklich als Erster "Neue Konsole!" schreien willst.

2. Du kannst dein 7nm Dingens nicht mehr kühlen. IBM forscht sicher seit 20 Jahren an Kühlmethoden für "Extremdingens". Und sie werden auch weiterforschen weil das immer noch ein riesiges, ungelöstes Problem ist.

Stell dir einfach vor, du drehst deinen Kochherd voll auf. Die Herdplatte wird verdammt heiss. Sie wird BEI WEITEM NICHT so heiss wie es Innen drin in deinem heutigen Dingens zu- und hergeht. Es gibt schon einen Grund, warum die Graka-Kühler immer grösser und teurer werden. Und warum es die ersten 20nm Dingens nur für Mobilzeug geben wird. Jeder Versuch, solche Mobildingens auf Desktopgeschwindigkeiten zu bringen würden zu einem sofortigen Knall führen. Bei jedem Design gibt es eine Grenze, an der die Leckströme durch die Decke gehen.

3. Nochmal zur Erinnerung: Ein 14nm Dingens hat nicht viermal soviele Transistoren wie ein 28nm Chip. Ein 7nm Dingens hat nicht 16 mal soviele Transitoren wie ein 28nm Dingens. Nichts in einem xx nm Chip misst xx nm (typischer weise 3*xx so gross). Du kannst Transistoren und Leitungen in einem Dingens nicht beliebig verkleinern. Du erodierst deine Leitungen und Transistoren einfach weg bei hohen Taktraten. Konsolenhersteller müssen spätestens Ende 2016 die Kerndesigns festlegen für ihre Dingens, wenn sie 2019/2020 eine neue Konsole auftischen wollen. 2016 kannst du nur träumen von <14nm (Marketing-)Strukturen. Konsolen werden nie mit (besseren) GamerPCs mithalten können, weil sie ein Kostenlimit haben das unterhalb einer giggerigen Grafikkarte liegt. 1TFlop kostet dich heute grob 50-60W. Die Annahme, 1TFlop kostet dich in ein paar Jahren nur ein paar Watt ist Wunschdenken. Die Physik sagt nein und das kannst du nicht wegwünschen.

1. Dann ist Dingens heute i7 CPU (22nm über mrd Transistoren) ja 10x so teuer als Intel Core 2 Extrem (200 mio Transistoren). Du sagst ja man zahlt pro Transistor nicht pro mm²... Dummes argument, weil dann von 110 zu 90 zu 65nm zu 55/45/40nm zu 28nm müsste eine GTX 980 ja jetzt 4000€ kosten, da die 8800 Ultra ja nur 600 mio Transistoren hatte und 500€ gekostet hatte. Oh und in 7nm kostet etwas vergleichbares in 400mm² größe wohl 10000€ hat ja dann sicher 10mrd Transistoren und muss ja wohl 10000€ kosten. Kopfschüttel.

2. Auch ein dummes Argument, weil seit jahren Karten trotz stark steigender Transistoren nicht zwingend mehr verbrauchen oder wärmer werden. Daher werden auch neue Fertigungsprozesse verwendet um Stromverbrauch und Hitzeentwicklung zu senken bei gleicher Leistung. Sonst müsste ja eine PS4 viel wärmer sein als eine PS3, dabei ist es eher anders herum. Die PS3 ist nur in 45nm gefertigt und wärmer auf die selbe Leistung wie die PS4 mit weit aus mehr Power auf einem Chip. Deiner logik nach müsste die PS4 ja brennen, weil immerhin über 3mrd Transistoren im gegensatz zu den 2x 300 mio der PS3 stehen. Das sind ja 5x so viele^^.

3. Naja diese FinFET Dinger wohl nicht, aber eine echte 7nm Fertigung ist 4x so gut wie eine echte 14nm Fertigung. Vergleiche doch mal bitte 90nm GPUs mit Transistor pro Fläche und das mit 40nm GPUs oder 90nm CPUs mit 45nm CPUs. Du wirst merken das auf die selbe mm² Fläche wirklich 4x so viele passen können. 45nm ist nicht nur 2x sondern eher 4x so gut wie 90nm. 65nm ist nur 2x so gut wie 90nm, aber 45nm ist schon mehr 3-4x so gut.

4. Und jetzt nervst du langsam auch mit deiner überheblichen Art. Ich habe nie gesagt das eine PS5 einen High End PC knacken wird und soll in der Zukunft. Ich sagte nur 10-20 TF ist im Jahr 2020 sicher Mittelklasse und die PS5 wird dann einfach wie jetzt die PS4 kein High End System sondern einfach Mittelklasse/Performance Klasse. Habe ich je geschrieben das die PS5 in die 800€+ Konsolenklasse kommen soll? Ich sagte was von 300mm² und erst ab 400-600mm² ist man bei GPUs only in dem High End Bereich, aber ich rede von 300mm² SoC (quasi CPU, GPU und andere Dinge in einem).

Total unlogische Argumente die du da bringst ist schon peinlich was du glaubst zu wissen. Pro Transistorzahlen... je mehr Transistoren desto wärmer... Alles total falsch. Weil du das anhand der heutigen High End GPUs nicht so sehen kannst.

Früher war eine 7800 GTX mit 330mm² High End oder eine X1900XTX, aber heute ist High End 550mm² und logisch das ein so großer High End Chip mehr verbraucht als ein 300mm² High End Chip damals. Aber deiner unwissenden Logik nach dürfte ja heute eine Karte dank so vieler Transistoren ja 1500 Watt schlucken als eine Karte in der 90nm Gen..

mboeller
2015-01-19, 08:21:27
Falsch ;) 16nm @ TSMC ist 20nm mit FinFET. Dort hast du keine Flächenensparungen. Also kommst du maximal auf 4x mehr Transistoren gegenüber 28nm. Allerdings behauptet TSMC mit 10nm bereits 1 Jahr nach 16nm FinFET bereit zu sein. TSMC ist aber definitiv nicht dafür bekannt, ihre Roadmaps zeitlich einzuhalten :freak:


ich bin einfach mal von "richtigen" 10nm ausgegangen. Ansonsten hätte es ja noch schlechter ausgeschaut.


Haha, ich hoffe doch schwer es war nicht die "Hölle" ;D

upps. Netter verschreiber. :freak:

mboeller
2015-01-19, 08:46:22
20nm wird es kaum geben beim Desktop (lohnt sich kaum)
16nm FinFet wird von Nvidia 2016 genutzt
14nm FinFet wird dann von AMD ende 2015 anfang 2016 genutzt.
Intel soll schon 2016 10nm nutzen können (laut ihnen).


16nm Finfet in 2016... ja, aber nicht im Januar. Eher Mitte bis Herbst 2016. Siehe 20nm. Handy-SoC's laufen schon seit Monaten vom Band und auf die GPUs warten wir immer noch.


Wie will man mit 2-3x Leistung zur PS4 bitte 4K Unterstützen mach dich bitte nicht zum Affen.


aha! und jetzt erklär mir mal wie man unter den gegebenen Bedingungen (28nm -> 10nm) und einem Die-Area-Budget von max. 350-400mm² und max. 200W auf mehr kommen will? außerdem war von 3-4x mehr die Rede (falls 10nm wirklich 10nm sind).

Wenn bis 2018 keine exotischen Technologien im Einsatz sind hast du wohl Pech gehabt.



Also ein i7 2630QM (4x 2 GHz) ist um einiges schneller als ein Core 2Q Q9000 (4x 2 GHz).
Oder ein i7 4710MQ (4x 2,5 GHz) ist auch um einiges schneller als ein QX9300 (4x 2,5 GHz).
Ein Core 2 Duo mit 2,8 GHz ist auch schneller als ein pentium D mit 2,8 GHz.
Klar die 40% mehr pro MHz werden wir so schnell nicht mehr sehen zumnindestens nicht in der nächsten Gen, aber später könnte es kommen du kannst das sicher nicht wissen.


...tja und du hast mich angemacht weil ein PC vor 10 Jahren angeblich >>10x langsamer gewesen sein soll als ein neuer... Die reine Rechenleistung (Integer) ist aber nur um viel weniger gewachsen.



Du bist mir ja ein Witzbolt mit die Technologie ist an der Grenze... Selten so gelacht... Ok dann musst du ja nach der GTX 980 keine neue Karte mehr kaufen... 4k und 8K kannst du vergessen. Die GTX 980 ist ja am Limit des möglichen. Sorry, aber ich denke vor 5nm ist die Grenze sicher nicht in Sicht. Auch dann werden Computer schneller nur eben auf andere Art und Weise.


...inform dich und red keinen Quark. Die Technik ist momentan ausgereizt. Es ist nicht umsonst so das 28nm auf absehbare Zeit der billigste Prozess sein wird (pro Transistor). Finfet und FD-SOI (falls es wirklich kommt) sind ein Notnagel weil das reine Schrumpfen nicht mehr funktioniert. Der Aufwand um noch was besseres bringen zu können steigt gravierend an. Viele Founderies werden da nicht mehr mitmachen und die Kunden auch nicht weil die Kosten aus dem Ruder laufen. Ohne exotische Technologien die sich gerade erst am Anfang der Entwicklung befinden ist in ein paar Jahren Schicht im Schacht. Mehr geht nicht mehr. Atome haben halt eine endliche Größe.


Du hast doch behauptet je mehr Transistoren umso mehr verbrauch. Sorry, aber in den letzten 10 Jahren ist mir nichts aufgefallen. Dank jeder neuer nm Fertigung konnte das mühelos aufgefangen werden. Ich denke ... nein ich weiß eine 7nm GPU wird bei 300mm² und 900mhz keinen deut mehr verbrauchen als eine 28nm GPU in 300mm² mit 900 MHz. So war es bisher so und bevor du jetzt wieder auf Experte/Meister oder Profi machst nenne mir ein Beispiel.

wie schon mal geschrieben die Historie hilft dir nicht weiter. Eine gerade einfach weiterzuzeichnen bringt dir nichts außer das zu dabei ziemlich dumm aus der Wäsche schaust.

mboeller
2015-01-19, 08:49:49
@mboeller

die Verbesserungen pro MHz und Core sind ja mal richtig uninteressant.


Doch schon. Laut Coda einem Spieleentwickler kann man 8 Kerne noch auslasten. Mehr aber nicht mehr. Leistung/Watt ist ebenfalls wichtig. Aber wenn die Anzahl der Kerne nicht mehr wächst dann ist das Leistung/Watt Verhältnis und das Power-Budget IMHO eine ziemlich fixe Größe die sehr stark am Prozess hängt.

mboeller
2015-01-19, 09:05:06
1. Dann ist Dingens heute i7 CPU (22nm über mrd Transistoren) ja 10x so teuer als Intel Core 2 Extrem (200 mio Transistoren). Du sagst ja man zahlt pro Transistor nicht pro mm²... Dummes argument, weil dann von 110 zu 90 zu 65nm zu 55/45/40nm zu 28nm müsste eine GTX 980 ja jetzt 4000€ kosten, da die 8800 Ultra ja nur 600 mio Transistoren hatte und 500€ gekostet hatte. Oh und in 7nm kostet etwas vergleichbares in 400mm² größe wohl 10000€ hat ja dann sicher 10mrd Transistoren und muss ja wohl 10000€ kosten. Kopfschüttel.


wie schon mehrmals gesagt informier dich!

zb.: http://wimages.vr-zone.net/2014/04/NV-Pres4.jpg


Und falls du nicht endlich mit Fakten kommst sondern weiter nur rumtrollst ist damit die Diskusion beendet.

Locuza
2015-01-19, 09:30:37
Doch schon. Laut Coda kann man 8 Kerne noch auslasten. Mehr aber nicht mehr.
Da zitierst du lieber Coda direkt, ansonsten springt er auf dich für unterstellte Behauptungen ;)

mboeller
2015-01-19, 10:02:54
Da zitierst du lieber Coda direkt, ansonsten springt er auf dich für unterstellte Behauptungen ;)

ok, habs geändert. Ich bin einfach zu faul mir den Beitrag rauszusuchen. :)

Monsta
2015-01-19, 10:33:10
Doch schon. Laut Coda einem Spieleentwickler kann man 8 Kerne noch auslasten. Mehr aber nicht mehr. Leistung/Watt ist ebenfalls wichtig. Aber wenn die Anzahl der Kerne nicht mehr wächst dann ist das Leistung/Watt Verhältnis und das Power-Budget IMHO eine ziemlich fixe Größe die sehr stark am Prozess hängt.

Mehr als 8 Kerne soll man nicht auslasten können?
Das kann ich nur ganz schwer glauben.

Und je kleiner der Prozess, desto weniger Stromverbrauch. So war es bis jetzt.
Ist mir ein Rätsel warum das in Zukunft anders sein soll.

Malvinen
2015-01-19, 10:45:03
Ihr betreibt da ganz klar Kaffeesatzleserei.
Kein Mensch kann Euch heute sagen wann EUV oder Elektronenstrahllithografie einen für die Foundries akzeptalen Wert (Yield) erreicht haben in der grossen Volumenproduktion.

tobor
2015-01-19, 10:46:07
10. 4-8x MSAA um selbst in 4K null Flimmern zu haben.

Braucht man mit 4k noch Antialiasing? Wenn,dann dürfte Postaa ausreichen.

y33H@
2015-01-19, 11:16:42
Ja, braucht man. Am besten SSAA ;D

Mandalore
2015-01-19, 11:29:18
Braucht man mit 4k noch Antialiasing? Wenn,dann dürfte Postaa ausreichen.


Ich hatte mal einen 28" 4K. Also meiner Meinung nach braucht man es nicht, klar man sieht immer noch Aliasing (das wird man selbst mit 8K noch sehen) aber das ist so gering das es fast nicht auffällt. FXAA reicht aus und gut ist...

DinosaurusRex
2015-01-19, 12:13:02
Laut Coda einem Spieleentwickler kann man 8 Kerne noch auslasten. Mehr aber nicht mehr.

Also ich glaube der hat genau das Gegenteil gesagt. Wir reden doch über Konsolen, oder? Ich glaube der hat mal gesagt, dass er sich noch mehr Kerne in diesen Konsolen wünschen würde. Noch ein drittes Jaguar-Modul oder sowas war das glaub ich... Kontext war, dass die zwei Kerne fürs OS lächerlich viel seien und wenn die fucking Hersteller das nicht besser können, dann sollen sie eben mehr fucking Kerne in diese fucking Konsolen stecken. Ja, ich glaube das war der Wortlaut.

Ja, braucht man. Am besten SSAA ;D

Screenspace Antialiasing? Das klingt vernünftig und kosteneffizient.

y33H@
2015-01-19, 12:34:11
Supersampling, am besten SG ... wie üblich. Post-AA macht dir die 4K-Texturschärfe kaputt, zudem entflimmert es keine Alpha-Tests.

DinosaurusRex
2015-01-19, 12:40:15
Für den Alpha-Quatsch haben die doch sicher schon was cooles anderes parat, das die niedrige Render-Latenz des stacked RAM voll ausnutzt.


http://i.imgur.com/u6JVgPL.gif

robbitop
2015-01-19, 13:25:47
SMAA T2x ist günstig und relativ gut. SSAA steht IMO außer Frage. MSAA ist seit DR-Engines zu teuer. - da sollte man es mit der Sampleanzahl nicht übertreiben Man kann SMAA noch um 2x MSAA ergänzen (SMAA 4x bzw S2x). Für Alphatests nutzt man einfach A2C und schon wird es vom MSAA Anteil mitgeglättet.
Specular Aliasing ist IMO Sache des Entwicklers. Er muss halt schauen, wie er mit hochfrequentem Content umgeht. Das wird leider häufig noch verkehrt gemacht. An Ryse sollten sie sich ein Beispiel nehmen.

mboeller
2015-01-19, 13:33:22
Also ich glaube der hat genau das Gegenteil gesagt. Wir reden doch über Konsolen, oder? Ich glaube der hat mal gesagt, dass er sich noch mehr Kerne in diesen Konsolen wünschen würde. Noch ein drittes Jaguar-Modul oder sowas war das glaub ich... Kontext war, dass die zwei Kerne fürs OS lächerlich viel seien und wenn die fucking Hersteller das nicht besser können, dann sollen sie eben mehr fucking Kerne in diese fucking Konsolen stecken. Ja, ich glaube das war der Wortlaut.


Ihr könnt recht haben. Ich hab mal ein wenig nach einem Beitrag zu den 8 Kernen gesucht, aber leider nichts gefunden.

robbitop
2015-01-19, 13:45:28
Ich kann mir gut vorstellen, dass in der nächsten Generation weiterhin von AMDs Semi SoCs Buisness Unit Gebrauch gemacht wird. Die komerziellen Ergebnisse sind gut, P/L der HW war super, Entwicklungskosten waren gering und man hatte doch eine ganz gute Auswahl.

Zur nächsten Konsolengen wird man eben mehr und bessere Kerne nutzen. Da sind wir dann schon bei Weiterentwicklungen von Zen/K12 (je nach dem welche µ-Arch besser passt) und FinFet Prozessen, die entsprechende Kernzahlen zulassen.

Würde mich nicht wundern, wenn 12-16 Zens mit einem Taktrate, die an dessen Sweetspot liegt verbaut würden. (vieleicht 2-3 GHz?). HBM sollte dann wirklich auch serienreif sein.

IMO wird es wieder P/L HW von der Stange sein. Gut und günstig. Daraus hat man gelernt.

4K könnte eine neue Marke sein, die man anpeilt. Andererseits verballert man gleich das 4x der Rechenleistung ggü FullHD. Vieleicht wird dann in der Mitte der Konsolenlebenszeit wieder fröhlich skaliert.

DinosaurusRex
2015-01-19, 13:49:45
http://abload.de/img/ducksterpzu2x.jpg


IMO wird es wieder P/L HW von der Stange sein. Gut und günstig. Daraus hat man gelernt.


Tjo, jetzt stellt sich nur noch die Frage, wie Hardware von der Stange in ein paar Jahren aussieht. Vermutlich deutlich komplexer als heute.

RLZ
2015-01-19, 13:58:00
Doch schon. Laut Coda einem Spieleentwickler kann man 8 Kerne noch auslasten. Mehr aber nicht mehr.
Darf ich das (wie in den letzten 10 Jahren auch) als Bullshit abtun?
Wenn sich meine Erinnerung nicht täuscht, hat sich auch Coda hier schon mehr Kerne gewünscht.

Slashman
2015-01-19, 14:39:15
16nm Finfet in 2016... ja, aber nicht im Januar. Eher Mitte bis Herbst 2016. Siehe 20nm. Handy-SoC's laufen schon seit Monaten vom Band und auf die GPUs warten wir immer noch.
20nm wird wohl nicht für Desktop Karten kommen. Es wird wohl übersprungen wie damals 32nm (von 40nm gleich auf 28nm von 28nm auf 16nm FinFet).
Das wurde doch schon mal in News erwähnt oder irre ich mich.


aha! und jetzt erklär mir mal wie man unter den gegebenen Bedingungen (28nm -> 10nm) und einem Die-Area-Budget von max. 350-400mm² und max. 200W auf mehr kommen will? außerdem war von 3-4x mehr die Rede (falls 10nm wirklich 10nm sind).

Wenn bis 2018 keine exotischen Technologien im Einsatz sind hast du wohl Pech gehabt.
Von 28nm zu 10nm ist es definitiv mehr als 3-4x. Von 28nm zu 14nm geht schon das 4x (siehe von 90nm zu 45nm, was nicht 2x menge Transistoren pro mm² sondern bis zu dem 4x erlaubte). Setzt vorraus das die 14nm auch echte 14nm sind. Also wenn von 28nm zu 14nm gut das 4x möglich ist bei gleicher größe und TDP, dann erwarte ich bei echten 10nm (7nm FinFet 2019/2020) locker das 8x der PS4. Gegenbeweise habe ich ja genannt und als Beispiel ja die ca. 300mm² AMD Radeon verschiedener nm größen.



...tja und du hast mich angemacht weil ein PC vor 10 Jahren angeblich >>10x langsamer gewesen sein soll als ein neuer... Die reine Rechenleistung (Integer) ist aber nur um viel weniger gewachsen.
Es ist doch kack egal wie eine CPU schneller ist, aber eines kann ich dir sagen ein i7 Quad Core ab Sandy Bridge ist 40% schneller als ein Core 2 Quad Penryn/Conroe mit gleichem Takt. Ich habe 3 Notebooks. Jeder mit Quad Core einmal C2Q Q9000 (2 GHz), i7 2630QM (2 GHz) und jetzt i7 4700HQ (2,4 GHz).
Also willst du mir sagen das der C2Q Q9000 mit seinen 2 GHz in Spielen und Benchmarks genauso schnell ist wie der i7 mit 2 GHz... Interessant, da Notebookcheck Benchmarks ganz klar belegen, das der i7 nahezu in allem weit aus schneller ist (minimum 40% pro Kern und MHz). Zeige mir doch bitte reale Benchmarks zu Spielen, Konvertern die belgen das ein Pentium 4 mit 3,6 GHz einen Intel Core i3 Dual Core mit 1,8 Ghz schlägt. Deiner logik nach wäre es ja möglich.


...inform dich und red keinen Quark. Die Technik ist momentan ausgereizt. Es ist nicht umsonst so das 28nm auf absehbare Zeit der billigste Prozess sein wird (pro Transistor). Finfet und FD-SOI (falls es wirklich kommt) sind ein Notnagel weil das reine Schrumpfen nicht mehr funktioniert. Der Aufwand um noch was besseres bringen zu können steigt gravierend an. Viele Founderies werden da nicht mehr mitmachen und die Kunden auch nicht weil die Kosten aus dem Ruder laufen. Ohne exotische Technologien die sich gerade erst am Anfang der Entwicklung befinden ist in ein paar Jahren Schicht im Schacht. Mehr geht nicht mehr. Atome haben halt eine endliche Größe.
Wer redet hier Quark... zwar wird es keine 2-4nm Fertigung geben, aber 28nm ist definitiv nicht das Limit der Technik. Ich denke echte 5-7nm werden wir noch sehen und dann geht es weg vom Transistorsystem und hin zu einer neuen gänzlich anderen Technik. Aber 28 bzw. 20nm ist nicht das Limit. Wenn ja musst du ab jetzt deinen PC niewieder Aufrüsten... Wozu 1000 Jahre lang wird es nichts geben... So ein Quark.

wie schon mal geschrieben die Historie hilft dir nicht weiter. Eine gerade einfach weiterzuzeichnen bringt dir nichts außer das zu dabei ziemlich dumm aus der Wäsche schaust.
Ich habe dir ein Beispiel genannt, das deine Theorie (mehr Transistor, = mehr Verbrauch selbst mit kleineren Strukturen) quark ist. Sonst müsste wie gesagt eine Karte von heute 100x so viel verbrauchen wie vor 10 Jahren. Ist dem so? Nein, Das Karten zur Zeit im verbrauch steigen liegt am höheren Takt. Kurzes Beispiel für dich:

110n 300mm² GPU 240 mio Transistoren bei 500 MHz = 160 Watt.
90nm 300mm² GPU 330 mio Transistoren bei 500 MHz = 160 Watt TDP
65nm 300mm² GPU 660 mio Transistoren bei 500 MHz = 160 Watt TDP
65nm 300mm² GPU 660 mio Transistoren bei 650 MHz = 180 Watt TDP
55nm 300mm² GPU 1,1 mrd Transistoren bei 500 MHz = 160 Watt bei 750 MHz logisch bei 200 Watt.
40nm 300mm² GPU 2,2 mrd Transistoren bei 500 MHz = 160 Watt bei 850 MHz dann wohl 215 Watt.
28nm 300mm² GPU 4,4 mrd Transistoren bei 500 MHz = 160 Watt bei 1 GHz dann logisch 250 Watt.
und so weiter. Verstanden die TDP steigt nur weil der Takt auch steigt trotz schon doppelter Transistorzahl. Da hilft auch ein neuer Fertigungsprozess nicht wirklich.

Wenn bald die 300mm² GPUs in 14nm bei 1,2 GHz laufen ist ja wohl klar das diese dann mehr verbrauchen als eine 300mm² GPU in 65nm bei nur 600 MHz. 2x Takt bei gleicher größe.

mboeller
2015-01-19, 14:57:08
Darf ich das (wie in den letzten 10 Jahren auch) als Bullshit abtun?
Wenn sich meine Erinnerung nicht täuscht, hat sich auch Coda hier schon mehr Kerne gewünscht.

du darfst :) ... ich hab jetzt versucht einen Beitrag dazu zu finden, leider ohne Erfolg.

mboeller
2015-01-19, 14:59:19
bla bla.

träum süß weiter.... und tschüß

Malvinen
2015-01-19, 15:09:24
du darfst :) ... ich hab jetzt versucht einen Beitrag dazu zu finden, leider ohne Erfolg.
Das war irgendwo im PS4/XOne Spekulation Thread, wenn ich mich nicht täusche. ;)

Slashman
2015-01-19, 16:44:51
wie schon mehrmals gesagt informier dich!

zb.: http://wimages.vr-zone.net/2014/04/NV-Pres4.jpg

Und falls du nicht endlich mit Fakten kommst sondern weiter nur rumtrollst ist damit die Diskusion beendet.
Was für Rumtrollen. Ich habe dir Fakten genannt und sogar aufgezeigt, das bei jeder neuen Fertigung eine GPU bei selber größe 2x so viele Transistoren bot, das bei gleicher TDP (siehe AMD GPUs und Wikieintrag bzw. Messungen), das dadurch bisher keine Karte wirklich teurer wurde. Deiner logik nach müsste eine HD 7970 ja 10x so viel kosten wie eine X1900XTX... Man zahlt ja pro Transistor... Bullshit.
Aha eine Nvidia Roadmap ist jetzt Referenz für was? Klar wird 20 bzw. 16nm teurer am Anfang als jetzt 28nm (weil schon total ausgereift). Am Anfang jeder neuer Fertigung war diese teurer und hat nicht unbedingt Wunder vollbracht, weil auch die Ausbeute nicht immer TOP war. Daher gibt es dann verfügbarkeits Probleme.

träum süß weiter.... und tschüß
Ja denk doch was du willst. ein Haswell, Sandy Bridge ist nicht besser als ein Pentium 4 bei gleicher MHz... Sorry lache noch immer darüber.
http://www.computerbase.de/2009-12/test-prozessoren-2009/4/ (ein Q6600 mit 4x 2,4 GHz ist langsamer als ein Q8200 mit 4x 2,33 GHz... Oh warte wie das?)
Ein Intel Core i5-750 ist 31% schneller als ein Q9550 obwohl der alte höher getaktet ist... Was? Ein Wunder und es wird noch besser... Du solltest dich besser selbst Informieren, da ich dir gerne eine Benchmarkliste geben kann wo alle Desktop und Notebook sogar Handy CPUs gelistet sind und wie sie was in Benchmarks meistern.
http://www.notebookcheck.com/Mobile-Prozessoren-Benchmarkliste.1809.0.html (Desktop und Notebook/Handy CPUs in einer Liste in verschiedenen Benchmarks von Spiel zu Theorie bzw. Konverter).
Aber hey ich nenne ja angeblich keine Fakten und Intel sollte man verklagen... ein i7 ist ja nicht schneller als ein Pentium 4...
2020 wird es eine PS5 geben die maximal 4x so gut sein wird wie eine PS4... (aha Fakten dazu??? Naja mir aber vorwerfen keine Fakten zu haben) Den Kunden will ich sehen der nur wegen 4x Leistung 7 Jahre wartet.
Gehst auf die Punkte mit haltlosen Behauptungen ein und selbst die Fakten (HD 4890 und HD 5870 als Beispiel) werden ignoriert... Ja ok habs verstanden.
Die Technologie ist an der Grenze... Sorry, aber ab jetzt ist AMD und Nvidia bzw. Intel und IBM am Arsch... warum... keine neuen Produkte mehr... keiner wird jetzt mehr Aufrüsten... Frage warum hat man Aufgerüstet vom Pentium 4... Hey ein i7 ist ja nicht schneller^^. Oh und weil doch pro Transistor gezahlt wird wird falls es neue GPUs geben wird das 2x bezahlt. Den eine 14nm FinFet GPU wird sicher 2x so viele Transistoren haben... Also kostet eine AMD R9 390X bestimmt 2x so viel wie eine R9 290X zu Release.

Du bist dir doch aber im klaren, das 4K Grafik in Crysis 3 Art locker mal 3 GTX Titan Black verschluckt ohne dabei auf 40 FPS zu kommen. Also 4K kommt und das sicher, aber AMD und Nvidia sollten am besten ihre Firmen schliesen... Es wird ja nix neues kommen... Technologie ist ja am Limit... Nix mit verbesserten Chips nein ein User sagt wir sind am Limit und alle müssen ihm zustimmen.
Braucht man mit 4k noch Antialiasing? Wenn,dann dürfte Postaa ausreichen.
Ja schon, weil flimmern kann es dann ja noch immer. Ok 8x MSAA muss es nicht zwingend sein, aber 2x MSAA und FXAA Kombiniert wäre doch auch OK.

Zum Thema zurück und weg vom PC Meister der meint ein P4 sei nicht langsamer als ein i7:

Ist es so übertrieben zu sagen, das eine PS5 im Jahr 2020 folgende Daten hat (da ja einiges laut TSMC, GF/Samsung und Intel möglich ist im nm Bereich):

APU
8-12x 3,2 GHz K12 Kerne (Nachfolger von Bulldozer) in Low Power Version (qausi dann richtiger Jaguar Nachfolger)
- CPU Teil mit 1-2 mrd Transistoren
- pro MHz ca. 20-40% schneller als ein heutiger Bulldozer (von Q2Q zu i7 gabs schon die 40%, warum sollte AMD das nicht gelingen)

GPU Teil:
8192 Shader bei 1 GHz MHz in 7-10nm (nicht FinFet sondern wohl eher echte 7-10nm).
64 ROPs
128-192 TMUs
256 Bit GDDR5 oder HBM Vram bzw. Shared RAM. (32-64 GB wobei ich eher zu 64 GB tendiere).

Sollte das nicht so kommen. Frage ich mich welcher Kunde nach 7 Jahren nur wegen maximal 4x mehr Leistung zur PS4 überhaupt neue Konsolen kaufen sollte. 7 Jahre und nur das 4x bei gleicher bauform? ich denke nicht, das wäre mal echt neu. Aber einer sagte ja schon wir sind am Limit. jetzt muss Intel und AMD die Bude dicht machen... keine neuen Technologien mehr^^.

Coda
2015-01-19, 17:29:22
Die IPC-Rate von Haswell ist mindestens doppelt so hoch wie von einem P4. Das steht ja wohl außer Frage.

Deinorius
2015-01-19, 17:52:17
Intel P4? Der Vorteil müsste doch mind. im dreifachen Bereich liegen. :ugly:

Slashman
2015-01-19, 17:56:57
Die IPC-Rate von Haswell ist mindestens doppelt so hoch wie von einem P4. Das steht ja wohl außer Frage.

Sag das nicht mir, da gab es einen user... nennen wir ihn Unwissend^^. Der sagte ein pentium 4 ist nicht wirklich schwächer pro kern/Mhz als ein i7 egal welcher.

Also dann muss ich jetzt Intel verklagen^^... Sie haben ja betrug geleistet... Erst den Core 2, dann i7 bzw. dessen Nachfolger... Alle sind laut Benchmarks pro Kern locker in jedem Bereich um einiges schneller. Also vom Pentium D zum Core 2 Duo steig ja die Leistung an. Vom Conroe zum Penryn ebenso und dan zum i7 noch mal ein stück. Sandy Bridge ist ja 20% schneller als sein direkter Vorgänger.

Tesseract
2015-01-19, 17:58:15
naja, dreifach ist schon etwas gewagt aber 2,2-2,5 könnten schon drin sein wenn man ohne neuere instruction sets vergleicht.

Slashman
2015-01-19, 17:59:56
naja, dreifach ist schon etwas gewagt aber 2,2-2,5 könnten schon drin sein wenn man ohne neuere instruction sets vergleicht.

Jetzt noch die neuen Instructions Sets wie AVX2 nehmen und schon zerfetzt ein i3 Dual Core einen Pentium 4 Dual Core (Pentium D) in der Luft. Und gäbe es einen i3 Single Core würde er mit 2 GHz einen Pentium 4 sehr alt aussehen lassen selbst wenn der Pentium 4 mit mehr als 3,6 GHz läuft.

Coda
2015-01-19, 22:36:50
Die SIMD-Sachen sind leider oft nicht so wichtig. Software darauf zu optimieren ist nicht einfach. Muss man gut planen von Anfang an.

Jetzt noch die neuen Instructions Sets wie AVX2 nehmen und schon zerfetzt ein i3 Dual Core einen Pentium 4 Dual Core (Pentium D) in der Luft.
Das macht er auch bei völlig normalem Code. Ihr habt glaube ich echt verdrängt wie beschissen der Pentium 4 wirklich war.

Tesseract
2015-01-20, 00:08:58
Ihr habt glaube ich echt verdrängt wie beschissen der Pentium 4 wirklich war.
tatsache. ich hatte in erinnerung, dass der Pentium Extreme Edition 965 meist zwischen einem E6300 und einem E6400 gelegen ist. beim simplen numbercrunching ist das auch oft der fall aber in spielen liegt er fast immer deutlich hinter dem E6300. auch der unterschied zwischen C2D und HSW ist eigentlich größer.

d.h. in spielen dürfte der faktor eher so richtung ~3,5 gehen. :freak:

mboeller
2015-01-20, 07:31:19
Sag das nicht mir, da gab es einen user... nennen wir ihn Unwissend^^. Der sagte ein pentium 4 ist nicht wirklich schwächer pro kern/Mhz als ein i7 egal welcher.

Also dann muss ich jetzt Intel verklagen^^... Sie haben ja betrug geleistet... Erst den Core 2, dann i7 bzw. dessen Nachfolger... Alle sind laut Benchmarks pro Kern locker in jedem Bereich um einiges schneller. Also vom Pentium D zum Core 2 Duo steig ja die Leistung an. Vom Conroe zum Penryn ebenso und dan zum i7 noch mal ein stück. Sandy Bridge ist ja 20% schneller als sein direkter Vorgänger.

Du ist ja ein ganz NETTER...


Wer hat hier behauptet das ein heutiger PC min. 10x schneller ist als einer von vor 7 Jahren... und wer wollte nicht einsehen das der Vorteil nur beim Faktor 3-4 liegt...

ich quote dich hier mal...


Stell dir vor du kaufst dir einen PC und 7 Jahre später ist ein PC nur 4x so schnell.. Sorry das kam nie vor und wird nicht vor 2-4nm so sein. Ich glaube zwar nicht mehr an den Spung von PS2 zu PS3 (20x Leistung), aber an eine 8-12x Leistung glaube ich definitiv.


und wer hatte dann recht... bestimmt nicht der Träumer der von einer 8-12x fach höheren Leistung gefaselt hat.


und der 7-zip Benchmark dessen Link ich gepostet hatte sagt was aus?

P4 @ 3GHz (1 Core) = 1500 Punkte
Ivy Bridge @ 3.4GHz (1Core) = 4200 Punkte

Das ist so Faktor ~2,5 (IPC) ... stimmt also mit der Einschätzung der anderen hier überein.


Was wirfst du mir also vor? Das ich hier ein wenig normal denke und keine Fantasien verbreite so wie du?

tm0975
2015-01-20, 09:08:07
was hat das denn bitte alles noch mit den konsolen zu tun? es ist doch völlig egal, welchen faktor mehrleistung die nächste konsolengeneration bringt. es wird in jeden fall budget-hardware sein, also ein SoC für unter 100 $. und wahrscheinlich wird sich vieles nach der verbreitung neuer tv-standards richten. wahrscheinlich wird auch endlich eine ssd standard werden.

DinosaurusRex
2015-01-20, 10:11:21
"Budget-Hardware"? So wie die 8GB GDDR5 RAM in der PS4? Wo jeder für verrückt erklärt wurde, der auf sowas im Vorfeld der Enthüllung spekuliert hat?

TDP und Yields werden die Leistung der neuen Systeme diktieren. Eigentlich logisch, oder? Du musst es in einem wohnzimmertauglichen Gehäuse kühlen können und du brauchst die Chips in rauen Mengen. Je mehr Chips du innerhalb eines Zeitfensters kaufen kannst, desto günstiger wird der einzelne Chip auch, ganz unabhängig davon, wie leistungsstark er ist. Das ist 1. Semester BWL. Sowas automatisch als "Budget-Hardware" abzustempeln, kann nur jemand, der vermutlich denkt, dass man ohne triple Titan keine Videospiele genießen kann. Immer dieser dämliche Elitarismus... "Gibts das auch in teuer?" *kotz*

N0Thing
2015-01-20, 11:20:05
Budget-Hardware in dem Sinne, daß man auf Hardware festgelegt ist, mit der sich eine 400€ Konsole bauen lässt, ist doch ein recht treffender Begriff. Die Yields der Chips und die TDP sind sekundäre Merkmale, die Einfluss auf den Preis haben und damit auch wieder die Leistung beeinflussen.
Mit 8GB GDDR5 bei der PS4 hat lange keiner gerechnet, GDDR5 als Speicher war aber einige Zeit vor Release ein als Gerücht im Raum. Und da Grafikkarten in Fertig-PCs gern mit doppelter Speichermenge an GDDR5 versehen werden, damit es im Prospekt was her macht, halte ich den Einfluss auf den Preis durch die Verdoppelung bei der PS4 für nicht dramatisch.

Das hat mit "nur teuer ist gut" und "nur mit Triple-GPUs kann man spielen" nichts zu tun.

DinosaurusRex
2015-01-20, 11:56:26
Also ich finde es ist schon arg lächerlich, ein elektronisches Unterhaltungsgerät für 400€ "Budget-Hardware" zu nennen. Ich denke einige hier sind so enthusiastisch wenn es um Hardware geht, dass sie den Wald vor lauter Bäumen nicht mehr sehen können. Das grenzt schon fast an Realitätsverlust.

Malvinen
2015-01-20, 12:03:29
Budget-Hardware in dem Sinne, daß man auf Hardware festgelegt ist, mit der sich eine 400€ Konsole bauen lässt, ist doch ein recht treffender Begriff. Die Yields der Chips und die TDP sind sekundäre Merkmale, die Einfluss auf den Preis haben und damit auch wieder die Leistung beeinflussen.
Mit 8GB GDDR5 bei der PS4 hat lange keiner gerechnet, GDDR5 als Speicher war aber einige Zeit vor Release ein als Gerücht im Raum. Und da Grafikkarten in Fertig-PCs gern mit doppelter Speichermenge an GDDR5 versehen werden, damit es im Prospekt was her macht, halte ich den Einfluss auf den Preis durch die Verdoppelung bei der PS4 für nicht dramatisch.

Das hat mit "nur teuer ist gut" und "nur mit Triple-GPUs kann man spielen" nichts zu tun.

Bitte wie... Yield ist sekundär?:eek:
Wenn der Yield der neuen Scanner nicht an die der vorherigen Technologie heran reicht, kannst du über 16/10nm etc.
weiter spekulieren, weil es dann Spekulation bleib und keine der Foundries sich eine solche Strasse aufbaut. Bei schlechtem Yield kannst du Massenproduktion wohl eher vergessen.

Mit was Du dann in 5-7 Jahren als neuer Konsole spielen kannst, hängt dann eher davon ab, was zum Zeitpunkt x an Technologie für einen Preis den der Massenmarkt zu zahlen bereit ist, zur Verfügung steht wird.

N0Thing
2015-01-20, 12:19:50
Bitte wie... Yield ist sekundär?:eek:
Wenn der Yield der neuen Scanner nicht an die der vorherigen Technologie heran reicht, kannst du über 16/10nm etc.
weiter spekulieren, weil es dann Spekulation bleib und keine der Foundries sich eine solche Strasse aufbaut. Bei schlechtem Yield kannst du Massenproduktion wohl eher vergessen.

Mit was Du dann in 5-7 Jahren als neuer Konsole spielen kannst, hängt dann eher davon ab, was zum Zeitpunkt x an Technologie für einen Preis den der Massenmarkt zu zahlen bereit ist, zur Verfügung steht wird.

Ja Yield ist sekundär, denn Sony und MS entwerfen ihre Konsolen nicht auf Basis von Yieldraten sondern nach den Gesamtkosten. Indirekt fließt darin auch die Yieldrate durch die Kosten für den verwendeten Chip mit ein.
Ich denke alle sind sich einig, dass ein Konsolen-Chip allein aus Kostengründen nicht auf dem allerneuesten Prozess als risk production hergestellt wird.
Wenn der Preis bei den dann aktuellen Herstellungsprozessen nicht passt, wird man eben einen älteren verwenden. Selbst AMD und Nvidia, die früher immer die ersten waren, die auf neue Prozesse gewechselt sind, haben bisher für ihre GPUs 20nm bei TSMC nicht benutzt, obwohl die Yields nicht so schlecht sein können, wenn der Prozess gut genug ist, um massenhaft ARM-SoCs auszuspucken.

tobor
2015-01-20, 12:48:24
"Budget-Hardware"? So wie die 8GB GDDR5 RAM in der PS4? Wo jeder für verrückt erklärt wurde, der auf sowas im Vorfeld der Enthüllung spekuliert hat?

TDP und Yields werden die Leistung der neuen Systeme diktieren. Eigentlich logisch, oder? Du musst es in einem wohnzimmertauglichen Gehäuse kühlen können und du brauchst die Chips in rauen Mengen.
Ähm,was genau ist denn wohnzimmertauglich? Ein Av-Receiver ist das auch und die sind nicht grade klein...
Konsolen mit 200 bis 250 Watt Tdp sind nicht undenkbar.

DinosaurusRex
2015-01-20, 13:12:51
Unter 180 Watt sollte es schon bleiben. Numbers from my ass.

Slashman
2015-01-20, 14:28:18
bla bla bla Milch alle
Wie klingt das? nicht Nett oder^^.

Jetzt zum Punkt hast du nicht gesagt eine aktuelle CPU sei nicht wirklich schneller als ein Pentium 4?
Zitat:
"edit: http://www.7-cpu.com/ Vergleich mal einen Pentium4 mit einem Ivy Bridge pro Core
nicht der beste Benchmark, die Verbesserungen pro MHz sind überschaubar. "

Antwort von Monsta:
"lol was, ein Pentium 4 + SSE3, 3,6 GHz hat 14.4 GFLOPS ohne SSE3 und 3.2 GHZ dümpelt das Ding bei 3.1 GFLOP
Ein Haswell wird ohne die GPU fast die selbe Fläche haben.
Der 4770 knallt bei 3.5GHZ 177 GLOPS auf die Strasse. Und der Verbrauch sollte zugunsten des 4770 stehen. "

Also pro Kern/MHz 2,5x mehr Leistung dank 4 Kerne eben 10x Leistung... kommt hin mit meiner Einschätzung 4x 2,5x mehr Leistung (ohne AVX und co) ist schon mehr als nur 2-4x...

Noch mal ich glaube kaum oder nein um AMDs und Nvidias willen sollte eine 10nm GPU nicht nur 2-3x besser sein als eine Aktuelle 28nm GPU. Das wäre so peinlich, da von 55nm zu 40nm die AMD Karten 2x so schnell wurden und sogar sparsamer. (HD 5870 vs HD 4890). Warum sollte dann von 28nm zu 10nm nur 2-3 oder 3-4x Leistung sein? Das wäre ja so als ob von 90nm (7900 GTX) zu 28nm (HD 7870) nur Faktor 4 an mehr Leistung wäre... Ergibt keinen Sinn. Daher halte ich dein geposte für bla bla... Von 28nm zu 16nm erwarte ich schon Faktor 2-3 mehr Leistung, von 16nm zu 10nm noch mal einiges mehr (auch faktor 2-3) also eher 4-6x mehr Leistung.

Oh und obwohl die PS3 zu Release ein Monstersystem war (CELL, RSX/G70, XDR RAM und BD Laufwerk) war die PS4 knapp 6-7 Jahre später trotz viel viel günstigerer Hardware was... genau minimum 10x so schnell. Also wenn man tortz Mittelklasse Segment (100€ APU) noch immer 10x Speed rausholt warum sollte in weiteren 7 Jahren nicht das selbe möglich sein im selben Segment.

Aber ich vergesse ja Technologie ist am Limit, mehr als 8 kerne ist zu viel und was noch wichtiger ist. AMD, Nvidia und Intel sollten besser ihren Laden dicht machen... Nix komtm mehr... Technologie am Limit.

Unter 180 Watt sollte es schon bleiben. Numbers from my ass.
Also nicht so hoch... maximal 160 Watt also wie die PS4 nur 125-145 Watt in Spielen. Ich meine wozu mehr? Die PS4 wurde sparsamer und schneller als die PS3 Slim (nicht Superslim). Das ist das beste was Sony machen konnte bei der PS4. Mich hat der Staubsauger bei der PS3 so gestört das ich diese bis heute nicht kaufen würde. Selbst die Slim ist nicht Slim genug. Die PS4 hingegen ist klein, leise (bei mir kaum hörbar) und trotzdem 10-16x so schnell wie die PS3.

mboeller
2015-01-20, 15:02:45
Wie klingt das? nicht Nett oder^^.


OK akzeptiert


Jetzt zum Punkt hast du nicht gesagt eine aktuelle CPU sei nicht wirklich schneller als ein Pentium 4?
Zitat:
"edit: http://www.7-cpu.com/ Vergleich mal einen Pentium4 mit einem Ivy Bridge pro Core
nicht der beste Benchmark, die Verbesserungen pro MHz sind überschaubar. "


für mich sind 3-4x schneller in 14 Jahren "überschaubar".

Der P4 kam in der ersten Revision ja schon Ende 2000 auf den Markt. Du gehst von 8-12x in 7 Jahren aus... also 2-3x schneller als zw. P4 und Ivy-Bridge und das in der halben Zeit. Du gehst also von der 4-6 mal mehr Leistung/Jahr aus als in Realität...

und der P4 hatte eine ziemliche schlechte Leistung im Vergleich zum Athlon. Der Athlon64 X2 schafft bei 2GHz schon 1800 Punkte beim Benchmark. Die Leistung pro MHz zw. Ivy Bridge (4200 @ 3.4GHz) und Athlon64 [K8] (1800@2GHz) ist also wirklich nicht so unterschiedlich. Die IPC ist in 11 Jahren damit nur um 37% gestiegen... also sehr wenig.



Antwort von Monsta:
"lol was, ein Pentium 4 + SSE3, 3,6 GHz hat 14.4 GFLOPS ohne SSE3 und 3.2 GHZ dümpelt das Ding bei 3.1 GFLOP
Ein Haswell wird ohne die GPU fast die selbe Fläche haben.
Der 4770 knallt bei 3.5GHZ 177 GLOPS auf die Strasse. Und der Verbrauch sollte zugunsten des 4770 stehen. "


wie schon geschrieben FLOPS / SIMD ist unwichtig. In einer Konsole macht das meistens sowieso die GPU ... siehe auch den Kommentar von Coda.


Das wäre so peinlich, da von 55nm zu 40nm die AMD Karten 2x so schnell wurden und sogar sparsamer. (HD 5870 vs HD 4890). Warum sollte dann von 28nm zu 10nm nur 2-3 oder 3-4x Leistung sein? Das wäre ja so als ob von 90nm (7900 GTX) zu 28nm (HD 7870) nur Faktor 4 an mehr Leistung wäre... Ergibt keinen Sinn. Daher halte ich dein geposte für bla bla... Von 28nm zu 16nm erwarte ich schon Faktor 2-3 mehr Leistung, von 16nm zu 10nm noch mal einiges mehr (auch faktor 2-3) also eher 4-6x mehr Leistung.


befasse dich endlich mal mit der Technologie dahinter und schau dir die Präsentationen von TSMC und Co. an... ich habe das getan! Und deshalb träume ich mir keine blauäugige Zukunft zusammen so wie du.
16nm (also 20nm+Finfets) ist nur um 60-80% besser als 28nm und kommt > 4 Jahre nach 28nm auf den Markt (Ende 2011 - Mitte 2016). Selbst wenn du die Leistung pro Watt bis 10nm noch einmal verdoppelst bist du bei weniger als dem 4-fachen von 28nm an Leistung pro Watt.. und der Verbrauch ist nun einmal maßgeblich. Alles andere ist unwichtig.


Oh und obwohl die PS3 zu Release ein Monstersystem war (CELL, RSX/G70, XDR RAM und BD Laufwerk) war die PS4 knapp 6-7 Jahre später trotz viel viel günstigerer Hardware was... genau minimum 10x so schnell. Also wenn man tortz Mittelklasse Segment (100€ APU) noch immer 10x Speed rausholt warum sollte in weiteren 7 Jahren nicht das selbe möglich sein im selben Segment.


...Historie ist nutzlos. Der Blick in den Rückspiegel hilft dir nicht beim Autofahren... da landest du sehr schnell im Graben

Wenns nach dem gehen würde hätte die NASA schon eine Basis auf dem Pluto

Skysnake
2015-01-20, 15:05:25
Slashman, du musst auch immer sehen, wie die Leistungssteigerungen erreicht wurden, und ob es solche Evolutionen in der Technik nochmal gibt. Bei sehr vielen Sachen kann man dazu sagen: Nein wird es nicht nochmal geben.

Du bist auch viel viel viel zu sehr in der Vergangenheit verhaftet. Früher war vieles einfacher. Da hatte man noch mehr Luft nach unten. Aktuell sieht man aber schon den Bodensatz. Daher verlangsamt sich auch die Entwicklung. Zyklen werden gestreckt.

Schau doch mal z.B. in die Berichte über die Halbleiterindustrie. Die neuen Prozesse werden erstmals keine Reduktion der Kosten pro Transistor mehr ermöglichen. Bisher war es immer so, dass die deutlich runter gegangen sind. Daher haben sich auf die Preise nicht erhöht, obwohl man mehr Transistoren verbaut hat.

=Floi=
2015-01-20, 15:23:26
trotzdem haben selbst kleine und billige chips die aktuellen prozesse. wäre es so unrentabel und teuer, dann würde man viel mehr die alten prozesse und anlagen nützen. selbst 40nm ist quasi steinalt.

mboeller
2015-01-20, 15:23:53
Slashman, du musst auch immer sehen, wie die Leistungssteigerungen erreicht wurden, und ob es solche Evolutionen in der Technik nochmal gibt. Bei sehr vielen Sachen kann man dazu sagen: Nein wird es nicht nochmal geben.

Du bist auch viel viel viel zu sehr in der Vergangenheit verhaftet. Früher war vieles einfacher. Da hatte man noch mehr Luft nach unten. Aktuell sieht man aber schon den Bodensatz. Daher verlangsamt sich auch die Entwicklung. Zyklen werden gestreckt.

Schau doch mal z.B. in die Berichte über die Halbleiterindustrie. Die neuen Prozesse werden erstmals keine Reduktion der Kosten pro Transistor mehr ermöglichen. Bisher war es immer so, dass die deutlich runter gegangen sind. Daher haben sich auf die Preise nicht erhöht, obwohl man mehr Transistoren verbaut hat.


Das versuche ich ihm seit 3 Seiten zu erzählen... aber leider ist er taub dafür.

mboeller
2015-01-20, 15:27:04
trotzdem haben selbst kleine und billige chips die aktuellen prozesse. wäre es so unrentabel und teuer, dann würde man viel mehr die alten prozesse und anlagen nützen. selbst 40nm ist quasi steinalt.

28nm wird laut Nvidia und soweit ich mich erinnere auch TSMC und Co. für lange Zeit der billigste Prozess bleiben bzgl. Kosten pro Transistor.

Gipsel
2015-01-20, 16:33:56
trotzdem haben selbst kleine und billige chips die aktuellen prozesse. wäre es so unrentabel und teuer, dann würde man viel mehr die alten prozesse und anlagen nützen. selbst 40nm ist quasi steinalt.Schau mal, wie viele Fabs mit wie vielen Waferstarts TSMC und Globalfoundries noch mit 40, 65, 90 oder gar noch größer betreiben ;). Selbst am Umsatz sind das noch merkliche Prozentzahlen, in Stückzahlen (da relativ billig) ist es noch ziemlich beträchtlich. Es gibt Unmengen an kleinen Controllerchips für irgendwas, nicht Alles sind CPUs und GPUs.

Slashman
2015-01-20, 17:07:25
für mich sind 3-4x schneller in 14 Jahren "überschaubar".

Sag mal stellst du dich extra dumm an?

Ich sagte 2,5x mehr Leistung pro Kern/MHz... Da ein Pentium 4 nur einen Kern hat, aber ein i7/i5 nunmal 4 Kerne hat ist es 4x 2,5x mehr also 10x höhere Leistung und das minimum.

Also real eher mehr würde ich meinen. Ein 3,5 GHz Core i Haswell ist bestimmt 10-14x so schnell.

2phil4u
2015-01-20, 17:19:16
Weiss eigentlich jemand, ob ein Chip mit EUV in der selben Fertigungsgröße besser performt ?
Ich mein bei den ganzen Tricks, die man anwenden muss kann ich mir vorstellen, dass die Struktur der Bauteile sehr leider und es wird wohl auch etliche Designbeschränkungen geben.
So weit ich gehört habe, soll EUV 2018 Marktreif sein, geben wir noch 2 Jahre drauf, dann sind wir bei 2020.
Die Fertigungskosten würden dann wieder besser nach unten skalieren, derzeit wird die Fertigung pro Transistor ja kaum bis gar nicht billiger, trotzdem lese ich von extremen Leistungsverbesserungen von 28nm auf 14 FF, ich glaube von über 50% sinkendem Verbrauch bei gleicher Leistung gelesen zu haben.
Was wird wohl ein aktueller 8 Kerner von Intel in 7 nm verbrauchen bei gleicher Leistung, ich tippe mal 20-30 Watt höchstens (vielleicht taktet er etwas niedriger hat aber ne höhere IPC), sogesehen geb ich Konsolen mal die Leistung von nem 15 Kerner Intel und 2 High End Grafikkarten in 6 Jahren, dazu noch andere Verbesserungen (Speicher, neue Befehle).
Kommt das etwa hin für 2020 ?
80% weniger Verbrauch wären also 100 Watt für die Grafikkarte (wenn schon 14 FF 60% einspart) und 50 Watt für den Prozessor.
Speicher sollte 64 GB doch locker reichen, wozu soll man denn bitte mehr brauchen ?

Vielleicht gibts auch sowas wie 4 starke Kerne, die 20 Watt verbrauchen und 32 niedrige getakte, dazu so 5000-8000 Shader und als Speicherbandbreite würde ich mal von 1 TB/s bei den HBM ausgehen, vielleicht ist das aber auch zu spät für die nächsten Konsolen.

DinosaurusRex
2015-01-20, 18:03:09
Ich würde mir ein next-gen GTA mit so einer Grafik wünschen:

pqpQwyx91Tg

Ist das machbar?

Lost Boy
2015-01-20, 18:10:49
Ich würde mir ein next-gen GTA mit so einer Grafik wünschen:

http://youtu.be/pqpQwyx91Tg

Ist das machbar?

Geld und Zeit sind wohl eher das Problem.

Gipsel
2015-01-20, 18:26:17
Weiss eigentlich jemand, ob ein Chip mit EUV in der selben Fertigungsgröße besser performt ?Wieso sollte er? Nur weil man eventuell etwas weniger strikte design rules hat? Im Moment hat man da immer noch Probleme an allen Enden und es wird gelegentlich überlegt, ob EUV mit 13.5nm Licht überhaupt noch Sinn ergibt oder man nicht lieber gleich zur Belichtung mit 7nm übergehen soll. Außer den Kosten sind so wichtige Dinge wie Variabilität (die beeinflußt auch die Performance, die man typischerweise erreicht) noch nicht wirklich unter Kontrolle.

DinosaurusRex
2015-01-20, 18:33:01
Geld und Zeit sind wohl eher das Problem.

Hmm, also wenn jemand Geld hat, dann sind es die GTA-Entwickler. Und so ne coole Scheibenwischeranimation schreit doch geradezu danach, Fußgänger zu überfahren...

drkohler
2015-01-20, 18:41:14
Schau mal, wie viele Fabs mit wie vielen Waferstarts TSMC und Globalfoundries noch mit 40, 65, 90 oder gar noch größer betreiben ;). Selbst am Umsatz sind das noch merkliche Prozentzahlen, in Stückzahlen (da relativ billig) ist es noch ziemlich beträchtlich. Es gibt Unmengen an kleinen Controllerchips für irgendwas, nicht Alles sind CPUs und GPUs.Das ist auch nicht verwunderlich. Die Northbridges auf allen PC-Boards wurden bis vor 1-2 Jahren auf >=110nm Linien hergestellt. Das ist nur logisch, denn:
a) Ein 110nm Maschinenpark ist im Wesentlichen auf 0 abgeschrieben, kosten also nix mehr.
b) Du kannst die billigste Waferqualität verwenden.
c) Der Chip ist so gross, du hast keinerlei Probleme mit der Kühlung.
d) Wenn die 110nm Linie mal kaputt geht, es stehen (wahrscheinlich z.Zt) noch genügend andere Linien ähnlicher Strukturgrössen herum...
e) Neue Masken kosten praktisch nichts.
f) Der Yield ist unschlagbar hoch, weil es keine Ueberraschungen in den Prozessen mehr gibt, die Leute "kennen ihre Maschinen" auswendig.
g) Du musst nicht hintenanstehen wenn du mal etwas mehr Chips willst.

Bei der Summe aller dieser Gründe (und wahrscheinlich noch vieler Anderer) macht es ökonomisch überhaupt keinen Sinn, auf eine "moderne" Strukturgrösse zu wechseln (solange es noch "alte" Linien gibt).

Inwieweit sich diese Wahrheiten auf eine nächste Generation von Konsolenchips durchschlagen, ist schwer bis gar nicht zu sagen. Bis man bei a) bis g) ankommt, dauert es etliche Jahre. Zu glauben, dass es 2018/2019 soweit ist für <= 10nm Prozesse ist reines Wunschdenken. Weil du 2016 mit dem Layout einer neuen Konsole fertig sein musst, wäre es sicher sehr hoch gepokert gleich auf das "Neueste" zu setzen.

mboeller
2015-01-20, 19:16:24
Sag mal stellst du dich extra dumm an?

Ich sagte 2,5x mehr Leistung pro Kern/MHz... Da ein Pentium 4 nur einen Kern hat, aber ein i7/i5 nunmal 4 Kerne hat ist es 4x 2,5x mehr also 10x höhere Leistung und das minimum.

Also real eher mehr würde ich meinen. Ein 3,5 GHz Core i Haswell ist bestimmt 10-14x so schnell.

Warum nicht? Du drehst es dir doch auch so hin wie es dir gefällt. :)

Zuerst gehst du von der PS4 aus und erwartest das die PS5 CPU 8-12x schneller ist und wenn ich dir dann mit einem Beispiel zeige das die Integer-IPC pro Core nur um das ca. 2,5 fache in 14 Jahren gestiegen sind (und auch nur dann wenn man den P4 als Basis nimmt und nicht etwa den AMD Athlon) und nicht um das 8-12-fache in 7 Jahren... dann passt es dir auch wieder nicht und du fängst mit MultiCore Scaling an... das war bei deinem ursprünglichen Posting aber durch die Basis, die PS4 IMHO schon drin, oder erwartest du tatsächlich das die PS5 32 CPUs besitzen wird oder die CPUs mit 5GHz laufen? Wenn ja solltest du vielleicht mal das hier durchlesen:
http://highscalability.com/blog/2014/12/31/linus-the-whole-parallel-computing-is-the-future-is-a-bunch.html

Der Typ ist zwar zu extrem, weil in der PS4 ja schon 8 Kerne drin sind. Aber in wie viele kleine Schnipsel willst du einen Code zerlegen bevor es unsinnig wird? Linus Thorwald behauptet ab 4 Kernen wird es unsinnig, Sony und MS meinen ca. 6 Kerne wären gut (wenn man die für das OS mal abzieht). Und; was glaubst du wie viele Kerne sind sinnvoll? Vielleicht hast du ja auch noch einen oder zwei Links damit deine Meinung eine qualifizierte Basis hat?

Und die Benchmark-Seite hast du dir anscheinend doch noch nicht angeschaut, da bei diesem Benchmark außer unerfindlichen Gründen der gebenchte Haswell ein klein wenig langsamer war als der getestete Ivy Bridge; zumindest beim "Compression-Test" den ich immer als Basis für den Vergleich benutzt habe. ;)

DinosaurusRex
2015-01-20, 19:19:59
Was würde denn günstiger kommen: Große Chips mit wenig Takt in einer weit fortgeschrittenen Node oder kleine Chips mit hohem Takt in einer konservativen Node.

So wie Dr. Kohler die Situation schildert, wäre doch vielleicht letztere Herangehensweise sinnvoll. Konsolen waren bisher bei Taktraten immer sehr konservativ, aber wenn Shrinks immer schwieriger werden, würde sich doch unter Umständen eine anderer Lösung anbieten.

Ich glaube wir könnten da tatsächlich einen Paradigmenwechsel erleben. Nachtägliche Die Shrinks würden ja keinen Sinn mehr ergeben und die Konsolenhersteller möchten dementsprechend auch keine allzu großen Chips beim Release haben.

Hallo
2015-01-20, 21:02:28
Das ist auch nicht verwunderlich. Die Northbridges auf allen PC-Boards wurden bis vor 1-2 Jahren auf >=110nm Linien hergestellt. Das ist nur logisch, denn:
a) Ein 110nm Maschinenpark ist im Wesentlichen auf 0 abgeschrieben, kosten also nix mehr.
b) Du kannst die billigste Waferqualität verwenden.
c) Der Chip ist so gross, du hast keinerlei Probleme mit der Kühlung.
d) Wenn die 110nm Linie mal kaputt geht, es stehen (wahrscheinlich z.Zt) noch genügend andere Linien ähnlicher Strukturgrössen herum...
e) Neue Masken kosten praktisch nichts.
f) Der Yield ist unschlagbar hoch, weil es keine Ueberraschungen in den Prozessen mehr gibt, die Leute "kennen ihre Maschinen" auswendig.
g) Du musst nicht hintenanstehen wenn du mal etwas mehr Chips willst.

Bei der Summe aller dieser Gründe (und wahrscheinlich noch vieler Anderer) macht es ökonomisch überhaupt keinen Sinn, auf eine "moderne" Strukturgrösse zu wechseln (solange es noch "alte" Linien gibt).

Inwieweit sich diese Wahrheiten auf eine nächste Generation von Konsolenchips durchschlagen, ist schwer bis gar nicht zu sagen. Bis man bei a) bis g) ankommt, dauert es etliche Jahre. Zu glauben, dass es 2018/2019 soweit ist für <= 10nm Prozesse ist reines Wunschdenken. Weil du 2016 mit dem Layout einer neuen Konsole fertig sein musst, wäre es sicher sehr hoch gepokert gleich auf das "Neueste" zu setzen.


Hatte neulich einen ähnlichen Gedanken wie: Grössere Strukturgrösse weil vor allem guter Yield/Erfahrung dafür viel grössere Dies mit ner potenten CPU und GPU oder notfalls zumindest auf dem gleichen Träger. Evtl auch ein GPU/CPU/GDDR5 SOC Desing. Dann noch einen gescheiten Kühler drannpappen.

Oder wie wäre es das gesamte System auf einem grossen Die unterzubringen, spart nen Haufen PCB Design und Limitationen.

drkohler
2015-01-20, 21:34:25
Der Typ ist zwar zu extrem, weil in der PS4 ja schon 8 Kerne drin sind. Aber in wie viele kleine Schnipsel willst du einen Code zerlegen bevor es unsinnig wird? Linus Thorwald behauptet ab 4 Kernen wird es unsinnig, Sony und MS meinen ca. 6 Kerne wären gut (wenn man die für das OS mal abzieht).
Die acht Kerne in den Konsolen sind an sich schon gut. Das ganze Paket ist dann wahrscheinlich eher ein Albtraum für die Chipdesigner gewesen und ist jetzt ein Albtraum für die Programmierer. Es sind eben nicht acht Kerne, sondern zwei Gruppen mit vier Kernen, die voneinander an sich Nichts wissen. MS und Sony haben die Billiglösung genommen ("Zwei Jaguareinheiten rein und Gut is' "). Die Chipdesigner mussten dafür bezahlen ("Wie bekommen wir die beiden Einheiten unter einen Hut bezüglich Datenkohärenz?"). Die Programmierer werden noch Jahre bezahlen für die Billiglösung ("Schei.... Kern 2 will schon wieder auf das Cache von Kern 7 zugreifen..").

Wenn du also noch mehr Kerne willst, musst du zuerst das Problem lösen, dass die jetzige Konsolenlösung (nett gesagt) suboptimal ist. Da hätten noch ein paar Millionen mehr in der Designphase von Sony/MS wesentlich mehr gebracht am Schluss (alle Kerne an ein Cache angebunden).

Immer mehr Kerne heisst immer mehr Probleme, die Daten kohärent zu halten. Ich nehme an, irgend wann steigt der Verwaltungsaufwand (in Hard und Software) so stark an, das der Gewinn in mehr Kernen sich nicht mehr auszahlt (ungeachtet ob man sein Problem überhaupt effizient auf viele Kerne zerteilen kann).

Hallo
2015-01-20, 23:06:59
Frage mich gerade wie schnell mein Sandy Bridge 2700 (K hab nicht mal einberechnet) im Vergleich zum Jaguar ist?

Davon ab, vier schnellere Kerne wären sicher besser aber um Kosten zu drücken musste man den APU/AMD Pfad gehen. Ich denke wenn man ein gutes Kühlkonzept im Ärmel hat stellen sich viele Probleme erst gar nicht.

Deinorius
2015-01-20, 23:11:46
Immer mehr Kerne heisst immer mehr Probleme, die Daten kohärent zu halten. Ich nehme an, irgend wann steigt der Verwaltungsaufwand (in Hard und Software) so stark an, das der Gewinn in mehr Kernen sich nicht mehr auszahlt (ungeachtet ob man sein Problem überhaupt effizient auf viele Kerne zerteilen kann).


Wozu auch? Ich denke da jetzt eher zurückhaltend als progressiv. AMD hat bis dahin eine neue Architektur draußen, die eine höhere IPC liefert und vernünftig herstellbar ist. Die derzeitige IPC ist ja eher bescheiden im Vergleich, unter den gegebenen Umständen aber gerechtfertigt.
Sollte diese neue Architektur Erfolg haben, bleiben 8 Kerne, die aber dennoch zumindest schneller und auch höher getaktet sein müssten. Möglicherweise entwickelt AMD ja sogar einen 8Kern mit einer Cache-Kohärenz.
Allein damit müsste eine zweifache oder dreifache Leistungssteigerung erreichbar sein. Ob das ausreicht, wage ich nicht zu behaupten, aber zumindest bezweifle ich, dass es mehr als 12 Kerne werden würden. Alleine wegen deinen genannten Gründen.

Slashman
2015-01-20, 23:57:50
Warum nicht? Du drehst es dir doch auch so hin wie es dir gefällt. :)

Zuerst gehst du von der PS4 aus und erwartest das die PS5 CPU 8-12x schneller ist

Sag mal jetzt zitierst du mich auch noch falsch?

Ich sagte nicht 8-12x mehr CPU Leistung ich sagte ganz am Anfang maximal 3-4x mehr CPU Leistung und das ist echt kein Problem. Ich rede nicht von 3-4x CPU Leistung pro Kern/MHz sondern einfach mehr Leistung:
1,5x mehr pro Kern Leistung bei 3,2-3,5 GHz schon ist das Ziel erreicht. Das könnte man unter umständen schon mit dem Steamroller oder dessen Nachfolger erreichen und dann einfach statt 1,6 GHz wie in der PS4 einfach bei 3,5 GHz laufen lassen.

Bei den 8-12x mehr Leistung rede ich von der GPU Leistung und die ist bis 2020 erreichbar. Schon heute bekommt man einen High End pC (single GPU) der 4x so viel leistet wie eine PS4. Und das in 28nm, also warum sollte es 2020 keine 10nm GPU geben die 8x so schnell ist und das als Mittelklasse Karte?

robbitop
2015-01-21, 10:56:24
Zusätzlich dazu könnte hUMA bis zur nächsten Konsolengen ausgereifter und schon breiter von Entwicklern erlernt und unterstützt sein. Das bringt der CPU ja auch Entlastung.

Slashman
2015-01-22, 16:39:04
Zusätzlich dazu könnte hUMA bis zur nächsten Konsolengen ausgereifter und schon breiter von Entwicklern erlernt und unterstützt sein. Das bringt der CPU ja auch Entlastung.

Nicht nur das, es sollte ein OS sein, das kein stück mehr RAM nutzt als 3 GB, weil mein Win 8.1 mit Browser, Kaspersky, Skype, Media Player (1080p), Object Dock und co nur 2,2 von 16 GB RAM nimmt. Daher meine ich mehr als 3 GB RAM wäre schwachsinn für das OS.

Dann wären auch 32-48 GB RAM OK, aber wenn Sony ein OS bringt der noch mal um Faktor 5 mehr RAM schluckt, dann langt auch 64 GB nicht.

DinosaurusRex
2015-01-22, 17:23:43
Ich denke nicht, dass man sich um das OS Sorgen machen sollte. Dieses Problem ist ein Relikt aus Gen7, da das die erste Gen war, die sowas eingeführt hat, zumindest wenn man den Vergleich zum PC heranzieht, und diese Konsolen diese Aufgabe mit verhältnismäßig wenig Arbeitsspeicher bewältigen mussten.

Coda hatte mal gesagt, dass nur inkompetente Studios oder Studios mit riesigen Budgets innerhalb der nahen Zukunft an die Grenzen der aktuellen Pools stoßen werden. Bei den nächsten Konsolen dürfte das keine Sau mehr interessieren

Slashman
2015-01-22, 17:46:38
Ich denke nicht, dass man sich um das OS Sorgen machen sollte. Dieses Problem ist ein Relikt aus Gen7, da das die erste Gen war, die sowas eingeführt hat, zumindest wenn man den Vergleich zum PC heranzieht, und diese Konsolen diese Aufgabe mit verhältnismäßig wenig Arbeitsspeicher bewältigen mussten.

Coda hatte mal gesagt, dass nur inkompetente Studios oder Studios mit riesigen Budgets innerhalb der nahen Zukunft an die Grenzen der aktuellen Pools stoßen werden. Bei den nächsten Konsolen dürfte das keine Sau mehr interessieren

Schon jetzt nimmt sich die PS4 laut Gerüchten über 3 GB... Das ist mir definitiv zu viel für so ein nacktes OS. Klar Reserven zu haben ist schön, aber wenn Win 8.1 mit allen Funktionen nicht auf 3 GB kommt was will dann eine PS4 bitte mit 3 GB RAM die dem Spiel dann fehlen (von den 8 GB).

Eine Lösung für die PS5 wäre:

32-48 GB Shardes RAM (HBM2) für CPU und GPU und dann extra 4 GB DDR4 (3200) RAM fürs OS, das wäre dann vollkommen OK und dazu eine extra CPU (2 Kerne, 2 GHz) nur fürs OS. Dann würde die PS5 von nichts behindert.

Snafu
2015-01-22, 17:53:41
Coda hatte mal gesagt, dass nur inkompetente Studios oder Studios mit riesigen Budgets innerhalb der nahen Zukunft an die Grenzen der aktuellen Pools stoßen werden. Bei den nächsten Konsolen dürfte das keine Sau mehr interessieren

Deshalb glaube ich auch nicht an eine extreme Vergrößerung es Speichers. 8GB füllen sich nicht von selbst.
16GB DDR4 und 2-4GB stacked on-DIE Speicher dürften extrem günstig sein und kaum Strom verbrauchen. Für die allermeisten Entwickler dürfte das genug Speicher sein. Die Software bleibt ja auch nicht stehen und Sony/Microsoft verbessern bestimmt lieber Kompressions- und Streaming-Technologien, anstatt Millionen Geräte mit mehr RAM auszustatten.

Mit QuadChannel DDR4 kann man leicht 100GB/s erreichen und der on-DIE Speicher liefert eine Bandbreite von >1TB/s.

Slashman
2015-01-22, 18:07:57
Deshalb glaube ich auch nicht an eine extreme Vergrößerung es Speichers. 8GB füllen sich nicht von selbst.
16GB DDR4 und 2-4GB stacked on-DIE Speicher dürften extrem günstig sein und kaum Strom verbrauchen. Für die allermeisten Entwickler dürfte das genug Speicher sein. Die Software bleibt ja auch nicht stehen und Sony/Microsoft verbessern bestimmt lieber Kompressions- und Streaming-Technologien, anstatt Millionen Geräte mit mehr RAM auszustatten.

Mit QuadChannel DDR4 kann man leicht 100GB/s erreichen und der on-DIE Speicher liefert eine Bandbreite von >1TB/s.

Also 2-4 GB DIE RAM halte ich für viel zu wenig. Killzone SF auf der PS4 verbraucht laut Entwicklern/Dokumente/PDF genau 3072MB des GDDR5 RAMs nur für die Grafik. 800MB nur zum Rendern. Also warum sollte dann eine PS5 die auch 4K können sollte nur 2-4 GB Vram haben? Eher 6-8 GB wie Aktuelle Karten und das auch nur minimum. Ich gehe noch immer von mindestens 32GB Shared HBM2 Memory aus oder eben 24-32 GB DDR4 Quad Channel und 8-16 GB HBM2 Vram.

Snafu
2015-01-22, 18:16:02
Es kann ja auch auf den DDR4 RAM Grafik ausgelagert werden. Die XBOX One macht es auch auch so, nur hat sie nur 32MB schnellen Speicher zur verfügung. Es haben sich ja Entwickler über den ES-RAM beschwert, aber ich glaube da ging es primär um die Größe.
Und schau dir mal an was eine GTX 960 aus 112 GB/s Bandbreite holt.
Mit einer guten Software Lösung zur einfachen Nutzung des on-DIE Ram (wie bei Intels Iris Pro) halte ich das für die beste Lösung bei einem begrenzten Budget wie bei einer Konsole.

Slashman
2015-01-22, 19:46:07
Es kann ja auch auf den DDR4 RAM Grafik ausgelagert werden. Die XBOX One macht es auch auch so, nur hat sie nur 32MB schnellen Speicher zur verfügung. Es haben sich ja Entwickler über den ES-RAM beschwert, aber ich glaube da ging es primär um die Größe.
Und schau dir mal an was eine GTX 960 aus 112 GB/s Bandbreite holt.
Mit einer guten Software Lösung zur einfachen Nutzung des on-DIE Ram (wie bei Intels Iris Pro) halte ich das für die beste Lösung bei einem begrenzten Budget wie bei einer Konsole.

Ändert ja nichts dran, das schon jetzt ein Sony PS4 Spiel, das sogar ein Releasetitel war, 3072 MB für 1080p und 30-60 FPS schluckt an Vram. Was schluckt es unter 4K mit 2-4x so hoher Grafik? locker mehr als 6-8 GB Vram.

Nebenbei ist gerade der gemeinsame Pool der Vorteil der PS4 gegenüber der Xbox One. Die Entwickler regen sich auf das MS kein HUMA bei der Xbox One nutzt. Das ist es ja was ich meine. Lieber einen RAM, der vom Entwickler so genutzt werden kann wie er es will oder benötigt.

Killzone SF zum beispiel nutzt nur 1,5 GB RAM und 3 GB Vram + paar 100 MB Sound/Rest. Wäre es eine Fixe RAM Menge und Fixe Vram Menge hätte der Entwickler wieder weniger Kontrolle. Der Designer der PS4 wollte ja genau das abschaffen und so viel Freiheiten lassen wie es geht. Wie gesagt wenn schon jetzt locker 3 GB für 1080p weg gehen und dabei nicht das beste vom besten verwendent wird für die Grafik, dann wird in 4K mit höheren Texturen, mehr Sichtweite und besserem AA/AF locker 8GB+ an Vram flöten gehen.

Die 32MB Esram sind ein Witz, die WiiU hat sogar 35MB EDRam und kann daher öfter 1080p mit 60 FPS haben. Die Entwickler haben also langsamen RAM für Texturen/Daten/Assets und nur 32MB zum Rendern... Sorry, aber Kritik gibt es nicht ohne Grund.

Lieber wie bei der PS4 Einheitlicher und schneller RAM.

Also meine Wunschdaten halte ich für real genug zum Umsetzen:
8 Kerne
je 1,5-2x höhere Pro Kern Leistung im vergleich zum AMD Jaguar (quasi Hasswell Leistung)
3,2-4,0 GHz
maximal 50 Watt TDP

32-48 GB oder gar 64 GB Shared RAM (400-800 GB/s langt wohl)

AMD GCN 3.0/2.5 GPU
6144-8192 Shader (10nm kein Ding für High End)
64-96 ROPs
256-320 TMUs
4x so großen GPU Cache zum entlasten des RAMs über den Treiber.
DX12.1 oder gar DX13 Fähige GPU.

Coda
2015-01-22, 20:21:12
Die Wii U hat 32MB eDRAM. Das andere eDRAM ist nur für backwards compat. Und nein sie kann nicht "öfters 1080p haben" :ulol:

Ändert ja nichts dran, das schon jetzt ein Sony PS4 Spiel, das sogar ein Releasetitel war, 3072 MB für 1080p und 30-60 FPS schluckt an Vram.
Das meiste davon wird für Texturen verwendet und was das mit der Auflösung und der Framerate zu tun haben soll erklärst du mir jetzt bitte. Ich hol schon mal Popcorn.

Snafu
2015-01-22, 20:43:04
Slashman, schau dir doch mal Intel Iris Pro and und vergleiche die 5100 mit der 5200. Der 128MB große Speicher wird als L4 Cache von CPU und GPU verwendet. Ohne Arbeit von Entwicklern profitieren alle Spiele davon obwohl jedes Spiel auf einer dGPU mehr als 128MB Vram benötigt. Es benötigt aber nicht alles im Vram so viel Bandbreite. Die Performance stürzt auch wegen den Latenzen ein, wenn eine GPU auf die DDR3 Speicher auf dem Mainboard zugreifen muss.

Ein gemeinsamer schneller Speicherpool ist natürlich immer von Vorteil aber 24GB schneller Speicher sind eben teurer als 8GB schneller und 16GB langsamer Speicher.

Coda, was sagst du prinzipiell zu "getrenntem" Speicher, wenn er in ausreichender Größe vorhanden ist?

Coda
2015-01-22, 20:45:23
Nich ausweichen, Frage beantworten. Laber nich.

Snafu
2015-01-22, 20:56:56
Nich ausweichen, Frage beantworten. Laber nich.

Du hast mir keine Frage gestellt :rolleyes:

Die ersten beiden Absätze waren auch nicht an dich gerichtet. Ich habe auf antworten geklickt bevor dein Kommentar da war.

Coda
2015-01-22, 23:13:57
Hab dich mit Slashman verwechselt. Srykthx.

Getrennter Speicher ist kein Diskussionsthema mehr. Wenn man GPU-Compute ordentlich verwenden will ist das ein No-Go. Das einzige was das beim PC am Leben erhält sind die Marktverhältnisse.

Slashman
2015-01-23, 03:05:26
Die Wii U hat 32MB eDRAM. Das andere eDRAM ist nur für backwards compat. Und nein sie kann nicht "öfters 1080p haben" :ulol:


Das meiste davon wird für Texturen verwendet und was das mit der Auflösung und der Framerate zu tun haben soll erklärst du mir jetzt bitte. Ich hol schon mal Popcorn.

Ok das mit der WiiU wusste ich nicht... überall steht nur 35MB EDRAM, aber nicht das davon nur 32MB Verfügbar wäre.

Was Killzone SF angeht und den Vram. Schon jetzt weiß man doch, das höhere Auflösungen mehr Vram benötigen, alleine das Rendern kostet dann mehr Leistung und mit AA steigt das noch mal an.

Wenn Killzone SF auf der PS4 schon jetzt 3072MB Vram schluckt glaube ich kaum das ein PS5 Spiel bei 4-8x so hoher Grafik und zusätzlich 4K Grafik nur 2-4 GB Vram schlucken soll.

Was den On DIE Vram angeht, wenn es keine Extra Arbeit kostet wie beim ESRAM der Xbox One und es passiv mehr Leistung bringt ist es eine gute Sache. Aber warum beschweren sich die Entwickler dann über den Esram, das dieser Arbeit kostet und viel zu klein sei.
Ich meine 64MB Esram wären für die Xbox One Leistung besser gewesen und hätte die PS4 ESRAM wäre in ihrem Fall auch 64-96MB besser gewesen. Jedoch wäre dann der Chip auch größer/teurer/komplexer geworden.

DinosaurusRex
2015-01-23, 08:55:18
Hätte die X1 doppelt so viel ESRAM mit doppelt so viel Bandbreite, würde sie der PS4 doch sicher ordentlich in den Arsch treten. Aktuelle Grafikkarten haben mehr Bandbreite als der ESRAM der X1. Das macht die Sache doch witzlos. Sony selber sagt ja auch, dass dieses Konzept eine gute Alternative ist, allerdings war der Plan B für die PS4 128 Bit GDDR5 mit einem kleinen 1TB/s Pool. Das ist ein ganz anderes Level, als das was Microsoft gemacht hat.

IC3M@N FX
2015-01-23, 09:00:28
Hätte die X1 doppelt so viel ESRAM mit doppelt so viel Bandbreite, würde sie der PS4 doch sicher ordentlich in den Arsch treten.

Entweder 48-64MB hätten wahrscheinlich gereicht gereicht. Ob es dann schneller als PS4 wäre keine Ahnung.

][immy
2015-01-23, 09:03:10
Nebenbei ist gerade der gemeinsame Pool der Vorteil der PS4 gegenüber der Xbox One. Die Entwickler regen sich auf das MS kein HUMA bei der Xbox One nutzt. Das ist es ja was ich meine. Lieber einen RAM, der vom Entwickler so genutzt werden kann wie er es will oder benötigt.

das mit HUMA ist quatsch und hält sich ziemlich lange im Internet. Die xbox hat einen kompletten virtuellen adressraum der theoretisch sowohl von CPU als auch von der GPU genutzt werden kann. es ist nur die Software die derzeit verhindert das die CPU auf den esram-Speicherbereich zugreifen kann. Möglich wäre es, aber wie ein MS Ingenieur mal geantwortet hat, wäre das viel zu langsam, so das man das gar nicht will. Zudem würde es die zugesicherte Bandbreite für die GPU stören, weshalb man sich dagegen entschieden hat. Ansonsten kannst du den restlichen Speicherbereich ohne Probleme mit GPU und CPU gemeinsam nutzen.


Besonders jetzt wo es grad mit HBM so richtig anfängt, glaube ich kaum das hier ein einzelner Speicherpool eine Zukunft hätte. Vermutlich wird es dann bei der nächsten Generation ein Pool on DIE und ein Pool langsamerer Speicher (denn man wird wohl nicht alles nötige auf den Die bekommen, da die kosten sonst wohl explodieren dürften) auf dem Mainboard geben.




Das mit den 1080p ist natürlich auch Blödsinn. Die Speichermenge hat nicht direkt Einfluss auf die Auflösung. Es gab auch schon 1080p vor der xbox one. Es ist immer nur eine Frage der Prioritäten und wie man den Speicher einsetzt. Das ist zwar mühseliger aber kein vergleich zu den Optimierungen die man noch in der letzten Generation durchführen musste zwischen zwei extrem unterschiedlichen Konsolen-Architekturen (PS3/xbox360).
Auch ein gemeinsamer Speicherpool hat Nachteile. Z.B. das man viel Bandbreite dadurch verliert das verschiedene Komponenten (CPU, GPU) auf den Speicher zugreifen.

Hätte die X1 doppelt so viel ESRAM mit doppelt so viel Bandbreite, würde sie der PS4 doch sicher ordentlich in den Arsch treten. Aktuelle Grafikkarten haben mehr Bandbreite als der ESRAM der X1. Das macht die Sache doch witzlos. Sony selber sagt ja auch, dass dieses Konzept eine gute Alternative ist, allerdings war der Plan B für die PS4 128 Bit GDDR5 mit einem kleinen 1TB/s Pool. Das ist ein ganz anderes Level, als das was Microsoft gemacht hat.
Zeig mir einen Grafikkarte auf dem Niveau einer xbox one GPU die 204 GB/s Bandbreite zur Verfügung hat (+ 68GB/s DDR3)?
Über die Größe lässt sich allerdings gewiss streiten. Nur ist esram halt ziemlich Transistor-Intensiv und daher recht teuer.

M4xw0lf
2015-01-23, 09:05:21
Hätte die X1 doppelt so viel ESRAM mit doppelt so viel Bandbreite, würde sie der PS4 doch sicher ordentlich in den Arsch treten. Aktuelle Grafikkarten haben mehr Bandbreite als der ESRAM der X1. Das macht die Sache doch witzlos. Sony selber sagt ja auch, dass dieses Konzept eine gute Alternative ist, allerdings war der Plan B für die PS4 128 Bit GDDR5 mit einem kleinen 1TB/s Pool. Das ist ein ganz anderes Level, als das was Microsoft gemacht hat.
Die GPU wäre dann doch immer noch genauso viel langsamer. Die PS4 in den Arsch treten ist nicht.

DinosaurusRex
2015-01-23, 09:13:05
Wieviele gute Shader sind denn in modernen Spielen bandbreitenlimitiert?

Und genug GPU-Ressourcen für 1080p hat die X1 allemal.

Lightning
2015-01-23, 09:34:31
Wieviele gute Shader sind denn in modernen Spielen bandbreitenlimitiert?

Auf dem PC kann jeder in Benchmarks messen, wie oft die Bandbreite tatsächlich limitert. Und das ist in der Regel eher selten.
Wie es auf Konsolen aussieht, ist für den Laien schwerer zu beantworten. Ich würde aber sagen, dass man optimalerweise so designen sollte, dass sich Ressourcenlimitierungen in der Waage halten, sodass man eben nichts verkommen lässt (wie schwierig das zu erreichen ist, ist eine andere Frage). Heißt: Wenn man mehr Rechenleistung oder mehr Bandbreite zur Verfügung hat, kann man auch versuchen, diese irgendwie zu nutzen.

Und genug GPU-Ressourcen für 1080p hat die X1 allemal.

Die Aussage ergibt keinen Sinn, weil das von zahllosen Faktoren abhängt. Unter anderem kann der X1 im Vergleich zur PS4 ganz selbstverständlich die Rechenleistung ausgehen, sodass es für 1080p nicht mehr reicht. Das hängt bei vielen Shadern nunmal unmittelbar mit der Auflösung zusammen.

][immy
2015-01-23, 09:35:10
Wieviele gute Shader sind denn in modernen Spielen bandbreitenlimitiert?

Und genug GPU-Ressourcen für 1080p hat die X1 allemal.
lös dich doch mal auf der Auflösung. Die Auflösung hat nicht viel mit Grafikqualität oder GPU Ressourcen zu tun. Es kommt immer nur darauf an was man darstellen will.
Half Life 1 in 1080p sieht auch durch die Auflösung plötzlich nicht besser aus als Crysis in 720p oder gar 480p. Die ganze Auflösungsdebatte ist eigentlich völlig fürn Eimer. Die Auflösung beeinflusst die Grafikqualität, ja, aber sie ist nicht entscheidend. Der Content ist das was zählt. Im laufe der Jahre und durch die rasch ansteigenden Bandbreiten (HBM) wird 1080p auf Konsolen eh kein Thema mehr sein, es sei denn man will das die Spiele auf dem grafischen Stand bleiben wie er aktuell ist. Das ist aufgrund neuer Grafikkarten aber eher unwahrscheinlich. Klar wird man hier und da noch ein paar Tricks finden, aber letztlich wird die Auflösung fallen weil die Ressourcen für andere Dinge, die mehr zur Grafikqualität beitragen, benötigt werden.

DinosaurusRex
2015-01-23, 09:56:31
So ein Grafikprozessor setzt sich doch zusammen aus ALUs, TMUs, ROPs und der Bandbreite und es gibt doch verschiedene GPU-Aufgaben, die diese einzelnen Bauteile mit unterschiedlicher Intensität beanspruchen. Last-gen Grafikoperationen neigen nach meinen Informationen beispielsweise dazu, ROP-limitiert zu sein, allerdings brauchst du dann bei diesen Aufgaben für 1080p nur Faktor 2,25 mehr der oben genannten Ressourcen (oder ist das ein Denkfehler?). Das bringt die Xbox One ja locker mit. Wenn du aber komplexere current-gen-typische Shader verwenden willst, dann verschiebt sich die Beanspruchung dieser Ressourcen und soweit ich das gelesen habe, sind die meisten davon bandbreitenlimitiert. Bei GPGPU-Aufgaben dürfte die PS4 allerdings auch bei einem deutlich leistungsfähigeren ESRAM Pool mehr Performance abliefern als die Xbox One dank der vielen ALUs, den 8 ACEs und 64 Compute Queues. Letzteres hilft bei der Beleuchtung und Post Processing, oder?

Und ich denke 1080p ist anstrebenswert. Für mich ist 1:1 pixel mapping wichtiger als 60fps (abgesehen vllt von kompetivien Spielen wie Street Fighter oder sowas).

][immy
2015-01-23, 10:12:18
So ein Grafikprozessor setzt sich doch zusammen aus ALUs, TMUs, ROPs und der Bandbreite und es gibt doch verschiedene GPU-Aufgaben, die diese einzelnen Bauteile mit unterschiedlicher Intensität beanspruchen. Last-gen Grafikoperationen neigen nach meinen Informationen beispielsweise dazu, ROP-limitiert zu sein, allerdings brauchst du dann bei diesen Aufgaben für 1080p nur Faktor 2,25 mehr der oben genannten Ressourcen (oder ist das ein Denkfehler?). Das bringt die Xbox One ja locker mit. Wenn du aber komplexere current-gen-typische Shader verwenden willst, dann verschiebt sich die Beanspruchung dieser Ressourcen und soweit ich das gelesen habe, sind die meisten davon bandbreitenlimitiert. Bei GPGPU-Aufgaben dürfte die PS4 allerdings auch bei einem deutlich leistungsfähigeren ESRAM Pool mehr Performance abliefern als die Xbox One dank der vielen ALUs, den 8 ACEs und 64 Compute Queues. Letzteres hilft bei der Beleuchtung und Post Processing, oder?

Und ich denke 1080p ist anstrebenswert. Für mich ist 1:1 pixel mapping wichtiger als 60fps (abgesehen vllt von kompetivien Spielen wie Street Fighter oder sowas).
Die Auflösung hat nicht nur Einfluss auf die ROPs. Es muss ja letztlich auch mehr Bildfläche gefüllt werden bzw. feiner berechnet werden (Effekte, Licht, ....).
Du konntest auch bei den letzten Generation 1080p ausgeben, ist halt immer eine Frage was für Seiteneffekte du dadurch auslöst.


Die Auflösung beeinflusst so ziemlich alles, was aber nicht heißt das der optische Gewinn dadurch auch am größten ist.


Was machst du denn am PC. Stellst du dort 1080p ein und regelst die Details so weit runter bis es flüssig läuft, oder gehst du lieber auf Volle Details, verringerst dafür aber die Auflösung ein wenig.

y33H@
2015-01-23, 10:19:54
Am PC sieht man eine non-native Auflösung deutlich stärker als auf ner Konsole im Wohnzimmer n paar Meter vom TV entfernt, IMHO. Die meisten Nutzen achten weniger auf Bildqualität (Auflösung, AA, AF) als auf Grafikqualität (Shading, Beleuchtung, Texturen, Polys, Details) und Art-Design (realistisch, Cartoon etc).

DinosaurusRex
2015-01-23, 10:22:46
Das liegt nicht nur am Sitzabstand, sondern auch daran, dass TVs das Bild viel besser hochskalieren als PC-Monitore.

[immy;10496840']Die Auflösung hat nicht nur Einfluss auf die ROPs. Es muss ja letztlich auch mehr Bildfläche gefüllt werden bzw. feiner berechnet werden (Effekte, Licht, ....).
Du konntest auch bei den letzten Generation 1080p ausgeben, ist halt immer eine Frage was für Seiteneffekte du dadurch auslöst.


Um die Bildfläche (1080p) zu füllen, brauchst du gegenüber 720p doch nur 2,25 mehr Ressourcen, wenn du die gleiche Grafik darstellen willst. Wenn du bessere Grafik mit 1080p darstellen willst, dann brauchst du logischerweise mehr Ressourcen, allerdings sind die Grafikoperationen dann auch andere und dementsprechend führt eine ganz andere Balance zum Ziel. Wenn du alle Ressourcen in so einem Grafikprozessor gleichermaßen verbessert, dann ist nicht automatisch gut, da einige der neuen Aufgaben ja von einer speziellen Ressource (z.B. Bandbreite) mehr benötigen können.

Sven77
2015-01-23, 10:26:46
Wat? Der TV skaliert da gar nichts, das machen immer die Konsolen.

DinosaurusRex
2015-01-23, 10:29:59
Wat? Der TV skaliert da gar nichts, das machen immer die Konsolen.

Im Gegensatz zur Xbox360 hatte die PS3 doch keine dedizierte Hardware, die das Bild hochskaliert hat. Nach meinen Informationen hängt das vom jeweiligen PS3-Spiel ab, ob die Konsole diese Aufgabe übernimmt und dementsprechend macht da ein guter Fernseher gegenüber einem PC-Monitor schon einen entscheidenden Unterschied.

---

Oder der Hardware-Scaler wurde erst im Laufe des Konsolenzyklus mit einem SDK Update freigeschaltet, keine Ahnung. Irgendwas war da auf jeden Fall bei der PS3.

Sven77
2015-01-23, 10:48:47
Ah, sorry.. dachte wir reden über die aktuelle Generation. Ja, die PS3 gab tatsächlich nur 720p aus wenn das Spiel nicht mehr hergab, so zumindest meine Erinnerung

00-Schneider
2015-01-23, 14:01:54
Ah, sorry.. dachte wir reden über die aktuelle Generation. Ja, die PS3 gab tatsächlich nur 720p aus wenn das Spiel nicht mehr hergab, so zumindest meine Erinnerung


Man konnte auch 1080p als Ausgabe forcieren, wenn man den Hacken bei "720p" in den Systemeinstellungen der PS3 raus gemacht hat.

Einige Games kamen damit nicht klar, und gaben dann ein 480p Signal. Splinter Cell 3 konnte man aber dadurch auf natives 1080p forcieren, was mit der normalen Einstellung sonst nur in 720p lief. Total verrückt... ;D

Slashman
2015-01-23, 14:05:06
Hätte die X1 doppelt so viel ESRAM mit doppelt so viel Bandbreite, würde sie der PS4 doch sicher ordentlich in den Arsch treten. Aktuelle Grafikkarten haben mehr Bandbreite als der ESRAM der X1. Das macht die Sache doch witzlos. Sony selber sagt ja auch, dass dieses Konzept eine gute Alternative ist, allerdings war der Plan B für die PS4 128 Bit GDDR5 mit einem kleinen 1TB/s Pool. Das ist ein ganz anderes Level, als das was Microsoft gemacht hat.

Nein würde sie definitiv nicht.

Da die PS4 ja trotzdem 41-87% höhere GPU Speed hat und eine allgemein höhere RAM Leistung.
1152 Shader, 32 ROPs 8 ACE Einheiten, 72 TMUs bei 800 MHz
vs
768 Shader, 16 ROPs 4 ACE Einheiten, 48 TMus bei 853 MHz

= 41% mehr Shader/TMU Leistung und 87% mehr ROP und Compute Leistung auf der PS4 GPU.

Ne 64 MB ESram mit 2x Takt würde der Xbox One nur erlauben nicht zu oft auf 720p zu fallen, aber 900p wären dann noch immer das Limit bei gleicher Grafik zur PS4 in 1080p.

Wäre ja so als ob ich sagen würde ein BMW 530 Diesel mit 220PS wäre mit Rennreifen auf einmal so gut wie ein BMW M5 mit 350 PS mit Sportreifen... Niemals weil da immerhin min 40% mehr Motorleistung dem M5 zur Seite stehen. Klar Reifen helfen etwas, aber die Welt ist das nicht.

DinosaurusRex
2015-01-23, 14:57:14
Microsoft gibt für den ESRAM etwa 200GB/s an (was Dr. Kohler natürlich gleich wieder anfechten wird ;)). Bei doppelter Bandbreite würden wir über 400GB/s sprechen und du kannst mir nicht erzählen, dass das nicht hilfreich wäre bei diesem ganzen HDR- und Multiple Render Target-Krams und so weiter.

Slashman
2015-01-23, 15:02:01
Microsoft gibt für den ESRAM etwa 200GB/s an (was Dr. Kohler natürlich gleich wieder anfechten wird ;)). Bei doppelter Bandbreite würden wir über 400GB/s sprechen und du kannst mir nicht erzählen, dass das nicht hilfreich wäre bei diesem ganzen HDR- und Multiple Render Target-Krams und so weiter.

Ok Gegenfrage ist eine GTX 285 mit 4 GB Vram mit 400 GB/s schneller als eine GTX 580 mit 250 Gb/s?
Wir reden hier noch immer von Speicher im MB Bereich bei der Xbox One.. Klar wären es 8 GB Speicher die schneller sind als bei der PS4, dann könnte dir ein Entwickler sagen ob es hilft.
Trotzdem werden Schatten, Textur, Pixel und Effekte von der GPU und nicht vom Vram berechnet. Anders gesagt wäre eine Xbox One auch mit 128 MB ESRAM bei 120000 GB/s nicht besser als die PS4.

Da gabs einen schönen Artikel zur Xbox One und warum der ESRAM beim Rendern hindern kann. Es sind nunmal nur 32MB ESRAM, 31,6MB geht beim Rendern drauf wenn man 3 Targets je GBuffer nutzt mit 32Bit bei 1080p. Also Battlefield 4 nutzt 4 Targets je 32Bit und auf dem PC sogar 5 Rendertargets. Killzone SF nutzt auch 5 je 128 Bit daher auch 800MB zum Rendern.

Verstanden warum mehr Bandbreite nicht unbedingt hilft.

Ist ja so als ob eine HD 7700 (etwa so schnell wie die Xbox One GPU) mit 512Bit GDDR5 Vram (statt 128 Bit) auf einmal so schnell sein kann wie eine HD 7970.

DinosaurusRex
2015-01-23, 15:05:07
Die Frage ist doch blöde, weil vor ein paar Seiten erklärt wurde, dass überproportional viel Bandbreite zu anderen Entscheidung bei der Grafikprogrammierung führt. Wir sprechen hier immer noch über Konsolen. Wenn die Entwickler so viel Bandbreite zur Verfügung hätten, dann würden sie die auch ausnutzen und das würde man am Ende auch sehen können.

Wenn man hier in diesem Forum von den Pros eine Sache mit schöner Regelmäßigkeit aufschnappt, dann das man als Grafikprogrammierer niemals genug Bandbreite haben kann. Corrinne Yu vom ICE Team hatte auf Twitter sowas auch mal gesagt.

Slashman
2015-01-23, 15:09:43
Die Frage ist doch blöde, weil vor ein paar Seiten erklärt wurde, dass überproportional viel Bandbreite zu anderen Entscheidung bei der Grafikprogrammierung führt. Wir sprechen hier immer noch über Konsolen. Wenn die Entwickler so viel Bandbreite zur Verfügung hätten, dann würden sie die auch ausnutzen und das würde man am Ende auch sehen können.

Änder ja nichts dran, das die PS4 trotzdem 50% mehr Shader, Textureinheiten hat und 100% mehr ROPs hat und auch 100% mehr Computeleistung besitzt. HUMA muss man da nicht mal nennen oder den Punkt das die Entwickler sagen auf der PS4 ist Spiele Entwicklen momentan noch leichter als auf Xbox One (wegen Treiber, API und ganz besonders dem ESRAM und DDR3 RAM).

Ich habe dich ja gefragt wäre eine HD 7700 mit 512 Bit GDDR5 oder gar HBM2 Memory so schnell wie eine HD 7870 oder HD 7970? Nein!

Klar bei nur 5-10% Unterschied der GPU Leistung würde es was bringen, aber nicht bei 40%+

Locuza
2015-01-23, 15:16:08
Die Xbox One bietet 2 ACEs, nicht 4.
Man kann eine potentiell höhere Compute-Effizienz daraus aber nicht plump in einen festen Zahlenwert pressen.

DinosaurusRex
2015-01-23, 15:16:39
Wofür brauchst du denn die ROPs? Damit du den Leuten schrottige last-gen Pixel Shader anbieten kannst? Gipsel hatte mal erklärt, dass die PS4 ohnehin zu wenig Bandbreite hat, um 32 ROPs voll auszulasten. Und bei den Texturen siehst du idR auch keinen Unterschied zwischen PS4 und X1, der TMU-Bonus ist also offensichtlich auch hinfällig. Die PS4 kann schneller rechnen (Compute Shader), das habe ich aber eben auch schon gesagt und das würde sich mit mehr Bandbreite auch nicht ändern, sie hat anscheinend auch die bessere API und muss den Framebuffer nicht in 32MB RAM quetschen. Das sorgt dafür, dass die PS4-Grafik besser ist. HUMA haben prinzipiell beide, das wurde hier schon längst geklärt.

Eine X1 mit 64MB ESRAM @ 400GB/s würde der PS4 sicher ne ganze Menge Kopfschmerzen bereiten, davon bin ich überzeugt.

][immy
2015-01-23, 15:33:35
Die Frage ist doch blöde, weil vor ein paar Seiten erklärt wurde, dass überproportional viel Bandbreite zu anderen Entscheidung bei der Grafikprogrammierung führt. Wir sprechen hier immer noch über Konsolen. Wenn die Entwickler so viel Bandbreite zur Verfügung hätten, dann würden sie die auch ausnutzen und das würde man am Ende auch sehen können.

Wenn man hier in diesem Forum von den Pros eine Sache mit schöner Regelmäßigkeit aufschnappt, dann das man als Grafikprogrammierer niemals genug Bandbreite haben kann. Corrinne Yu vom ICE Team hatte auf Twitter sowas auch mal gesagt.
die xbox one hat ja aktuell schon einen höhere Bandbreite als die PS4. Bandbreite allein bringt es da nicht, außer die PS4 wäre extrem unterversorgt mit Bandbreite.
Wobei die ROPs nicht mal so entscheidend sind (die PS4 besitzt nicht annähernd genug Bandbreite um diese auch wirklich auslasten zu können). Der esram bringt einfach den Vorteil das die GPU eine zugesicherte Bandbreite tatsächlich hat und nicht immer mit der CPU darum streiten muss.


Wofür brauchst du denn die ROPs? Damit du den Leuten schrottige last-gen Pixel Shader anbieten kannst? Gipsel hatte mal erklärt, dass die PS4 ohnehin zu wenig Bandbreite hat, um 32 ROPs voll auszulasten. Und bei den Texturen siehst du idR auch keinen Unterschied zwischen PS4 und X1, der TMU-Bonus ist also offensichtlich auch hinfällig. Die PS4 kann schneller rechnen (Compute Shader), das habe ich aber eben auch schon gesagt und das würde sich mit mehr Bandbreite auch nicht ändern, sie hat anscheinend auch die bessere API und muss den Framebuffer nicht in 32MB RAM quetschen. Das sorgt dafür, dass die PS4-Grafik besser ist. HUMA haben prinzipiell beide, das wurde hier schon längst geklärt.

Eine X1 mit 64MB ESRAM @ 400GB/s würde der PS4 sicher ne ganze Menge Kopfschmerzen bereiten, davon bin ich überzeugt.

di kannst die ROPs zwar nicht auslasten, aber mehr ROPs und TMUs schaden auch nicht. Die Effizienz nimmt zwar stark aber sie bringen was.


Aber ging es hier in dem Thread nicht eigentlich um die Nächste Generations?


Und da bleibe ich erst mal dabei. Es wird 2 Hauptspeicher-Pools geben (aus aktueller Sicht). Einen HBM (je nachdem was dann möglich ist x GB) und einen auf dem Board mit 2-4*x GB an Speicher.
Die viel quälendere Frage ist, worauf werden die Daten gespeichert sein. SSD dürfte immernoch zu teuer sein und magnetplatten sind viel zu langsam.
Immerhin wird sich an der Texturauflösung etc nicht plötzlich ein Trend in die andere Richtung ergeben. Man darf wohl eher davon ausgehen das die Daten weiterhin mehr oder minder hochschnellen werden. Was streamt also schnell genug. Würde mich fast nicht wundern wenn z.B. extra viel günstiger Speicher da rein kommt nur um schnell genug streamen zu können.

Slashman
2015-01-23, 15:41:21
Wofür brauchst du denn die ROPs? Damit du den Leuten schrottige last-gen Pixel Shader anbieten kannst? Gipsel hatte mal erklärt, dass die PS4 ohnehin zu wenig Bandbreite hat, um 32 ROPs voll auszulasten. Und bei den Texturen siehst du idR auch keinen Unterschied zwischen PS4 und X1, der TMU-Bonus ist also offensichtlich auch hinfällig. Die PS4 kann schneller rechnen (Compute Shader), das habe ich aber eben auch schon gesagt und das würde sich mit mehr Bandbreite auch nicht ändern, sie hat anscheinend auch die bessere API und muss den Framebuffer nicht in 32MB RAM quetschen. Das sorgt dafür, dass die PS4-Grafik besser ist. HUMA haben prinzipiell beide, das wurde hier schon längst geklärt.

Eine X1 mit 64MB ESRAM @ 400GB/s würde der PS4 sicher ne ganze Menge Kopfschmerzen bereiten, davon bin ich überzeugt.

Ich verstehe beim besten willen nicht wie du glauben kannst die PS4 sei nicht schneller wenn die Xbox One 64MB ESRAM hätte mit 400GB/s. Beide haben eine GCN GPU auf selber Basis (GCN 1.1) nur das eben die PS4 41-87% schneller Rechnen kann und wenn doch 32 ROPs mit 176 GB/s nicht nutzbar ist was soll dann bitte eine HD 7870, HD 7970 mit 32 ROPs oder was will eine R9 290X mit 64 ROPs bzw. eine GTX 970/980?

Wenn ROPs total unwichtig sind oder TMUs warum bekommen GPUs von Gen zu Gen mehr davon? Nicht nur die Shader und Bandbreite ist wichtig.

CD Project hat mal gesagt der Xbox One hilft ESRAM nicht so wie MS sich das vorstellt und ihr würde mehr ESRAM ebenso wenig was bringen wie schnellerer ESRAM. Der Punkt ist einfach, das ihr auch die Rechenleistung fehlt.

OK anders ran gehen an diese Sache:

Wer hat eine HD 7700? Bitte übertakte nur deinen Vram um 40% und sag mir dann ob die Bildrate auch um 40% steigt, denn das muss sie ja um eine 40% schnellere Karte zu schlagen.

So sehe ich das, da die PS4 nunmal 41% mehr Shader/Textur und immerhin 87% mehr Pixelleistung hat.

[immy;10497284']Aber ging es hier in dem Thread nicht eigentlich um die Nächste Generations?


Und da bleibe ich erst mal dabei. Es wird 2 Hauptspeicher-Pools geben (aus aktueller Sicht). Einen HBM (je nachdem was dann möglich ist x GB) und einen auf dem Board mit 2-4*x GB an Speicher.
Die viel quälendere Frage ist, worauf werden die Daten gespeichert sein. SSD dürfte immernoch zu teuer sein und magnetplatten sind viel zu langsam.
Immerhin wird sich an der Texturauflösung etc nicht plötzlich ein Trend in die andere Richtung ergeben. Man darf wohl eher davon ausgehen das die Daten weiterhin mehr oder minder hochschnellen werden. Was streamt also schnell genug. Würde mich fast nicht wundern wenn z.B. extra viel günstiger Speicher da rein kommt nur um schnell genug streamen zu können.

Ich denke wenn dann (Beispiel) 32 GB DDR4 Quad Channel RAM (DDR4 3200 wenn überhaupt) und weitere 8-16 GB HBM2 Vram (R9 390X soll ja 8 GB HBM Memory bieten dachte ich).

Dann würde eine PS5 ja wirklich gut werden für 4K Grafik mit 4x so viel Details (langt schon für sehr sehr gute Optik/Grafik).
8 Kerne je Kern 1,5-2x mehr MHz Leistung als der AMD Jaguar (also quasi Hasswell/Sandy Bridge Leistung)
je Kern 3,2-3,5 GHz (heute schon absolut normal)
macht 3-4x mehr CPU Leistung.

32 GB DDR4 3200 Quad C. (Gemeinsamer Pool)
min 8 GB HBM2 Vram (nur für die GPU)

AMD GPU auf GCN 2.0 oder 3.0 Basis
8192 Shader
64 ROPs (sollen ja nichts bringen)
256 TMUs.

DinosaurusRex
2015-01-23, 15:42:04
[immy;10497284']
Und da bleibe ich erst mal dabei. Es wird 2 Hauptspeicher-Pools geben (aus aktueller Sicht).

Warum sollten die zwei Pools machen? Mark Cerny meinte in einem Interview, dass der am häufigsten geäusserte Wunsch der Entwickler für eine PS4 ein unified RAM Pool gewesen ist. Das wird also sicher nicht mehr weggehen.

Wenn überhaupt zwei Pools, dann höchstens im Stile einer X1 als eine Art L3 oder L4 Cache, keine Ahnung was das dann genau wäre... Es wäre auf jeden Fall auch eine Lösung, die von SCE-Ingenieuren als vielversprechend angesehen wurde/wird. Bei einer Versechzehnfachung (darauf stehen ja hier alle) hätten wir dann 512MB mit 3,2TB/s und super niedriger Latenz.

und wenn doch 32 ROPs mit 176 GB/s nicht nutzbar ist was soll dann bitte eine HD 7870, HD 7970 mit 32 ROPs oder was will eine R9 290X mit 64 ROPs bzw. eine GTX 970/980?

Ich wette Gipsel hat dafür ne super Erklärung parat.

---

Und grundsätzlich möchte ich zu bedenken geben, dass Grafikkarten für den PC immer auch einem Produktdesign unterliegen, das für eine bestimmte Zielgruppe zugeschnitten ist. Selbstverständlich würde es für die Performance JEDER GPU unendlich viel bringen, wenn JEDE Grafikkarte mit 512-Bit GDDR5 ausgestattet wäre, allerdings würde das den Preis enorm aufblähen und das finale Produkt keine Zielgruppe mehr finden können. Die kostengünstigere Lösung ist der Ansatz der X1, doch ich denke sowas macht auf dem PC keinen Sinn, weil die API die effektive Auslastung des kleinen RAM Chunks nicht zulässt.

Slashman
2015-01-23, 15:54:55
Warum sollten die zwei Pools machen? Mark Cerny meinte in einem Interview, dass der am häufigsten geäusserte Wunsch der Entwickler für eine PS4 ein unified RAM Pool gewesen ist. Das wird also sicher nicht mehr weggehen.

Wenn überhaupt zwei Pools, dann höchstens im Stile einer X1 als eine Art L3 oder L4 Cache, keine Ahnung was das dann genau wäre... Es wäre auf jeden Fall auch eine Lösung, die von SCE-Ingenieuren als vielversprechend angesehen wurde/wird. Bei einer Versechzehnfachung (darauf stehen ja hier alle) hätten wir dann 512MB mit 3,2TB/s und super niedriger Latenz.



Ich wette Gipsel hat dafür ne super Erklärung parat.

Ja ein gemeinsamer Pool ist ja auch besser, da man manchmal weniger RAM als Vram benötigt oder mal anders rum. Klar die X1 ESRAM Idee war nicht schlecht, aber 48 MB wären in gewissen Situation besser gewesen. Obwohl die PS4 ja nur 41% schneller Rechnet bei der GPU ist zum Beispiel ein MGS5/PES bzw. und co auf der PS4 in 1080p und auf der Xbox One in 720p... ganze 2,25x mehr Pixel auf der PS4. Laut einigen Entwickler würde mehr ESRAM nur verhindern das beim Rendern einiger Szenarien das abfallen auf 720p verhindert wird.

Das bedeutet nicht das dann eine X1 genauso 1080p packt wie die PS4 nur eben der Abstand kleiner wird.

Wo ist Gipsel und macht er Videospiele wie CD Project, Kojima Production oder Bioware? Wenn einer Java Entwickler ist und meint zu wissen wie eine PS4 besser oder schlechter sein soll ist es nicht Hilfreich.

DinosaurusRex
2015-01-23, 15:59:55
Wo ist Gipsel und macht er Videospiele wie CD Project, Kojima Production oder Bioware? Wenn einer Java Entwickler ist und meint zu wissen wie eine PS4 besser oder schlechter sein soll ist es nicht Hilfreich.

Ne, ich glaub der ist einfach nur intelligenter als der ganze Rest hier.

https://lh5.googleusercontent.com/--257UB2QU4c/UxlEDVhnuzI/AAAAAAAAnpQ/69Y20PKRHVc/w400-h240-no/we-did-something-bad_original.gif

Slashman
2015-01-23, 16:10:45
Ne, ich glaub der ist einfach nur intelligenter als der ganze Rest hier.

https://lh5.googleusercontent.com/--257UB2QU4c/UxlEDVhnuzI/AAAAAAAAnpQ/69Y20PKRHVc/w400-h240-no/we-did-something-bad_original.gif

Hast du eine Grafikkarte der du mal bitte den Vram übertaktest und schau dir an ob die Bildrate steigt... (ohne GPU zu übertakten) und jetzt übertakte deine GPU, aber senke den Vram Takt auf normal oder niedriger.

Was glaubst du passiert... Ich sags dir ich habe es mit dem Nvidia Inspector gerade getestet GPU übertakten bringt mehr als Vram übertakten, den Vram zu übertakten brachte nix und zu senken schadete auch nicht wirklich.

PS: Also wenn die Entwickler die Aktuelle Konsolenspiele brachten und noch bringen werden sagen, das der XBox One DX12, ESRAM keine Hilfe ist warum sollte ich dann auf Gipsel hören. Ist er so einer wie der MisterXMedia der behauptet Xbox One hat 12 Gb RAM, eine versteckte GPU und ist eigentlich viel viel schneller wie die PS4.

DinosaurusRex
2015-01-23, 16:13:55
Hast du eine Grafikkarte der du mal bitte den Vram übertaktest und schau dir an ob die Bildrate steigt... (ohne GPU zu übertakten) und jetzt übertakte deine GPU, aber senke den Vram Takt auf normal oder niedriger.

Was glaubst du passiert... Ich sags dir ich habe es mit dem Nvidia Inspector gerade getestet GPU übertakten bringt mehr als Vram übertakten, den Vram zu übertakten brachte nix und zu senken schadete auch nicht wirklich.

Was doch unter Umständen daran liegen könnte, dass aktuelle Grafikkarten, ganz gleich welcher Leistungsklasse, nicht sonderlich viel mehr Bandbreite mitbringen als die current-gen Konsolen und die Entwickler Dinge, die von sehr viel Bandbreite profitieren würden, deswegen gar nicht erst machen.

Zumal man laut Corrinne Yu auf den Konsolen dank Pedal-to-the-Metal Cöding die Bandbreite feintunen kann. Auf dem PC kannst du das nicht, da wird also noch mehr davon verschwendet.

Slashman
2015-01-23, 16:22:22
Was doch unter Umständen daran liegen könnte, dass aktuelle Grafikkarten, ganz gleich welcher Leistungsklasse, nicht sonderlich viel mehr Bandbreite mitbringen als die current-gen Konsolen und die Entwickler Dinge, die von sehr viel Bandbreite profitieren würden, deswegen gar nicht erst machen.
Wir drehen uns im Kreis. Die Xbox One hat keine 64MB ESRAM mit 400GB/s, weil die Xbox One APU schon wegen den 32MB ESRAM 5% größer/teurer ist als die PS4 und um die kosten nicht zu sprengen müsste die Xbox One ja noch mal Shader, TMUs und ROPs opfern für 64MB ESRAM. Wenn du glaubst das die X1 mit mehr ESRAM schneller wäre, dann sag doch MS die X1 Slim soll in 20nm dann alles in weiteren ESRAM bringen und dann Spiele auf der alten Xbox One nur in 720p/900p Rendern lassen und auf der neuen dann in 1080p... Wäre nicht die erste Slim Version die dann 2x RAM bekommt.

Das bedeutet dann wohl 512 Shader, 12 ROPs, 32 TMus um was zu haben?

@ Topic:
Könnte einer was zu den Specs von mir sagen?
8 Kerne je Kern 1,5-2x mehr MHz Leistung als der AMD Jaguar (also quasi Hasswell/Sandy Bridge Leistung)
je Kern 3,2-3,5 GHz (heute schon absolut normal)
macht 3-4x mehr CPU Leistung.

32 GB DDR4 3200 Quad C. (Gemeinsamer Pool)
min 8 GB HBM2 Vram (nur für die GPU)

AMD GPU auf GCN 2.0 oder 3.0 Basis
8192 Shader (1 GHz Takt)
64 ROPs (sollen ja nichts bringen)
256 TMUs.

Klingt nicht teuer und sollte real gesehen in 10nm (7nm FinFET) nicht all zu sehr teuer sein. Ich meine vieles davon gibt es schon Heute. 32GB DDR4/DDR3 RAM kann man schon heute haben in normalen PCs (nicht Server wo sogar schon 128 GB drin sind) und 8 Kerne mit mehr Power als ein Jaguar ist ja auch keine Kunst. 8 GB HBM2 Memory solls schon ab der übernächsen AMD GPU Gen geben (R9 400 Serie quasi die PS5 GPU Vorgänger dann).
64 ROPs hört sich nach viel an, aber eine 14nm GPU wird das schon im oberen Performance Bereich bieten und eine echte 10nm GPU das dann auch im Mittelklasse Bereich.

Nciht vergessen früher waren 384-512 Shader auch mal High End und jetzt haben das PC Onboard GPUs (Kavari)

DinosaurusRex
2015-01-23, 16:24:27
Die Xbox One hat keine 64MB ESRAM mit 400GB/s, weil die Xbox One APU schon wegen den 32MB ESRAM 5% größer/teurer ist als die PS4 und um die kosten nicht zu sprengen müsste die Xbox One ja noch mal Shader, TMUs und ROPs opfern für 64MB ESRAM

Nö, die hätten auch einfach auf ein wenig Redundanz verzichten können, dann wäre die Konsole vllt auch ihre 500 Scheine wert gewesen.

Slashman
2015-01-23, 16:28:19
Nö, die hätten auch einfach auf ein wenig Redundanz verzichten können, dann wäre die Konsole vllt auch ihre 500 Scheine wert gewesen.

OK die PS4 APU ist etwa 350mm² groß die der Xbox One etwa 360mm² groß mit mehr ESRAM wäre sie sicher 450mm² groß den die 32MB ESRAM machen schon jetzt 1/3 der APU aus. 450mm² bedeutet größere Kühlung, höhere TDP/Ausfallrate und zum einen noch mehr kosten für MS und keine chance gegen die PS4 anzukommen im Preis.

Dann hätte die X1 bei 450mm² Chip Version dann noch immer viel weniger Shader, TMUs und ROPs als die PS4. Also was sollte das bringen? Nichts! Damit es was bringen würde müsste die X1 wenigstens genauso viele Einheiten haben, aber das würde nochmal Platz kosten und die TDP steigern also dann 525mm²+ und was würde die X1 dann kosten um etwas mehr Dampf als die PS4 zu haben... genau 2x so viel!

PS: Ist MisterXMedia ein Freund von dir?

@ Topic:
Könnte einer was zu den Specs von mir sagen?
8 Kerne je Kern 1,5-2x mehr MHz Leistung als der AMD Jaguar (also quasi Hasswell/Sandy Bridge Leistung)
je Kern 3,2-3,5 GHz (heute schon absolut normal)
macht 3-4x mehr CPU Leistung.

32 GB DDR4 3200 Quad C. (Gemeinsamer Pool)
min 8 GB HBM2 Vram (nur für die GPU)

AMD GPU auf GCN 2.0 oder 3.0 Basis
8192 Shader (1 GHz Takt)
64 ROPs (sollen ja nichts bringen)
256 TMUs.

Klingt nicht teuer und sollte real gesehen in 10nm (7nm FinFET) nicht all zu sehr teuer sein. Ich meine vieles davon gibt es schon Heute. 32GB DDR4/DDR3 RAM kann man schon heute haben in normalen PCs (nicht Server wo sogar schon 128 GB drin sind) und 8 Kerne mit mehr Power als ein Jaguar ist ja auch keine Kunst. 8 GB HBM2 Memory solls schon ab der übernächsen AMD GPU Gen geben (R9 400 Serie quasi die PS5 GPU Vorgänger dann).
64 ROPs hört sich nach viel an, aber eine 14nm GPU wird das schon im oberen Performance Bereich bieten und eine echte 10nm GPU das dann auch im Mittelklasse Bereich.

Nciht vergessen früher waren 384-512 Shader auch mal High End und jetzt haben das PC Onboard GPUs (Kavari)

DinosaurusRex
2015-01-23, 16:30:52
Dann hätten sie halt 1T-SRAM nehmen sollen. Oder eDRAM. Aber halt nicht so'n Billigschrott.

Slashman
2015-01-23, 16:33:53
Dann hätten sie halt T1-SRAM nehmen sollen. Oder eDRAM. Aber halt nicht so'n Billigschrott.

EDRAM ist kaum schneller als DDR3 bei 256 Bit Bus? Bzw. da wären sie mit GDDR5 weit besser bedient. Zwar könnte man mit EDRAM dafür bei selber Transistorzahl 128MB statt 32MB haben, aber besser eher nicht.

EDRAM wäre 1/3 so schnell so viel ich weiß. Die WiiU hat 32 MB EDRAM und der ist nur 78GB/s schnell also nur etwas schneller als die 68 GB/s des Xbox One DDR3s.

DinosaurusRex
2015-01-23, 16:35:23
Der 10MB große eDRAM der Xbox 360 läuft mit 256GB/s. Das ist eine 2005er Konsole.

][immy
2015-01-23, 16:40:36
Warum sollten die zwei Pools machen? Mark Cerny meinte in einem Interview, dass der am häufigsten geäusserte Wunsch der Entwickler für eine PS4 ein unified RAM Pool gewesen ist. Das wird also sicher nicht mehr weggehen.

Wenn überhaupt zwei Pools, dann höchstens im Stile einer X1 als eine Art L3 oder L4 Cache, keine Ahnung was das dann genau wäre... Es wäre auf jeden Fall auch eine Lösung, die von SCE-Ingenieuren als vielversprechend angesehen wurde/wird. Bei einer Versechzehnfachung (darauf stehen ja hier alle) hätten wir dann 512MB mit 3,2TB/s und super niedriger Latenz.

Ähm, 2 Pools sind 2 Pools. Das Virtuell das ganze als ein pool gesehen wird (wie bei der x1) ist eine andere Sache.
Man wird aber mit 2 Pools gehen müssen, da externe Speicher nicht genügend Bandbreite liefern kann (ausgegangen von den Anforderungen in 7-8 Jahren) und HBM zu teuer sein wird um nur damit eine große Menge von Speicher unter zu bringen.
Also warden die Kosten dafür sorgen das es einen HBM (oder wie sich das zu dem Zeitpunkt auch immer schimpft) und einen "normalen" Speicherpool gibt.


@Slashman
Du gehst ja scheinbar auch von 2 Pools aus. Ausgehend von der aktuellen generation gehe ich auch wieder von x86 aber mit vielen Spezialprozessoren aus. Als GPU könnte man sich eventuell eine High-end karte aus dem Jahre 2017 vorstellen, wenn es 2020 erscheinen soll.


Wenn es überhaupt so etwas wird und nicht tatsächlich das Internet für's Streaming nutzbar ist. Die Publisher dürften auf jeden Fall in diese Richtung drängen wollen.

Der 10MB große eDRAM der Xbox 360 läuft mit 256GB/s. Das ist eine 2005er Konsole.
wovon dem Entwickler selbst aber nur ein Bruchteil zur Verfügung gestellt wurde. Und wie viel GB/s effizient am ende dabei rauskamen steht ebenfalls auf einem anderen blatt.

DinosaurusRex
2015-01-23, 16:45:07
[immy;10497361']Ähm, 2 Pools sind 2 Pools.

Unified bedeutet, dass sowohl CPU als auch GPU auf den selben Scheiß Zugriff haben. Dieses sogenannte GPU Writeback wurde ja bereits von vielen Entwicklern gelobt. Man kann doch sogar theoretisch zwei Unified Pools machen, also das sowohl CPU als auch GPU Zugriff auf den kleinen "Cache" haben. So hättest du ne Mordsbandbreite und super niedrige Latenzen für Rendering und asynchrones Computing.

Hunter93
2015-01-23, 16:58:10
Der 10MB große eDRAM der Xbox 360 läuft mit 256GB/s. Das ist eine 2005er Konsole.

Das war die interne Bandbreite zu den ROPs. Zur GPU direkt sind es nur 32 GB/s.

Shishkovstov (Metro) hielt im DF-Interview den ROP-Count der PS4 für "important too". So ganz nutzlos wird das dann schon nicht sein.

DinosaurusRex
2015-01-23, 18:12:37
Ja, ich glaub es hat auch kein anderer 3rd-party Programmierer die PS4 öffentlich so häufig und so sehr gelobt wie Oles Shishkovstov. Der scheint die Kiste richtig zu mögen. ;)

Slashman
2015-01-23, 18:19:28
Der 10MB große eDRAM der Xbox 360 läuft mit 256GB/s. Das ist eine 2005er Konsole.

Ich glaube kaum das der EDRAM wirklich so schnell war... Das wäre mal neu und wie Hunter schon sagte real waren es nur 32GB/s... Wäre es wirklich 256GB/s gewesen hätte MS doch EDRAM statt ESRAM genutzt und die WiiU würde doch einen EDRAM haben der ebenso viel Leistet, was aber nicht der Fall ist.

Die WiiU hat einen besseren EDRAM und kommt nur auf 78GB/s.

DinosaurusRex
2015-01-23, 18:33:52
Je höher die Dichte des on-die RAM, desto schwieriger wird die Fertigung. EDRAM hat eine sehr hohe Dichte, der 6T-SRAM in der Xbox One eher nicht. Wenn du einen fortgeschritteneren Fertigungsprozess nutzen möchtest, wird das dementsprechend teuer. Die Wii U hat einen 45nm Chip, oder nicht? Die X1 nutzt 28nm. Das heißt, da findet ein Trade-off statt zwischen Prozessorleistung und RAM Performance (es sei denn Geld spielt keine Rolle).

Nakai
2015-01-23, 18:34:23
Die GPU der Xbox360 bestand aus zwei DIEs. Das Parent-Die galt als Northbridge, hatte also den MemoryController integriert und Zugriff auf die 512MB Unified-GDDR3 RAM und 32GB/s Bandbreite auf das Daughter-Die. Daughter-Die hat die ROPs und eben die 10MB EDRAM enthalten. Der Zugriff auf den EDRAM war tatsächlich 256GB/s. Die Verbindung vom Parent-Die zu Daughter-Die muss keine so hohe Bandbreite haben. Das hat schon seine Richtigkeit, die richtigen bandbreiten-intensiven Aufgaben(Framebuffer, Colour, Z) lagert man auf das Daughter-Die aus.

http://www.beyond3d.com/content/articles/4/3

Der Aufbau vom ESRAM und vom EDRAM zwischen XBO und XB360 sind eh völlig unterschiedlich. Das kann man schwer vergleichen.

Coda
2015-01-23, 19:06:19
Das war die interne Bandbreite zu den ROPs. Zur GPU direkt sind es nur 32 GB/s.

Shishkovstov (Metro) hielt im DF-Interview den ROP-Count der PS4 für "important too". So ganz nutzlos wird das dann schon nicht sein.
Der eSRAM bei der Xbox One hängt aber auch hinter den ROPs.

Das einzige was die One da rettet ist die viel bessere Bandbreitennutzung.

drkohler
2015-01-23, 19:16:50
Ich glaube kaum das der EDRAM wirklich so schnell war...Das ist keine Glaubensfrage. Der "Zusatzchip" in der X360 ist ein festverdrahtetes Modul. In diesem sind die 10MB edram mit einem 1024bit Bus mit den festverdrahteten rops verbunden. Das ist schon mal die vierfache Busbreite wie in der Wii, die 256GB/s stimmen schon.

Locuza
2015-01-23, 19:18:06
Getrennter Speicher ist kein Diskussionsthema mehr. Wenn man GPU-Compute ordentlich verwenden will ist das ein No-Go. Das einzige was das beim PC am Leben erhält sind die Marktverhältnisse.
Wie meinst du das eig. genau Coda?

Ist bald, ich nenne es PR-mäßig, Heterogeneous Compute angesagt, wo der PC nicht mehr mitkommt?

drkohler
2015-01-23, 19:23:28
Microsoft gibt für den ESRAM etwa 200GB/s an (was Dr. Kohler natürlich gleich wieder anfechten wird ;)). Aber sicher :biggrin:
Das Witzige ist ja, dass MisterXMedia nimmermüde (aber nach wie vor ohne jedes technologische Verständnis) aus den für Normalmensch unmöglichst zu findenden Orten seine Grafiken und Tabellen sein "Digging" hervorzaubert. Vor einigen Wochen hatte er eine Grafik, wo klar hervorgeht das die maximale Bandbreite zum esram 109GByte/s ist.
Natürlich ist bei dem vielen Unsinn in seinem Blog nicht zu sagen, woher er die Grafik zusammen gestohlen hatte oder ob sie wie fast immer zusammen mit seinen "Digs" auf seinem regelmässigen Haschkonsum basierte.

Aber du hast schon Recht :biggrin: Ich bin nach wie vor überzeugt, dass 109GB/s die richtige Zahl ist.

Glücklicherweise hat MS grad seine "Holobrille" vorgestellt (totale Fake-Demo in meinen Augen). Aber der Blog wurde schon extrem langweilig ob den dauernden Wiederholungen. Jetzt können er und seine imaginären Insider wieder aus dem Vollen schöpfen dank Star Trek und Holodeck und MS.

DinosaurusRex
2015-01-23, 19:54:44
Ja natürlich ist das Fake. Mit Holografie hat das nix zu tun. Das ist stinknormales Augmented Reality. Ich hab vor ein paar Monaten (oder wahren es Jahre?) eine wissenschaftliche Arbeit über Holografie geschrieben und dank konsequenter Missachtung der Kein-Bier-vor-vier-Regel, muss ich den Scheiß erst mal wieder rauskramen, um mich daran zu "erinnern". Aber was Microsoft da verzapft ist Bauernfängerei auf dreistestem Niveau.

Um auf Wellenoptik basierende Consumer Electronics zu produzieren, ist Micrsoft doch viel zu geizig. Und wenn man sich das Design der X1 ansieht, vermutlich auch zu blöd.

Das ist ein erster Schritt in Richtung Holografie:

Xp7BP00LuA4

Der nächste Schritt ist, dass es interaktiv wird. Und in meinen Augen ist das 1000 Mal genialer als VR, einfach weil es perfekt für konsoliges Couch Multiplayer Gaming geeignet wäre. Stell dir mal ein Holo-Diablo auf so nem Holo-Display vor. Oder FIFA. Oder ein Street Fighter... Geometrische Optik (VR) ist prinzipbedingt einfach kacke. Das ist alles nur Fake. Holografie ist kein Fake. Das spiegelt sich allein dadurch wieder (pun intended), dass Geräte, die auf geometrischer Optik basieren (wie z.B. die Kamera aus dem YouTube Video), den Holografie-Effekt perfekt aufzeichnen können. Stereoskopisches 3D lässt sich nicht aufzeichnen, weil es einfach nur die visuelle Wahrnehmung des menschlichen Körpers austrickst. Das ist übrigens auch ein Grund für die ganzen Nebenwirkungen bei diesem Pseudo-3D.

Apropos Nebenwirkungen, hier kann man sich mal ne ordentliche Portion Kotzreiz bedingt durch eine miserable Parallaxe abholen:

8tN_TPTIrYs


Ist bald, ich nenne es PR-mäßig, Heterogeneous Compute angesagt, wo der PC nicht mehr mitkommt?

Viel interessanter ist doch die Frage, ob Mark Cerny recht behalten wird. Der hat ja behauptet, dass die PS4 GPGPU machen kann, ohne dass die Rendering Performance davon negativ beeinflusst werden wird. Also eine absolute Maximalauslastung des Grafikprozessors. Das wäre echt mal cool.

][immy
2015-01-23, 21:06:00
Aber sicher :biggrin:
Das Witzige ist ja, dass MisterXMedia nimmermüde (aber nach wie vor ohne jedes technologische Verständnis) aus den für Normalmensch unmöglichst zu findenden Orten seine Grafiken und Tabellen sein "Digging" hervorzaubert. Vor einigen Wochen hatte er eine Grafik, wo klar hervorgeht das die maximale Bandbreite zum esram 109GByte/s ist.
Natürlich ist bei dem vielen Unsinn in seinem Blog nicht zu sagen, woher er die Grafik zusammen gestohlen hatte oder ob sie wie fast immer zusammen mit seinen "Digs" auf seinem regelmässigen Haschkonsum basierte.

Aber du hast schon Recht :biggrin: Ich bin nach wie vor überzeugt, dass 109GB/s die richtige Zahl ist.

Glücklicherweise hat MS grad seine "Holobrille" vorgestellt (totale Fake-Demo in meinen Augen). Aber der Blog wurde schon extrem langweilig ob den dauernden Wiederholungen. Jetzt können er und seine imaginären Insider wieder aus dem Vollen schöpfen dank Star Trek und Holodeck und MS.
Die 204gb/s stammen von ms nicht von misterxy ungelöst. Die 109 gb/s ebenfalls. 104gb/s waren es noch zu der Zeit wo man 800mhz chiptakt hatte. Die 204gb/s ist das was maximal in der Theorie nutzbar ist. 140gb/s ist der bisher beste real genutze wert (lesen + schreiben nur esram), zumindest war er das noch etwa im März letzten Jahres.

Hunter93
2015-01-23, 21:20:34
Der eSRAM bei der Xbox One hängt aber auch hinter den ROPs.

Das einzige was die One da rettet ist die viel bessere Bandbreitennutzung.

Hieß es nicht, die 256 GB/s wären (um Faktor 8) unkomprimiert und deswegen nicht zu vergleichen?

Ja, ich glaub es hat auch kein anderer 3rd-party Programmierer die PS4 öffentlich so häufig und so sehr gelobt wie Oles Shishkovstov.

Tut er das?
Microsoft gibt für den ESRAM etwa 200GB/s an

Und spricht trotzdem fast beständig von der Hälfte in der geleakten XDK-Doku.
Shishkovstov meinte dazu ...

"the maximum theoretical bandwidth - which is somewhat comparable to PS4 - can be rarely achieved (usually with simultaneous read and write, like FP16-blending)"

Und das XDK gibt die praktisch gemessene eSRAM-Bandbreite bei FP16-blending zum Beispiel mit 133 GB/s an.
Klingt für mich eher nach "109 GB/s +" statt auch nur annähernd wirklichen 204 GB/s.

Coda
2015-01-23, 21:25:16
Hieß es nicht, die 256 GB/s wären (um Faktor 8) unkomprimiert und deswegen nicht zu vergleichen?
Wieso Faktor 8?

xxxgamerxxx
2015-01-23, 21:30:31
Das ist ein erster Schritt in Richtung Holografie:

http://youtu.be/Xp7BP00LuA4


Sieht für mich billig aus. Ich sehe da nirgendwo einen 3D Holo Effekt.

Hunter93
2015-01-23, 21:32:56
Wieso Faktor 8?

Ich hab irgendwo im Hinterkopf, dass das jemand hier (Gipsel?) so erklärt hat und die Zahl auch entsprechend Sinn machen würde (32 GB/s * 8 = 256 GB/s).
Bin mir aber nicht mehr sicher, wo genau ich das aufgeschnappt habe :freak:

DinosaurusRex
2015-01-23, 21:35:20
Sieht für mich billig aus. Ich sehe da nirgendwo einen 3D Holo Effekt.


http://img.pandawhale.com/50900-Ellen-Page-shrug-gif-Tb30.gif


Hier gibt's erste Gehversuche in so nem TV-Kastenteil:

Ux6aD6vE9sk

Das Hologramm ist grün, weil der verwendete Laser grün ist. Es gibt auch RGB Laser, falls du das wissen willst. Du kannst das also theoretisch auch in bunt machen, aber das kostet halt ein wenig mehr. Bei dem Video auf der letzten Seite wurde ein Interferenzmuster in die Holo-Platte eingebracht. Dieses dynamische Hologramm ist da natürlich deutlich komplexer, da du mehrere Interferenzmuster schichten und dann mit dem Laser belichten musst. Die aufkommenden Datenmengen sind bei dynamischen Hologrammen entsprechend gewaltig groß.

Dieses Video ist auch klasse:

89KxxpmMhi4

Das ist die Zukunft in 10-50 Jahren. Der Vorteil wird sein, dass du Assets überall verwenden kannst, also nicht nur in Filmen oder Videospielen, sondern auch im Alltag. Die Asset-Produktion wird das alles abdecken. Das Hollywood-Studio wird die gleichen Interferenzmuster verwenden können wie der Videospielentwickler. Das größte Problem bei dieser Technologie ist allerdings, dass du die gewaltigen Datenmengen bewältigen musst. Ironischerweise basiert der nächste Schritt der optischen Datenträgerevolution ebenfalls auf dem Prinzip der Holografie (HVD).

xxxgamerxxx
2015-01-23, 22:38:07
Sieht sehr gut aus. Aber bis es soweit mal ist und das ganze Haus mit Lasern zugepflastert und auch bezahlbar ist, nehme ich gerne praktikable Zwischenlösungen wie Hololens in Kauf, die es jetzt gibt und überall funktionieren. Wobei ich schon Illumiroom und RoomAlive gut fand, aber die HW und Installation ist auch schon zu teuer und aufwendig:
http://research.microsoft.com/en-us/projects/roomalive/

drkohler
2015-01-23, 22:44:50
Sieht sehr gut aus.Leute, Leute... Natürlich sieht das besser als die Leia die R2D2 projizierte. Und Beides ist völliger Unsinn. Wenn du mit tausend Lasern im Zimmer rumwirbelst, dann entstehen rumhüpfende, farbige Flecken an den Wänden, aber keine Hologramme. Da war Seaquest DSV besser, die haben wenigstens am Ort des Hologramms etwas hingestellt, damit dort ein Hologramm entstehen kann (funktioniert sogar wirklich)....

Slashman
2015-01-24, 04:19:47
@ Topic:
Könnte einer was zu den Specs von mir sagen?
8 Kerne je Kern 1,5-2x mehr pro MHz Leistung als der AMD Jaguar (also quasi Hasswell/Sandy Bridge oder AMD Excavator Leistung)
je Kern 3,2-3,5 GHz (heute schon absolut normal)
macht 3-4x mehr CPU Leistung.

32 GB DDR4 3200+ Quad C. 256 Bit Bus zu APU (Gemeinsamer Pool für CPU und GPU zum Auslagern der Skybox oder weniger wichtigen Texturen mit 120-150 GB/s)
min 8 GB HBM2 Vram (nur für die GPU für Daten mit hohem Bandbreitehunger mit 800-1600 GB/s)

AMD GPU auf GCN 2.0 oder 3.0 Basis
6144 Shader mit 1,5 GHz oder 8192 Shader mit 1 GHz Takt. 4096 mit 2 GHz wären auch OK.
64 ROPs (sollen ja nichts bringen)
256 TMUs.
16 Teraflop Leistung (8x Leistung zur PS4)

Wenn eine PS4 APU mit 8 Jaguar Kernen, 1280 Shadern (1152 Aktiv), 80 TMUs (72 Aktiv) und 32 ROPs nur 362mm² groß ist in 28nm, dann müsste doch in 7-10nm (echte 7-10nm) das doch drin sein.
Ich meine bei der CPU würde es langen einfach doppelt so gute AMD Excavator Kerne zu nehmen, die sollten schon mehr liefern als Jaguar und dann halt auf 3,2+ GHz zu setzen.
32 GB DDR4 RAM dürfte schon ab 2017 kein Problem sein und im Bereich von 50-100€ drin sein (je nach Takt/Version)
8 GB HBM/HBM2 soll schon bald in der R9 390 zu finden sein und was Heute/Bald High End ist könnte in 4-6 Jahren Mittelklasse/Oberemittelklasse sein.
Ich habe als Kompromiss statt 48 GB HBM2 einfach mal 2 RAM Pools genommen, weil die CPU wohl kaum mehr als 100-150 GB/s benötigt und viele Texturen ausgelagert werden können auf den großen Speicher. Die 8 GB HBM Vram sollte dann wirklich nur sehr Bandbreite fressenden Daten der GPU zustehen. Das würde dann etwa so aussehen 16 GB DDR4 RAM CPU, 16 GB DDR4 GPU/Texturen/Videostreaming (kann auch 24 zu 8 oder 8 zu 24 sein je nach dem) und die 8 GB HBM nur zum Rendern, für wichtige Daten halt.
8192 Shader hört sich nach viel an, aber so viel ist es wohlmöglich nicht. Die R9 390X wird bestimmt mehr als 3072 oder 4096 Shader haben. Kann sein das ich mich in diesem Punkt irre und statt auf viel Shader zu setzen dann einfach bei 4096 Shadern 2 GHz genutzt wird was das selbe wäre wie 8192 Shader mit 1 GHz Takt (aus sicht der Rechenleistung).
64 ROPs hat ja schon eine R9 290 und was die schon 2013 konnte wird eine PS5 2020 locker auch bieten können.
256 TMUs wäre eigentlich zwar nicht nötig oder? Ich meine wie viel besser werden den Texturen in der Zukunft?

Ich würde gerne lieber weiter über die PS5 als über MS Holotechnik, Xbox One vs PS4 (Theorie) oder den Spinner MisterXMedia schreiben. Ich meine MisterXMedia ist der größte Blinde Fanboy der Welt.

EvilTechno
2015-01-24, 05:59:59
Kannst du bitte deutlicher machen, wie sich diese Fieberfantasie von dem feuchten Traum von vor 10 Seiten unterscheidet?

Die Unterschiede kursiv oder so, das wäre ein echter Service. Danke.

Abgesehen davon ist mir nicht klar, wieso du wieder mit fast demselben ankommst. Die Forumshalbgötter haben doch einige der Wände aufgezeigt gegen die du rennst. Wenn dir das partou nicht einleuchtet, google doch mal "das Gesetz vom abnehmenden Grenzertrag".

Tolle Sache. Erklärt dir die ganze Welt, inklusive, wieso jeder levelup mehr EXP benötigt als der vorherige.

Slashman
2015-01-24, 10:40:26
Kannst du bitte deutlicher machen, wie sich diese Fieberfantasie von dem feuchten Traum von vor 10 Seiten unterscheidet?

Die Unterschiede kursiv oder so, das wäre ein echter Service. Danke.

Abgesehen davon ist mir nicht klar, wieso du wieder mit fast demselben ankommst. Die Forumshalbgötter haben doch einige der Wände aufgezeigt gegen die du rennst. Wenn dir das partou nicht einleuchtet, google doch mal "das Gesetz vom abnehmenden Grenzertrag".

Tolle Sache. Erklärt dir die ganze Welt, inklusive, wieso jeder levelup mehr EXP benötigt als der vorherige.
...

Also ist nach 20nm schluss und AMD, Intel, nvidia werden keine echten neuen Grafikkarten bringen. 14/16nm Finfet oder gar 10nm FinFet werden alles 20nm Chips sein... die Technologie ist also am Limit... Das glaube ich nicht. Kann sein das es dann wohl möglich so wie stacked RAM auch Stacked GPUs geben wird oder was anderes, aber an ein Limit glaube ich nicht.

Wenn die Fertigung schon jetzt am Limit ist und es bis 2019 keine echten 10nm gibt ist TSMC, GF, Samsung und Intel am Arsch!

http://www.3dcenter.org/news/intel-will-die-7nm-fertigung-bereits-im-jahr-2017-erreichen
http://www.bit-tech.net/news/hardware/2012/05/14/intel-process-roadmap/1

http://www.extremetech.com/computing/162376-7nm-5nm-3nm-the-new-materials-and-transistors-that-will-take-us-to-the-limits-of-moores-law

http://en.wikipedia.org/wiki/7_nanometer

Also Intel, TSMC, GF und Samsung wie auch IBM (vor dem Verkauf) würden und haben der Limit Theorie wiedersprochen. Sie alle gehen noch davon aus das 7nm ab 2019 Massenfertigung sein wird. Neue arten von Wafer und Transistoren sind nötig, kann sein das Silizium dann nicht mehr gut genug ist, aber 20nm oder eben FinFet ist nicht das Limit. Intel will sogar 5nm erreichen vor 2020 (Testmuster).

Also noch mal klingt jetzt 5x so viel RAM, 8x so viel GPU und 4x so viel CPU Leistung jetzt so unmöglich für echte 7nm?

Der Unterschied ist ich habe vor 10 Seiten gedacht das es wie früher minimum 12-16x so viel RAM (der Sprung jeder PS zur nächsten) und minimum 10x so viel Leistung eine PS5 haben wird. Ich bin jetzt wohl möglich nicht mehr davon überzeugt, das die PS5 128GB RAM, 16 CPU Kerne je 4 GHz und 12000 Shader mit 1,5 GHz haben wird und genau das hat sich geändert.