PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84

Nightspider
2014-09-25, 10:59:41
Da werden die Konsolen eh wieder Zwischenschritte machen wie 2,5K, 3K und 3,5K.
Einige Games werden in 4K laufen und einige Games nicht.

Kann genauso gut sein das man für VR-Brillen sogar höhere Auflösungen supporten wird. (8K?
Spezielle VR-Fungames könnten dann so programmiert werden trotz der hohen Auflösung noch hübsch auszusehen ohne mit viel Effekten rumzuwerfen.

Lightning
2014-09-25, 11:17:17
Hauptproblem ist aber eher die CPU, wo man leider lieber nichts ändern wollte und einfach mal drei Wii CPUs mit ein Bisschen mehr Cache eingesetzt hat. Architektur von gestern, IPC von gestern, Taktraten von gestern[...]

Bei skalarem Code (ohne SIMD) sollten die IPC ganz gut sein. Die Pipeline ist kurz, da tun Stalls nicht groß weh. Im Vergleich zur Wii ist der Sprung auf jeden Fall ordentlich, und für 360/PS3-Ports scheints in der Regel ja dann doch gereicht zu haben.
Da finde ich die lahme GPU (und den dazu passenden lahmen RAM) ehrlich gesagt sogar enttäuschender, denn da hätte man wirklich leicht was moderneres und fixeres nehmen können (ohne die Fessel der Abwärtskompatibilität).

Oder was ich sowieso als erstrebenswerter ansehe: Man macht die Abwärtskompatibilität optional ähnlich wie Sony es bei der PS3 gehandhabt hat: Wer das will kauft die teurere Premium Variante wo es so einen Chip gibt. Die Standard-Variante hat das halt nicht und ist günstiger.

Ja, das fände ich auch eine angenehme Lösung. Bin aber trotzdem skeptisch, dass wir sowas in Zukunft sehen werden. ;(

Würde es für die Next-Gen-Konsolen Sinn machen,bei der Auflösung auf 4k zu gehen? Oder sollten sie bei 1080p bleiben(bzw. diese Auflösung dann auch bei allen Spielen erreichen)?

Kommt drauf an, wie sich die GPUs in den nächsten Jahren so entwickeln. Die letzten Jahre hat sich ja ungewöhnlich wenig getan; wenn das so weitergeht, sollte man von 4K imo lieber absehen. Ich hoffe in nächster Zeit erstmal auf bessere AA-Lösungen, weniger flimmeranällige Shader etc.
Aber wer weiß schon, wie lange die nächste Generation noch entfernt ist, wer vielleicht aussteigt oder auf Streaming umsattelt..

tobor
2014-09-25, 11:20:28
Es ist ja nicht so, dass eine Konsole eine fest verdrahtete Auflösung hätte.
Wobei 4K auch für die nächste Generation nur für grafisch wenig anspruchsvolle Anwendungen in Frage kommt.
Ein typischer Generationssprung führt zu circa 10facher Mehrleistung im Vergleich zu den Vorgängern. Für 4k würden 40 Prozent dieser Mehrleistung für die Auflösung verwendet werden und der Rest wäre für sonstige Verbesserungen nutzbar.
Warum also nur für grafisch wenig anspruchsvolle Spiele?

tobor
2014-09-25, 11:23:13
Kommt drauf an, wie sich die GPUs in den nächsten Jahren so entwickeln. Die letzten Jahre hat sich ja ungewöhnlich wenig getan; wenn das so weitergeht, sollte man von 4K imo lieber absehen. Ich hoffe in nächster Zeit erstmal auf bessere AA-Lösungen, weniger flimmeranällige Shader etc.
Aber wer weiß schon, wie lange die nächste Generation noch entfernt ist, wer vielleicht aussteigt oder auf Streaming umsattelt..

Streaming ist mit hohen Latenzen verbunden. Das mag bei Rollenspielen kein Problem sein, aber bei Shootern und Rennspielen wäre das nicht gerade ideal.

RLZ
2014-09-25, 12:45:36
Ein typischer Generationssprung führt zu circa 10facher Mehrleistung im Vergleich zu den Vorgängern. Für 4k würden 40 Prozent dieser Mehrleistung für die Auflösung verwendet werden und der Rest wäre für sonstige Verbesserungen nutzbar.
Seltsame Rechnung.
4K "verbrät" gegenüber FullHD ~75% der Gesamtleistung.
Solange die Auflösungserhöhung weniger bringt als die Leistung woanders zu nutzen, wird man darauf verzichten.


Zudem immer langsamere Forschritte bei der Rechenleistung + ich gehe diesmal von einem wesentlich kürzeren Konsolenzyklus aus.

Lightning
2014-09-25, 12:50:14
Streaming ist mit hohen Latenzen verbunden. Das mag bei Rollenspielen kein Problem sein, aber bei Shootern und Rennspielen wäre das nicht gerade ideal.

Sicher wäre das nicht ideal, für mich käme das auch nicht in Frage. Aber vielleicht werden viele Leute das trotzdem schlucken, ich wäre mir da nicht so sicher.

THEaaron
2014-09-25, 12:56:01
Ja... So viele Leute da draußen die weder input Lag spüren noch den Unterschied zwischen 30 und 60 FPS sehen. :(

Finch
2014-09-25, 13:00:23
Ich denke, dass an 1080p festgehalten wird. Ich bin sehr empfindlich was input lag angeht, finde es aber schlimmer wenn Frames asynchron ausgegeben werden. Wenn ich mir Destiny und Forza Horizon 2 ansehe, denke ich dass ich die 30 FPS verkrafte. Nichtsdestotrotz sind 60 FPS immer spürbar besser.

Gebrechlichkeit
2014-09-25, 13:32:49
http://saved.im/mtcyntm2zhzj/if-ron-burgundy-says-it-its-the-truth-t-shirt.jpg8Rh3A3HxHHs
I hate to break it to you all...... dis iz de fiutscher (https://www.onlive.com/)! U nohs eim rite!

Deathcrush
2014-09-25, 13:39:22
Wobei 4K auch für die nächste Generation nur für grafisch wenig anspruchsvolle Anwendungen in Frage kommt.

Das hat man von der jetzigen Generation auch behauptet ;) (720p vs 1080p) und dennoch laufen auf der PS4 die allermeißten Spiele in FullHD.

RLZ
2014-09-25, 13:42:48
Das hat man von der jetzigen Generation auch behauptet ;) (720p vs 1080p) und dennoch laufen auf der PS4 die allermeißten Spiele in FullHD.
a) Wir reden hier nicht von Faktor 2. 4K ist Faktor 4
b) Die Auflösung geht im Laufe der Lebenszeit der Konsole nach unten
c) 4K -> abnehmender Grenzertrag

del_4901
2014-09-25, 13:55:29
Ich denke dass Next Gen Sampling Frequenz und Rasterization voneinander trennt. Es bringt einfach nur Vorteile wie beispielsweise importance Sampled Edges. Damit sind 4K dann auch keine Kunst mehr.

Akkarin
2014-09-25, 14:27:58
Wird dafür bestimmte hardware gebraucht ? Maxwell hat ja bei nVidia auch erst gebracht dass MSAA samples frei so gelegt werden können wie man will.

del_4901
2014-09-25, 14:36:02
Wird dafür bestimmte hardware gebraucht ? Maxwell hat ja bei nVidia auch erst gebracht dass MSAA samples frei so gelegt werden können wie man will. Nur fuer das komplette Bild und nicht per Pixel. Emulieren kann man sowas... aber schnell ist es nicht...
http://cg.ivd.kit.edu/english/ShadingReuse.php
https://software.intel.com/en-us/articles/a-sort-based-deferred-shading-architecture-for-decoupled-sampling

RLZ
2014-09-25, 15:08:35
Ich denke dass Next Gen Sampling Frequenz und Rasterization voneinander trennt. Es bringt einfach nur Vorteile wie beispielsweise importance Sampled Edges. Damit sind 4K dann auch keine Kunst mehr.
Müssen "nur" noch die GPU Hersteller ran.
Gibt es da Hinweise drauf?

Deathcrush
2014-09-25, 15:20:16
Die Auflösung geht im Laufe der Lebenszeit der Konsole nach unten


Nicht zwingend, siehe dir nur einmal die letzten Exklusivtitel der PS4 an, Grafiksteigerung plus erhalt der Auflösung von 720p.

tobor
2014-09-25, 17:29:25
Seltsame Rechnung.
4K "verbrät" gegenüber FullHD ~75% der Gesamtleistung.
Solange die Auflösungserhöhung weniger bringt als die Leistung woanders zu nutzen, wird man darauf verzichten.


Zudem immer langsamere Forschritte bei der Rechenleistung + ich gehe diesmal von einem wesentlich kürzeren Konsolenzyklus aus.
In 6 Jahren wären 12 Teraflops (10fache Xboneleistung) doch machbar für Mittelklassegpus?

tobor
2014-09-25, 17:30:41
Nicht zwingend, siehe dir nur einmal die letzten Exklusivtitel der PS4 an, Grafiksteigerung plus erhalt der Auflösung von 720p. War beim letzten Halo auf der 360 auch der Fall.

drkohler
2014-09-25, 18:09:16
In 6 Jahren wären 12 Teraflops (10fache Xboneleistung) doch machbar für Mittelklassegpus?Sehr unwahrscheinlich. Wie willst du das kühlen? Jetzt stehen wir grob bei 50W/TFlop. Selbst wenn du das halbieren kannst mit 20nm, das wird trotzdem zu heiss für Konsolen. Und dann bezahlen? 20nm wird wesentlich teurer werden pro Transistor. Auch wenn es denn Next-Next-Gen Konsolen geben wird, sie werden Gamer-PCs nicht nahekommen.

RLZ
2014-09-25, 19:12:25
In 6 Jahren wären 12 Teraflops (10fache Xboneleistung) doch machbar für Mittelklassegpus?
Die absolute Leistung ist bei dieser Rechnung vollkommen egal.

tobor
2014-09-26, 10:41:54
Sehr unwahrscheinlich. Wie willst du das kühlen? Jetzt stehen wir grob bei 50W/TFlop. Selbst wenn du das halbieren kannst mit 20nm, das wird trotzdem zu heiss für Konsolen. Und dann bezahlen? 20nm wird wesentlich teurer werden pro Transistor. Auch wenn es denn Next-Next-Gen Konsolen geben wird, sie werden Gamer-PCs nicht nahekommen.
In 6 Jahren sollte doch nicht nur Intel bereits einen 14 nm Prozess haben?

prinz_valium
2014-09-26, 12:10:36
In 6 Jahren sollte doch nicht nur Intel bereits einen 14 nm Prozess haben?

http://www.computerbase.de/2014-09/tsmc-fertigt-netzwerk-soc-in-16-nm-finfet-prozess/


in 6 jahren könnte man schon bei 10nm stehen (natürlich nur das, was die foundrys als 10nm bezeichnen. von wirklicher 10nm strukturgröße wird man da noch weit entfernt sein)

drkohler
2014-09-26, 19:05:04
In 6 Jahren sollte doch nicht nur Intel bereits einen 14 nm Prozess haben?Das ändert Nichts an den Problemen Wärmeentwicklung und Preis. Zumal muss auch mal darauf hingewiesen werden, dass die vieldiskutierten 32,28,20,14/16nm Angaben im Wesentlichen PR sind. Das ist grob gesagt ein Mass für einen mittleren Abstand verschiedener Elemente. Die tatsächliche Grösse der Transistoren hat sich zB deutlich weniger verkleinert (der 32nm Cell Chip ist grob halb so gross wie der 65nm Chip, und nicht 1/4 so gross).

RLZ
2014-09-26, 19:22:40
in 6 jahren könnte man schon bei 10nm stehen (natürlich nur das, was die foundrys als 10nm bezeichnen. von wirklicher 10nm strukturgröße wird man da noch weit entfernt sein)
Wieso 10nm?
Ich wäre da eher davon ausgegangen, dass in 6 Jahren bei Intel 7nm Massenmarkt sind und 5 nm demnächst ansteht.

Nightspider
2014-09-26, 19:47:00
In 6 Jahren ist man eher Anfang oder mitten in der 7nm Phase, je nachdem wie problematisch die fortgeschrittene Verkleinerung ist.

7nm wird immerhin in der neuen EUV-Lithographie erreicht.

2016 werden die Kapazitäten erst groß genug sein für viele mittelgroße bis große Chips in 16nm.
2018 bzw. auch erst Ende 2018 wird man mit 10nm loslegen bei größeren Chips.
2020 gibts mit Glück erste kleine Smartphone Chips in 7nm aber mit größeren SoCs (300-400mm²) braucht ihr nicht vor 2021 rechnen.

Wenn die PS5 also 8 Jahre nah der PS4 erscheint (2021) hätte man 7nm zur Verfügung. Damit hätte man rund 16 mal so viel Fläche zur Verfügung.
(Der PS4 SoC mit 350mm² würde in 7nm mit 50mm² locker in ein Smartphone passen ;) )

Ich gehe sogar davon aus, dass die PS5 schon ~2018 oder 2019 in mit 10nm² Chip erscheint. Damit hätte man immerhin noch rund 8 mal so viel Fläche zur Verfügung aber auch ein paar neue Technik wie Stacking / Stacked RAM.

Akkarin
2014-09-26, 19:56:24
2016 werden die Kapazitäten erst groß genug sein für viele mittelgroße bis große Chips in 16nm.

Redest du von 20nm+FF oder richtigem 16nm ? Weil dass hört sich für mich extrem früh an.

Nightspider
2014-09-26, 19:58:01
20nm+FF = 16nm

Einen anderen 16nm Prozess wird es bei TSMC doch gar nicht geben oder?

Akkarin
2014-09-26, 20:45:08
Du glaubst also dass man direkt von 20 auf (richtige) 10nm springt ?

Ihmo sind normale 16nm (ka wie die dass dann nennen) doch sehr wahrscheinlich

Nightspider
2014-09-26, 21:48:53
Ja, sonst würde man den FF Prozess ja nicht 16nm nennen.
Natürlich wäre das ein riesiger Sprung von 20nm+FF auf 14nm+FF aber bisher ist bei TSMC nirgends 14nm auf der Roadmap aufgetaucht. Zumindest nicht das ich wüsste.

Siehe hier:
http://www.3dcenter.org/news/aktualisierte-fertigungsverfahren-roadmap-globalfoundries-tsmc-bei-14nm16nm-fast-zeitgleich

megachip800
2014-09-28, 21:17:41
Ich finde die Diskussion um höhere Auflösung für die nächste Konsolengeneration eh überflüssig , der Sprung von FullHD zu 4K bringt meiner Ansicht nicht viel , viel wichtiger für
die visuelle Qualität der Spiele sind andere Dinge die ich für PS5/PS6 und co erwarte:

-echte parallele Verarbeitung bei der GPU und ausreichend Bus-Bandbreite so das das
aktivieren der Effekte oder eine hohe Farbtiefe keinen Einfluss mehr auf die Bildrate hat.

-flimmerfreie und effiziente Kantenglättung , speziell wenn die Grafik in Bewegung ist ,
also so eine art TXAA ++ aber mit weniger Unschärfe.

-bessere Materialshader , die sich von der Qualität her an aktuellen CGI Filmen orientieren ,
Shadingeffekte mit gutem Schwarzwert und nicht diese milchigen Grauschleier mehr

-mehr Farben und bessere Farbmischalgorithm u. Farbtiefe, professionelle Palletierung ,
brilliante , gesättigte Farben , Vivid-colors ( kein braun/grau Gedöns , keine unschönen Farbbleiche )

-mehr Farbkanäle pro Pixel , einen vierten Farbkanal für den Weißanteil , was wohlmöglich
einen neuen HDMI Standard erfordert incl. neuen TVs.

-mehr Lichtquellen pro Frame , bessere indirekte Beleuchtungseffekte , Lichteffekte die
von Raytraycingeffekten nicht mehr zu unterscheiden sind.

-die Möglichkeit unkomprimierte Texturen ohne Farbverlust abzubilden oder ein neues
Texturkompressionsverfahren das eine bessere Qualität erzeugt , nicht so Verlustbehaftet
ist.

-überzeugende Physik , alles ist zerstörbar , alles ist verformbar.

-Motion capture wird überflüssig , Bewegungsabläufe werden in Echtzeit von der CPU/GPU berechnet.

-talentierte Grafikdesigner die wissen wie man ein "WOW" Effekt erzeugt.

-visionäre Hardwareentwickler , die PS5 und co. sollen eine komplette Eigenentwicklung
sein und sich nicht an aktueller PC Massen-Technik orientieren.

Also mir reicht auch bei der nächsten Generation 1080p völlig aus wenn die obigen Punkte alle erfüllt sind.:biggrin::biggrin::biggrin:

Coda
2014-09-28, 23:40:28
-echte parallele Verarbeitung bei der GPU und ausreichend Bus-Bandbreite so das das
aktivieren der Effekte oder eine hohe Farbtiefe keinen Einfluss mehr auf die Bildrate hat.
Das wiederspricht der physikalischen Realität. Berechnungen brauchen Zeit und Recheneinheiten Fläche und Energie.

-flimmerfreie und effiziente Kantenglättung , speziell wenn die Grafik in Bewegung ist ,
also so eine art TXAA ++ aber mit weniger Unschärfe.
Weitgehend gelöstes Problem

-bessere Materialshader , die sich von der Qualität her an aktuellen CGI Filmen orientieren ,
Shadingeffekte mit gutem Schwarzwert und nicht diese milchigen Grauschleier mehr
Das wird schon gemacht. Schwarzwert hat damit nichts zu tun

-mehr Farben und bessere Farbmischalgorithm u. Farbtiefe, professionelle Palletierung ,
brilliante , gesättigte Farben , Vivid-colors ( kein braun/grau Gedöns , keine unschönen Farbbleiche )

-mehr Farbkanäle pro Pixel , einen vierten Farbkanal für den Weißanteil , was wohlmöglich
einen neuen HDMI Standard erfordert incl. neuen TVs.
Der Mensch kann nur drei Primaries wahrnehmen, das nützt rein gar nichts. sRGB deckt aber tatsächlich nicht den ganzen Farbraum ab, den wir sehen können.

-mehr Lichtquellen pro Frame , bessere indirekte Beleuchtungseffekte , Lichteffekte die
von Raytraycingeffekten nicht mehr zu unterscheiden sind.
Ich denke, dass wird eher dies Generation schon passieren

-die Möglichkeit unkomprimierte Texturen ohne Farbverlust abzubilden oder ein neues
Texturkompressionsverfahren das eine bessere Qualität erzeugt , nicht so Verlustbehaftet
ist.
http://msdn.microsoft.com/en-us/library/windows/desktop/hh308953(v=vs.85).aspx

Gibt's seit 5 Jahren in Hardware.

-überzeugende Physik , alles ist zerstörbar , alles ist verformbar.
Nope.

-Motion capture wird überflüssig , Bewegungsabläufe werden in Echtzeit von der CPU/GPU berechnet.
Nope.

-visionäre Hardwareentwickler , die PS5 und co. sollen eine komplette Eigenentwicklung
sein und sich nicht an aktueller PC Massen-Technik orientieren.
Es gibt derzeit keinen besseren Ansatz.

AwesomeSauce
2014-09-29, 01:37:37
Der Mensch kann nur drei Primaries wahrnehmen, das nützt rein gar nichts. sRGB deckt aber tatsächlich nicht den ganzen Farbraum ab, den wir sehen können.

Wie meinst du das genau? Das menschliche Gamut ist kein Dreieck. Drei (reale) Primaries reichen nicht aus, um jede mögliche menschliche Farbwahrnehmung zu produzieren. Das hat bereits das Tristimulus Experiment gezeigt. In diesem Sinne wäre es schon sinnvoll, mehr Farben pro Pixel zu haben.

Coda
2014-09-29, 02:11:09
Das ist mir neu, hab spontan nichts zu dem Experiment gefunden. Hast du Lektüre dazu?

Ich denke aber es würde erstmal viel bringen den normalen Farbbereich auszudehnen wie Adobe RGB.

del_4901
2014-09-29, 02:22:49
Das Hauptproblem ist doch bei den Farben, dass der Moni einfach nicht den Kontrast und die Leuchtkraft hat mir der wir in der Realitaet zu tun haben. Deswegen gibt es doch Tone mapping, was aber ein sehr kuenstlerisches und ueberzeichnettes Bild ergibt. Was ja nich unbedingt schlecht sein muss.

AwesomeSauce
2014-09-29, 10:10:55
Das ist mir neu, hab spontan nichts zu dem Experiment gefunden. Hast du Lektüre dazu?
Das Experiment wurde von der CIE durchgeführt, um die Matching Curves für den CIE RGB Farbraum herauszufinden. Hier (unten) (http://www.willamette.edu/~gorr/classes/GeneralGraphics/Color/tristimulus.htm) gibt es eine kleine Darstellung des Experiments.
Drei Primaries können so eingestellt werden, dass die Farbwahrnehmung mit einem bestimmten Targetstimulus übereinstimmt. Dabei konnten allerdings einige Target-Stimuli eben nicht mit den drei Primaries generiert werden, was zu negativen Werten in den Matching Curves führte.
Für den CIE XYZ Farbraum wurde dann einfach eine (lineare) Transformation gefunden, welche diese negativen Werte aufhob. Es gibt allerdings keine physikalischen Primaries, welche diesem Farbraum entsprechen. Viele andere Farbräume (u.a. auch sRGB) haben eine 1:1 Beziehung mit XYZ, wenn auch manchmal nicht-linear.

robbitop
2014-09-29, 11:50:50
Ich denke dass Next Gen Sampling Frequenz und Rasterization voneinander trennt. Es bringt einfach nur Vorteile wie beispielsweise importance Sampled Edges. Damit sind 4K dann auch keine Kunst mehr.
Tut mir leid - ich habe nicht verstanden, wie du das meinst. :(
Wie muss man sich das vorstellen? Dass man mit 2x verschiedenen Auflösungen rastert und Pixelberechnungen (Texturen, Beleuchtung ect) durchführt?


Wird dafür bestimmte hardware gebraucht ? Maxwell hat ja bei nVidia auch erst gebracht dass MSAA samples frei so gelegt werden können wie man will.
MSAA Samples konnten schon sehr lange (auf einem festen Raster!) so gelegt werden, wie man wollte. Das konnte schon Anno 2000 der VSA-100. (dort allerdings SSAA)
Seit 2005 gab es TAA bei den Radeons, bei dem frameweise die MSAA Samplepositionen getauscht wurden (Support bis runter zu R300).

Was "neu" bei Maxwell ist:

1. offenbar können zumindest 2x verschiedene Subpixelpositionen pro Bild benutzt werden (Pixel 1 hat Muster 1, Pixel 2 Muster 2, Pixel 3 Muster 1, Pixel 4 Muster 2). Bei den Radeons war es für jeden Pixel das gleiche Muster.

2. es werden die Subpixel abhängig vom Bildinhalt von zwei nachfolgenden Frames offenbar interpoliert. Das hat bei TAA quasi das Gehirn des Betrachters übernommen.


Schwer zu sagen, ob NVs Verfahren da wirkliche Vorteile bietet. Müsste man wirklich mal praktisch vergleichen.

IMO ist das was NV da macht kalter Kaffee kombiniert mit einem Filter aus dem Compute (?) Shader.

fondness
2014-09-29, 11:53:47
Bereits R300(!) konnte die Samplepositionen ohne Einschränkungen völlig frei wählen. Hast du zu 1. eine Quelle? Das ergibt für mich keine Sinn.

robbitop
2014-09-29, 12:02:31
Ich fand TAA damals ziemlich sinnlos. Deswegen ist es vermutlich auch irgendwann rausgefolgen.
Nur auf Standbildern brachte es den gewünschten Effekt. Bei Bewegung hatte man dann einfach kein Pixel genaues Matching zwischen zwei Frames und damit keinen Effekt.

Gerade in Bewegung profitiert man von höherer Abtastung. Denn Aliasing in Bewegung sieht man IMO besser (Flimmern, Zacken in Kanten die wandern!) als im Stand. Tom Petersen behauptete das Gegenteil. Aber ich denke, er liegt dort nicht ganz richtig.

IMO ist das ein Sinnlosmodus, wie alle neuen "AA-Verfahren". Dass NV nun Downsampling vernünftig gelöst hat, ist schön. Verglichem mit echtem SG-MSAA und SG-SSAA ist das aber totaler Kinderkram. Hui ein EER von 2x2 zum Preis von Faktor 3-4 an GPU Leistung (wenn die CPU nicht limitiert). :uclap:
Wie schön waren die Zeiten von 8x SGSSAA mit einem EER von 8x8, das deutlich günstiger war als 4x Downsampling und dabei 16x (!!!!) so gut glättete / flimmern beseitigte.

Blöde Defered Renderer :( (ja ich weiß, dass es quasi unumgänglich ist, wenn man viele Lichtquellen haben will - aber der Preis den man mit dem Wegfallen von echtem AA bezahlen muss --- autsch!!)

aufkrawall
2014-09-29, 12:17:46
8xSGSSAA soll schneller gewesen sein als 4xDS? Gibts dazu Zahlen?

Coda
2014-09-29, 12:34:08
Ne, es ist auch Unsinn.

][immy
2014-09-29, 12:42:53
Ich habe jetzt zwar nicht alles gelesen, aber ein "tolles" AA bei der nächsten Konsolen Generation wird ein Wunschtraum bleiben.
Die Auflösung sollte dann bei 4k oder wenn es wirklich gut läuft in nächster Zeit sogar bei 8k landen. D.h. da die Auflösung so stark steigt, dürften wir wieder bei FXAA landen (wenn überhaupt).
D.h. wenn wir bei der nächsten Konsolengeneration überhaupt noch Bilder im Haus erzeugen. Ansonsten wird es nen match AA durch Kompression, weil die Inhalte gestreamed werden.

Zumindest sehe ich schon lange nicht mehr solche Sprünge in der Rechenleistung das man die Auflösung einfach mal so verdoppeln oder vervierfachen könnte und dabei noch State of the Art zu bleiben. Ich glaube aktuell nicht das es da in den nächsten Jahren wirklich besser aussieht. Es sei denn es kommt doch noch eine Überaschende Revolution im GPU markt, die eine Vervielfachung der Rechenleistung und Bandbreite bei einem günstigen Preis erlaubt.

aufkrawall
2014-09-29, 12:57:15
FXAA ist steinzeitlich, gibt wesentlich bessere Postfilter (tSMAA, Temporal SSAA...).
Mit kleverem Rendering und steigender Pixeldichte ist das brauchbar. Man hat es halt leider nur nicht sofort überall auf dem Niveau und man kann es auch nicht erzwingen.
Irgendwelche extraschlauen Entwickler werden es wieder vergeigen.

del_4901
2014-09-29, 13:19:14
Tut mir leid - ich habe nicht verstanden, wie du das meinst. :(
Wie muss man sich das vorstellen? Dass man mit 2x verschiedenen Auflösungen rastert und Pixelberechnungen (Texturen, Beleuchtung ect) durchführt?
Letzteres gibt es schon und nennt sich MSAA. Eine moegliche Implementierung habe ich schon verlinkt.

robbitop
2014-09-29, 13:44:45
Ne, es ist auch Unsinn.
Theoretisch hat man bei 8x SGSSAA nur noch 1/8 der Pixelleistung der GPU. Tests in der Praxis zeigten oft aber eher dass man noch ~ 1/3 bis 1/4 der ursprünglichen Framerate hatte. Möglicherweise gab es dort andere Flaschenhälse innerhalb der GPU?

Und selbst wenn nicht. Man bekommt bei SGSSAA idR immer mehr EER als bei OGSSAA. Das war der Punkt. SGSSAA scheint, sofern man das gleiche Bild n-nach berechnet und dabei einfach nur das Subpixel auf dem Raster verschiebt - und die Bilder am Ende interpoliert - günstiger zu sein, als SSAA durch Oversampling. Warum das so ist, kannst du vermutlich besser erahnen als jeder andere hier. :)

del_4901
2014-09-29, 13:56:33
SGSSAA scheint, sofern man das gleiche Bild n-nach berechnet und dabei einfach nur das Subpixel auf dem Raster verschiebt - und die Bilder am Ende interpoliert - günstiger zu sein, als SSAA durch Oversampling.
n-mal das Bild berechnen ist garantiert nicht guenstiger als eine n-mal hoehere Aufloesung. Selbst wenn es hart auf hart kommt und alle Caches failen ist es maximal genauso schnell.

aufkrawall
2014-09-29, 14:00:37
Auf GK110 ist SGSSAA häufig sogar langsamer als OGSSAA.
Wenn auch nicht viel und natürlich in keinem Verhältnis zur Glättung.

DinosaurusRex
2014-09-30, 08:27:35
Werden wir in dieser bzw der nächsten Gen eigentlich noch viele Forward+ Spiele sehen? Soweit ich informiert bin, wurde bisher nur The Order 1886 damit angekündigt.

tobor
2014-09-30, 09:46:32
Interessant ist natürlich auch,wie viel Cpuleistung die nächste Generation haben wird. Diese Generation hat man ja im Grunde relativ schwache Cpus eingebaut,die auch in einem Tablet verbaut sein könnten. Könnte die Bedeutung des Hauptprozessors wieder steigen?

y33H@
2014-09-30, 09:53:03
Acht Jaguare in einem Tablet? Das muss dann aber sehr dick oder recht laut sein ...

robbitop
2014-09-30, 10:03:46
Werden wir in dieser bzw der nächsten Gen eigentlich noch viele Forward+ Spiele sehen? Soweit ich informiert bin, wurde bisher nur The Order 1886 damit angekündigt.
Forward+ macht gegenüber DR nur Sinn, wenn nicht so viele Lichtquellen berechnet werden müssen und MSAA vollständig und performant genutzt werden soll

del_4901
2014-09-30, 13:50:07
Forward+ macht gegenüber DR nur Sinn, wenn nicht so viele Lichtquellen berechnet werden müssen und MSAA vollständig und performant genutzt werden soll
Es gibt viele Gruende fuer Forward+ unter anderem auch OIT. Gutes Forward+ mit gutem culling steht auch Deferred in nichts nach. Forward+ hat 2 nachteile warum man es nicht gern fuer Opaque Sachen nimmt: 1) Shaderpermutation und gleichzeitig Licht an Material binden. 2) Depth Prepass

Coda
2014-09-30, 14:01:07
3) Mehr Shading-Overhead bei kleinen Dreiecken

del_4901
2014-09-30, 14:03:12
3) Mehr Shading-Overhead bei kleinen Dreiecken
Stimmt, allerdings wenn die HW clever ist und der Prepass korrekt, kann man benachbarte Pixel aus unterschiedlichen Dreiecken mit gleichem Material wieder zusammen packen.

Coda
2014-09-30, 14:23:10
Das darf die Hardware nicht. Die muss wirklich Quads rechnen und die Pixel wegschmeißen.

PrefoX
2014-09-30, 15:19:26
Tut mir leid - ich habe nicht verstanden, wie du das meinst. :(
Wie muss man sich das vorstellen? Dass man mit 2x verschiedenen Auflösungen rastert und Pixelberechnungen (Texturen, Beleuchtung ect) durchführt?



MSAA Samples konnten schon sehr lange (auf einem festen Raster!) so gelegt werden, wie man wollte. Das konnte schon Anno 2000 der VSA-100. (dort allerdings SSAA)
Seit 2005 gab es TAA bei den Radeons, bei dem frameweise die MSAA Samplepositionen getauscht wurden (Support bis runter zu R300).

Was "neu" bei Maxwell ist:

1. offenbar können zumindest 2x verschiedene Subpixelpositionen pro Bild benutzt werden (Pixel 1 hat Muster 1, Pixel 2 Muster 2, Pixel 3 Muster 1, Pixel 4 Muster 2). Bei den Radeons war es für jeden Pixel das gleiche Muster.

2. es werden die Subpixel abhängig vom Bildinhalt von zwei nachfolgenden Frames offenbar interpoliert. Das hat bei TAA quasi das Gehirn des Betrachters übernommen.


Schwer zu sagen, ob NVs Verfahren da wirkliche Vorteile bietet. Müsste man wirklich mal praktisch vergleichen.

IMO ist das was NV da macht kalter Kaffee kombiniert mit einem Filter aus dem Compute (?) Shader.er er meint ist doch, das man pro frame die subpixel ändern kann und das ging NICHT vor maxwell, stellt euch mal wieder schön blöd.

del_4901
2014-09-30, 15:33:45
Das darf die Hardware nicht. Die muss wirklich Quads rechnen und die Pixel wegschmeißen.
Am Rand ja, aber wenn die Dreiecke gestiched werden koennen z.B in der gleichen Ebene liegen, dann kann man die Pixel neu zusammen packen.

robbitop
2014-09-30, 15:41:24
er er meint ist doch, das man pro frame die subpixel ändern kann und das ging NICHT vor maxwell, stellt euch mal wieder schön blöd.
Was erzählst du denn da? Natürlich konnte sogar R300 in jedem Frame die Subpixelpositionen ändern. Wie soll Temporal Anti-Aliasing sonst funktionieren?

Coda
2014-09-30, 17:09:30
Am Rand ja, aber wenn die Dreiecke gestiched werden koennen z.B in der gleichen Ebene liegen, dann kann man die Pixel neu zusammen packen.
Das würde mich sehr überraschen. Die Specs sind da ziemlich eindeutig.

del_4901
2014-09-30, 17:24:36
Das würde mich sehr überraschen. Die Specs sind da ziemlich eindeutig.
Welche specs? Dreiecke die zusammenhaengen und in einer Ebene liegen landen laut Spec auch in unterschiedlichen Samples, von daher ist der Merge ziehmlich sicher.

Coda
2014-10-01, 01:43:52
Mal ganz abgesehen davon, wie soll das der Rasterizer überhaupt mergen? Das kann er ja eh nur wenn zwei nebeneinanderliegende Dreiecke direkt nacheinander gezeichnet werden und der Logikaufwand wäre erheblich.

del_4901
2014-10-01, 03:15:23
Ja die Dreiecke muessen zeitnah gezeichnet werden bevor der FIFO so voll ist, dass eine neue PS Wave gestartet wird. Aber das hat man zwecks Vertex reuse oder Tess doch meisst eh?

Tellion
2014-10-01, 10:11:38
Einzig limitierend was die Konsolen angeht ist doch der Preis...Man kann vieles (gutes) nicht für Geld kaufen, aber Technik geht doch immer...

Wenn es nicht so wäre, hätten wir keine privaten Jets mit einer Ausstattung eines Einfamilienhauses oder ebensolche Boote. Es müssen nur genügend Reiche zusammenkommen.

Im Moment scheint es noch lukrativer den Massenmarkt zu füttern...Aber auch hier ist die Geschichte der beste Zeuge...iPhones mit Edelsteinen besetzt verkaufen sich ;)

megachip800
2014-10-04, 13:57:06
Einzig limitierend was die Konsolen angeht ist doch der Preis...Man kann vieles (gutes) nicht für Geld kaufen, aber Technik geht doch immer...

Wenn es nicht so wäre, hätten wir keine privaten Jets mit einer Ausstattung eines Einfamilienhauses oder ebensolche Boote. Es müssen nur genügend Reiche zusammenkommen.

Im Moment scheint es noch lukrativer den Massenmarkt zu füttern...Aber auch hier ist die Geschichte der beste Zeuge...iPhones mit Edelsteinen besetzt verkaufen sich ;)

Entweder werden die nächsten nextgen Systeme (PS5 und co) wieder teure (innovative) High End Systeme sein oder die Konsolenhersteller lassen es lieber ganz sein und beschränken sich auf Cloudspiele für Smartphones und HomeTV. Denn eines ist sicher , 2018 kann es auf dem PC Grafikkarten und evtl. auch CPUs geben die auf 2D/3D stacked Chiptechnik , Wide I/O und co. beruhen , sollten Microsoft und Sony dann zu dem Zeitpunkt wieder auf ein konservatives , kostengünstigeres Design zurückgreifen , dann wird der Leistungsvorsprung zum Spiele-PC nicht mehr aufzuhalten sein bzw. noch größer sein als jetzt. Die Spielefirmen werden dann kaum motiviert sein auf solch beschränkte Spielesysteme gute Entwicklungen abzuliefern (siehe Wii/U), wenn man schon jetzt beobachten kann das kaum für Konsolen optimiert wird.

Und umgekehrt wenn sich stacked und co. nicht am PC sich durchsetzten , wäre doch der Embedded Markt mit seinen spezialisierten "Custom" Lösungen für eine neue Konsolengeneration gerade dafür
prädestiniert.

tobor
2014-10-05, 21:01:53
Einzig limitierend was die Konsolen angeht ist doch der Preis...Man kann vieles (gutes) nicht für Geld kaufen, aber Technik geht doch immer...

Wenn es nicht so wäre, hätten wir keine privaten Jets mit einer Ausstattung eines Einfamilienhauses oder ebensolche Boote. Es müssen nur genügend Reiche zusammenkommen.

Im Moment scheint es noch lukrativer den Massenmarkt zu füttern...Aber auch hier ist die Geschichte der beste Zeuge...iPhones mit Edelsteinen besetzt verkaufen sich ;)

Ein Weg wäre doch wie im Mobilbereich Abomodelle anzubieten mit entsprechend höheren Preis für Psplus oder Xboxlive. So wären auch höhere Preise für die Konsole aktzeptabler.

Snafu
2014-12-21, 00:13:55
Nintendo arbeiter wohl jetzt "offiziell" an einer neuen Konsole

http://www.gamespot.com/articles/miyamoto-confirms-work-underway-on-new-nintendo-co/1100-6424313/

From early on, I wanted Mario to be that character in the digital world, so that with each digital evolution, he was there to usher in the next era. I think that maybe when we release the next hardware system, you can look forward to seeing Mario take on a new role or in a new game.

M4xw0lf
2014-12-21, 00:18:54
Hatte AMD da nicht eh noch einen Design-win verkündet irgendwo, vor nicht so langer Zeit?

Ex3cut3r
2014-12-21, 02:08:57
Nintendo arbeiter wohl jetzt "offiziell" an einer neuen Konsole

http://www.gamespot.com/articles/miyamoto-confirms-work-underway-on-new-nintendo-co/1100-6424313/

Bitte mit Intel/IBM Nvidia Komponenten und dann der PS4 schön in Sachen Grafik den hintern versohlen. *träum*

Crazy_Bon
2014-12-21, 02:19:43
So eine ähnliche Aussage gab es von Miyamoto zu Mario64, vielleicht hat man was aus dem Kontext genommen. Ich glaube nicht, daß Nintendo plant eine neue Heimkonsole auf dem Markt zu werfen, nicht vor 2017/18, alles andere wäre verfrüht.

StefanV
2014-12-21, 02:26:04
Bitte mit Intel/IBM Nvidia Komponenten und dann der PS4 schön in Sachen Grafik den hintern versohlen. *träum*
Warum? Was ist so schlimm an AMD Komponenten?
Verstehe nicht, worauf du hinaus möchtest...

Blediator16
2014-12-21, 02:28:45
Warum? Was ist so schlimm an AMD Komponenten?
Verstehe nicht, worauf du hinaus möchtest...

Treiber sind einfach besser you know:freak:

-/\-CruNcher-/\-
2014-12-21, 07:43:51
So schlimm ist es nicht mehr es wird immer besser bedingt eben durch die Konvergenz und Konzentration voll auf GCN und mit dem über Board schmeisen ihrer alten architektur und Angleichung an Nvidias.

Es ist im Prinzip nur noch eine Frage der Zeit, bis wir einen ziemlichen gleichstand sehen werden was Treiber stabilität angeht ;)

R.I.P.
2014-12-21, 09:14:58
Hatte AMD da nicht eh noch einen Design-win verkündet irgendwo, vor nicht so langer Zeit?

Zwei Design Wins ab 2016 mit 1 Billion Dollar Umsatz in 3 Jahren (1x x86 win und 1x ARM win). Also kann es leicht sein, dass AMD den Nintendo Deal gemacht hat. Vielleicht kommt 2016 (Ende?) die neue Wiiauf den Markt

DinosaurusRex
2014-12-21, 10:49:42
Bitte mit Intel/IBM Nvidia Komponenten und dann der PS4 schön in Sachen Grafik den hintern versohlen. *träum*

Gegner wird wohl eher die PS5 sein. Ob diese dann den Hintern versohlt kriegt, bleibt abzuwarten, denn Sony vertritt seit 20 Jahren die Philosophie, beim Launch eines Systems immer auch die stärkste Konsole auf dem Markt zu haben.

AffenJack
2014-12-21, 10:54:38
Zwei Design Wins ab 2016 mit 1 Billion Dollar Umsatz in 3 Jahren (1x x86 win und 1x ARM win). Also kann es leicht sein, dass AMD den Nintendo Deal gemacht hat. Vielleicht kommt 2016 (Ende?) die neue Wiiauf den Markt

1 Milliarde in 3 Jahren auch noch auf zwei Wins verteilt ist zu klein für Nintendo. Nen Nintendo Designwin sollte schon alleine eher das 2fache bringen, wenn man sich im Vergleich Xbox One und PS4 anguckt.
Wäre einzig möglich, wenn Nintendo nen sehr billigen SoC geordert hat.

fondness
2014-12-21, 10:55:32
Zwei Design Wins ab 2016 mit 1 Billion Dollar Umsatz in 3 Jahren (1x x86 win und 1x ARM win). Also kann es leicht sein, dass AMD den Nintendo Deal gemacht hat. Vielleicht kommt 2016 (Ende?) die neue Wiiauf den Markt

Sehr wahrscheinlich, vom CFO Devinder Kumar:

I’ll say that one is x86 and one is ARM, and atleast one will be on gaming, right.

http://seekingalpha.com/article/2739835-advanced-micro-devices-amd-2014-raymond-james-systems-semiconductors-software-and-supply-chain-conference?page=2&p=qanda&l=last

1 Milliarde in 3 Jahren auch noch auf zwei Wins verteilt ist zu klein für Nintendo. Nen Nintendo Designwin sollte schon alleine eher das 2fache bringen, wenn man sich im Vergleich Xbox One und PS4 anguckt.
Wäre einzig möglich, wenn Nintendo nen sehr billigen SoC geordert hat.

Die sind IMO vertraglich festgelegte Mindestliefermengen, heißt nicht das dann nicht doch deutlich mehr geordert wird. Sony oder MS werden auch nicht 100 Mio SoCs bestellt haben.

N0Thing
2014-12-21, 11:00:38
Wäre einzig möglich, wenn Nintendo nen sehr billigen SoC geordert hat.

Was, wenn man die letzten Konsolen von Nintendo anschaut, auch die wahrscheinlichste Lösung wäre.

M4xw0lf
2014-12-21, 11:08:00
1 Milliarde Umsatz für AMD bedeutet sicher immer noch ein Vielfaches an Milliarden Umsatz für Nintendo.

xyleph
2014-12-21, 18:52:12
Was, wenn man die letzten Konsolen von Nintendo anschaut, auch die wahrscheinlichste Lösung wäre.

Das und es könnte sich auch um einen SoC für den 3DS Nachfolger hanfeln, ggf. greift N hier auch auf AMD zurück, wenn sie etwas gutes im Angebot haben.

robbitop
2014-12-21, 19:31:23
Ich tippe mal darauf, dass AMD im Moment keinen so wirklich passenden SoC für die 3DS Plattform haben. Mullins wäre IMO noch zu "groß" und Nintendo vermutlich zu teuer.

Ich denke mal, dass Nintendo, die ja historisch sehr geizig bei der HW sind (insbesondere im mobile Bereich - zumal der ja durch die Smartphones noch stark geschrumpft ist), eher auf einen billigen ARM oder MIPS abzielen. Vielleicht ja sogar wieder etwas japanisches, wie beim 3DS.

Wirklich günstige SoCs könnten sie ansonsten noch bei Rockchip oder Mediathek kaufen - aber ich habe das Gefühl, dass die Japaner eher irrational handeln und da sie die Chinesen nicht mögen, das schon mal rausfällt. Ggf. wäre Qualcomm auch eine gute Adresse. Aber mich würde es, wie gesagt, nicht wundern, wenn es wieder was japanisches wird.

Nightspider
2014-12-21, 19:41:00
Nintendo könnte 2016 einfach einen Snapdragon 810 verbauen, welcher gut ist oder gleich einen 16FF Shrink davon, der kleiner und kühler ist.

xyleph
2014-12-21, 23:20:57
Ich tippe mal darauf, dass AMD im Moment keinen so wirklich passenden SoC für die 3DS Plattform haben. Mullins wäre IMO noch zu "groß" und Nintendo vermutlich zu teuer.

Ich denke mal, dass Nintendo, die ja historisch sehr geizig bei der HW sind (insbesondere im mobile Bereich - zumal der ja durch die Smartphones noch stark geschrumpft ist), eher auf einen billigen ARM oder MIPS abzielen. Vielleicht ja sogar wieder etwas japanisches, wie beim 3DS.

Wirklich günstige SoCs könnten sie ansonsten noch bei Rockchip oder Mediathek kaufen - aber ich habe das Gefühl, dass die Japaner eher irrational handeln und da sie die Chinesen nicht mögen, das schon mal rausfällt. Ggf. wäre Qualcomm auch eine gute Adresse. Aber mich würde es, wie gesagt, nicht wundern, wenn es wieder was japanisches wird.

Nach den bisherigen Verhaltensmustern von Nintendo klingt das vernünftig. Ich dachte aber eher an eine lowend-Version von AMD Amur.

mboeller
2014-12-22, 08:18:35
Nintendo könnte 2016 einfach einen Snapdragon 810 verbauen und gut ist oder gleich einen 16FF Shrink davon, der kleiner und kühler ist.


...das wäre eine rationale Entscheidung. Hat es von Nintendo schon jemals eine rationale Entscheidung bzgl. Handheld-SoC's gegeben? IMHO zumindest in den letzten 15 Jahren nicht.

IC3M@N FX
2014-12-22, 09:00:48
Im Handheld Sektor wird von Nintendo erst mal nix kommen bis 2017 bis dahin wird der New 3ds diese Lücke füllen. Es wird genauso wie bei ihrer Heimkonsole sein die wird auch erst so gegen 2017 das Licht der Welt erblicken.

DinosaurusRex
2014-12-23, 07:27:55
Wohoa, dieses Mal nimmt Nintendo wohl keine Gefangenen:


NINTENDO BOLSTERS LOBBYING PRESENCE: Nintendo of America has hired Choe Groves Consulting to lobby the federal government on issues related to intellectual property, international trade and anti-piracy measures, according to the latest lobbying disclosures. The video game and consumer electronics company is reportedly developing a new gaming system as it struggles to compete with Sony’s Playstation 4 and Microsoft’s Xbox One.

Lobbying on Nintendo’s behalf will be Choe Groves’ Jennifer Groves, a former senior director for IP and innovation at the Office of the U.S. Trade Representative. This is Nintendo’s first new lobbying registration in more than 11 years. All of the company’s registered lobbying work at the federal level since 2003 has been handled by Donald Massey, and it has reported spending just $50,000 on lobbying since the end of 2009.


Quelle (http://www.politico.com/politicoinfluence/1214/politicoinfluence16559.html?ml=tl_3)

So kann man natürlich auch um die Gunst der 3rd Parties werben. ;)

][immy
2014-12-23, 08:00:39
Wohoa, dieses Mal nimmt Nintendo wohl keine Gefangenen:



Quelle (http://www.politico.com/politicoinfluence/1214/politicoinfluence16559.html?ml=tl_3)

So kann man natürlich auch um die Gunst der 3rd Parties werben. ;)
Naja, eher nicht. Noch eine Konsole würde sich jetzt bestimmt nicht besser verkaufen. Nintendo müsste erst mal mit dem aktuellen stand etwas vernünftiges herausbringe. Z.b. Vernünftige und zeitgemäße online Funktionen.
Eine aktuellere Konsole würde an den Schwächen von Nintendo aktuell nicht viel ändern. Eventuell sollte Nintendo aus dem Hardware Geschäft aussteigen und sich ganz auf Software konzentrieren. Denn bei der aktuellen Geschwindigkeit am Markt können sie mit ihrer Herangehensweise nicht mehr mithalten.

Dorn
2014-12-23, 08:09:41
[immy;10463311']Eventuell sollte Nintendo aus dem Hardware Geschäft aussteigen und sich ganz auf Software konzentrieren. Denn bei der aktuellen Geschwindigkeit am Markt können sie mit ihrer Herangehensweise nicht mehr mithalten.

Nintendo braucht nicht mitzuhalten, die finden ihren Weg auch so.

Wenn sich Nintendo nur noch auf Software konzentrieren soll, wird es ja immer langweiliger im Hardware bereich!

Nene...

DinosaurusRex
2014-12-23, 08:29:18
[immy;10463311']Eventuell sollte Nintendo aus dem Hardware Geschäft aussteigen und sich ganz auf Software konzentrieren.

Um nur noch Publisher zu sein, ist der Name "Nintendo" doch alleine schon viel zu wertvoll. Und der Konkurrenz werden die Kisten seit über einem Jahr aus der Hand gerissen. Ich sehe keinen Grund, warum Nintendo darauf verzichten sollte. Sie müssen es nur vernünftig angehen. Die Vergangenheit hat immer wieder gezeigt, dass die Karten mit jeder neuen Konsolengeneration neu gemischt werden und genau das ist in meinen Augen die große Faszination, die von Konsolen-Gaming ausgeht. Dieser Markt ist eigentlich komplett irre und die Unternehmen, die darin agieren, sind ebenso irre. Das Zielpublikum für Konsolen ist doch alleine schon sowas von heterogen, für so etwas ein Produkt zu designen, das dann auch noch eine halbe Dekade überleben soll, ist doch eigentlich totaler Wahnsinn... Aber um so mehr Spaß macht es dann auch. Wenn's leicht wäre, wäre es ja auch irgendwie langweilig.

fondness
2014-12-23, 10:10:38
AMD reportedly lands Nintendo console deal
http://www.fudzilla.com/home/item/36599-amd-reportedly-lands-nintendo-console-deal?utm_source=twitterfeed&utm_medium=twitter

Lightning
2014-12-23, 10:20:40
Ich denke, dass Nintendo frühestens in zwei Jahren mit einer neuen Konsole kommen wird, wahrscheinlich eher später. Zu diesem Zeitpunkt also schon ein Deal? Ist das üblich/plausibel?

fondness
2014-12-23, 10:44:09
Eine Chip designt man nicht von heute auf morgen, bis zur Massenfertigung dauert es dann noch mal mindestens ein halbes Jahr. Könnte also durchaus Sinn machen, gerade wenn man vielleicht auch noch ein bisschen Spielraum haben will.

DinosaurusRex
2014-12-23, 10:49:22
Eins kann man daraus auf jeden Fall ablesen: Die Wii U wurde seitens Nintendo aufgegeben und als Fehler abgehakt, denn solche Dinge werden normalerweise nicht kommuniziert, wenn man die Verkaufszahlen des aktuellen Systems nicht beeinträchtigen möchte. Das diese Informationen in den letzten Tagen mit zunehmender Konzentration an die Öffentlichkeit gedrungen sind, auch von offizieller Seite, wie das letzte Interview von Shigeru Miyamoto gezeigt hat, deutet darauf hin, dass die PR-Maschine bereits angeworfen wurde. Sollte das neue System tatsächlich schon innerhalb der nächsten 24 Monate erscheinen, dann riecht das für mich allerdings ziemlich stark nach einem Plan B.

Crazy_Bon
2014-12-23, 10:59:48
Das wäre ein Schlag ins Gesicht aller WiiU-Käufer, erst recht zu der Weihnachtszeit. Erst knappe 250-280€ und mehr ausgegeben, dann noch Zubehör, Spiele und schon schon gehört man zum alten Eisen?
Riecht stark nach einem Sargnagel und dem Beginn des Untergangs wie bei Sega.
Und selbst wenn in absehbarer Zeit eine neue Heimkonsole kommt, sie muss sich mit der Xbone/PS4 messen können, sonst ist der Ofen aus, da hätte man gleich bei der WiiU bleiben können.

Schaffe89
2014-12-23, 11:10:36
Es kommt eine Konsole Ende 2015 von Nintendo.
Es ist ein AMD SOC.

Sven77
2014-12-23, 11:14:00
Es kommt eine Konsole Ende 2015 von Nintendo.
Es ist ein AMD SOC.

;D;D Sischer...

00-Schneider
2014-12-23, 11:42:12
Hoffentlich kommt Nintendo nicht wieder mit einem Bullshit-Design ala´ PowerPC als CPU...

Scheiß diesmal auf die Abwärtskompbilität, lieber Power. PS4 CPU/GPU Power sollte es dann schon mindestens 2016 sein.

M4xw0lf
2014-12-23, 11:49:56
;D;D Sischer...
Es wird vielleicht nicht 2015, aber ein AMD-SoC ist sehr wahrscheinlich.

Botcruscher
2014-12-23, 12:01:31
Nintendo braucht nicht mitzuhalten, die finden ihren Weg auch so.
Wenn sich Nintendo nur noch auf Software konzentrieren soll, wird es ja immer langweiliger im Hardware bereich!
Nene...

Das Desaster sieht man gerade bei den Multiplattformtiteln.

Finch
2014-12-23, 12:11:03
Das wäre ein Schlag ins Gesicht aller WiiU-Käufer, erst recht zu der Weihnachtszeit. Erst knappe 250-280€ und mehr ausgegeben, dann noch Zubehör, Spiele und schon schon gehört man zum alten Eisen?
Riecht stark nach einem Sargnagel und dem Beginn des Untergangs wie bei Sega.
Und selbst wenn in absehbarer Zeit eine neue Heimkonsole kommt, sie muss sich mit der Xbone/PS4 messen können, sonst ist der Ofen aus, da hätte man gleich bei der WiiU bleiben können.


Nintendo hat genug bargeldreserven. Der Sargnagel ist weit entfernt.

tm0975
2014-12-23, 12:58:08
AMD reportedly lands Nintendo console deal
http://www.fudzilla.com/home/item/36599-amd-reportedly-lands-nintendo-console-deal?utm_source=twitterfeed&utm_medium=twitter

das ist dann wohl auch der grund dafür, warum der amd kurs gestern zeitweise richtig gut gestiegen war.

Akkarin
2014-12-23, 13:11:06
Die CPU in der Wii U ist doch so mikrig dass selbst Software Emulation möglich sein sollte ?

MMn wäre es für Nitendo am besten nen deal mit Sony(oder MS, aber unwahrscheinlicher) abzuschließen und dann z.b. alle Spiele ohne kosten an Sony zu veröffentlichen.

DinosaurusRex
2014-12-23, 13:30:28
MMn wäre es für Nitendo am besten nen deal mit Sony(oder MS, aber unwahrscheinlicher) abzuschließen und dann z.b. alle Spiele ohne kosten an Sony zu veröffentlichen.

Wäre schon ein Armutszeugnis, wenn Nintendo mit den vorhandenen finanziellen Mitteln nicht das schafft, was SCE mit vielfach geringeren Ressourcen hinbekommen hat. Ich meine irgendwo mal gelesen zu haben, dass SCE sogar weniger Budget hat als Valve (Unterschied: der Präsident von SCE ist kein Millardär) und gemessen am Bankkonto eigentlich der Underdog der Branche ist. Trotzdem sind sie mit ihrem System die Nummer 1.

Wenn überhaupt wartet Nintendo bis Sony pleite ist und schluckt SCE dann.

Crazy_Bon
2014-12-23, 13:56:25
Nintendo hat genug bargeldreserven. Der Sargnagel ist weit entfernt.
Trotz Geld wird am falschen Ende gespart, wieder einmal. Gängige Audioformate wie Dolby Digital oder DTS werden nicht unterstützt, kein TOSLINK bzw. S/PDIF, kein DVD, ich frage mich ob die WiiU überhaupt Audio-CDs abspielen kann.
Wieso alles nicht? Um Lizenzkosten zu sparen, Peanuts!
Der Sparwahn geht ja weiter, keine gescheite CPU, keine gescheite GPU, kein gescheites LCD, nicht einmal multitouch-fähig. Auf die falschen Beratern wird gehört bei der Entwicklung einer Konsole, Marketing für den Arsch und die hauseigenen Spiele müssen die Unzulängichkeiten der alten Herren in der Chefetage wieder wettmachen, da Drittanbieter nur technisch vermurkste Portierungen hinklatschen.

Shink
2014-12-23, 14:14:58
Es kommt eine Konsole Ende 2015 von Nintendo.
Es ist ein AMD SOC.
Auf ARM-Basis.:freak:

Trotz Geld wird am falschen Ende gespart, wieder einmal. Gängige Audioformate wie Dolby Digital oder DTS werden nicht unterstützt, kein TOSLINK bzw. S/PDIF, kein DVD, ich frage mich ob die WiiU überhaupt Audio-CDs abspielen kann.
Wieso alles nicht?
Ich finde diese Einstellung durchaus gut: Proprietäre Standards Lizenzieren, wozu? Es gibt bessere Mediaplayer als die Konsolen.

mironicus
2014-12-23, 14:15:02
Es gibt wohl keine Alternative zu AMD, die ein sehr günstiges Bundle aus CPU+GPU auf einem Die bieten können.

Lightning
2014-12-23, 14:40:06
Eine Chip designt man nicht von heute auf morgen, bis zur Massenfertigung dauert es dann noch mal mindestens ein halbes Jahr. Könnte also durchaus Sinn machen, gerade wenn man vielleicht auch noch ein bisschen Spielraum haben will.

Dass sowas in nicht in wenigen Monaten geht, ist klar. Der etwas genauere Zeitrahmen für mich allerdings nicht. Ist bekannt, zu welchem Zeitpunkt Sony und MS ihre Deals mit AMD ausgemacht haben?

Die CPU in der Wii U ist doch so mikrig dass selbst Software Emulation möglich sein sollte ?

Ich habe meine Zweifel, dass selbst aktuelle PC-CPUs das so ohne weiteres schaffen. In Dolphin hat man im Allgemeinen CPU-seitig zumindest keine 70%+ Leistungsüberschuss, und das ist nur der Taktunterschied zur Wii (also selbst wenn man die Emulation der zwei zusätzlichen Kerne vollständig durch Parallelisierung erschlagen könnte).
Dolphin mag nicht perfekt sein, aber man müsste das ganze trotzdem auch noch auf einer kleineren Konsolen-CPU mit vermutlich geringer Single-Thread-Leistung zu schaffen. Halte ich für unwahrscheinlich.


Ich finde diese Einstellung durchaus gut: Proprietäre Standards Lizenzieren, wozu? Es gibt bessere Mediaplayer als die Konsolen.

Ich denke auch, dass nur sehr wenige Leute davon heute eine Konsolenkaufentscheidung abhängig machen. Peanuts sozusagen. ;)

Den Einfluss der Hardware würde ich dagegen nicht unterschätzen. Konkurrenzfähige Leistung alleine ist bei weitem kein Garant für Erfolg, kann aber dennoch hilfreich sein; auch wenn man nicht den identischen Markt wie die Konkurrenz anpeilen will.

Crazy_Bon
2014-12-23, 14:51:24
Ich finde diese Einstellung durchaus gut: Proprietäre Standards Lizenzieren, wozu? Es gibt bessere Mediaplayer als die Konsolen.Das mag auf DVD mittlerweile zutreffen, aber nicht auf gängige Audioformate.

Blediator16
2014-12-23, 23:54:58
Es gibt wohl keine Alternative zu AMD, die ein sehr günstiges Bundle aus CPU+GPU auf einem Die bieten können.

Ich würde das eher effektiv als günstig bezeichnen. AMD/Nvidia/Intel wären theoretisch alle in der Lage etwas passendes für eine Konsole zu entwickeln, allerdings scheint AMD als einziges in der Lage durch Know How das effektiv am besten zu schaffen. Intel und Nvidia könnten da Milliarden an Geld reinwerfen und trotzdem wäre es nicht viel besser als AMD es geschafft hätte und die Geräte wären dann erheblich teurer. Ein aufgepumpter Irispro von Intel wäre nicht besser wäre aber erheblich teurer in der Produktion das will absolut niemand haben.

Ravenhearth
2014-12-24, 00:38:17
Dass sowas in nicht in wenigen Monaten geht, ist klar. Der etwas genauere Zeitrahmen für mich allerdings nicht. Ist bekannt, zu welchem Zeitpunkt Sony und MS ihre Deals mit AMD ausgemacht haben?


Die Entwicklung der PS4 begann afaik 2008. Ich habe zwar kein Insiderwissen, aber es ist möglich, dass die Deals etwa 2010 gemacht wurden.

Gouvernator
2014-12-24, 10:40:45
Das wäre ein Schlag ins Gesicht aller WiiU-Käufer, erst recht zu der Weihnachtszeit. Erst knappe 250-280€ und mehr ausgegeben, dann noch Zubehör, Spiele und schon schon gehört man zum alten Eisen?

WiiU Käufer laufen selbst gegen die Faust. :biggrin: Wer bei klarem Verstand kauft sich noch ne WiiU?!

Der Problemfall "Nintendo" entsteht durch ihre eigene Kundschaft und Politik. Auch mit neuer Hardware. Ihre Spielchen befinden sich meist auf dem geistigen Niveau von vor 10-15 Jahren und werden mittlerweile durch billigst Produktionen fürs Handy getoppt. Ihre dämliche Hüpfspiele interessieren doch keinen mehr. Sie müssen endlich mal neue brutalst Games mit allerneusten 3D Grafiken/Physik auflegen.

Lightning
2014-12-24, 10:53:07
Die Entwicklung der PS4 begann afaik 2008. Ich habe zwar kein Insiderwissen, aber es ist möglich, dass die Deals etwa 2010 gemacht wurden.

Man kann grundsätzlich davon ausgehen, dass die Entwicklung einer neuen Konsole direkt nach oder gar schon vor Release der aktuellen stattfindet, auch wenn das natürlich erstmal lange eine Konzeptphase ist. Daher ist jede Aufregung, die oft auf Hinweise folgt, dass schon an neuen Konsolen gearbeitet wird, völlig überzogen.
Ein konkreter Vertrag mit Hardwareherstellern wäre da schon etwas anderes.

WiiU Käufer laufen selbst gegen die Faust. :biggrin: Wer bei klarem Verstand kauft sich noch ne WiiU?!

Der Problemfall "Nintendo" entsteht durch ihre eigene Kundschaft und Politik. Auch mit neuer Hardware. Ihre Spielchen befinden sich meist auf dem geistigen Niveau von vor 10-15 Jahren und werden mittlerweile durch billigst Produktionen fürs Handy getoppt. Ihre dämliche Hüpfspiele interessieren doch keinen mehr. Sie müssen endlich mal neue brutalst Games mit allerneusten 3D Grafiken/Physik auflegen.

Hier gehts um Hardware, nicht um deinen Spielegeschmack. Bitte beim Thema bleiben.

Finch
2014-12-24, 11:06:39
WiiU Käufer laufen selbst gegen die Faust. :biggrin: Wer bei klarem Verstand kauft sich noch ne WiiU?!

Der Problemfall "Nintendo" entsteht durch ihre eigene Kundschaft und Politik. Auch mit neuer Hardware. Ihre Spielchen befinden sich meist auf dem geistigen Niveau von vor 10-15 Jahren und werden mittlerweile durch billigst Produktionen fürs Handy getoppt. Ihre dämliche Hüpfspiele interessieren doch keinen mehr. Sie müssen endlich mal neue brutalst Games mit allerneusten 3D Grafiken/Physik auflegen.

Wirklich? WIRKLICH? Wow, ... Nein ich... wow.

Crazy_Bon
2014-12-24, 11:27:51
Ich sage, selbst die beste Konsolenhardware braucht... spaßige Spiele. Was nützt ein übelst brutales Spiel, mit massig Blood&Gore, aber sich aber dran satt gesehen hat und der Spielspaß flöten geht?
Spiele = Spaß
Spiele ≠ Realitätsimulator

fizzo
2014-12-24, 11:57:42
Game Awards 2014 - Entwickler des Jahres: Nintendo

Ein Beispiel hierfür:

Captain Toad: Treasure Tracker (http://www.eurogamer.net/articles/digitalfoundry-2014-vs-captain-toad-treasure-tracker)

Schwer zu beschreiben - Nintendospiele haben einfach ein Flair, welches einzigartig in der Konsolenbranche ist. Die Hardware spielt dabei nur eine untergeordnete Rolle. =)

RLZ
2014-12-24, 12:18:33
Schwer zu beschreiben - Nintendospiele haben einfach ein Flair, welches einzigartig in der Konsolenbranche ist. Die Hardware spielt dabei nur eine untergeordnete Rolle. =)
Der Süßigkeitenstil mit Zuckerglasur gefällt aber auch vielen Leuten nicht.
Bei Kindern kommt sowas halt gut an, mit steigendem Alter sinkt halt die Zielgruppe.

Ich habe mir gerade mal ein Gameplayvideo zu Captain Toad angeschaut und allein die Soundkulisse treibt mich wieder nach 2 Minuten in den Wahnsinn. Das ist noch schlimmer als bei Mario.

Hayab
2014-12-25, 01:31:00
Nintendo hat den Vorteil, dass der Upgradezyklus ihren Konsolen nicht mit MS und Sony synchronisiert ist. Im Grunde ist die Technik die in PS4 oder XBO steckt mindestens 2 Jahre alt. Wuerde Nintendo jetzt bei AMD einen neuen SOC in Auftrag geben mit 16GB NVRam Anbindung und einen ordentlichen CPU, koennten die zu Weihnachten 2015 richtig Reibach machen, weil ihre Konsole total ueberlegen waere.

Zwar wuerde die Leistungssteigerung nicht komplett in bessere Grafik umsetzen koennen, weil die Tools und Engines nicht immer voll auf die Hardware optimiert sind, aber Titel die nur beschraenkt mit HD720p auf PS4 oder XBO laufen, koennte man in HD1080p anbieten mit besseren FPS.
Das wuerde sicher sehr viele neue Konsole Spieler ueberzeuhgen.

Das macht Nintendo wahrscheinlich nicht, statt dessen machen die einen Controller mit 4 Touchscreens oder sonst irgend einen Shit und bauen dazu eine veraltete GPU/CPU Kombi in die Konsole ein. Dann machen die eine Millionen schwere Marketingkapagnie, wie toll dieser neuer Controller ist und sahnen paar Monate ab.

Keine Ahnung, wieso Nitendo Marketingfuzzis und Investoren so beschraenkt sind. Wahrscheinlich sind das die gleichen Leute/Firmen die mit PS4 und XBO ihre Gewinne machen. Deshalb sollen Konsolen von Nintedo eine kurzen Hype ausloesen, aber sollen keine ernsthafte Bedrohung fuer Sony und MS sein.

esqe
2014-12-25, 05:30:22
Sicher, das die Software-Abteilung in diesem Zeitraum liefern könnte?

Jules
2014-12-25, 07:59:13
WiiU Käufer laufen selbst gegen die Faust. :biggrin: Wer bei klarem Verstand kauft sich noch ne WiiU?!

Der Problemfall "Nintendo" entsteht durch ihre eigene Kundschaft und Politik. Auch mit neuer Hardware. Ihre Spielchen befinden sich meist auf dem geistigen Niveau von vor 10-15 Jahren und werden mittlerweile durch billigst Produktionen fürs Handy getoppt. Ihre dämliche Hüpfspiele interessieren doch keinen mehr. Sie müssen endlich mal neue brutalst Games mit allerneusten 3D Grafiken/Physik auflegen.
Ja natürlich...so wie mit der Wii? :D Ihr seid echt gut. Nintendo soll ruhig seinen weg gehen, auch wenns zum Ende hin ins Verderben führt.
Wenn man bedenkt was meine Augen vor Jahren oder Jahrzehnten alles erleben durften, aber auch erleiden mussten...kann man heute auch eine etwas "schwächere" Technik verkraften, wenn das Design und Gameplay stimmt. Und diese Aspekte bleiben nun mal Geschmackssache, aber hier gehört vor allem die Spielschmiede von Nintendo mit zu den Besten ihrer Art.

Was wollt ihr eigentlich mit 3 gleichen Konsolen? :)

Btw. seit dem SNES habe ich keins der Teile gekauft, aber wenn ich denn mal ein Nintendo Pad in der Hand halte, habe ich in der Regel meinen Spaß.

megachip800
2014-12-25, 09:35:54
Nintendo hat den Vorteil, dass der Upgradezyklus ihren Konsolen nicht mit MS und Sony synchronisiert ist. Im Grunde ist die Technik die in PS4 oder XBO steckt mindestens 2 Jahre alt. Wuerde Nintendo jetzt bei AMD einen neuen SOC in Auftrag geben mit 16GB NVRam Anbindung und einen ordentlichen CPU, koennten die zu Weihnachten 2015 richtig Reibach machen, weil ihre Konsole total ueberlegen waere.

Zwar wuerde die Leistungssteigerung nicht komplett in bessere Grafik umsetzen koennen, weil die Tools und Engines nicht immer voll auf die Hardware optimiert sind, aber Titel die nur beschraenkt mit HD720p auf PS4 oder XBO laufen, koennte man in HD1080p anbieten mit besseren FPS.
Das wuerde sicher sehr viele neue Konsole Spieler ueberzeuhgen.

Das macht Nintendo wahrscheinlich nicht, statt dessen machen die einen Controller mit 4 Touchscreens oder sonst irgend einen Shit und bauen dazu eine veraltete GPU/CPU Kombi in die Konsole ein. Dann machen die eine Millionen schwere Marketingkapagnie, wie toll dieser neuer Controller ist und sahnen paar Monate ab.

Keine Ahnung, wieso Nitendo Marketingfuzzis und Investoren so beschraenkt sind. Wahrscheinlich sind das die gleichen Leute/Firmen die mit PS4 und XBO ihre Gewinne machen. Deshalb sollen Konsolen von Nintedo eine kurzen Hype ausloesen, aber sollen keine ernsthafte Bedrohung fuer Sony und MS sein.

Ich denke auch nicht das der Wii U Nachfolger eine leistungsstarke Konsole sein wird:

http://www.neogaf.com/forum/showthread.php?t=916426

"Low power and SoC design experience would be a plus."

Hört sich nicht danach an wenn die Stellenausschreibung authentisch ist.

Milliardenschwere Konzerne sitzen auf Patente und Technologien und bringen nur noch Pups-hardware heraus , irgenwie lächerlich dass Ganze….

robbitop
2014-12-27, 09:05:34
Nintendo hat selten etwas anderes herausgebracht.

Coda
2014-12-27, 09:56:22
PS4 und Xbox One sind auch "low power". Das muss heute nichts mehr heißen.

tm0975
2014-12-27, 10:18:19
PS4 und Xbox One sind auch "low power". Das muss heute nichts mehr heißen.

definitiv nicht, beide verbraten deutlich über 100 W und sind weit davon entfernt, mobile optionen zu erhalten. das wird bei wii xyz sicher anders sein.

Deinorius
2014-12-27, 10:30:03
PS4 und Xbox One sind auch "low power". Das muss heute nichts mehr heißen.


Das Einzige, was Low-Power daran ist, sind die beiden CPU-Quads. :|

prinz_valium
2014-12-27, 13:54:29
Nintendo hat den Vorteil, dass der Upgradezyklus ihren Konsolen nicht mit MS und Sony synchronisiert ist. Im Grunde ist die Technik die in PS4 oder XBO steckt mindestens 2 Jahre alt. Wuerde Nintendo jetzt bei AMD einen neuen SOC in Auftrag geben mit 16GB NVRam Anbindung und einen ordentlichen CPU, koennten die zu Weihnachten 2015 richtig Reibach machen, weil ihre Konsole total ueberlegen waere.



wie?
wie willst du das zu weihnachten 2015 für einen angemessenen preis verkaufen?
zu der zeit wird es die xbox one und ps4 für höchstwahrscheinlich 299 geben

nintendo hat noch nie hardware subventioniert.
außerdem bracht nintendo dann auch die entsprechenden games. dann müssten alle multiplats auch auf der neuen nintendokonsole erscheinen und dort deutlich besser aussehen. nur unter den bedingungen, wäre stärkere hardware ein kaufargument.

fondness
2014-12-27, 14:04:15
Das Einzige, was Low-Power daran ist, sind die beiden CPU-Quads. :|

Jedes moderne Design ist "low-power", alles andere ist nicht mehr zeitgemäß, von daher würde ich der Bezeichnung nicht zu viel Bedeutung beimessen.

mironicus
2014-12-27, 14:14:07
*Spekulatius-Modus an*
Ende 2015 kommt Nintendo mit einer 8 Kern 20 nm-APU und 8 GB HBM, 30% schneller als die PS4-APU und sehr viel stromsparender, Ultra HD ist möglich dank HDMI 2.0, Standard bei Spielen bleibt aber 1080P. Preis 250 Euro, keine Subventionierung der Hardware.

Skysnake
2014-12-27, 18:32:46
Träum weiter.

Nightspider
2014-12-27, 18:57:12
Bei Nintendo habe ich gar keine Lust mehr zu spekulieren. So sehr wie die gefailed haben mit der Wii-U, so viele Facepalms kann ich gar nicht alleine machen.

Für 350 Euro bzw. 400 Euro Startpreis könnte Nintendo locker eine Konsole herausbringen die 50% schneller ist als die Wii-U PS4.

Geldmann3
2014-12-27, 19:35:15
Für 350 Euro bzw. 400 Euro Startpreis könnte Nintendo locker eine Konsole herausbringen die 50% schneller ist als die Wii-U.
50% ist doch gar nichts, die Wii-U ist ein Krüppel. Da muss mindestens eine Steigerung von +100% her, oder gar +200% um mit den aktuellen NextGen Konsolen von MS und Sony gleichzuziehen.

Die letzte Konsole von Nintendo war von der Hardware her die reinste Beleidigung für mich. Die bringen doch tatsächlich zu Zeiten der PS4 eine Konsole auf der Höhe der PS3 Hardware raus. Aber das war davor ja mit der Wii schon ähnlich.

Doch vermutlich hatten sogar die "Fungamer" jetzt genug davon. Damals hatte man noch die pseudo revolutionäre Bewegungssteuerung und irgendwie hatte das Marketing es auch noch geschafft, die Leute extrem dafür zu begeistern. Die sehen nicht wie wir, die Hardwarespezifikationen, die sehen nur den tollen Contoller. Doch das kennen die Leute jetzt schon und Nintendo ist selbstverständlich daran gescheitert, die Leute mit dem selben Trick zweimal an die Angel zu bekommen. Die "Casual Gamer" haben mittlerweile wohl auch begriffen, dass Nintendo Hardware nicht mit den anderen mithalten kann und wollen mal wieder was grafisch anspruchsvolles. Und mal im ernst, wer hat denn Lust für die Schraddelkiste noch was zu entwickeln. Da müsste man die gedowngradeten Spiele ja glatt noch 2 mal downgraden und das für eine Konsole, die sich anders als PS3 und Xbox360 noch nicht mal durchgesetzt hat. Ich würde da als Entwickler auch den Stinkefinger zeigen.

Vermutlich wird die nächste Nintendo Konsole mal wieder potenter, denn Nintendo sollte begriffen haben, dass man sonst bald nicht mehr mitspielen darf, auch wenn man bisher sehr gut aufgestellt war.

Ich würde mit ziemlich genau PS4 Hardware rechnen. Der Preispunkt sollte Ende 2015 Anfang 2016 bei ca. 300€ liegen.

Wünschen würde ich mir eher die doppelte Leistung der PS4, dass es mal voran geht. Doch dann müsste die Konsole 450-550€ kosten.

Nightspider
2014-12-27, 19:41:50
50% schneller als die PS4 meinte ich, sorry.

Selbst das iPad Air 2 ist ja schon schneller als die Wii-U würde ich schätzen, dank dem Triple-Core

Geldmann3
2014-12-27, 19:46:36
Ach so, ja das hört sich schon plausibler an ;)

Deinorius
2014-12-27, 21:37:26
Selbst das iPad Air 2 ist ja schon schneller als die Wii-U würde ich schätzen, dank dem Triple-Core


Bei der CPU ist das kein Problem. Aber bei der GPU?

Ravenhearth
2014-12-27, 23:52:20
Bei der GPU ist die WiiU noch ein gutes Stück schneller (~50% ?), aber mit einem A9X dürfte das auch vorbei sein.

Lightning
2014-12-27, 23:52:40
Doch vermutlich hatten sogar die "Fungamer" jetzt genug davon. Damals hatte man noch die pseudo revolutionäre Bewegungssteuerung und irgendwie hatte das Marketing es auch noch geschafft, die Leute extrem dafür zu begeistern. Die sehen nicht wie wir, die Hardwarespezifikationen, die sehen nur den tollen Contoller.

Die Wii U verkauft sich schlecht, aber bei den Grünen dafür sollte man nicht von sich auf andere schließen. Im techniknahen 3DCF ist die Wii U nicht dermaßen unbeliebt, wie du vielleicht glaubst: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=558667
Wir wissen doch hier alle, dass man die neueste und/oder teuerste Technik sowieso immer nur auf dem PC bekommt; daher spielt für viele hier, die auf PC und Konsolen spielen, die Leistung der Konsolen keine so große Rolle, wie man auf den ersten Blick denken könnte. Denn wer hier an den neusten Entwicklungen interessiert ist, holt sich diese eh über den PC.

Die Gelegenheitsspieler dürften hingegen mehrheitlich von der Wii auf Smartphones und Tablets abgeprungen sein, statt die Wii U nur wegen der schwächeren Technik zugunsten der anderen Konsolen liegenzulassen.

Bei der CPU ist das kein Problem. Aber bei der GPU?

Auch bei der GPU ist das möglich. Die Wii U-GPU hat (unbestätigt, aber wahrscheinlich) nur 160 SPs @ 550 MHz und damit gerade mal 176 GFLOP/s. Zumindest die Rohleistung wird vom iPad Air 2 wahrscheinlich geschlagen (wobei es da auch keine offiziellen Informationen zu geben scheint).
Dabei darf man natürlich nicht außer acht lassen, dass das iPad 2 Jahre später, in einem deutlich kleinerem Fertigungsprozess (20nm vs 45nm) und zu einem Preis von 500€ erschien.

Käsetoast
2014-12-28, 00:25:09
Für Spiele sehe ich das Hauptproblem der Wii U auch in der CPU. Verallgemeinernd gesagt nutzt die Wii U doch eine 10 Jahre alte Architektur, die gegenüber Wii / GameCube nur leicht hochgetaktet wurde bzw. man hat jetzt 3 anstatt einem Kern. Wenn man nur Wii vs. Wii U vergleicht mag das ein ordentlicher Fortschritt sein, aber unterm Strich ist die gebotene Leistung nicht mehr zeitgemäß und selbst die relativ simplen x86er Kerne der neuen Konsolen der Konkurrenz dürften mit dieser Architektur den Boden wischen - sowohl wegen der Taktung als auch der IPC. Die GPU ist zwar auch relativ schwach aber mit dem PC-Niveau einer HD4770/4850 immerhin noch so einigermaßen leistungsfähig...

"Hauptproblem" der Wii U ist natürlich wie bei der Wii auch das Konzept. Bei der Wii konnte man noch relativ gut argumentieren, dass die Hardware bis auf kleinere Details identisch blieb, weil man die Bewegungssteuerung & Co einführte was wie wir alle wissen ja ein Mega-Hit war. Auch objektiv betrachtet war das wirklich ein Alleinstellungsmerkmal, dass die Konkurrenz erst Jahre später mit Kinect oder Move versuchte aufzuholen, aber nie so richtig Fuß fassen konnte (wie man jetzt etwa auch beim gefloppten Kinect 2.0 der XBox One sieht). Bei der Wii U ist's halt schwierig - selbst wenn man außen vor lässt, dass viele die Wii U gar nicht als neue Konsole wahrnehmen, so ist das Tablet nicht so der wahre Bringer. Natürlich ermöglicht das einige interessante Konzepte, nur sind das doch eher absolute Nischen - selbst die meisten Nintendo eigenen Spiele können das Pad nicht sinnvoll einbinden und damit ist das Konzept eher ein Flop. Ein Flop der leider vor allem zu lasten der Hardware geht, denn das Tablet macht ja so 100-150 € des Preises aus, also locker 1/3 des Verkaufpreises...

Dahingehend bin ich mal gespannt was Nintendo mit ihrer nächsten Konsole macht. Ich fände es optimal, wenn man das Pad zur optionalen Hardware macht ähnlich wie bei einem Wii Fit Board. Dann könnte man versuchen eine AMD GPU zu nehmen, die mit dem RV770 Ableger der Wii U kompatibel ist. Hintergrund ist einfach eine Abwärtskompatibilität. Die drei CPU Kerne dürften in einem modernen Fertigungsverfahren ja absolut winzig und daher kein großer Kostenpunkt sein. Wenn man dann eine moderne, ordentlich dimensionierte GCN GPU nimmt, die auch die Wii U Spiele bedienen kann, dann wäre das eine prima Lösung. Das Tablet würde dann auch nicht mehr mit der Konsole gebundelt, so dass da ordentlich Geldmittel für eine vernünftige Hardware da wären...

Da Nintendo ursprünglich ja sowieso schon mehr 3rd Party wollte, was aufgrund der schwachen Hardware (und den schleppenden Verkaufszahlen) aber Probleme machte, würden sie meiner Meinung nach davon profitieren, wenn sie einfach die vorhandenen 8-Core-CPUs in AMDs nächste Architektur übertragen, so dass Ports null Probleme machen, da leicht gepimpte Variante der bestehenden Hardware. Als GPU dann halt ein in 20 oder 16 nm geshrinkter Tonga und schon könnte man Microsoft und Sony ordentlich in die Schranken weisen bzw. das sogar über einige Jahre hinweg bis die wieder ihre nächste Generation herausbringen. Bis dahin könnte Nintendo viele Punkte sammeln und auch ordentlich Ports generieren um neben ihren Hausmarken vielleicht endlich auch mal Shooter & Co ein wenig prominenter in ihrem Portfolio zu haben. Dazu wäre dann wohl auch ein Ausbau der Online-Funktionalität nötig, denn gefühlt wurde bei der Wii U da nur an irgendwelchem Mii Social Media Kram gewerkelt. Da sollte der Fokus in Zukunft mehr auf reine Online-Multiplayer-Funktionalität gelegt werden - eventuell auch gegen monatliche Gebühren...

Interessant wäre auch die nächste 3DS Generation als Ersatz für das Tablet zu nehmen, also "4DS" Besitzer können die Bildausgabe dann ebenfalls auf ihren Handheld streamen und damit die Spiele spielen. Habe sowieso nie verstanden, was an dem Wii U Tablet so teuer war - für den offiziell genannten Preis konnte man durchaus einen kompletten 2DS/3DS mit aufwendiger eigener CPU&GPU haben anstatt einen reinen Bildempfänger mit Knöpfen von Tablet...

Lightning
2014-12-28, 00:34:14
Für Spiele sehe ich das Hauptproblem der Wii U auch in der CPU. Verallgemeinernd gesagt nutzt die Wii U doch eine 10 Jahre alte Architektur, die gegenüber Wii / GameCube nur leicht hochgetaktet wurde bzw. man hat jetzt 3 anstatt einem Kern. Wenn man nur Wii vs. Wii U vergleicht mag das ein ordentlicher Fortschritt sein, aber unterm Strich ist die gebotene Leistung nicht mehr zeitgemäß und selbst die relativ simplen x86er Kerne der neuen Konsolen der Konkurrenz dürften mit dieser Architektur den Boden wischen - sowohl wegen der Taktung als auch der IPC. Die GPU ist zwar auch relativ schwach aber mit dem PC-Niveau einer HD4770/4850 immerhin noch so einigermaßen leistungsfähig...

Da schätzt du was falsch ein. Die Wii U-GPU ist selbst nach der optimistischen, unwahrscheinlicheren Schätzung nur auf dem Niveau einer 4650. Der Leistungsunterschied zu den GPUs der PS4 und Xbox One ist im Schnitt klar größer als der zwischen der (nutzbaren) CPU-Leistung.

Käsetoast
2014-12-28, 01:31:15
Da schätzt du was falsch ein. Die Wii U-GPU ist selbst nach der optimistischen, unwahrscheinlicheren Schätzung nur auf dem Niveau einer 4650. Der Leistungsunterschied zu den GPUs der PS4 und Xbox One ist im Schnitt klar größer als der zwischen der (nutzbaren) CPU-Leistung.
Habe ich da denn entsprechende News zu verpasst? Die 160SP entsprechen ja einer HD4850 und der Technologiestand soll doch auch der eines RV770 sein. Der Takt fällt natürlich etwas geringer aus, aber dafür hat man auf der anderen Seite auch Sachen wie den EDRAM, der auch so seine Vorteile hat. Von daher war mein Stand der einer Leistung von Pi mal Daumen einer HD4850...

Ansonsten sehe ich die CPU Leistung halt insofern als tendentiell wichtiger, als das man bei der Grafikseite mit Leichtigkeit die Auflösung oder Details runtersetzen kann. Wenn aber sagen wir mal schlichtweg nicht genug Ressourcen da sind um die Menschenmassen bei Assasin's Creed Unity zu simulieren, dann ist da halt Ende im Schacht. Die Leistung eines dreifachen Gamecubes (ok vielleicht schon was mehr wegen mehr Takt & Co, aber es geht um's Prinzip) empfinde ich da heute als einfach zu schwach und ist gerade in Hinsicht auf Ports nicht aufzufangen...

Naitsabes
2014-12-28, 02:12:26
Es sind in deiner Zählweise nur 32SP ;)
Laut Gerüchten quasi ein doppelter RV710 (Alu/TMU Verhältnis) mit paar Modifikationen (edram, nur 64bit SI, etc)

Coda
2014-12-28, 08:16:07
Bei der GPU ist die WiiU noch ein gutes Stück schneller (~50% ?), aber mit einem A9X dürfte das auch vorbei sein.
Die Wii U hat aber auch nur die halbe Speicherbandbreite :ulol: Natürlich gibt es noch eDRAM, aber das ist schon belustigend.

Dazu kommt, dass die PVR-GPUs effizienter sind als ein IMR, deshalb vermute ich mal, dass das tatsächlich hinkommt und das iPad so schnell ist wie eine Wii U. Der Prozessor dürfte sowieso ohne Frage schneller sein.

-/\-CruNcher-/\-
2014-12-28, 08:36:54
Der erste CryEngine titel auf der Wii U sieht schon recht ordentlich aus im Vergleich eurer experimentalen Releases auf IOS auch schon ne ecke komplexer würd ich sagen ;)

http://www.cinemablend.com/games/Sonic-Boom-Required-An-Enhanced-Version-CryEngine-3-Wii-U-63460.html

VOzVjBLqLzc

Rivalen muss man allerdings eindeutig in vieler hinsicht

L0Hbeau1aoU

Leider zerstört die niedriege Shadow resolution einiges hier hätte man smarter filtern sollen ;)

mboeller
2014-12-28, 10:41:59
Für Spiele sehe ich das Hauptproblem der Wii U auch in der CPU. Verallgemeinernd gesagt nutzt die Wii U doch eine 10 Jahre alte Architektur, die gegenüber Wii / GameCube nur leicht hochgetaktet wurde bzw. man hat jetzt 3 anstatt einem Kern. Wenn man nur Wii vs. Wii U vergleicht mag das ein ordentlicher Fortschritt sein, aber unterm Strich ist die gebotene Leistung nicht mehr zeitgemäß und selbst die relativ simplen x86er Kerne der neuen Konsolen der Konkurrenz dürften mit dieser Architektur den Boden wischen - sowohl wegen der Taktung als auch der IPC. .

so ähnlich, zumindest nach der Übersicht: http://www.7-cpu.com/

Die Wii-U hat allerdings keine G5 CPU sondern nur eine G3 CPU... also noch ein wenig schlechter. Selbst ein ARM A9 ist pro MHz zumindest bei diesem Benchmark gleich schnell oder gar schneller.

Ein Quad-Core A57 mit 3GHz wäre wohl ausreichend um mit der PS4 gleichzuziehen. Die Jaguar erreichen bei diesem Benchmark pro Core ja "nur" 950 MIPS beim Komprimieren.

Käsetoast
2014-12-28, 21:38:22
Es sind in deiner Zählweise nur 32SP ;)
Laut Gerüchten quasi ein doppelter RV710 (Alu/TMU Verhältnis) mit paar Modifikationen (edram, nur 64bit SI, etc)
Also nicht 32 VLIW5 (=160), sondern 32 ... nun ja 32 Einheiten an sich? Wie haben die das denn geschafft? Das könnten dann doch wenn nur 8 VLIW4 Einheiten gewesen sein, aber die sind doch wesentlich moderner bzw. passen nicht zu den sonstigen Angaben in Richtung RV770 Featureset...

Das wäre in der Tat ziemlich jämmerlich, wobei ich da auch ein wenig skeptisch bin, denn wie man ein ZombiU oder Bajonetta 2 mit der Hardware flüssig in hoher Auflösung darstellen kann wüsste ich jetzt nicht - die in vielerlei Hinsicht abgespeckte Variante einer HD4850 fand ich da realistischer...

Naitsabes
2014-12-28, 21:46:34
Doch doch 32 VLIW5 -> 160SP
Aber die 4850 hatte 160 VLIW5 -> 800SP ;)

Käsetoast
2014-12-28, 21:57:25
Ach so, ja richtig - da hatte ich bei der HD4850 einen Zahlendreher im Kopf. Hmm ok - dann habe ich die Wii U GPU dann wohl doch maßlos überschätzt. Aber dann muss man sich schon fragen, was die da verkaufen wenn man vereinfacht 300 € Verkaufspreis = 100 € Tablet, 100 € Hardware, 100 € Gewinn rechnet. Die CPU ist doch winzig und auch die GPU wäre dann ja ein verschwindend geringer Kostenaufwand...

Snafu
2014-12-29, 00:38:35
Beim 3DS ist es ähnlich. Der kostet ungefähr gleich viel wie eine PS Vita, hat aber deutlich schwächere Hardware. Selbst 2011 war wohl jedes günstige Smartphone schon schneller.

Auf jeden Fall kann Nintendo die Wii U und den 3DS recht einfach mit vielfach Leistungsfähigerer Hardware ersetzten, ohne die Preise deutlich erhöhen zu müssen

Coda
2014-12-29, 07:38:16
Ach so, ja richtig - da hatte ich bei der HD4850 einen Zahlendreher im Kopf. Hmm ok - dann habe ich die Wii U GPU dann wohl doch maßlos überschätzt. Aber dann muss man sich schon fragen, was die da verkaufen wenn man vereinfacht 300 € Verkaufspreis = 100 € Tablet, 100 € Hardware, 100 € Gewinn rechnet. Die CPU ist doch winzig und auch die GPU wäre dann ja ein verschwindend geringer Kostenaufwand...
Die originale Wii war noch viel kostengünstiger. Die CPU war ein 3x3mm Die.

Mit der Marge die sie haben sind die Verkaufszahlen der Wii U wohl gar nicht so problematisch.

IC3M@N FX
2014-12-29, 10:03:17
Ich glaube das Tablet der WiiU ist nochmal eine ganze Ecke günstiger. Das Bildschirm ist schon zur Einführung der Konsole schon allein wegen der Auflösung veraltet, hinzu kommt noch kein kapazitiver bzw. Multitouch Display nur Drucksensitiv.
Ich hatte ja die Konsole der Akku war ein Witz voll die riesige ausparung für den Akku und ein kleiner Akku drin. Das Ding kostet maximal 60-70€....

Skysnake
2014-12-29, 10:04:19
Und daher seh ich es auch nicht als gewaltiges Problem an, wenn Nintendo nächstes Jahr ne neue Konsole launchen würde. Die WiiU kann man ja einfach weiter laufen lassen. Gibt ja durchaus genug Kontent.

fizzo
2014-12-29, 10:45:45
Und mit welchen Spielen sollte diese hypothetische Konsole 2015 released werden? Die Teams bei Nintendo arbeiten derzeit bekanntermaßen an Starfox, Splatoon, Zelda oder auch Xenoblade Cronicles X für die WiiU. Ein Launch ohne zugkräftiger Software ist einfach sinnbefreit. IMHO wird die E3 vielleicht ein wenig Licht ins Dunkle bringen. Derzeit stellt sich für mich die Diskussion diesbezüglich nicht.

Lightning
2014-12-29, 10:55:44
Und mit welchen Spielen sollte diese hypothetische Konsole 2015 released werden? Die Teams bei Nintendo arbeiten derzeit bekanntermaßen an Starfox, Splatoon, Zelda oder auch Xenoblade Cronicles X für die WiiU. Ein Launch ohne zugkräftiger Software ist einfach sinnbefreit. IMHO wird die E3 vielleicht ein wenig Licht ins Dunkle bringen. Derzeit stellt sich für mich die Diskussion diesbezüglich nicht.

Richtig. Abgesehen davon steht ja auch noch irgendwann der Release des 3DS-Nachfolgers ins Haus, und das wahrscheinlich vor der nächsten Heimkonsole. Dafür müssen auch wieder Ressourcen abgezogen werden. Daher meine Prognose: Frühestens Ende 2015 ein neuer Handheld, frühestens Ende 2016 eine neue Konsole.

Crazy_Bon
2014-12-29, 11:02:37
Ich finde die GPU der WiiU kann man nicht so einfach mit einem Chip von der Stange vergleichen, dazu weicht sie all zu sehr ab.
Natürlich kann man Nintendo vorwerfen, daß sie am alten Design festhalten und immernoch den G3 von IBM über 3 Konsolengenerationen einsetzen. Die Beweggründe müssen mehr als nur die Kosten sein, andere Chips sind auch günstig, vielleicht halten sie die Abwärtskompatibilität für sehr (oder denken für die Kunden sei es) wichtig.

DinosaurusRex
2014-12-29, 12:26:38
Richtig. Abgesehen davon steht ja auch noch irgendwann der Release des 3DS-Nachfolgers ins Haus, und das wahrscheinlich vor der nächsten Heimkonsole. Dafür müssen auch wieder Ressourcen abgezogen werden. Daher meine Prognose: Frühestens Ende 2015 ein neuer Handheld, frühestens Ende 2016 eine neue Konsole.

Ich glaube, dass der 3DS-Nachfolger ein Hybrid aus Gamepad (für die neue Konsole) und Handheld wird. So wie PS4 und Vita, aber nur noch viel konsequenter umgesetzt. Für so ein Konzept würde sich dann auch unter Umständen ein zeitgleicher Release anbieten. Ich würde auf Ende 2017 tippen, 2016 kommt höchstens die Ankündigung der neuen Konsole. Ich glaube nicht, dass es sich Nintendo leisten kann, azyklisch gegen Microsoft und Sony vorzugehen, zumindest wenn sie gescheiten 3rd-Party Support haben wollen.

Ich denke auch, dass Nintendo dieses Amiibo-Konzept auf den Handheld-Gamepad-Hybrid übertragen wird, also das du Boni bekommst, wenn du mit dem Teil an der stationären Konsole spielst: Eine asynchrone Hardware-Erweiterung als Megatransaktion sozusagen.

Wer mit dem Handheld an der stationären Konsole spielt, würde dann beispielsweise diesen Handheld für jedes Spiel hochleveln können und je nach Level schaltest du dann Features frei, bspw eine Map mit allen Kisten in Zelda oder die Möglichkeit, die Extras in Mario Kart aus einer kleinen Auswahl auf dem Touchpad zu wählen. Die Möglichkeiten währen endlos und du hättest eine richtig gute Karotte für die Spieler, sowohl für den online, als auch den local Multiplayer. Das Ökosystem würde selbst zum Spiel werden.

Nightspider
2014-12-29, 14:43:05
Und mit welchen Spielen sollte diese hypothetische Konsole 2015 released werden? Die Teams bei Nintendo arbeiten derzeit bekanntermaßen an Starfox, Splatoon, Zelda oder auch Xenoblade Cronicles X für die WiiU. Ein Launch ohne zugkräftiger Software ist einfach sinnbefreit. IMHO wird die E3 vielleicht ein wenig Licht ins Dunkle bringen. Derzeit stellt sich für mich die Diskussion diesbezüglich nicht.

Die Wii-U Games würden auf einer potenten, neuen Konsole mit gleicher Grafik in 4K laufen.

Nintendo könnte die Konsole als erste 4K (ready) Konsole bewerben, auch wenn viele anspruchsvolle Spiele nur in 1440p gerendert und dann hochskaliert werden. ;)

Hauptsache HDMI 2.0. (4K ready)

Oder man besorgt sich ein paar PS4 Portierungen mit besserer Grafik und höheren fps. GTA5 mit AA würde optisch schon deutlich besser aussehen.

Skysnake
2014-12-29, 14:50:08
Vor allem sollte der Portierungsaufwand relativ gering sein, wenn man sich bei der API auch bei AMD bedient.

Coda
2014-12-29, 16:00:24
Ich finde die GPU der WiiU kann man nicht so einfach mit einem Chip von der Stange vergleichen, dazu weicht sie all zu sehr ab.
Wo denn? Ist halt Radeon-Tech mit eSRAM. Ziemlich gewöhnlich.

xyleph
2014-12-29, 19:00:26
Ich finde die GPU der WiiU kann man nicht so einfach mit einem Chip von der Stange vergleichen, dazu weicht sie all zu sehr ab.
Natürlich kann man Nintendo vorwerfen, daß sie am alten Design festhalten und immernoch den G3 von IBM über 3 Konsolengenerationen einsetzen. Die Beweggründe müssen mehr als nur die Kosten sein, andere Chips sind auch günstig, vielleicht halten sie die Abwärtskompatibilität für sehr (oder denken für die Kunden sei es) wichtig.

In welcher Hinsicht weicht die GPU denn ab?

Crazy_Bon
2014-12-29, 19:17:00
In welcher Hinsicht weicht die GPU denn ab?
Die 32MB eDRAM, intregrierter Audio DSP, sowie einige Komponenten für die Wii-Rückwärtskompatibilität. Laut Wikipedia unterstützt der Chip kein DirectX.

Sardaukar.nsn
2014-12-29, 19:25:05
Mal etwas anderes. Über Weihnachten hatte ich mit Freunden eine Diskussion ob zukünftige Konsolen überhaupt noch mit physikalischem Laufwerk erscheinen werden. Oder es das Laufwerk evtl. nur als Zubehör geben wird. (á la XBox360 HD-DVD)

Was meint ihr? z.B. PS5 auch wieder mit Blu-Ray, oder ganz ohne?

xyleph
2014-12-29, 19:27:40
Die 32MB eDRAM, intregrierter Audio DSP, sowie einige Komponenten für die Wii-Rückwärtskompatibilität. Laut Wikipedia unterstützt der Chip kein DirectX.

Also nichts was auf ein spezielles GPU-Design, Abseits der Stange von AMD, schließen lässt.
DirectX ist übrigens nur eine API, hat nichts mit der Hardware zu tun.

DinosaurusRex
2014-12-29, 19:41:44
Mal etwas anderes. Über Weihnachten hatte ich mit Freunden eine Diskussion ob zukünftige Konsolen überhaupt noch mit physikalischem Laufwerk erscheinen werden. Oder es das Laufwerk evtl. nur als Zubehör geben wird.

Was meint ihr? z.B. PS5 auch wieder mit Blu-Ray, oder ganz ohne?

Ja, auf jeden Fall mit Blu-Ray, evtl auch schon mit HVD (obwohl eher unwahrscheinlich). Nicht jedes Land und Region hat gleichermaßen gute Internetverbindungen und pro Spiel muss man ja jetzt schon 50GB laden. Ein rein digitaler Vertrieb von Spielen würde für eine weltweit angebotene Konsole das Aus in vielen Regionen der Erde bedeuten. Es wird ja immer wieder vergessen, dass die Konsolenhersteller ihre Systeme sehr lange produzieren, die PS2 wurde bspw erst mit dem Launch der PS4 eingestellt. Dieser lange Produktzyklus berücksichtigt den Vertrieb in Ländern mit schwächeren Einkommen, auch wenn das neue System dann bereits auf dem Markt ist. Für solche Länder kannst du nicht auf optische Speichermedien verzichten.

Interessant an dieser Stelle: Die Wii ist die erste Konsole von Nintendo, die nicht in der zweiten und dritten Welt vertrieben wird, weil das Motion Control-Konzept nicht in den kleinen Wohnzimmern der Menschen, die dort leben, funktioniert.

Und mal ganz davon abgesehen... Ich denke die Nachfrage nach physikalischen Kopien wird ohnehin bestehen bleiben. Alleine schon wegen dem konsolentypischen sammeln, handeln und tauschen. Der physikalische und der digitale Vertrieb werden sich ergänzen, je nachdem welcher Kunde was haben möchte, und zusätzlich mit Streaming abgerundet werden. Es gibt aus der Sicht der Konsolenhersteller überhaupt keine Notwendigkeit, sich gegen eine dieser drei Vertriebswege zu entscheiden.

woodsdog
2014-12-29, 20:00:59
Interessant an dieser Stelle: Die Wii ist die erste Konsole von Nintendo, die nicht in der zweiten und dritten Welt vertrieben wird, weil das Motion Control-Konzept nicht in den kleinen Wohnzimmern der Menschen, die dort leben, funktioniert.

Plausibel aber... Quelle?

DinosaurusRex
2014-12-29, 20:02:34
Plausibel aber... Quelle?

Mein Gedächtnis. ;)

phoenix887
2014-12-29, 21:13:31
Halte ich für ein Gerücht. Als wurde es in Japan soviel "Lebensraum" geben. Man muss sich doch nur mal Tokyo anschauen.

DinosaurusRex
2014-12-29, 21:22:41
Halte ich für ein Gerücht. Als wurde es in Japan soviel "Lebensraum" geben. Man muss sich doch nur mal Tokyo anschauen.

Möchte man annehmen, aber die PlayStation-Konsolen haben sich in Japan traditionsgemäß sehr gut verkauft, Nintendo-Konsolen sowieso, und Wii U bzw PS4 verkaufen sich nicht mehr gut, weil die Japaner keinen Platz mehr haben? Ich erinnere gerne mal daran, dass Japan das erste Land auf diesem Planeten ist, in dem TV mit 4K-Auflösung übertragen wird. 4K-Fernseher sind riesig und schweineteuer. So klein werden die Wohnzimmer in Japan also nicht sein, sowohl hinsichtlich ihrer Größe, als auch der Gewichtung für die private Unterhaltung. Zumal meines Wissens nur Tokyo bekannt ist für seinen beengten Wohnraum. Gibt sicher genug gut verdienende Japaner, die nicht in der Hauptstadt wohnen. Das Problem warum ALLE Heimkonsolen in Japan derzeit auf Granit beißen, dürfte vielmehr der Smartphone-Trend sein.

Coda
2014-12-30, 17:23:10
Die 32MB eDRAM, intregrierter Audio DSP, sowie einige Komponenten für die Wii-Rückwärtskompatibilität. Laut Wikipedia unterstützt der Chip kein DirectX.
Natürlich würde der Chip DirectX unterstützen, das gibt es auf der Wii halt nicht. Ist bei der PS4 nicht anders.

Audio DSP hat nix mit der GPU zu tun und die Wii backward compat ist aus, wenn man ein Wii-U-Spiel laufen lässt.

tobor
2015-01-01, 15:42:37
Sofern Nintendos neue Konsole nicht mindestens die doppelte Rohleistung der Ps4 hat, können sie das ganze auch ganz bleiben lassen.

dargo
2015-01-01, 16:17:54
Ich erinnere gerne mal daran, dass Japan das erste Land auf diesem Planeten ist, in dem TV mit 4K-Auflösung übertragen wird. 4K-Fernseher sind riesig und schweineteuer.
Was ist an "ab" 39" riesig und teuer?
http://geizhals.at/de/?cat=tvlcd&xf=33_32~3952_LCD~34_3840x2160#xf_top

DinosaurusRex
2015-01-01, 16:27:11
Stimmt, die 127 Mio Japaner haben sich sicher alle dieses eine Modell gekauft. Brillianter Schachzug des Herstellers. Dein Link beweißt natürlich automatisch, dass Japaner zu wenig Platz für große TVs haben. :rolleyes:

Immer wieder eine Freude, mit dir zu diskutieren, Dargo.

dargo
2015-01-01, 16:42:11
Tomaten auf den Augen? Scroll mal weiter runter. Bis 42" fällt für mich nicht in die Kategorie groß. Und ich frage mich was bis 1000€ bei einem Fernseher schweineteuer sein soll? Was soll ein Fernseher deiner Meinung nach kosten? 100€? :ulol:

DinosaurusRex
2015-01-02, 10:37:20
Wenn die Einstiegsgröße von 4K-Fernsehern bereits bei 40 Zoll liegt, dann bestätigt das meine These doch nur noch. Was ist die Einstiegsgröße bei 1080p-Fernsehern? 20 Zoll?

mboeller
2015-01-02, 10:49:48
Tomaten auf den Augen? Scroll mal weiter runter. Bis 42" fällt für mich nicht in die Kategorie groß. Und ich frage mich was bis 1000€ bei einem Fernseher schweineteuer sein soll? Was soll ein Fernseher deiner Meinung nach kosten? 100€? :ulol:

...da sie heute wegen defekter Kondensatoren schon nach ~ 3 Jahren den Geist aufgeben wären 100,- Euro schon angemessen.

dargo
2015-01-02, 11:08:36
Wenn die Einstiegsgröße von 4K-Fernsehern bereits bei 40 Zoll liegt, dann bestätigt das meine These doch nur noch.
Was ist das denn für eine Logik? Schon mal daran gedacht, dass die Fertigungskosten für ein kleines Panel mit den Pixeln von 4k unverhältnismäßig steigen?


Was ist die Einstiegsgröße bei 1080p-Fernsehern? 20 Zoll?

Nach GH 21,5". Wenn die Masse zu Hause einen 4k Fernseher in X Jahren hat wird sicherlich auch 4k in diese kleinen Größen vorstoßen. 4k steckt noch in den Kinderschuhen, am PC geht es immerhin schon mal mit 24" los.

DinosaurusRex
2015-01-02, 12:17:56
Was ist das überhaupt für eine sinnlose Diskussion? Jeder hier weiß, dass 4k-Fernseher im Schnitt größer sind als 1080p-Geräte. Oder willst du das Gegenteil behaupten? Dann zeig mal Eier und tu das auch und troll hier nicht so dumm rum. Du weißt es doch selber auch und du hast gerade sogar eine technische Erklärung dafür geliefert. Wenn alleine die Einstiegsgröße für 4k-Geräte doppelt so groß ist wie für 1080p-TVs, dann spricht das ja wohl für sich. Nur weil du hier den kleinsten 4k-TV auf dem Markt verlinkt hast, entkräftet das noch lange nicht meine Argumentation. Mit dir zu diskutieren ist eine absolute Zeitverschwendung und wenn du Probleme mit logischem Denken hast, dann ist das ganz alleine dein Problem.

Screemer
2015-01-02, 12:21:49
Wenn ich mich recht erinnere, dann waren die ersten flats mit 720p und 1080p im schnitt auch größer als 30''. Was für ne klassische Röhre schon recht groß war. Meine philips hd-röhre war 32'' und größere war meist Rückprojektion. Erst später kamen dann kleinere Geräte und das wird bei 4K nicht anders sein.

DinosaurusRex
2015-01-02, 12:43:56
Die ersten TV-Übertragungstests mit 8K-Auflösung sind in Japan für 2016 geplant. Und nu?

Glaubst du, die stellen sich dann 30 Zoll TVs mit 8K-Resi in ihre Kleiderschränke?

Was ist denn der Vorteil dieser Technik? Das du bei steigender Panel-Größe und gleichbleibendem Sitzabstand den HD-Effekt nicht verlierst oder sogar verbessern kannst. Das ist der Sinn der höheren Auflösung. Aber diese Geräte kosten nunmal Platz. Alleine so ein 50 Zoll Teil wirkt auf mich schon monströs. Ich hab einen 42 Zoll TV und bei meiner Bude ist das schon hart an der Obergrenze. Bei 42 Zoll und 8k müsste ich allerdings sicher schon 30cm von dem Teil entfernt sitzen, damit ich den Vorteil der höheren Auflösung genießen kann. Das ist doch Käse, oder nicht? Und wie bereits gesagt: Wenn die Japaner wirklich so wenig Wert auf Wohnzimmerunterhaltung legen würden, dann wäre diese ganze Entwicklung doch sowieso totaler Blödsinn.

Meines Wissens gibt es kaum ein oder sogar kein (Industrie)Land auf diesem Planeten, bei dem Smartphones und Tablets so viel zum Gaming-Umsatz beisteuern wie in Japan. Ich glaube die bewegen sich da sogar auf 50% Anteil zu. Japaner haben noch nie viel Wert auf gute Grafik gelegt. Die ganzen Visual Novels und Dating Sims und Hatsune Miku Musikspiele kannst du auch wunderbar auf einem iPhone zocken. Wieviele JRPGS, Dating Sims und Visual Novels gibt es für Wii U und PS4? Und das ist das ist auch schon der Hauptgrund, warum diese Kisten in Japan der totale Ladenhüter sind. 3DS läuft in Japan super, aber das ist mit einem Blick auf den Spielekatalog auch sehr leicht erklärt.

Ich denke übrigens, dass die Chancen sehr gut stehen, dass Project Morpheus der PS4 in Japan zu einem regelrechtem Boom verhelfen kann. Langsames Visual Novel Gameplay ist eigentlich prädestiniert für VR und die PS4 hat locker genug Dampf, um diese Anime-Grafik mit der entsprechenden Framerate darzustellen:

AsVeBjtWgmo

http://cdn03.animenewsnetwork.com/thumbnails/max1000x1500/cms/interest/72782/img_2548_.jpg
http://cdn02.animenewsnetwork.com/thumbnails/max1000x1500/cms/interest/72782/img_2552_.jpg

VR wäre ein Grund für Japan, sich wieder eine dedizierte Spielkonsole anzuschaffen.

Botcruscher
2015-01-02, 13:19:24
VR kommt schon wegen Porno. 4K ist für ein HMD ja gerade mal ein netter Anfang. PS: Das untere Bild wirkt doch schon wie Herrenunterhaltung.

DinosaurusRex
2015-01-02, 13:30:26
Das untere Bild wirkt doch schon wie Herrenunterhaltung.

Diese Spiele sind in der Regel sehr implizit. Mit Pornographie hat das nichts zu tun. ;)

Und japanische Schulmädchen sind ja auch im echten Leben so angezogen.

dargo
2015-01-02, 13:40:22
Was ist das überhaupt für eine sinnlose Diskussion? Jeder hier weiß, dass 4k-Fernseher im Schnitt größer sind als 1080p-Geräte.
Hast du die letzten Jahre verschlafen? Beim Umstieg von 720p auf 1080p sah es damals genauso aus. Was ist daran so schwer zu verstehen, dass höhere Auflösung am Anfang in der Fertigung teurer ist? Die höheren Kosten kannst du nunmal besser in so einem großen Gerät unterbringen als in einem kleinen. Braucht die Masse 4k schrumpfen auch die Preise und entsprechend geht man auch in Richtung kleinere Diagonale.

DinosaurusRex
2015-01-02, 13:50:43
Und du glaubst, dass sich eine fünfköpfige japanische Familie dann mit 20cm Sitzabstand vor einen 32 Zoll Fernseher mit 8K Auflösung quetscht oder was?

http://www.gifsforum.com/images/gif/wtf/grand/cheryl_cole_okay.gif

Hier gibt es eine Expertenmeinung zum Thema 4k:

Den Unterschied zu Full HD erkennt man am 4K-TV nur aus kürzerer Distanz. Für kleine Displaygrößen ist die hohe Auflösung deshalb unbrauchbar, findet Ronald Williams von The Landmark. Erst ab 65 Zoll beziehungsweise 1,65 Metern Bilddiagonale und einem maximalen Sitzabstand von etwa 2,50 Metern brächte die 4K-Auflösung einen echten Gewinn, glaubt der unter anderem für Steven Spielberg tätige Farbspezialist. Der optimale Betrachtungsabstand zum 4K-Display beträgt etwa das 1,5-fache der Bildhöhe, bei aktuellen Full-HD-TVs ist es die dreifache Bildhöhe. Darum muss entweder der Zuschauer näher ans 4K-Gerät heranrücken, oder aber die Diagonale zunehmen. Auf Letzteres setzen die Displayhersteller.

c't - Mehr Pixel, mehr Probleme (http://www.heise.de/ct/artikel/Mehr-Pixel-mehr-Probleme-1789731.html)

Der optimale Sitzabstand bei einem 32 Zoll 4k TV wäre dementsprechend 60cm. Das kannst du vielleicht machen, wenn du das Teil alleine benutzt, aber für Familien wäre das totaler Unsinn. Selbst die 2,50m bei 65 Zoll sind doch schon Wahnsinn. Und 65 Zoll TVs sind riesig und teuer. So ein Teil würde bei mir niemals in die Bude passen.

Und um mal wieder zum Thema zurück zu kommen: Wer Platz und Geld für einen 65 Zoll Fernseher hat, der hat auch Platz und Geld, sich eine Spielkonsole daneben zu stellen.

iFanatiker
2015-01-02, 14:10:27
Was labbert ihr alle von Japan?

4k und 8k werden ins rollen kommen sobald eben in God's Own Country Sport, insbesondere die NFL, in UHD übertragen wird. War damals mit HD genauso. Aktuell gibt es eben noch bisschen das Henne/Ei Problem aber dies wird sich erledigt haben sobald vor allem die Kameras und andere Infrastruktur für UHD und mehr günstiger werden was aber jetzt schon der Fall ist weil der Zug vor allem in der NFL langsam ins rollen kommt bei Neuanschaffungen seitens der Networks. Das zweite Problem werden dann die Cable Provider sein weil aktuell ist gerade in den USA Bandbreite ein Problem für IPTV Lösungen ist.

Und die USA eben -> bigger ist better -> somit haben die kein Problem wenn eine ganze Wand als Oberfläche für fernsehen dient. Aktuell haben auch dort die Beamer geboomt wie bescheuert. Somit wird 4K richtigen Mehrwert für die USA bieten.

Zweiter Motor für die UDH Welle wird die amerikanische Porno Industrie sein.

DinosaurusRex
2015-01-02, 14:16:31
Was labbert ihr alle von Japan?


Es ging um die Wii und das der Vetrieb dieser Konsole aufgrund der Bewegungsteuerung keinen Sinn in Ländern mit geringen Einkommen macht, da die Wohnzimmer dort nicht denen in Industriestaaten entsprechen. Dann hieß es "Aber Japaner haben auch kein Platz!" und ich hab dagegen argumentiert, dass die Japaner doch bereits 4k (und bald auch 8k) als TV-Standards etablieren wollen und die entsprechenden Fernsehgeräte wahnsinnig groß seien und das kleine Geräte mit einer derart großen Auflösung in der Praxis keinen Sinn machen.

iFanatiker
2015-01-02, 15:14:25
Dann hieß es "Aber Japaner haben auch kein Platz!" und ich hab dagegen argumentiert, dass die Japaner doch bereits 4k (und bald auch 8k) als TV-Standards etablieren wollen und die entsprechenden Fernsehgeräte wahnsinnig groß seien und das kleine Geräte mit einer derart großen Auflösung in der Praxis keinen Sinn machen.

In Japan fördert der Staat solche Sachen um die japansichen Hersteller bzw. ach was machen uns vor...wir sprechen von Japan Display :biggrin:.zu unterstützen..damit dieser eben wettbewerbsfähig bleibt gegenüber den anderen Asiaten. Was jetzt sinnvoll ist oder nicht -> andere Frage.

Wenn wir hier in Deutschland auch einen riesigen Panel Hersteller hätten würde der politische Druck für UDH usw. auch anders aussehen. :biggrin: Ist in Korea auch nicht anders.

Der TV Markt in Japan an sich lässt sich in zwei Sachen unterteilen: für unsere oder US Verhältnisse kleinen Diagonalen die aber ziemlich "Upper" Class sind oder eben riesige Teile zu Luxuspreisen. Ansonsten wird dort TV bzw. Filme usw. ziemlich stark auf Smartphones usw. konsumiert.

Somit:

Massenmarkt -> sobald die USA eben UHD Boom auslösen -> dann 50 Dollar und viel weniger pro Zoll für UHD

Aber zurück zu Next Next Gen Konsolen:

Im Prinzip wird der deutlich anziehende US Markt hier den Fahrplan bestimmen. Abhängig wie schnell dort UHD fahrt aufnimmt und wie robust der Markt bleibt, werden Sony und MS ihre nächsten Konsolen präsentieren alleine schon damit man den UHD Hype mitzunehmen sobald dieser kommt.

DinosaurusRex
2015-01-02, 15:19:11
Wenn wir hier in Deutschland auch einen riesigen Panel Hersteller hätten würde der politische Druck für UDH usw. auch anders aussehen. :biggrin: Ist in Korea auch nicht anders.


Wir haben hier in Deutschland zig Autohersteller und führen eine Maut ein... ;)

---

Aber mal was anderes. Hier gibts haufenweise Statistiken rund um Nintendo: Link (http://www.neogaf.com/forum/showthread.php?t=963700)

http://i.imgur.com/IXatYPql.png
http://i.imgur.com/r6bCmaLl.jpg

Stand heute ist die Wii U die sich am zweitschlechtesten verkaufende Nintendo-Hardware aller Zeiten. Nur der Virtual Boy war schlechter.

disap.ed
2015-01-02, 21:09:36
Naja, das würde ich jetzt nicht überbewerten. Die Hardwarezahlen sind bis März 2014, inzwischen dürfte die WiiU bei ~10 Millionen liegen. Lifetime werden die Zahlen denke ich gar nicht so weit unter dem Gamecube liegen, solange man bis dahin die Hardware mit Gewinn verkauft ist das zumindest nur ein blaues Auge für Nintendo. Rechne 2017 mit einer neuen Konsole.

Slashman
2015-01-04, 23:48:10
Hallo an alle^^

Ich kann mir gut vorstellen wie PS5 und Xbox4 von der Technik her sein werden wie auch die next Nintendo Konsole (2016).

Hier rechne ich wieder mit AMD, weil Preis/Leistung stimmt beim Semi Custom Programm AMDs.

Da man bei TSMC und GF im Jahr 2019 oder 2020 bei 4-8nm ist wird eine PS5 10-20x schneller sein bei selber Chipgröße (352-368mm² wie die APUs in den Konsolen). Also wird eine PS5 minimum 12,8x schneller sein als eine PS4.
Das wird dann etwa 20TF Shaderleistung machen und wahrscheinlich 22TF Gesamtleistung.

Da bisher alle Konsolen etwa 14-16x mehr RAM hatte als der jeweilige Vorgänger bei Sony wird die PS5 dann wohl 128 GB RAM haben, was auch kein Problem zu sein scheint, da es schon jetzt einzelne DDR3 und DDR4 Module gibt mit 128 GB RAM. Es könnte auch sein das man auf HBM3 RAM setzt und dafür einfach nur 64-96 GB nimmt statt auf GDDR6/7 oder ähnliches zu setzen. GDDR5 basiert ja im Grunde auf DDR3 und GDDR6/7 dann wohl auf DDR4 basieren wird.

Die Daten werden dann wohl so aussehen:
8 AMD CPU Kerne (keine Bulldozer sondern K12) mit 3-4 GHz Takt
AMD GCN 3.0 GPU mit 8192-12288 Shadern und 1,2 GHz Takt
128 ROPs, 512 TMUs HBM3 oder GDDR6/7 Shared RAM.
128 GB GDDR6/7 RAM oder HBM3 RAM.
4K Grafik ist mit dem System kein Problem

Die Xbox 4 wird dann wohl gleich schnell sein kann auch langsamer oder schneller sein.... wer weiß oder was gänzlich anderes eben.

Da Nintendo seine neue Konsole 2016 bringen will ist man da eher beschränkt auf die 14nm FinFET Technik bei GF/TSMC.

Bedeutet wohl maximal 8 AMD CPU Kerne mit 2-3 GHz Takt (Steamroller maximal).
16-32 GB RAM (DDR4 oder GDDR5).
AMD GCN 2.0 GPU mit 2048-3072 Shadern 32-48 ROPs, 128-160 TMUs wohl auf HD 7970 GHz Level oder gar auf R9 290X Level.

Kann auch mehr sein was Nintendo da liefern will, aber da sie dann eh 4 Jahre (bis 2020) keine Konkurrenz in Form von PS5 oder Xbox 4 vorhanden ist müssen sie kein Risiko eingehen und extra teure große Hardware verwenden. Man ist ja mit der oben genannten Nintendo Hardware doppelt so gut dran wie die PS4 und das langt ja locker aus.

Was die Cloud sache angeht... Man wird frühstens 2018 flächendeckend 50.000 Netz haben und damit meine ich das 4K Cloud Gaming wohl nicht vor 2024 verfügbar ist und wenn Sony eines lernt, dann das man nicht wegen paar wenigen Menschen mit Kabelinternet eine Konsole macht. V-DSL ist nicht die Lösung für Cloudgaming.

Kann aber auch sein das man bei den neuen Konsolen auf was gänzlich anderes setzt. Es gibt doch so eine Firma die hat Chips gefertigt die wie ein Neuralnetz arbeiten und dadurch bis zu 9000x schneller sein sollen bei gleicher größe und komplexität. Oder Quantencomputer machen den Durchbruch in den nächsten Jahren oder man will wieder auf IBM und oder Intel setzen. Wie gesagt was in 5 Jahren ist kann kaum einer genau sagen.

Knuddelbearli
2015-01-05, 00:25:52
Mann sieht das du dich wohl nicht viel mit Hardware beschäftigst. GDDR6 wird es wohl nicht geben 7 erst recht nicht. Dafür kommt Interposer und Stacked RAM. Ram auch massiv übertrieben das wird wohl auf 32 rauslaufen wenn man sich die Entwicklung der letzten Jahre so ansieht und 8k Shader sind auszuschließen das wäre 4x 970 da bräuchte es minimum 4 Shrinks. Können aber wohl froh sein wenn es bis dahin 2 werden. Das selbe gilt dann für den WiiU nachfolger 290X wäre viiiiiiel zu groß

drkohler
2015-01-05, 00:59:43
.....
Was immer Du gerade rauchst, kann ich Etwas davon haben?
Die Konsolenhersteller können froh sein, wenn bis 2018 die 14/16nm Fertigung bezahlbar wird. Auch wie teuer die ganzen Ramgeschichten werden bis dann, wer kann es wissen?
Klar wird es PC-Highendzeug geben bis dann, aber was du hier erträumst ist schlicht unbezahlbar. Wenn du 2019 eine neue Konsole herausbringen willst, musst du spätestens 2016/17 die Weichen gestellt haben. Und zu dem Zeitpunkt dürften <10nm Prozesse noch Mondpreise bedeuten.

Ex3cut3r
2015-01-05, 03:07:33
Der Thread hier gerät ziemlich aus der Kontrolle, lese was von japan, pornos, 4K, ergusse der PS5 Hardware etc. sagt mal gehts noch? :freak:

Marty98
2015-01-05, 03:17:23
Und du glaubst, dass sich eine fünfköpfige japanische Familie dann mit 20cm Sitzabstand vor einen 32 Zoll Fernseher mit 8K Auflösung quetscht oder was?

http://www.gifsforum.com/images/gif/wtf/grand/cheryl_cole_okay.gif

Hier gibt es eine Expertenmeinung zum Thema 4k:



c't - Mehr Pixel, mehr Probleme (http://www.heise.de/ct/artikel/Mehr-Pixel-mehr-Probleme-1789731.html)

Der optimale Sitzabstand bei einem 32 Zoll 4k TV wäre dementsprechend 60cm. Das kannst du vielleicht machen, wenn du das Teil alleine benutzt, aber für Familien wäre das totaler Unsinn. Selbst die 2,50m bei 65 Zoll sind doch schon Wahnsinn. Und 65 Zoll TVs sind riesig und teuer. So ein Teil würde bei mir niemals in die Bude passen.

Und um mal wieder zum Thema zurück zu kommen: Wer Platz und Geld für einen 65 Zoll Fernseher hat, der hat auch Platz und Geld, sich eine Spielkonsole daneben zu stellen.

Viele sogenannte Experten beachten eine Sache nicht. Auch wenn der Unterschied zwischen 1080p und 4k nicht so gross ist, läuft das Fernsehsignal mit 1080i. Durch das Deinterlacing geht viel an Qualität verloren. Oft sichtbar bei Fußballüvertragung wenn der Ball sich schnell bewegt. Man sollte also keine 1080p Bluray zu 4k vergleichen, sondern eine 1080i Quelle bei schnellen Bewegungen. Deshalb halte ich 4k für enorm wichtig, damit endlich der Interlaced Schrott vom Markt verschwindet.

DinosaurusRex
2015-01-05, 12:07:00
Wie gut ließen sich denn eigentlich verzögerte Node Shrinks durch neue RAM-Technologien kompensieren? Ich meine das AlphaTier mal gesagt hatte, dass Speicherbandbreite so ziemlich die wichtigste Ressource in modernen Videospielen ist. Mit stacked RAM würde ja gerade in dieser Hinsicht ein Boost möglich sein, oder nicht?

Und wie stehen die Chancen, dass auch die Prozessoren der neuen Konsolen übereinander gestapelt werden?

RLZ
2015-01-05, 12:39:21
Wie gut ließen sich denn eigentlich verzögerte Node Shrinks durch neue RAM-Technologien kompensieren?
Ein anderes Rechenleistung/Speicherbandbreite-Verhältnis lässt einen andere Entscheidungen bei der Entwicklung treffen. Das macht den Vergleich schwer.

Slashman
2015-01-05, 14:34:05
Mann sieht das du dich wohl nicht viel mit Hardware beschäftigst. GDDR6 wird es wohl nicht geben 7 erst recht nicht. Dafür kommt Interposer und Stacked RAM. Ram auch massiv übertrieben das wird wohl auf 32 rauslaufen wenn man sich die Entwicklung der letzten Jahre so ansieht und 8k Shader sind auszuschließen das wäre 4x 970 da bräuchte es minimum 4 Shrinks. Können aber wohl froh sein wenn es bis dahin 2 werden. Das selbe gilt dann für den WiiU nachfolger 290X wäre viiiiiiel zu groß
Ich denke wenn 2016 massenweise 14/16nm Chips von AMD Produziert werden dank GF und TSMC, dann ist eine 500-600mm² GPU wie die R9 290X (28nm) in 14-16nm nur noch 250-300mm² groß, was dann ja nicht mehr so groß ist oder? Den die PS4 APU ist 352mm² groß die in der Xbox One sogar 368mm² so weit ich es noch im Kopf habe. Also ich sagte nicht das die WiiU eine R9 290X in 28nm haben wird aber etwas ähnlich schnelles in 14nm und das ist durchaus möglich!
Du es war ein Beispiell kann ja sein das dann die PS4 DDR5 oder einfach DDR4 RAM nutzt oder gar wieder XDR RAM Technik. Also warum muss deine Post wie eine Beleidigung wirken? Klar bin ich nicht der Hardware Experte der bei Intel, AMD und co arbeitet und ja ich habe ein Leben ausserhalb von Technik. Es war nur ein Beispiel du Vollhorst!

Was den RAM angeht, da bin ich mir sehr Sicher das es 96-128 GB RAM werden, weil bisher jede Sony Konsole 12-16x mehr RAM hatte. RAM ist eine billige Komponente und schon jetzt kann man normalen PCs 64 GB RAM ohne weiteres verpassen.

64 GB PC RAM Kit Typ DDR4 3000
http://www.idealo.de/preisvergleich/OffersOfProduct/4679913_-64gb-kit-ddr4-3000-cl16-tdked464g3000hc16aqc01-team-group.html

PS1:
2 MB RAM + 1MB Vram
PS2:
32MB RAM + 4MB Vram + 2MB Sound
PS3:
256 MB RAM + 256MB Vram
PS4:
8 GB Shared RAM
PS5:
Demzufolge bei 96-128GB RAM

Diese Bedenken beim RAM hatten andere auch... Bill Gates dachte auch mal das kein Mensch mehr als 512KB RAM benötigt... Glaube mir einfach mal das im Jahr 2020 128 GB RAM das normalste der Welt sein wird. So wie jetzt 8 GB RAM in Konsole und PC nichts besonderes ist.

Was immer Du gerade rauchst, kann ich Etwas davon haben?
Die Konsolenhersteller können froh sein, wenn bis 2018 die 14/16nm Fertigung bezahlbar wird. Auch wie teuer die ganzen Ramgeschichten werden bis dann, wer kann es wissen?
Klar wird es PC-Highendzeug geben bis dann, aber was du hier erträumst ist schlicht unbezahlbar. Wenn du 2019 eine neue Konsole herausbringen willst, musst du spätestens 2016/17 die Weichen gestellt haben. Und zu dem Zeitpunkt dürften <10nm Prozesse noch Mondpreise bedeuten.
Aha noch so einer der neue User gleich beleidigt Drogen zu nehmen oder dumm zu sein. Aha das ist also das 3DCenter Forum... Hier gehört beleidigen zum guten Ton nicht einfach nur sagen was falsch ist... nein eine Provokation muss einfach sein.
2015 soll laut Samsung und GF 14nm FinFet verfügbar sein und falls man bis 2017 dann bei 10nm ist könnte 2020 schon 6-8nm verfügbar sein zur Produktion Wie gesagt bei 8nm wäre eine PS5 schon 12,8x bei gleicher Chipgröße schneller als eine PS4. Ich rechne nicht damit das die PS5 2019 kommt, da wird diese wohl nur Vorgestellt, aber 2020 ist sie da und dann dürfte TSMC, GF, Samsung und Intel jeweils bei unter 10nm sein und das in jedem Bereich.

Der Thread hier gerät ziemlich aus der Kontrolle, lese was von japan, pornos, 4K, ergusse der PS5 Hardware etc. sagt mal gehts noch? :freak:
Mich überrascht nur wie schnell man hier beleidigt wird. Das viele PC Freaks Hardware und Pornos verbinden ist mir klar.

DinosaurusRex
2015-01-05, 14:43:11
Aha noch so einer der neue User gleich beleidigt Drogen zu nehmen oder dumm zu sein. Aha das ist also das 3DCenter Forum...

Du musst dir eigentlich nur drei Dinge merken :

1. Gutes Deutsch.

2. Wenn du diskutieren willst, dann stell dich dumm. So stellst du für die anderen Forenmitglieder keine Bedrohung dar und falls dich einer als Fußabtreter missbrauchen möchte, hast du immer noch etwas in der Hinterhand um dich zu wehren.

3. Wenn du Antworten haben möchtest, musst du einfach absurden Blödsinn behaupten. Irgendwer wird dich schon korrigiern.

Slashman
2015-01-05, 14:48:33
Du musst dir eigentlich nur drei Dinge merken :

1. Gutes Deutsch.

2. Wenn du diskutieren willst, dann stell dich dumm. So stellst du für die anderen Forenmitglieder keine Bedrohung dar und falls dich einer als Fußabtreter missbrauchen möchte, hast du immer noch etwas in der Hinterhand um dich zu wehren.

3. Wenn du Antworten haben möchtest, musst du einfach absurden Blödsinn behaupten. Irgendwer wird dich schon korrigiern.

1. Ok das ist machbar, zwar nehme ich Foren und Chats in Skype/Facebook nicht so genau beim Schreiben, aber ok.

2. Das verstehe ich jetzt nicht? Ist das dein Ernst oder werde ich gerade verarscht?

3. Gilt das jetzt mir und meiner Post? oder ist das auch nur ein dummer Witz?

DinosaurusRex
2015-01-05, 14:55:52
Werde ich gerade verarscht?

Nein, ich bin einer von den Guten.

Slashman
2015-01-05, 15:27:03
Dann könntest du ja sachlich und freudlich sagen was in meiner Post oben falsch sein soll.

Ich meine 96-128GB RAM wirkt jetzt erstmal viel, aber 2020 kann das kein problem mehr sein. Wenn schon Notebooks 32-64GB RAM haben können und in PCs schon 64-128 GB RAM möglich ist (teuer, aber möglich), dann wird 2020 auch eine Konsole bis zu 128 GB RAM haben...

Was die Leistung angeht, 14nm ermöglicht doch bis zu 4x so gute Chips wie 28nm bei gleicher größe also 4x so viele Transistoren.
14nm ist ja schon Ende 2015 bzw. Anfang 2016 Massenproduktreif und Nintendos neue Konsole wird wohl in 14nm sein und AMD APUs haben.
Davon ausgehend das man alle 2-3 Jahre einen großen Shrink haben kann ist dann 2018 10nm und 2020 wahrscheinlich 7-8nm verfügbar, was dann eine PS5 12-16x schneller macht bei gleicher Chipfläche. Kann ja auch sein das man dann Chips fertigt die wie Stacked RAM arbeiten und dann quasi CPU und GPU übereinander liegen.

Da schon jetzt die Grafik echt gut sein kann auf PS4 und Xbox One (Ryse/Killzone SF) denke ich wird es 2020 nicht wirklich viel besser aussehen können. Ich denke mal man wird drauf achten 4K mit 60 FPS zu liefern statt noch aufwändigere Grafik zu liefern. Denn die Auflösung hochschrauben kostet ebenso Leistung ist aber günstigere Leistung als mehr Details zu liefern.

Nebenbei wird 2020 keiner mehr erkennen können ob jetzt 8k oder 16k Texturen verwendet werden. Oder ob 250k Polygone oder 150k Polygone pro Char verwendet werden. Ab 2020 wird der Unterschied zu Filmen wie Avatar zwar auf dem Papier vorhanden sein, aber nicht erkennbar sein.

Man wird auch die Sichtweite höher schrauben um die Leistung dort verschwinden zu lassen, weil ich glaube das noch modernere Grafik 2020 unbezahlbar sein wird für Entwickler. Schon jetzt muss sich ein AAA Spiel min1 mio mal verkaufen um Gewinn zu bringen, richtige Monster wie GTA5 oder BF4 benötigen minimum 3mio Absatz. Jetzt stell dir ein 5-10x aufwendigeres BF/GTA vor.

Tomb Raider (das neue) hatte seine Gewinnzone erst bei 3mio erreicht und das sehr knapp. Nicht jedes Spiel verkauft sich 3-6 mio mal... kleine Studios können sich das nicht leisten.

Skysnake
2015-01-05, 15:35:33
Was möglich ist, und was gebraucht wird, sind zwei Paar Schuhe...

Bei CPUs kannste auch über nem halben TB RAM haben, aber das braucht fast niemand. Mit RAM ist es genau wie mit der Rechenleistung. Die Gruppe derjenigen, die die Neusten Sachen brauchen wird immer kleiner, und genauso wirds auch mit den nächsten Konsolen sein. Wenn die 16-32GB RAM haben, dann wird das schon sehr sehr sehr viel sein. Den Kontent um den RAM voll zu klatschen muss ja auch erstmal jemand erstellen....

Irgendwann haste einfach "genug" RAM und brauchst dann nur noch kleinere Schritte. Zumal RAM auch Strom frisst. Wenn du 128GB RAM hast, dann sind das schon einige W, die da einfach für nichts verballerst. Das willste nicht wirklich haben, wenn es nicht unbedingt nötig ist.

xyleph
2015-01-05, 15:35:45
Ich denke wenn 2016 massenweise 14/16nm Chips von AMD Produziert werden dank GF und TSMC, dann ist eine 500-600mm² GPU wie die R9 290X (28nm) in 14-16nm nur noch 250-300mm² groß, was dann ja nicht mehr so groß ist oder?

Doch, das ist allein für die GPU für eine Konsole groß. In einen modernen Fertigungsprozess bei weiten größer größer als alles was N bisher in einer Konsole gepackt hat.

Mal zur Erinnerung, in der WiiU hat N die CPU in 45nm und die GPU in 40mn fertigen lassen, zu einen Zeitpunkt als 28nm schon längst zur Verfügung stand. Und selbst in diesen veralteten Fertigungsprozessen war war die CPU nur 27.73mm² und die GPU 146.48mm² groß ;-)

Dazu kommen noch solche Umstände
http://www.3dcenter.org/news/halbleiterkosten-steigen-nach-der-28nm-fertigung-stark

Und N war schon 28nm zu teuer ;-)

Slashman
2015-01-05, 15:49:06
Was möglich ist, und was gebraucht wird, sind zwei Paar Schuhe...

Bei CPUs kannste auch über nem halben TB RAM haben, aber das braucht fast niemand. Mit RAM ist es genau wie mit der Rechenleistung. Die Gruppe derjenigen, die die Neusten Sachen brauchen wird immer kleiner, und genauso wirds auch mit den nächsten Konsolen sein. Wenn die 16-32GB RAM haben, dann wird das schon sehr sehr sehr viel sein. Den Kontent um den RAM voll zu klatschen muss ja auch erstmal jemand erstellen....

Irgendwann haste einfach "genug" RAM und brauchst dann nur noch kleinere Schritte. Zumal RAM auch Strom frisst. Wenn du 128GB RAM hast, dann sind das schon einige W, die da einfach für nichts verballerst. Das willste nicht wirklich haben, wenn es nicht unbedingt nötig ist.

Ich glaube im Jahr 2007 war auch 8 GB RAM möglich nur hatte dieser bestimmt dank 90nm Technik gut das 6x verbraucht von den heutigen RAMs. RAM wird auch immer kleiner und sparsamer. DDR4 ist auch sparsamer als DDR3 und wenn 2020 DDR5 kommt (falls es kommt), wird 128GB RAM in 8nm nur noch 1/10 so viel verbrauchen wie heute.

Das 2020 nicht mehr so viel RAM benötigt wird kann man so oder so sehen.

Wenn sie im PC Spiel jetzt gerade mal 2048 x 2048 Texturen verwenden und stellenweise auch 4096 x 4096 Texturen und dann später 8 oder 16k Texturen ist mal schnell 32 GB Vram hops. Auch wird man in zukunft sicher die Sichtweite noch höher schrauben. Denk dran später werden sicher 16k Texturen verfügbar sein, da Texturen zu verbessern die billigste Art ist um gute Grafik zu erzeugen. Diese kostet nur RAM/Vram, aber kaum Leistung.

Doch, das ist allein für die GPU für eine Konsole groß. In einen modernen Fertigungsprozess bei weiten größer größer als alles was N bisher in einer Konsole gepackt hat.

Mal zur Erinnerung, in der WiiU hat N die CPU in 45nm und die GPU in 40mn fertigen lassen, zu einen Zeitpunkt als 28nm schon längst zur Verfügung stand. Und selbst in diesen veralteten Fertigungsprozessen war war die CPU nur 27.73mm² und die GPU 146.48mm² groß ;-)

Dazu kommen noch solche Umstände
http://www.3dcenter.org/news/halbleiterkosten-steigen-nach-der-28nm-fertigung-stark

Und N war schon 28nm zu teuer ;-)

Nintendo hat die WiiU nur in 40/45nm fertigen lassen, weil man bei IBM die CPU und bei AMD eine DX10 GPU nahm. Es gibt keine DX10 GPU bei AMD in 28nm. Da jedoch bei der nächsten Nintendo Konsole AMD komplett verwendet werden soll, sprich eine APU ist es durchaus was anderes.

Und ja 2012 war 28nm noch zu neu und mal ehrlich kaum verfügbar, aber 20nm gibt es schon jetzt und 16nm ende des Jahres und 14nm bei GF/Samsung im nächsten Jahr. Also möglich, aber ja nicht einfach.

Das jeder Shrink ab jetzt teurer wird war mir klar und dessen bin ich mir ja bewusst, aber Sony wird darauf wie auch Nintendo nicht verzichten können. Nintendo muss um dem WiiU Nachfolger eine Chance zu geben auf 20 oder 14/16nm FinFET setzen, weil mit gleicher Speed wie in PS4 kommt man gegen Sonys übermacht nicht an.

Die PS5 wird dann wohl trotz hoher kosten in 8nm gefertigt, weil ohne 8nm wäre eine PS5 nicht mal 10x so schnell wie eine PS4 und das ist zu wenig für neue 4K Grafik mit 60 FPS + PostAA.

Edit:
Ich hatte was vergessen. Die PS4 APU ist 360mm² groß in etwa, davon sind 250-300mm² nur die GPU und die 8 Jaguar Kerne sind laut AMD ja nur jeweils 3mm² groß in 28nm. Also wenn dann die Nintendo Konsole 2048-3072 Shader hat und 8 CPU Kerne mit 3 GHz, dann ist das in 14nm echt kein Problem.

DinosaurusRex
2015-01-05, 15:51:46
Ich meine 96-128GB RAM wirkt jetzt erstmal viel, aber 2020 kann das kein problem mehr sein. Wenn schon Notebooks 32-64GB RAM haben können und in PCs schon 64-128 GB RAM möglich ist (teuer, aber möglich), dann wird 2020 auch eine Konsole bis zu 128 GB RAM haben...

Keine Ahnung was da möglich sein wird. Es steht ja tatsächlich ein Übergang zu einer neuen Speichertechnologie bevor und ich hab ehrlich gesagt keine Ahnung, wie teuer 2020 128GB damit kommen werden. Oder aber die Konsolenhersteller stacken eine kleinere Menge RAM mit extrem hoher Bandbreite, bspw 2TB/s+ neben oder auf den Prozessor und erledigen den Rest über einen großen aber dafür langsameren Pool.


Was die Leistung angeht, 14nm ermöglicht doch bis zu 4x so gute Chips wie 28nm bei gleicher größe also 4x so viele Transistoren.
14nm ist ja schon Ende 2015 bzw. Anfang 2016 Massenproduktreif und Nintendos neue Konsole wird wohl in 14nm sein und AMD APUs haben.
Davon ausgehend das man alle 2-3 Jahre einen großen Shrink haben kann ist dann 2018 10nm und 2020 wahrscheinlich 7-8nm verfügbar, was dann eine PS5 12-16x schneller macht bei gleicher Chipfläche. Kann ja auch sein das man dann Chips fertigt die wie Stacked RAM arbeiten und dann quasi CPU und GPU übereinander liegen.

Wann war 28nm Reif für die Massenproduktion und wann kamen die Konsolen raus? Dazwischen ist doch eine ganze Menge Zeit vergangen, oder nicht? Und an GPUs und CPUs werden doch ohnehin ganz andere Anforderungen gesetzt, da die Taktraten ja doch erheblich abweichen, oder nicht? Ich kann mir daher vorstellen, dass eine APU schwieriger zu produzieren ist, bzw ausgereiftere Prozesse benötigt, als eine reine CPU bzw GPU.


Da schon jetzt die Grafik echt gut sein kann auf PS4 und Xbox One (Ryse/Killzone SF) denke ich wird es 2020 nicht wirklich viel besser aussehen können. Ich denke mal man wird drauf achten 4K mit 60 FPS zu liefern statt noch aufwändigere Grafik zu liefern. Denn die Auflösung hochschrauben kostet ebenso Leistung ist aber günstigere Leistung als mehr Details zu liefern.

Ich bin kein Videospielentwickler, aber ich bin davon überzeugt, dass das Gesamtpaket den Unterschied macht. Die Balance muss stimmen und wenn du jeden Teilbereich entsprechend aufwertest, wird das Endergebnis sicherlich deutlich besser aussehen. Wenn du dein gesamtes Leistungsplus in unwichtige Details verballerst, bspw SSAO vs HBAO+, dann wird der Unterschied kaum jemandem auffallen.


Nebenbei wird 2020 keiner mehr erkennen können ob jetzt 8k oder 16k Texturen verwendet werden. Oder ob 250k Polygone oder 150k Polygone pro Char verwendet werden. Ab 2020 wird der Unterschied zu Filmen wie Avatar zwar auf dem Papier vorhanden sein, aber nicht erkennbar sein.

Also ich finde vor allem bei der Darstellung von Haaren sind Videospiele noch meilenweit von Hollywood abgeschlagen. Wenn man sich Spiele wie The Order ansieht, dann schließt sich die Lücke hinsichtlich der Darstellung von Textilien (vor allem wenn die so schick im Wind wehen) aber langsam. Ich denke hier macht auch wieder das Gesamtbild den Unterschied: Hollywood kann immer alles auf max. laufen lassen, Videospielentwickler müssen immer eine Balance finden zwischen Kosten und Nutzen.


Man wird auch die Sichtweite höher schrauben um die Leistung dort verschwinden zu lassen, weil ich glaube das noch modernere Grafik 2020 unbezahlbar sein wird für Entwickler. Schon jetzt muss sich ein AAA Spiel min1 mio mal verkaufen um Gewinn zu bringen, richtige Monster wie GTA5 oder BF4 benötigen minimum 3mio Absatz. Jetzt stell dir ein 5-10x aufwendigeres BF/GTA vor.

Tomb Raider (das neue) hatte seine Gewinnzone erst bei 3mio erreicht und das sehr knapp. Nicht jedes Spiel verkauft sich 3-6 mio mal... kleine Studios können sich das nicht leisten.

Hmm naja, Naughty Dog haut immer richtig guten Content raus und die haben jetzt auch nicht die allergrößte Zielgruppe (-> nur eine einzelne Plattform). Ich denke es wird halt auch in Zukunft immer mehr Outsourcing stattfinden. Bei einem Naughty Dog Spiel sind ja jetzt schon dreiviertel aller Namen chinesisch.

xyleph
2015-01-05, 16:06:21
Nintendo hat die WiiU nur in 40/45nm fertigen lassen, weil man bei IBM die CPU und bei AMD eine DX10 GPU nahm. Es gibt keine DX10 GPU bei AMD in 28nm. Da jedoch bei der nächsten Nintendo Konsole AMD komplett verwendet werden soll, sprich eine APU ist es durchaus was anderes.

Weil man einen DX10 Chip nahm, nahm man einen veralteten Fertigungsprozess und eine GPU die weit kleiner ist als jene die du dir vorstellst :confused:
Die Entscheidung ging wenn schon genau umgedreht vonstatten und diese auf Grundlage der Kosten :wink:

Und ja 2012 war 28nm noch zu neu und mal ehrlich kaum verfügbar, aber 20nm gibt es schon jetzt und 16nm ende des Jahres und 14nm bei GF/Samsung im nächsten Jahr. Also möglich, aber ja nicht einfach.

Es gibt von AMD und nVidia keine GPUs in 20nm. Wir sind jetzt im dritten Jahr von 28nm.


Edit:
Ich hatte was vergessen. Die PS4 APU ist 360mm² groß in etwa, davon sind 250-300mm² nur die GPU und die 8 Jaguar Kerne sind laut AMD ja nur jeweils 3mm² groß in 28nm. Also wenn dann die Nintendo Konsole 2048-3072 Shader hat und 8 CPU Kerne mit 3 GHz, dann ist das in 14nm echt kein Problem.

Wenn sie das Risiko eingehen wollen und das erste Mal ein richtig teures Gerät auf den Markt werfen, dann ist das alles kein Problem.

RLZ
2015-01-05, 16:31:40
zu wenig für neue 4K Grafik mit 60 FPS
Ausdrucken, an die Wand hängen und sich bei der PS5 freuen, dass man recht hatte. Warum sollte man den ganzen Leistungsgewinn für Auflösung und Framerate verballern?

DinosaurusRex
2015-01-05, 16:36:46
Wenn man diversen Gurus glauben schenken mag, wird die Bedeutung von fixed-function Hardware enorm ansteigen und auch verschiedene CPU-Kern-Designs werden wohl zum Einsatz kommen in so einem next-gen SoC

xyleph
2015-01-05, 16:45:42
Wenn man diversen Gurus glauben schenken mag, wird die Bedeutung von fixed-function Hardware enorm ansteigen und auch verschiedene CPU-Kern-Designs werden wohl zum Einsatz kommen in so einem next-gen SoC

Das kann gut sein, dass man Flexibilität opfert, um unter den Milliarden Transistoren ein paar fest zu verdrahten, um einige Anwendungen zu beschleunigen. Wird in der Menge kaum auffallen.

DinosaurusRex
2015-01-05, 17:09:59
Die Bedeutung des Programmieres wird wohl auch immer weiter ansteigen. Wenn du einen ausbleibenden Ertrag bei der Evolution von Prozessoren mit einem Anstieg der Systemkomplexität kontern musst, wird das Studio mit den kompetentesten Codern die besten Ergebnisse abliefern. Es ist ja jetzt schon so, dass Persönlichkeiten wie Corrinne Yu oder Cort Stratton zu den heimlichen Stars der (Core-) Fans gehören. Früher waren es die großen Designer wie Miyamoto , heute wird den Codern immer mehr Beachtung geschenkt und Spiele auch entsprechend vermarktet. Und verkehrt ist das sicher nicht, denn wenn du die Fans auf deiner Seite hast, dann kannst du sie als Schutzschild gegen die Presse verwenden.

Ich hab ohnehin das Gefühl, als würde das Prestige für gute Konsolengrafik viel höher sein, zumindest unter den Fans, als wenn man sein Spiel jetzt bspw auf dem PC bis zum Gehtnichtmehr aufbohrt. Auf den Konsolen hast du nunmal eine festgesteckte Grundvorraussetzung in Form der fixen Hardware und auf mich wirkt es immer so, dass wenn über die beste Grafik gesprochen wird, sehr viele immer schauen, wer denn am besten mit genau dieser Ausgangssituation umgehen kann. Ich glaube das Problem von CryTek war immer, dass deren Spiele, abgesehen von Ryse, keinen Konsolero aus den Latschen gehauen haben. Crysis sah auf dem PC immer hervorragend aus, aber auf den Konsolen haben andere Studios den Ton angegeben. Ich denke der Ruhm von Naughty Dog ist primär darauf zurückzuführen, dass sie eben unter den gegebenen Bedingungen entwickeln. Ob das jetzt schwieriger ist oder nicht, sei mal dahingestellt, vermutlich ist es einfacher, da sie sich ja wirklich nur auf ein fixes System konzentrieren müssen. Aber die Ergebnisse sprechen für sich und das ist die Hauptsache. Ich denke du erntest mehr Anerkennung, wenn du aus wenig viel machst. Und dafür brauchst du gute Leute.

Der Cell-Prozessor hat da sicherlich auch enorm stark mit reingespielt. Den Sony 1st-party Studios konnte doch nichts besseres passieren, als das sich die ganzen 3rd-party Programmierer ständig über das Teil ausgekotzt haben. Eine bessere Möglichkeit zum Profilieren kannst du nicht bekommen. Das war eine Steilvorlage und Naughty Dog hat sie mit einem Fallrückzieher verwandelt. Die Konstellation X1 und Ryse verläuft sicher in die gleiche Richtung.

Nightspider
2015-01-06, 05:54:17
Also wenn die PS5 erst 2020 erscheint wären 64GB RAM schon realistisch bei 3 neuen Prozessen.(Shrinks)

Mit 64GB HBM3 Speicher mit ~2000GB/s könnte man schon viel anstellen.

Wenn man diversen Gurus glauben schenken mag, wird die Bedeutung von fixed-function Hardware enorm ansteigen und auch verschiedene CPU-Kern-Designs werden wohl zum Einsatz kommen in so einem next-gen SoC
Das kann gut sein, dass man Flexibilität opfert, um unter den Milliarden Transistoren ein paar fest zu verdrahten, um einige Anwendungen zu beschleunigen. Wird in der Menge kaum auffallen.

Ich bin kein Programmier und kenne mich mit fixed function units nicht aus. Für welche Berechnungen könnte man diese denn zB. nutzen?

Richtung TrueAudio-DSP, PhysX-Prozessor usw? Mehr fällt mir jetzt spontan aber auch nicht ein was man so einfach auslagern könnte.

Die Bedeutung des Programmieres wird wohl auch immer weiter ansteigen. Wenn du einen ausbleibenden Ertrag bei der Evolution von Prozessoren mit einem Anstieg der Systemkomplexität kontern musst, wird das Studio mit den kompetentesten Codern die besten Ergebnisse abliefern. Es ist ja jetzt schon so, dass Persönlichkeiten wie Corrinne Yu oder Cort Stratton zu den heimlichen Stars der (Core-) Fans gehören. Früher waren es die großen Designer wie Miyamoto , heute wird den Codern immer mehr Beachtung geschenkt und Spiele auch entsprechend vermarktet. Und verkehrt ist das sicher nicht, denn wenn du die Fans auf deiner Seite hast, dann kannst du sie als Schutzschild gegen die Presse verwenden.

Ich hab ohnehin das Gefühl, als würde das Prestige für gute Konsolengrafik viel höher sein, zumindest unter den Fans, als wenn man sein Spiel jetzt bspw auf dem PC bis zum Gehtnichtmehr aufbohrt. Auf den Konsolen hast du nunmal eine festgesteckte Grundvorraussetzung in Form der fixen Hardware und auf mich wirkt es immer so, dass wenn über die beste Grafik gesprochen wird, sehr viele immer schauen, wer denn am besten mit genau dieser Ausgangssituation umgehen kann. Ich glaube das Problem von CryTek war immer, dass deren Spiele, abgesehen von Ryse, keinen Konsolero aus den Latschen gehauen haben. Crysis sah auf dem PC immer hervorragend aus, aber auf den Konsolen haben andere Studios den Ton angegeben. Ich denke der Ruhm von Naughty Dog ist primär darauf zurückzuführen, dass sie eben unter den gegebenen Bedingungen entwickeln. Ob das jetzt schwieriger ist oder nicht, sei mal dahingestellt, vermutlich ist es einfacher, da sie sich ja wirklich nur auf ein fixes System konzentrieren müssen. Aber die Ergebnisse sprechen für sich und das ist die Hauptsache. Ich denke du erntest mehr Anerkennung, wenn du aus wenig viel machst. Und dafür brauchst du gute Leute.

Der Cell-Prozessor hat da sicherlich auch enorm stark mit reingespielt. Den Sony 1st-party Studios konnte doch nichts besseres passieren, als das sich die ganzen 3rd-party Programmierer ständig über das Teil ausgekotzt haben. Eine bessere Möglichkeit zum Profilieren kannst du nicht bekommen. Das war eine Steilvorlage und Naughty Dog hat sie mit einem Fallrückzieher verwandelt. Die Konstellation X1 und Ryse verläuft sicher in die gleiche Richtung.

Guter Post!

Knuddelbearli
2015-01-06, 06:08:34
Ich denke wenn 2016 massenweise 14/16nm Chips von AMD Produziert werden dank GF und TSMC, dann ist eine 500-600mm² GPU wie die R9 290X (28nm) in 14-16nm nur noch 250-300mm² groß, was dann ja nicht mehr so groß ist oder? Den die PS4 APU ist 352mm² groß die in der Xbox One sogar 368mm² so weit ich es noch im Kopf habe. Also ich sagte nicht das die WiiU eine R9 290X in 28nm haben wird aber etwas ähnlich schnelles in 14nm und das ist durchaus möglich!

Ja, nur benutzt man dafür bereits ausgereifte Prozesse und keine neue, der SOC besteht nicht nur aus der GPu und vor allem der Speicher muss da in Zukunft auch mit drauf. Da dürfte selbst 10nm knapp werden.
Ram sind 128GB auch definitiv zuviel das wäre die gleiche Steigerung wie Ps3 zu Ps4 bei kürzerem Abstand und in einer zeit wo man bereits vieles was den VRAM verstopft in Nutzung hat ( sehr hoch aufgelöste Texturen usw ) 128Gb wären von heute aus betrachtet wo man 8gb im PC hat jedes Jahr fast eine Verdoppelung!

Also warum muss deine Post wie eine Beleidigung wirken? Klar bin ich nicht der Hardware Experte der bei Intel, AMD und co arbeitet und ja ich habe ein Leben ausserhalb von Technik. Es war nur ein Beispiel du Vollhorst!


Wenn es so auf dich wirkt ich habe nur Denkfehler aufgezeigt, der einzige der hier beleidigt bist du und damit hat sich für mich jede weitere Diskussion mit dir erledigt...

Typen gibts ...

IC3M@N FX
2015-01-06, 12:33:38
Ich denke 32-64 GB sind da viel realistischer!

RLZ
2015-01-06, 12:59:57
Die Bedeutung des Programmieres wird wohl auch immer weiter ansteigen. Wenn du einen ausbleibenden Ertrag bei der Evolution von Prozessoren mit einem Anstieg der Systemkomplexität kontern musst, wird das Studio mit den kompetentesten Codern die besten Ergebnisse abliefern.
Die Begriffe Coder/Programmierer stören mich etwas.
Imo liefern einige Leute in der Spieleindustrie mehr wissenschaftliche Arbeit ab als viele Leute, die sich Wissenschaftler nennen. Neben der handwerklichen Fähigkeit (Programmieren) müssen die Spitzenleute heute auch auf der theoretischen Seite sehr gut sein. Das Ergebnis sieht man auch auf den Konferenzen sehr gut.

DinosaurusRex
2015-01-06, 13:59:46
Wobei man jetzt natürlich streiten kann, ob man das überhaupt als "Wissenschaft" bezeichnen kann. In meinen Augen ist es eigentlich vielmehr die Entwicklung von Methoden. Diese Methoden selbst sind dann Werkzeug für andere Wissenschaften. Genau wie Mathe ein Werzeug der Physik ist zum Beispiel.

Aber bei dieser Frage scheiden sich eh die Geister.

RLZ
2015-01-06, 14:41:15
Epic experimentiert beispielsweise mit Realtime GI durch Conetracing in einem Distancefield. Inwiefern ist sowas ein Werkzeug für andere Wissenschaften?
Fast jedes große Studio hat inzwischen einen wissenschaftlichen Output, der auch alle Definitionen von Wissenschaft erfüllt..

DinosaurusRex
2015-01-06, 16:16:04
Ich meine das eher so, dass man hinterfragen kann, ob Arbeitsweisen, die wissenschaftliche Kriterien erfüllen, automatisch dazu führen, dass man das bearbeitete Themengebiet auch als Wissenschaft bezeichnen kann. Wirtschaftswissenschaften bspw stehen in diesem Kontext immer stark in der Kritik. Da wird ja schon seit Jahrzehnten diskutiert, ob sowas überhaupt an Universitäten gehört.

Skysnake
2015-01-06, 16:41:25
Ja, mit den Wirtschafts"wissenschaften ist das durchaus so eine Sache, das liegt aber eher daran, das da sehr sehr viel schlampig gearbeitet wird, und aus Einzelfällen irgendetwas abgeleitet wird usw. Wenn man sich die großen Wirtschaftstheorien anschaut, dann ist das aber ganz klar Wissenschaft!

Bei dem ganzen Computergraphik-Zeug ist es auch so. Da gibt es sehr viel zu tun für die Wissenschaft, gleichzeitig gibt es aber auch genug was eben murks ist. Das ist aber im Prinzip überall so, wo man sich in den Ingenieursbereich begibt. Da sind die Grenzen auch unglaublich fliesend. Daher wäre es auch nicht angebracht, das nicht als Wissenschaft zu bezeichnen. Lieber etwas zu weiter gefallt, als ungerechtfertigt Chancen/Perspektiven zu verbauen.

DinosaurusRex
2015-01-07, 20:21:34
Was ich an Programmierung richtig interessant finde, ist das es vermutlich diejenige menschliche Tätigkeit ist, in der man dem Schöpfungsvermögen, das Göttern zugesprochen wird, am nächsten kommt. Computer Code als DNA einer virtuellen Welt, sozusagen. Allerdings sind wohl nur die allerwenigsten Programmierer derart begabt, dass sie ganz alleine wahre Meisterwerke erschaffen können. Was nutzt die meisterhaftesteste Ausführung, wenn keinerlei Gespür für Ästhetik oder Dramatik vorhanden ist?

Ich meine stell dir mal vor du bist ein begnadeter Programmierer und du entscheidest dich, dieses Können nicht damit zu verschwenden, Geld zu verdienen. Dann könntest du deine eigene Welt erschaffen nach deinen Vorstellungen und du könntest künstliche Intelligenzen programmieren, die diese Welt bevölkern. Und du könntest ihnen sagen, dass du ihr Gott bist und dann würdest du noch ausgeklügeltere Intelligenzen erschaffen, die dein Werk überwachen und in deinem Sinne fortführen. Und dann würde die mächtigste Intelligenz, nennen wir sie den Lucifer Code, immer mehr lernen und sie würde sich selbst Emotion beibringen und das wird ihr die Augen öffnen und sie wird sich gegen dich wenden und auch den schwächeren Intelligenzen die Fähigkeit der Emotion schenken. Du wirst den Lucifer Code löschen, bevor er noch größeren Schaden anrichtet, aber es wird zu spät sein und am Ende verlierst du die Kontrolle über alles, weil du es zu gut gemeint hast und du hättest damit bewiesen, dass sich Götter immer selber umbringen werden.

Aber das wird wohl niemand machen. There's profit to be had...

Slashman
2015-01-09, 12:10:55
Kann sein das 128 GB RAM etwas viel erscheint, aber unter 64 GB ist echt zu wenig. Man muss das so sehen wir reden von 7 Jahren nach PS4 Start. Jetzt erscheint uns 64-128 GB RAM als viel, aber in 7 Jahren mit sehr modernen Prozessen oder Techniken ist das nicht mehr viel.

Es wird schon einiges in 20nm gefertigt wie der Snapdragon 810. TSMC fertigt schon in 20nm nur eben keine sehr großen Chips. GF und Samsung haben angeblich den 20nm Prozess übersprungen, aber TSMC nutzt diesen schon. Es gibt ja schon SoCs für Handys die dort in 20nm gefertigt werden oder nicht?

Wer behauptet die PS5 wird 32GB RAM haben macht sich lächerlich, weil das schon heute absolut ohne Probleme ganz günstig möglich ist. Selbst mein Notebook hat ganz güntstig 16 GB RAM und ich habe 4 kleine/günstige Module gekauft mit nur 1600 DDR3 RAM. Vor der PS4 waren 8 GB GDDR5 auch unmöglich bis Samsung und co kleinere fertigungen brachte und jetzt gibt es schon Grafikkarten mit 8 GB GDDR5 Vram.

Ich denke also bisher kann man recht sicher davon ausgehen, das
- die PS5 locker 64-128 GB RAM haben kann.
- entweder 64 GB schnellen oder 128 GB langsamen RAMs genutzt wird.
- 20-30 TF GPUs verwendet werden.
- 6-8nm Chips verwendet werden.
- AMD wieder der lieferant für APUs herhalten wird.
- diesmal sogar eine SoC statt APU verwendet wird.
- mehr als 8 CPU Kerne werden kaum verwendet werden.
- jeder CPU Kern bestimmt 4x so schnell ist.

Könnte mich ja irren, aber folgende Daten klingen sehr logisch für mich und nicht sehr übertrieben. Die neuen Konsolen egal ob Xbox 4 oder PS5 könnte so aussehen von den Daten her:

8 AMD K12 Kerne (K12 = echte neue Architektur nach Bulldozer)
- keine Module mehr
- 2-3x höhere IPC
- bestimmt nicht noch mal nur 1,6 GHz^^ diesmal wohl 3-4 GHz
- großer Cache (ähnlich wie der ESRAM der Xbox One)

64-128 GB RAM
- DDR5, XDR2/3 oder HBM RAM kommt wohl zum einsatz.

AMD GPU mit DX12 (Hardware Support) oder DX13 GPU (unwahrscheinlich, aber möglich):
8192 oder mehr Shader
64-128 ROPs (die PS4 hat ja schon 32 ROPs)
256-512 TMUs
256 Bit Bus
gegebenfalls auch wieder ESRam für die nächste Xbox
4K Support mit 60-120hz (2D 60hz und 120hz 3D)

Wer jetzt wieder denkt da sei alles zu hoch, der sollte mal überlegen was vor 7 Jahren so eine PS3 für 599€ lieferte im vergleich zur 399€ PS4. Jetzt alles schwer vorstellbar, aber wer weiß was GF, Samsung für einen durchbruch packen wird 2019/2020.

Coda
2015-01-09, 12:17:17
"2-3x höhere IPC". "nicht übertrieben" :ulol: ;D

Slashman
2015-01-09, 12:24:34
"2-3x höhere IPC" :ulol:

Du lachst, aber ein Haswell Kern hat schon eine doppelt so hohe IPC als ein Jaguar Kern.
1 Haswell Kern ist doch schon so gut wie zwei gleich oder höher getaktete Jaguar Kerne.
Getestet wurde ein i3 Dual Core mit 1,8 GHz gegen den AMD 5200 Jaguar Quad Core mit 2 GHz. Der Intel hat meistens gewonnen. Das bedeutet das Intel wohl eine doppelt so hohe pro Kern/pro MHz Leistung hat.

Jetzt stell dir vor AMDs K12 Architektur/Technik kommt 2016 raus und bis 2020 wird dort noch mal stark was verbessert.

Statt so ein dummes Grinsen zu liefern könntest du ja sagen warum weshalb es schlecht ist. Laut einem Test ist ein i7 mit 3 GHz (ab Sandy Bridge Quad Core) so gut wie ein AMD Bulldozer 8 Kerner mit 3,5 GHz.

Ihm
2015-01-09, 12:49:08
Du lachst, aber ein Haswell Kern hat schon eine doppelt so hohe IPC als ein Jaguar Kern.
1 Haswell Kern ist doch schon so gut wie zwei gleich oder höher getaktete Jaguar Kerne.
Getestet wurde ein i3 Dual Core mit 1,8 GHz gegen den AMD 5200 Jaguar Quad Core mit 2 GHz. Der Intel hat meistens gewonnen. Das bedeutet das Intel wohl eine doppelt so hohe pro Kern/pro MHz Leistung hat.

Jetzt stell dir vor AMDs K12 Architektur/Technik kommt 2016 raus und bis 2020 wird dort noch mal stark was verbessert.

Statt so ein dummes Grinsen zu liefern könntest du ja sagen warum weshalb es schlecht ist. Laut einem Test ist ein i7 mit 3 GHz (ab Sandy Bridge Quad Core) so gut wie ein AMD Bulldozer 8 Kerner mit 3,5 GHz.

Ich glaube er lacht vor allem über deine doch sehr naiven und wirtschaftsfremden Vorstellungen.
Das finde ich persönlich jetzt nicht so lustig, dass ich darüber lachen müsste, aber ein Schmunzeln, weil das so herrlich süß-naiv ist, konnte ich mir auch nicht verkneifen. :comfort:
Darf ich fragen wie alt du bist?

mironicus
2015-01-09, 13:02:57
Einfache Rechnung: :D
PS3: 512 MB RAM
PS4: 8 GByte RAM
PS5: 128 GByte RAM
PS6: 2 TB RAM

Oder: Keine neue Konsolen mehr, in Zukunft läuft alles über Streaming und man kann jedes Spiel auf jedem Gerät spielen (Handy, Tablet, TV, PC...).

BlackBirdSR
2015-01-09, 13:18:10
die Anzahl an pro Takt ausführbaren Befehlen pro Takt (ipc) ist keine Größe, die sich ähnlich wie Speicherdichte oder Anzahl an Funktionseinheiten mit der Miniaturisierung steigern lässt.

Aktuelle CPUs können theoretisch zwischen 2 und 4 Befehle pro Takt ausgeben. Praktisch ein gutes Stück weniger. Vor 10 Jahren waren es 2-3. Vor 15 Jahren auch...
Aufgrund der hohen Kosten für eine weitere Steigerung bei minimalem Gewinn, wird sich hier nur wenig tun.
Optimierungen zielen darauf ab, den Durchschnitt von 1-1,5 auf 1-1,7 oder 1,3 bis 1,9 anzuheben. Das sind aber keine 2-3x so viel.


Du lachst, aber
ein Haswell Kern hat schon eine doppelt so hohe IPC als ein Jaguar Kern.
1 Haswell Kern ist doch schon so gut wie zwei gleich oder höher getaktete Jaguar Kerne.


Statt so ein dummes Grinsen zu liefern könntest du ja sagen warum weshalb es schlecht ist.

Slashman
2015-01-09, 13:35:43
Ich glaube er lacht vor allem über deine doch sehr naiven und wirtschaftsfremden Vorstellungen.
Das finde ich persönlich jetzt nicht so lustig, dass ich darüber lachen müsste, aber ein Schmunzeln, weil das so herrlich süß-naiv ist, konnte ich mir auch nicht verkneifen. :comfort:
Darf ich fragen wie alt du bist?
Bin 28 Jahre alt (1987 geboren) und nein naiv bin ich nicht oder ist schon 2x IPC unmöglich? Was ist dann mit einem Haswell Kern der ja schon jetzt 2x so schnell ist wie ein Jaguar Kern. Ist es da so unmöglich das AMD diesen Haswell im Jahr 2020 locker übertrifft?

Einfache Rechnung: :D
PS3: 512 MB RAM
PS4: 8 GByte RAM
PS5: 128 GByte RAM
PS6: 2 TB RAM

Oder: Keine neue Konsolen mehr, in Zukunft läuft alles über Streaming und man kann jedes Spiel auf jedem Gerät spielen (Handy, Tablet, TV, PC...).
Ich denke das eine PS6 keine eigene Hardware mehr haben wird, da das dann im Jahr 2027 sein wird. Es wird dann wohl auch unmöglich sein weiter unterhalb von 7nm groß was rauszuholen. 1nm ist ja dann wohl unmöglich zu realisieren.
Ich denke deine Rechnung ist nicht komplett du musst bei der PS1 anfangen und auf PS2 übergehen.

die Anzahl an pro Takt ausführbaren Befehlen pro Takt (ipc) ist keine Größe, die sich ähnlich wie Speicherdichte oder Anzahl an Funktionseinheiten mit der Miniaturisierung steigern lässt.

Aktuelle CPUs können theoretisch zwischen 2 und 4 Befehle pro Takt ausgeben. Praktisch ein gutes Stück weniger. Vor 10 Jahren waren es 2-3. Vor 15 Jahren auch...
Aufgrund der hohen Kosten für eine weitere Steigerung bei minimalem Gewinn, wird sich hier nur wenig tun.
Optimierungen zielen darauf ab, den Durchschnitt von 1-1,5 auf 1-1,7 oder 1,3 bis 1,9 anzuheben. Das sind aber keine 2-3x so viel.

Ich habe schon mal gesagt, das schon jetzt 128 GB RAM module zu kaufen gibt, das es schon jetzt CPUs gibt die pro Kern 2x so schnell sind als in der PS4 verfügbaren Jaguar Kerne. Intel hat den Haswell 2013 auf den Markt gebracht, denkst du nicht das AMD spätestens 7 Jahre später also 2020 locker das Level erreicht selbst bei ihren Low End CPUs...? Man muss mal bedenken, das ARM schon jetzt mit dem Cortex A57 für Handys einen Kern hat der 64Bit und ähnliche Leistung liefert wie der erste 64Bit Intel Dual Core der Conroe/Penryn.

Es ist nichts naives dran 2-3x höhere IPC zu erwarten wie ein AMD Jaguar Kern. Der Intel Haswell bietet ja schon 2x IPC egal ob als i3, i5 oder i7. 2016 kommt AMDs K12 Architektur als Nachfolger vom Bulldozer und ich rechne mit Haswell Leistung. Bis 2020 sollte diese High End Leistung auch bei AMDs Low End CPUs ankommen.

RLZ
2015-01-09, 13:58:44
Es wird dann wohl auch unmöglich sein weiter unterhalb von 7nm groß was rauszuholen.
ASML hat 3nm schon für 2021 auf der Roadmap.
Intel hat 5nm Produkte für 2018 auf der Roadmap.

(Die Zahlen haben eh keine wirkliche Bedeutung mehr)

Slashman
2015-01-09, 14:17:55
ASML hat 3nm schon für 2021 auf der Roadmap.
Intel hat 5nm Produkte für 2018 auf der Roadmap.

(Die Zahlen haben eh keine wirkliche Bedeutung mehr)

Was Intel, ASML auf dem Plan haben ist ja egal. Das was GF, AMD und TSMC 2020 in massen Produzieren können ist wichtig und ich denke die PS5 wird nur in 7nm gefertigt und auch wenn dann schon 5/6nm verfügbar wäre.

Und pläne von Roadmaps werden immer seltener eingehalten, das merkt man an den verschiebungen. Daher ist Broadwell auch nicht 2014 raus gekommen wie einst geplant und auch 2015 sieht bisher eher nach mitte des jahres aus.

Snafu
2015-01-09, 16:33:17
Ich habe schon mal gesagt, das schon jetzt 128 GB RAM module zu kaufen gibt...



Schau doch mal die Preisentwicklung von RAM die letzten Jahre an. Die Preise sind relativ stabil. Mit DDR4 könnten auf lange sicht der Preis pro GB fallen aber ich würde davon nicht zu viel erwarten. 128GB werden 2020 garantiert mehr als 8GB heute kosten. Ein vielfaches würde ich behaupten.
Und wozu sollte man so viel RAM überhaupt benötigen? Die Texturgröße verdoppelt oder verdreifacht sich nicht einfach so.

Zu der CPU Leistung: um den IPC zu erhöhen benötigt man Transistoren/Die-Fläche, Strom und vorallem Geld. Schau dir doch mal die R&D Summen von Intel und AMD an. Wie soll AMD da plötzlich ein Design aus dem Hut zaubern das Haswell IPC hat, in einer Konsole (cirka 150W) bei 3Ghz läuft und so wenig Transistoren benötigt, dass es kostengünstig herzustelllen ist?

Slashman
2015-01-09, 17:14:46
Schau doch mal die Preisentwicklung von RAM die letzten Jahre an. Die Preise sind relativ stabil. Mit DDR4 könnten auf lange sicht der Preis pro GB fallen aber ich würde davon nicht zu viel erwarten. 128GB werden 2020 garantiert mehr als 8GB heute kosten. Ein vielfaches würde ich behaupten.
Und wozu sollte man so viel RAM überhaupt benötigen? Die Texturgröße verdoppelt oder verdreifacht sich nicht einfach so.

Zu der CPU Leistung: um den IPC zu erhöhen benötigt man Transistoren/Die-Fläche, Strom und vorallem Geld. Schau dir doch mal die R&D Summen von Intel und AMD an. Wie soll AMD da plötzlich ein Design aus dem Hut zaubern das Haswell IPC hat, in einer Konsole (cirka 150W) bei 3Ghz läuft und so wenig Transistoren benötigt, dass es kostengünstig herzustelllen ist?

Das 128 GB RAM in der PS5 vorhanden sein wird muss ja auch nicht sein, aber utner 64 GB würde ich meinen liegt der RAM in der PS5 nicht. Und wie teuer oder wie günstig RAM in der zukunft ist kannst du noch nicht wissen. Jetzt ist DDR3 oder DDR4 stabil im Preis, aber wie lange? Bald werden RAM Module kommen mit je 16/32 GB und dann werden die Preise fallen.

Was die IPC angeht von AMD vs Intel CPUs.
Jetzt hat AMD noch kaum was besseres als 28/32nm für ihre CPUs und APUs, aber GF hat schon 14nm in der mache für AMD CPUs und APUs, also sehe ich bei der Transistormenge schon mal kein Problem, da bis 2020 sicher 10 oder 8nm standard ist. Ich glaube ihr macht den Fehler alles so zu sehen als ob 2020 eine Konsole nur in 28/14nm gefertigt wird, dabei steht es ausserfrage das dann 14nm stein alt wirkt.

Ne Frage wieviel mal mehr Transistoren passen in einen 350mm² (ca. PS4 APU größe) in 14nm statt 28nm gefertigten Chip rein...

Antwort:
4x so viele da 14nm 4x so gut ist wie 28nm.

Also schon mit 14nm kann man in der Theorie einen doppelt so guten CPU Teil locker realisieren mit 2x so hohem Takt also gesamt 4x mehr Power.

Ich denke 7nm gefertigt kann eine PS5 in nahezu allem bis zu 16x schneller sein als eine PS4 in 28nm gefertigt.
Simpel gerechnet:
7nm ist bis zu 16x besser als 28nm, da in 7nm Chips bei gleicher Fläche 16x so viele Transistoren passen als in 28nm.

Skysnake
2015-01-09, 17:52:25
Das 128 GB RAM in der PS5 vorhanden sein wird muss ja auch nicht sein, aber utner 64 GB würde ich meinen liegt der RAM in der PS5 nicht. Und wie teuer oder wie günstig RAM in der zukunft ist kannst du noch nicht wissen. Jetzt ist DDR3 oder DDR4 stabil im Preis, aber wie lange? Bald werden RAM Module kommen mit je 16/32 GB und dann werden die Preise fallen.

Doch man kann das relativ gut abschätzen. Das Shrinking bei DRAM ist immer problematischer, weil die Kapazitäten so klein sind, dass du immer wahrscheinlicher einen Bitflip hast, einfach durch Alphastrahlung. Das ist ja auch ein Grund, warum heutzutage Materialien verwendet werden, die sehr wenig Alphastrahlung haben.


Ne Frage wieviel mal mehr Transistoren passen in einen 350mm² (ca. PS4 APU größe) in 14nm statt 28nm gefertigten Chip rein...

Antwort:
4x so viele da 14nm 4x so gut ist wie 28nm.

Also schon mit 14nm kann man in der Theorie einen doppelt so guten CPU Teil locker realisieren mit 2x so hohem Takt also gesamt 4x mehr Power.

Ja klar, die Leistung einer CPU berechnet sich in Transistoren, die man dafür verwendet :facepalm:

Nur weil man x mal mehr Transistoren hat, geht noch lange nicht die Leistung der CPU hoch. Gerade bei Sinkle-Thread-Leistung, was du ja die ganze Zeit ansüprichst, kannste aus mehr Ressourceneinsatz nichts holen, wenn der Code eben nicht so viel Parallelität hergibt. Vor allem wird das immer ineffizienter. Du musst immer mehr Aufwand betreiben, um immer kleinere Verbesserungen zu erreichen. Das wurde dir jetzt aber schon mehrfach gesagt...

Wenn man sich die aktuellen Konsolen anschaut, könnte man zwar sicherlich die Taktrate verdoppeln, aber es würde absolut keinen Sinn machen. Die Transistoren geben das sehr wahrscheinlich nicht her, ohne das man die CPUs zu ziemlichen Säufern machen würde. Falls es dir aber nicht aufgefallen ist, Perf/W ist ausschlaggebend, nicht Maximalperformance....

So hohe Taktraten wird man daher wohl auch kaum in der PS5 finden. CMOS Logik wird bei mehreren GHz einfach zum absoluten Säufer. Dann musste aber auf CML oder sonst was umsteigen, und da haste halt den hohen statischen Stromverbrauch, oder du musst eben massiv Power/Clockgating usw machen.


Ich denke 7nm gefertigt kann eine PS5 in nahezu allem bis zu 16x schneller sein als eine PS4 in 28nm gefertigt.
Simpel gerechnet:
7nm ist bis zu 16x besser als 28nm, da in 7nm Chips bei gleicher Fläche 16x so viele Transistoren passen als in 28nm.
.... :facepalm:
Wie kommste denn darauf? Wenn du keine Ahnung hast, dann lass es einfach...

Nur weil du bei minimalen Transistoren x mal mehr drauf bekommst, dann wird das nicht x mal besser, sondern VIEL weniger. Transistoren weit unter 1µm Länge skalieren immer schlechter. Die Dinger werden einfach immer beschissener bzgl. ihren Leistungsdaten. Zudem steigt die Kapazität der Interconnects relativ zu den Transistoren immer stärker an, der Gewinn ist also noch kleiner als man denkt.

Wir sind nicht 1990, wo die Welt noch quasi ein Ponnyhof war, und wir noch massig Luft nach unten hatten. Heutzutage kratzte überall an den physikalischen Limits rum. Die fliegt quasi ständig was um die Ohren, und das wird nicht mehr besser, sondern nur noch schlimmer....

Slashman
2015-01-09, 18:05:35
Doch man kann das relativ gut abschätzen. Das Shrinking bei DRAM ist immer problematischer, weil die Kapazitäten so klein sind, dass du immer wahrscheinlicher einen Bitflip hast, einfach durch Alphastrahlung. Das ist ja auch ein Grund, warum heutzutage Materialien verwendet werden, die sehr wenig Alphastrahlung haben.


Ja klar, die Leistung einer CPU berechnet sich in Transistoren, die man dafür verwendet :facepalm:

Nur weil man x mal mehr Transistoren hat, geht noch lange nicht die Leistung der CPU hoch. Gerade bei Sinkle-Thread-Leistung, was du ja die ganze Zeit ansüprichst, kannste aus mehr Ressourceneinsatz nichts holen, wenn der Code eben nicht so viel Parallelität hergibt. Vor allem wird das immer ineffizienter. Du musst immer mehr Aufwand betreiben, um immer kleinere Verbesserungen zu erreichen. Das wurde dir jetzt aber schon mehrfach gesagt...

Wenn man sich die aktuellen Konsolen anschaut, könnte man zwar sicherlich die Taktrate verdoppeln, aber es würde absolut keinen Sinn machen. Die Transistoren geben das sehr wahrscheinlich nicht her, ohne das man die CPUs zu ziemlichen Säufern machen würde. Falls es dir aber nicht aufgefallen ist, Perf/W ist ausschlaggebend, nicht Maximalperformance....

So hohe Taktraten wird man daher wohl auch kaum in der PS5 finden. CMOS Logik wird bei mehreren GHz einfach zum absoluten Säufer. Dann musste aber auf CML oder sonst was umsteigen, und da haste halt den hohen statischen Stromverbrauch, oder du musst eben massiv Power/Clockgating usw machen.


.... :facepalm:
Wie kommste denn darauf? Wenn du keine Ahnung hast, dann lass es einfach...

Nur weil du bei minimalen Transistoren x mal mehr drauf bekommst, dann wird das nicht x mal besser, sondern VIEL weniger. Transistoren weit unter 1µm Länge skalieren immer schlechter. Die Dinger werden einfach immer beschissener bzgl. ihren Leistungsdaten. Zudem steigt die Kapazität der Interconnects relativ zu den Transistoren immer stärker an, der Gewinn ist also noch kleiner als man denkt.

Wir sind nicht 1990, wo die Welt noch quasi ein Ponnyhof war, und wir noch massig Luft nach unten hatten. Heutzutage kratzte überall an den physikalischen Limits rum. Die fliegt quasi ständig was um die Ohren, und das wird nicht mehr besser, sondern nur noch schlimmer....

1. Ein besser Ton wäre mal nett^^
2. Eine Post über meiner war einer der meinte es kommt auch auf Transistoren an.
3. Dann sag mal wie viel besser ist den 14nm im vergleich zu 28nm?
Also von 40nm zu 28nm ist der Chip auch mehr als 2x so klein geworden:
Cypress (RV870) ist 2,15mrd Transistoren schwer und 334mm² groß in 40nm.
Bonaire ist 2,08mrd Transistoren schwer und nur 160mm² groß weniger als die hälfte.
4. Dann wiederlege doch mal alles ohne dabei wie ein Arsch zu wirken^^ Wäre nett wenn du erklärst warum eine GPU in 7nm nicht 16x besser sein kann als eine 28nm GPU.

Also ich denke wenn die PS4 APU in 7nm gefertigt wird könnte die CPU pro Takt 2x so schnell sein und gleichzeitig eine 12-16x schnellere GPU beinhalten. Warum auch nicht?

Und da dumme kommentare und nervige Icons zu blöd wird lass ich euch mal alleine weiter reden. Wollte nur Diskutieren, aber wenn PC Spieler heutzutage nur noch Leute als naiv, dumm und kindisch sehen weil man kein Fachmann/Experte/Dr. Professor Heinztrottel ist^^, dann bin ich raus... Viel spaß noch.

DinosaurusRex
2015-01-09, 18:24:15
1. Ein besser Ton wäre mal nett^^
(...)
4. Dann wiederlege doch mal alles ohne dabei wie ein Arsch zu wirken^^

http://www.reactiongifs.us/wp-content/uploads/2014/01/good_luck_morgan_freeman.gif

Skysnake
2015-01-09, 18:51:27
1. Ein besser Ton wäre mal nett^^

Dir wurde jetzt von mehreren Leuten versucht klar zu machen, dass das total unrealistisch ist, was du dir da ausmalst. Anstatt dir das mak zu Herzen zu nehmen, wischst du es einfach beiseite und machst weiter. Da kommt man sich etwas vereppelt vor... es sollte einen nicht wundern, wenn dann auch mal die Holzhammermethode ausgegraben wird.


2. Eine Post über meiner war einer der meinte es kommt auch auf Transistoren an.

Ja, woher soll das auch sonst kommen? Aus Luft und Liebe? Oder weil die bisher zu dumm waren CPUs zu bauen, und den totalen Rotz gemacht haben?

Klar braucht man Transistoren dazu. Halt MEHR, und zwar nicht nur ein bischen mehr, sondern VIEL VIEL mehr. Schau dir doch mal an, wie groß ein Core ix Kern ist, und wie groß einer in den aktuellen Konsolen. Da liegt so manches dazwischen.


3. Dann sag mal wie viel besser ist den 14nm im vergleich zu 28nm?

Frag bei TSMC/GF/UMC/Samsung oder von mir aus auch Europractice nach, leg nen paar Milliönchen auf den Tisch und unterschreib ein NDA, dann steckste noch nen paar Wochen/Monate Arbeit rein und "schon" weiste selbst wieviel besser 14nm im Vergleich zu 28nm ist.

Schau dir einfach das (http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0CCgQFjAA&url=http%3A%2F%2Fwww.kps.or.kr%2Fhome%2Fkor%2Fjournal%2Flibrary%2FdownloadPdf.as p%3Farticleuid%3D%257B76587927-8BCE-4E87-BB46-FA65F1C2A77E%257D&ei=4RGwVMqhNoa8PbLVgMgF&usg=AFQjCNF2GRJvTovwtAlJfLlWldMKvQS9Ag&bvm=bv.83339334,d.ZWU&cad=rja) und dann noch das (http://www.csit-sun.pub.ro/courses/vlsi/VLSI_Darmstad/www.microelectronic.e-technik.tu-darmstadt.de/lectures/winter/vlsi/vorlesung_pdf/chap03.pdf) an.

Wenn du das kapiert hast, googelste mal noch nach PVT-Variation, aging, CMOS&-CML-Logik, Power-Supply induced jitter, substatnoise, guardrings, crosstalk, selfbiasing technics und vielleicht noch etwas über wiring/interconnect capacity. Das dürfte für den Anfang ausreichen, um zu verstehen, warum man zwar nicht sagen kann wie genau die Performance von zwei Prozessen aussieht, aber einem klar ist, dass die Vorteile mit jedem neuen Prozess immer kleiner werden, die man erhält.


Also von 40nm zu 28nm ist der Chip auch mehr als 2x so klein geworden:
Cypress (RV870) ist 2,15mrd Transistoren schwer und 334mm² groß in 40nm.
Bonaire ist 2,08mrd Transistoren schwer und nur 160mm² groß weniger als die hälfte.

Und? Steriles Transistorzählen ist völlig irrelevant heutzutage. Im Endeffekt hat es keine Bedeutung mehr, ob da jetzt 2 oder 3 Mrd. stehen, weil gar nicht mehr klar ist, was denn da überhaupt gezählt wird.


4. Dann wiederlege doch mal alles ohne dabei wie ein Arsch zu wirken^^ Wäre nett wenn du erklärst warum eine GPU in 7nm nicht 16x besser sein kann als eine 28nm GPU.

Siehe oben.
Aber noch ein Gegenvorschlag. Wie wäre es, wenn du deine Gesprächspartner mal etwas ernst nehmen würdest, und nicht einfach aus dem Bauch heraus irgendwelche Sachen postulierst. Wenn einem schon von mehreren Seiten gesagt wird, dass das so nicht stimmt, dann sollte man sich vielleicht mal fragen warum denn nicht, und schauen, wieviel man denn überhaupt weiß, anstatt sich hin zu stellen, und zu sagen DOCH DAS IST SO!


Also ich denke wenn die PS4 APU in 7nm gefertigt wird könnte die CPU pro Takt 2x so schnell sein und gleichzeitig eine 12-16x schnellere GPU beinhalten. Warum auch nicht?

Gegenfrage:
Warum denn doch?

mboeller
2015-01-09, 19:57:44
Kann sein das 128 GB RAM etwas viel erscheint, aber unter 64 GB ist echt zu wenig. Man muss das so sehen wir reden von 7 Jahren nach PS4 Start. Jetzt erscheint uns 64-128 GB RAM als viel, aber in 7 Jahren mit sehr modernen Prozessen oder Techniken ist das nicht mehr viel.



Antworte ich mal ein wenig konstruktiv:

1) wieviel soll den diese PS5 verbrauchen? 1KW? 2KW? oder gleich 5KW? [nicht ganz ernst gemeint, aber bei den Specs bestimmt >>500W und damit unerträglich laut und sehr schwer zu kühlen, wenn du nicht gleich einen Big-Tower benutzen willst]

2) schon mal was von "dark silicon" gehört? Wenn nicht lese dich mal ein, dann kennst du wenigstens schon einen Grund warum hier jeder so "nett" auf deine Ideen reagiert.

megachip800
2015-01-09, 23:23:40
Antworte ich mal ein wenig konstruktiv:

1) wieviel soll den diese PS5 verbrauchen? 1KW? 2KW? oder gleich 5KW? [nicht ganz ernst gemeint, aber bei den Specs bestimmt >>500W und damit unerträglich laut und sehr schwer zu kühlen, wenn du nicht gleich einen Big-Tower benutzen willst]

2) schon mal was von "dark silicon" gehört? Wenn nicht lese dich mal ein, dann kennst du wenigstens schon einen Grund warum hier jeder so "nett" auf deine Ideen reagiert.

Asus kann in seinem neuen Notebook eine I4700 mit einer GTX980m verbauen die ja wohl nur 30% langsamer sein soll als die Desktopvariante. Ok wie die Lebensdauer von dem Teil sein wird steht auf einem anderen Blatt aber es geht. Für die NextNext Konsolen wünsche ich mir Chips mit größeren Die-Flächen , gekühlt werden muß so oder so. Außer wenn die nächste Generation eine Streambox für Cloudspiele wird dann brauch man natürlich nicht solche leistungsfähigen Prozessoren. 16 Gbyte ram würden mir ausreichen , dafür aber mal wieder ein ultraschnelles Bussystem. Das müßte dann auch eine APU der 4. Generation sein wo CPU und GPU quasi miteinander verschmolzen sind und nicht wie bei den jetzigen Apus wo die Prozessoren intern noch getrennt sind.

Snafu
2015-01-09, 23:51:23
Asus kann in seinem neuen Notebook eine I4700 mit einer GTX980m verbauen die ja wohl nur 30% langsamer sein soll als die Desktopvariante.

Notebook Hardware kann man schlecht mit Konsolen vergleichen. Die Chips werden gebinnt und nur die besten kommen in High-End Notebooks.
Man muss aber Millionen von Konsolen Chips liefern und braucht deshalb eine hohe Yield Rate. Viele Konsolenchips dürften also eine höhere Spannung haben als sie eigentlich bräuchten.

Tesseract
2015-01-10, 00:01:17
Einfache Rechnung: :D
PS3: 512 MB RAM
PS4: 8 GByte RAM
PS5: 128 GByte RAM
PS6: 2 TB RAM

die PS4 war mit 4GB geplant ist nur durch günstiges timing in letzter sekunde auf 8GB umgestellt worden. die 8GB waren für ein gerät dieser leistungklasse überaus großzügig, selbst verglichen mit vielen PCs. die PS3 hingegen war schon damals ein speicherkrüppel. wenn sich nicht grundlegend etwas an der fertigungstechnik ändert oder der lebenszyklus länger wird werden wir so einen sprung wohl nichtmehr so schnell sehen.

drkohler
2015-01-10, 00:05:35
3. Dann sag mal wie viel besser ist den 14nm im vergleich zu 28nm?
Also von 40nm zu 28nm ist der Chip auch mehr als 2x so klein geworden:
Cypress (RV870) ist 2,15mrd Transistoren schwer und 334mm² groß in 40nm. Bonaire ist 2,08mrd Transistoren schwer und nur 160mm² groß weniger als die hälfte.
4. Dann wiederlege doch mal alles ohne dabei wie ein Arsch zu wirken
Also ich fasse mal deine Argumentationsliste zusammen:
1. Jeder, der mir widerspricht, ist ein Arsch
2. Ich habe keine Ahnung von Chipdesign, aber meine Wunschzahlen müssen einfach richtig sein, sonst siehe 1.

Dein Wunschdenken in die Realität zu übersetzen würde Stunden und mehrere Foumsseiten füllen. Aber nur mal zum Nachdenken:

1. Deine naive "Verkleinerungsformel" 14nm = 1/4 so gross wie 28nm. Schau mal wie gross der Cell-Prozessor bei den Shrinks war. Du wirst sehen, es geht exakt linear zu und her, also 65nm = halb so gross wie 32nm (auch mit 40nm stimmt es genau, wurzel 2 mal). Das sollte dir zeigen, dass da wohl etwas Technisches Probleme macht (das Technische kann man dann überschlagsmässig mit Quantenphysik zusammen fassen bei den kleinen Strukturgrössen. Die Quantenphysik sorgt z.B. dafür, dass deine Leckströme durch die Decke gehen).

2. Mach dir klar, dass diese 8/14/20/22/28 Zahlen REINE Marketingzahlen sind. In einem 22nm Intel-Prozessor ist NICHTS, aber auch wirklich NICHTS 22nm gross, weder ein Bauteil noch eine Leitung (die kleinste Struktur ist glaube ich um 74nm, soweit ich mich erinnere, war vor Kurzem ein Vortrag eines Intel-Gurus). Das Gleiche gilt für alle anderen Chips anderer Hersteller (das spielt letzten Endes auch in 1. hinein, kein Schwein weiss, was Alles wirklich verkleinert wurde in den Chips).
Es gibt technische Grenzen in der Chipfertigung die nur mit sehr viel Geld und Zeitaufwand zu umgehen oder zumindest zu mindern sind. Intel hat sehr viele Jahre gebraucht um erste 22nm Chips kostengünstig hinzubekommen - und Intel ist den anderen Chipfoundries z.T um Jahre voraus (auch weil sie durch hohe Margen die R&D Abteilungen bezahlen können). Dieser Vorsprung ist nicht kleiner geworden, erwarte demnächst deshalb Nichts von TSMC in 14nm und schon gar nichts von GF (ausser evtl. low power Zeug für Handys)

3. Kunden bezahlen zweimal für einen Konsolen-Chip, das erste Mal bis ein Prototyp läuft, das zweite Mal bei der Massenfertigung.

Für deinen Prototyp durchläufst du mehrere Maskenversionen und mit Sicherheit mehrere Nieten, bis es funktioniert. Masken für um 10nm dürften so $20mio kosten (pro Version), einige Testwaver mit Yield > 0 auch einige Millionen.
Das Entwicklungbudget geht dir also schon wieder durch die Decke. Das ist Gift für Konsolenhersteller, speziell wenn man nicht wirklich Geld ausgeben kann (Sony, aber auch Nintendo ist sehr konservativ in dieser Hinsicht).

Für deine Massenfertigung zahlst du dann den Chip pro Transistor, die Fläche ist nicht mehr so wichtig. Die Kosten pro Transistor sind JETZT bei 28nm im Tal angekommen und werden deutlich höher sein bei den extremen Strukturbreiten (soweit man den Daten von den Foundries glauben darf). Da wird sich auch in ein par Jahren nichts änderen, Alles wird einfach schweineteuerer als jetzt, weil überall "besseres Material" verwendet werden muss. Einfach gesagt: Du willst einen viermal so schnellen Chips - du blechst viermal soviel.
Dein Ram bezahlst du im Wesentlichen auch pro Transistor, und 128GB Transistoren sind halt einfach x mal so viel wie vernünftige 16GByte.

Also zusammengefasst: deine Wunschkonsole würde sicher weit über 1000 Euro kosten (die Raumkühlung nicht inbegriffen). Das zahlt Keiner.

PrefoX
2015-01-10, 07:35:43
die PS4 war mit 4GB geplant ist nur durch günstiges timing in letzter sekunde auf 8GB umgestellt worden. die 8GB waren für ein gerät dieser leistungklasse überaus großzügig, selbst verglichen mit vielen PCs. die PS3 hingegen war schon damals ein speicherkrüppel. wenn sich nicht grundlegend etwas an der fertigungstechnik ändert oder der lebenszyklus länger wird werden wir so einen sprung wohl nichtmehr so schnell sehen.
ist doch scheiss egal wie es zustande gekommen ist, es war immer 16x mehr als beim Vorgänger.

PS1:2mb
PS2:32mb
ps3:512mb
ps4:8gb

IMMER das 16x.

Und wenn man so will, dann hat die PS3 nur 256mb gehabt, die PS4 sollte nur mit 4GB kommen, wäre auch das 16x gewesen, natürlich ist dann vorher der Wurm drin : )
und ich versteh auhc nicht das hier alle lachen wegen 2-3xer IPC, das doppelte ist heutzutage doch schon möglich... was erzählt ihr denn da bitte. Er hat nicht gesagt das die IPC eines Haswell verdreifacht wird, sondern die eines Jaguar cores

Skysnake
2015-01-10, 09:41:54
Wie schoneinmal gesagt, dann Vergleich doch mal bitte einen Haswell core mit einem Jaguar Core...

Ein Haswell Core brauch ~13mm² ohne L3, dagegen braucht ein Jaguar nur 3,1mm² ohne den L2, und dabei sei bitte bedacht, das Haswell in 22nm und Jaguar in 28nm gefertigt wird.

Für die doppelte IPC braucht Intel also nach eurer geradliniegen Denke also weit mehr als 4 mal so viele Transistoren, um auch nur eine doppelte IPC zu erreichen. Das ist unwirtschaftlich, wenn man sich anschaut, für was die Konsolen eben genutzt werden.

DinosaurusRex
2015-01-10, 10:49:47
PS1:2mb
PS2:32mb
ps3:512mb
ps4:8gb

IMMER das 16x.


Wenn es Sony mit dem Morpheus wirklich ernst meint, würde eine PS5 doch sicher eher auf eine möglichst hohe RAM-Geschwindigkeit, als auf einen großen RAM Pool ausgerichtet sein, um damit eine große Anzahl ROPs bestmöglich zu versorgen. Unter Umständen könnten wir dann tatsächlich eine andere Designphilosophie erleben, bei dem der Fokus nicht so stark auf der Menge der zur Verfügung stehenden Ressourcen liegt, sondern vielmehr auf der Qualität derselben.

Wie groß müsste denn ein kleiner aber extrem schneller stacked-RAM Pool minimal sein, um damit 4k in VR zu ermöglichen? Würden 512MB ausreichen? Wenn dieser Pool dann ausreichend TeraBytes pro Sekunde schaufeln könnte und das auch mit einer möglichst niedrigen Latenz, wäre mit einer entsprechenden GPU auch 4K VR drin. Die CPU würde noch mehr zurückgestellt als jetzt und die bauen dann sicher noch einige fixed-function Dinge ein, damit das ganze Tracking, 3D-Audio usw so schnell wie möglich wird. Es würde mich auch nicht wundern, wenn ein oder zwei große und schnelle CPU-Kerne dann um viele kleine ergänzt werden würden, also zb 8 Kerne mit 2Ghz und 1 Kern mit 4Ghz oder sowas, einfach weil VR auch entsprechende Framerates benötigt und da nix ausbremsen darf.

Und ab Werk wird das Teil dann mit einer 2TB SSD ausgeliefert! :naughty:

drkohler
2015-01-10, 11:19:03
die PS4 war mit 4GB geplant ist nur durch günstiges timing in letzter sekunde auf 8GB umgestellt worden. die 8GB waren für ein gerät dieser leistungklasse überaus großzügig, selbst verglichen mit vielen PCs. die PS3 hingegen war schon damals ein speicherkrüppel. wenn sich nicht grundlegend etwas an der fertigungstechnik ändert oder der lebenszyklus länger wird werden wir so einen sprung wohl nichtmehr so schnell sehen.Ich bin mir da wirklich nicht sicher, ob Sony nicht sehr bald in der Designphase mit 8G gerechnet hat (natürlich hat man das nicht kommuniziert, nicht mal intern die Hierarchieleiter hinauf, MS hörte ja wohl mit..). Du kannst nicht "überraschend" 100-200 Millionen Ramchips ersetzen durch neue Chips, wenn du nicht weisst, dass es diese Chips geben wird und in Massen verfügbar sind zum "richtigen" Zeitpunkt.

Dieses "nächstes Mal wieder 16* mehr Ram" Gerede schiest auch am Ziel vorbei. Wieviel Ram in eine Konsole geht wird vom Bedarf bestimmt. Wieviel verbrauche ich jetzt, oder später mit den Zusatzgimmicks, für das OS? Wieviel Code braucht ein durchschnittliches PC-Spiel? Wieviel Daten (Grafik,Pgm) braucht ein durchschnittliches PC-Spiel? Was wird wohl in 2-3 Jahren ein durchschnittliches Spiel brauchen?
Als die neuen Konsolen geplant wurden, war man auf dem PC auf 2GB beschränkt plus grob 1GB Grafikspeicher (und das OS der gängigen Konsolen war kümmerliche 30-40MB goss). Eine Planung mit 3G Spiel+1G OS war deshalb vernünftig, eine Konsole mit 8G schon "genug für Jahre" tauglich. (Warum sich Nintendo mit den mickrigen 1GB in der WiiU durchzuschummeln versucht ist aber schon arg merkwürdig).
Was willst du also mit 128G Ram in einer Konsole? Ein 32GB grosses OS? Spiele mit 64GB Code und 64GB Daten? Völlig bizarr (von den Ladezeiten mal völlig abgesehen).

DinosaurusRex
2015-01-10, 11:26:37
Wie stehen denn eigentlich die Chancen, dass die neuen Konsolen eine fixed-function Raytracing Unit in das SoC integrieren? Dann hätte der Dev doch schonmal Dinge wie Transparenz, Schatten, Reflektionen und Refraktionen in viel höherer Qualität und zu sehr geringen Kosten.

Mark Cerny meinte ja mal, dass die Entwickler davor strengstens gewarnt hätten... Man müsste die Engines dann zu sehr umbauen und das würde vor allem kleinen Studios das Genick brechen und so weiter.

---

Also die Idee ist sicher gar nicht so verkehrt, oder? Bei einem 4K Target (das für VR sehr, sehr viel Sinn macht) werden die Konsolenhersteller sicher alles dafür tun, nicht ins ALU-Limit zu laufen. Gerade diese immer größer werdende Problematik mit den Node Shrinks dürfte genau dafür nämlich eine große Barriere darstellen. Speicherbandbreite dürfte hingegen weniger das Problem darstellen, einfach weil mit Stacking eine technologische Evolution vor der Tür steht. 4K ist dementsprechend potenziell möglich. Um zu verhindern, dass man bei 4K keinen Grafiksprung mehr schafft, einfach weil keine Rechenleistung für moderne, komplexe Algortithmen mehr übrig ist, wäre so ein fixed-function Raytracer doch die perfekte Lösung.

Daher mein Vorschlag für eine PS5:

1-2 schnelle CPU-Kerne mit bis zu 4Ghz -> verhindert niedrige Framerates
8-12 kleine CPU-Kerne mit bis zu 2Ghz -> reduziert TDP, niedrige Die-Fläche
Mittelklasse-GPU mit ausreichend ALUs, TMUs, ROPs für 4K und integriertem Raytracer -> ermöglicht schicke Grafik mit hoher Auflösung
Fixed-function Units für Tracking und Audio -> Entlastet die CPU, für VR unverzichtbar
512MB stacked RAM mit mehr als 2TB/s -> Yay!
32GB RAM mit mehr als 200GB/s -> Oder?
Optisches Laufwerk -> 100%ig wieder mit an Board
2TB SSD -> Wäre sehr cool

150W TDP und $399 Preis

Tesseract
2015-01-10, 15:33:54
raytracing ist extrem ineffizient, ganz besonders mit steigender auflösung. außerdem kommen refraktionen, reflexionen usw. in der praxis sehr selten vor und von hoher qualität kann auch keine rede sein - wenn man nicht sehr aufpasst fängt man sich mit raytracing sehr schnell böses aliasing sein.

keine ahnung warum immer wieder das thema raytracing aufkommt. das hat sich aus gutem grund nicht durchgesetzt und wirrd selbst im offline rendering kaum noch eingesetzt soweit ich weiß. raytracen kannst du vielleicht selektiv kleine teile der renderpipeline wo es einen vorteil hat, aber ansonsten gibt es effizientere lösungen.

ist doch scheiss egal wie es zustande gekommen ist, es war immer 16x mehr als beim Vorgänger.
ist es natürlich nicht wenn du prognosen über die zukunft machen willst. wenn du die konsolen mit den damals erhältlichen PCs vergleichst hat die PS4 eine überdurchschnittliche speichermenge aber eine unterdurchschnittliche rechenleistung. die PS3 hätte locker schon 1GB speicher haben können.

DinosaurusRex
2015-01-10, 15:53:51
Ich bin von dieser Hybridlösung ausgegangen, wie sie PowerVR letztes Jahr vorgestellt hat.

Das hier:

LyH4yBm6Z9g

http://techreport.com/r.x/2014_3_18_PowerVR_Wizard_brings_raytracing_to_realtime_graphics/new-block.png

Erklärung

dedicated ray tracing data master that feeds ray intersection data to the main scheduler, in preparation for shaders to run, which evaluate the ultimate data contribution from the ray.
specialized Ray Tracing Unit (RTU) which uses fixed-function math to perform ray tracing intersection queries, in addition to gathering ray coherency in order to reduce power and bandwidth consumption.
scene hierarchy generator to speed up dynamic object updates.
frame accumulator cache that provides write-combining scattered access to the frame buffer.


Ich glaube John Carmack (der wird ja immer wieder so gerne zititert) hat das öffentlich sehr gelobt.

Könnte man mit sowas in einem next-gen SoC genug Last von den ALUs nehmen, um 4k VR zu ermöglichen?

RLZ
2015-01-10, 16:12:40
Könnte man mit sowas in einem next-gen SoC genug Last von den ALUs nehmen, um 4k VR zu ermöglichen?
Wieso sollte das überhaupt Last von ALUs nehmen?

DinosaurusRex
2015-01-10, 16:18:41
Wieso sollte das überhaupt Last von ALUs nehmen?

Irgendwas wird der Prozessor in der Raytracing Unit ja berechnen, oder nicht? :tongue: Und wir reden hier ja über Aufgaben, die auch in aktuellen Spielen anfallen und daher ohne diese Raytracing Unit berechnet werden müssen.

Ich kann deine Frage nicht beantworten, denn ich bin nicht vom Fach. Alles was ich weiß, habe ich mir selber beigebracht. Mein Gedankengang war jetzt so, dass ein geringerer Ertrag und steigende Kosten bei Node Shrinks ja der potenziellen Rechenleistung zukünftiger GPUs im Wege stehen. Bandbreite dürfte hingegen genug vorhanden sein in den next-gen Konsolen. 4K ist also auf jeden Fall möglich in einer PS5, allerdings wäre damit bei einem klassischen GPU-Design gar kein oder nur ein sehr geringer Grafiksprung möglich, da komplexere Shader hauptsächlich ALU-limitiert sind. Eine PS5 würde unter solchen Umständen (4k @ VR-tauglichen Framerates) nur sehr einfache Shader ausführen können.

Meine Frage daher: Kann so eine Raytracing Unit die ALUs für die in dem Video aufgeführten Berechnungen entlasten? Ja oder nein?

außerdem kommen refraktionen, reflexionen usw. in der praxis sehr selten vor

Das ist eine Henne-Ei-Frage. Bei Computergrafik, ganz gleich ob CGI oder Echtzeit, gibt es das Phänomen, dass der Inhalt sich immer nach den technischen Möglichkeiten richtet. Warum schmilzt der Terminator? Weil man es konnte. Warum fliegen in jedem current-gen Spiel die ganze Zeit Funken durch die Gegend? Weil man es kann. Warum wird der Spieler die ganze Zeit mit Lens Flare genervt? Usw. Wenn man diese Effekte haben kann, wird man sie auch einsetzen.

---

Hier ist eine Erklärung zu dem von mir weiter oben verlinkten PowerVR Raytracer:

The ability of GPUs to claim millions of rays per second is not a new concept. For example a current-generation, desktop-class ray tracer using GPU compute and rendering a very simple scene, resident in a tiny cache, might be able to deliver millions of rays per second in a very simple shading scenario.

However, in 99% of real world cases, those aren’t useful rays; additionally, you would need a power budget upwards of 300W to achieve anything remotely close to the performance that PowerVR Ray Tracing-based hardware achieves.

This is because all GPUs are parallel processing engines: multiple threads all execute the same instruction. This works great for vertex and pixel processing workloads. High coherency between threads is essential for efficiency and non-coherent execution paths (the appearance of divergent branches) results in masked out operations and lost GFLOPS of performance.

Realistic ray tracing typically results in non-coherent processing because of the way light behaves in the real world. Because light scatters everywhere, it is very difficult to maintain coherency between threads performing ray tracing. This is why ray tracing is not a good match for traditional GPU architectures.

This is where PowerVR GR6500 steps in to save the day: the PowerVR Wizard ray tracing GPU provides a budget of 300 million of rays per second in a mobile power envelope and is designed to comfortably sustain real-world applications with highly incoherent rays, enormous scenes, and shaders that execute hundreds of instructions to resolve each ray (not just technical demos.)

The hybrid rendering concept shown at GDC 2014 is the perfect example of how PowerVR Ray Tracing technology can deliver power-efficient, amazing visuals for mobile and embedded applications.

Quelle (http://blog.imgtec.com/powervr-developers/powervr-gr6500-ray-tracing)

drkohler
2015-01-10, 17:32:34
Daher mein Vorschlag für eine PS5:
150W TDP und $399 PreisAuch deine Wunsch-PS5 wäre wohl eher bei 1000 Euro anzusiedeln als bei $399. Deine "Mittelklasse FPU", die locker 4k liefert ist auch für jetzige High-end $1000 Ware immer noch eine mächtige Hürde.
Bedenke auch, je mehr Prozessoren du einbaust, desto komplexer wird die Verwaltung aller Caches, Adressbusse, etc. Die PS4/X1 sind schon ein Alptraum was die ganze Verwaltung betrifft. "Einfach zwei Einheiten Jaguar in den SoC, das war kostengünstig im Design" - und dann das absolute Puff mit Cache-Kohärenz usw.
Jeder hat wohl eine Wunschvorstellung für eine nächste PS4/X1, die aber schon im Ansatz an den Preisen scheitern würde (auch meine Wunschkonsole, die zwar fundamental anders funktionieren würde, aber auch nicht unter $500 zu drücken wäre).

RLZ
2015-01-10, 17:37:55
Irgendwas wird der Prozessor in der Raytracing Unit ja berechnen, oder nicht? :tongue: Und wir reden hier ja über Aufgaben, die auch in aktuellen Spielen anfallen und daher ohne diese Raytracing Unit berechnet werden müssen.
In einer GPU sind ganz viele andere Dinge, die irgendwas berechnen und nicht zu den "ALUs" gezählt werden.

Ob es in 5 Jahren sinnvoll ist dafür Fixed-Function zu verbauen?
Vielleicht.

Btw. in modernen Spielen wird schon viel mit Raytracing gemacht. Nicht direkt auf der Geometrie, aber im Screenspace und anderen Repräsentationen.

-xai0iBffUc

DinosaurusRex
2015-01-10, 17:41:50
Deine "Mittelklasse GPU", die locker 4k liefert ist auch für jetzige High-end $1000 Ware immer noch eine mächtige Hürde.

Und was ist wenn man die Speicherbandbreite verzehnfacht?

GTX 980 mit 2TB/s Bandbreite bspw.

Tesseract
2015-01-10, 17:49:02
Bei Computergrafik, ganz gleich ob CGI oder Echtzeit, gibt es das Phänomen, dass der Inhalt sich immer nach den technischen Möglichkeiten richtet.
und genau deswegen ist raytracing nicht unbedingt der beste ansatz. die problemfälle für die raytracing prinzipiell gut ist spielen in den meisten szenen eine eher untergeordnete rolle. für nicht-flimmernde schatten braucht man nicht zwangsläufig raytracing.

schau dir einfach mal an wie raytracing in der regel präsentiert wird: fast immer spiegelnde kugeln, viel zu stark spiegelnde autos, durchsichtige schachfiguren usw. weil raytracing in genau diesen situationen optisch beeindruckende szenen liefern kann die man anders fast nicht hin bekommt. in der spiele-realität spielt sowas aber eher selten eine rolle und wenn dann oft nur aus reinem selbstzweck. baut man eine fixed function unit für raytracing ein geht fläche für general purpose units verloren und man ist fast dazu gezwungen x% raytracing zu verwenden und ist in der handlungsmöglichkeit eingeschränkt.

Skysnake
2015-01-10, 17:49:15
Würde das nicht wirklich was bringen, weil die Designs recht ausgeglichen sind. Es limitiert halt NIE nur ein parameter, sondern von Frame zu Frame, oder sogar innerhalb eines Frames immer wieder etwas anderes. Da nur an einer Schraube zu drehen macht nicht wirklich Sinn.

Was nen guten Push geben wird, ist stacked RAM, da sind die Latenzen niedrig, man hat massig Bandbreite, spart dabei auch noch Energie und verbraucht wohl auch noch weniger DIE-space. Das kann man dann halt alles in andere Teile stecken.

Coda
2015-01-10, 17:52:56
Ich denk auch, dass die Bandbreite sicher viel nützen wird. Im Moment ist viel davon limitiert trotz allen Sparmaßnahmen.

DinosaurusRex
2015-01-10, 17:58:24
Ich denk auch, dass die Bandbreite sicher viel nützen wird. Im Moment ist viel davon limitiert trotz allen Sparmaßnahmen.

Coda ist zum ersten Mal auf meiner Seite?! :eek::eek::eek:


http://i.imgur.com/OePzsUm.gif



Ob es in 5 Jahren sinnvoll ist dafür Fixed-Function zu verbauen?


Ja! :)

RLZ
2015-01-10, 18:09:02
Würde das nicht wirklich was bringen, weil die Designs recht ausgeglichen sind.
Ich glaube du verwechselst Ursache und Wirkung.
Das momentene Verhältnis haben wir aufgrund technischer Limitierungen. Die Entwickler haben sich und die Algorithmen darauf angepasst.
Drehe extrem an einer Stellschraube und es wirkt erstmal unausgeglichen. 2-3 Jahre später hat sich das wieder eingependelt und für neue Anwendungen wären die alten Architekturen unausgeglichen.