Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
Deinorius
2011-04-21, 11:07:14
Ich bleibe dabei, ich spiele lieber mit 1080p 1xAA als mit 720p 4xAA.. das halte ich auch so am PC (27", ca. 50cm Abstand)
Ich könnte mich jetzt vor meinen Spiele PC setzen und nachprüfen, ob die zwei Optionen so einen großen Unterschied ausmachen und wenn nicht, wäre die billigere besser, weil man die frei gewordene Rechenleistung auf der Konsole für andere Dinge nutzen könnte. Es ist ja nicht so, als ob man bei Konsolen Rechenleistung brach liegen lässt, zumindest nicht absichtlich. Das muss man ja immerhin mit einberechnen.
Es muss ein Verkaufsargument her.
Der Durchschnittsnutzer kann mit Filtering nciht soviel anfangen wie mit Full HD.
Sony und M$ können es ja gerne versuchen und mal sehen, wie lang es dann dauert, bis sich die Subventionen für die NextGen wieder amortisieren. Aber Nintendo wird FullHD nicht bringen, sie nutzen andere Verkaufsargumente. Sie können zwar leistungsfähiger werden als die Xbox 360/PS3, aber nicht so weit, dass FullHD ginge. Das ist Wunschdenken.
@Ajax
Er meinte doch nur die Auflösung FullHD. Um MSAA gings eigentlich nicht.
...
@Ajax
Er meinte doch nur die Auflösung FullHD. Um MSAA gings eigentlich nicht.
Ja, aber sind wir mal ehrlich. Opa Erwin wird auch die FullHD-Auflösung nicht kennen. Einziger Unterschied wird der Fachverkäufer in dem Falle sein. Der wird ihm das dann als Verkaufsargument anpreisen. Wenn das aber funktionieren würde, dann hättee die Wii nicht diesen Erfolg. Da gibt es aus technischer Sicht wenig Argumente, und dennoch hat sich das Teil wie geschnitten Brot verkauft.
Deinorius
2011-04-21, 11:21:23
Natürlich, aber FullHD kann für einen Teil des Marktes, zumindest für den Core-Markt dennoch als Verkaufsargument funktionieren.
dargo
2011-04-21, 11:35:33
Ich sitz auch ca. 1,5m-2m von meinem 42" weg wenn ich zocke.. MSAA bringt bei vielen Spielen doch kaum noch was, bei BFBC2 flimmern die Bäume trotzdem lustig vor sich hin.. natürlich ist es billiger, aber deswegen imho nicht besser.
Das mit dem MSAA sollte nur ein Beispiel sein. Nenn es von mir aus XXAA. Dass in BFBC2 vieles noch vor sich hin flimmert liegt einfach an der miesen Implementierung von MSAA. Wenn die Entwickler sich von Anfang an Gedanken über vernünftiges AA machen würden sähe es nicht zuletzt dank DX11 ganz anders aus. Aber da die aktuellen Konsolen.... ah, lassen wir das lieber.
Natürlich, aber FullHD kann für einen Teil des Marktes, zumindest für den Core-Markt dennoch als Verkaufsargument funktionieren.
Kann. Natürlich dahingehend gebe ich Dir recht, mir fehlt nur etwas die Definition des Core-Marktes in ca 3 Jahren. Welche Altersgruppe, welche Kaufkraft, welche Vorlieben. Vielleicht verschiebt sich der Core-Markt ja noch viel mehr Richtung mobile und auch den üblichen App-Preisen. Dann wäre der heutige Core-Markt ja der zukünftige HardCore-Markt. :uponder:
Sven77
2011-04-21, 11:41:59
Das mit dem MSAA sollte nur ein Beispiel sein. Nenn es von mir aus XXAA. Dass in BFBC2 vieles noch vor sich hin flimmert liegt einfach an der miesen Implementierung von MSAA. Wenn die Entwickler sich von Anfang an Gedanken über vernünftiges AA machen würden sähe es nicht zuletzt dank DX11 ganz anders aus. Aber da die aktuellen Konsolen.... ah, lassen wir das lieber.
Das mag sein, und bei "neuen" Konsolen dann anders sein.. trotzdem sollten neue Konsolen auf jedenfall 1080p schaffen gern auch mit AA.. MLAA ist für höhere Auflösungen ja nicht mehr wirklich geeignet iirc
dargo
2011-04-21, 11:47:36
Ich bin besonders auf die AA-Implementierung von BF3 gespannt. Da trennt man sich (zumindest am PC) endlich von diesem DX9. Vielleicht kriegen wir da wieder mal vernünftige Kantenglättung geboten. Die Hoffnung stirbt ja bekanntlich zuletzt. :ugly:
LovesuckZ
2011-04-21, 12:34:05
Ich sitz auch ca. 1,5m-2m von meinem 42" weg wenn ich zocke.. MSAA bringt bei vielen Spielen doch kaum noch was, bei BFBC2 flimmern die Bäume trotzdem lustig vor sich hin.. natürlich ist es billiger, aber deswegen imho nicht besser.
Ich bleibe dabei, ich spiele lieber mit 1080p 1xAA als mit 720p 4xAA.. das halte ich auch so am PC (27", ca. 50cm Abstand)
Für Alpha-Test gibt es Adaptive AA.
Aber du hast recht, wenn die Engines so mistig sind wie in Bad Company 2, dann zählt eine deutlich höhrere Auflösung mehr als AA.
dargo
2011-04-21, 12:39:38
Für Alpha-Test gibt es Adaptive AA.
Aber du hast recht, wenn die Engines so mistig sind wie in Bad Company 2, dann zählt eine deutlich höhrere Auflösung mehr als AA.
Wieso? :biggrin:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8685869&postcount=877
Ok... solche Spielchen wie SGSSAA oder Downsampling bleiben PC-Exklusiv. ;)
LovesuckZ
2011-04-21, 12:43:23
Wieso? :biggrin:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8685869&postcount=877
Ok... solche Spielchen wie SGSSAA oder Downsampling bleiben PC-Exklusiv. ;)
SSAA ist der reinste Killer. Wenn man genug Leistung hat, dann ist es ja eine vernünftige Option.
Bad Company 2 unterstützt zwar unter DX1x MSAA, aber auch hier wird nicht alles geglättet. Und nicht jeder schafft Downsampling unter DX1x.
Und dann steht man eben vor einem Dilemmer: Besserer Pfad + native Auflösung + 85% Kantenglättung oder schlechterer DX9 Pfad + Downsampling + 99% Glättung...
Die sollen endlich wieder anfangen vernünftige Engines zu schreiben. Dann reicht auch 720p + AA. Aber 1080p + Blurfilter zur Glättung ist einfach nur pervers...
dargo
2011-04-21, 12:50:14
SSAA ist der reinste Killer.
Natürlich, liefert aber auch das beste Ergebnis.
Bad Company 2 unterstützt zwar unter DX1x MSAA, aber auch hier wird nicht alles geglättet. Und nicht jeder schafft Downsampling unter DX1x.
Auch du schaffst es. :) Ich werde die Tage mal die Anleitung etwas überarbeiten.
Die sollen endlich wieder anfangen vernünftige Engines zu schreiben.
Da sind wir einer Meinung. Wobei ich immer noch nicht glaube, dass man ohne SSAA das gleiche Ergebnis hinbekommt. Muss man aber imo auch nicht. 2x OGSSAA @DS dazu und alles ist wunderbar. 2x OGSSAA ist auch nicht so extrem teuer. Ich habe mich schon so an DS gewöhnt, dass ich es nicht mehr missen möchte. Bei nativ 1920x1080 fehlt mir mittlerweile Bildschärfe in Spielen. 64xAF in Rennspielen ist einfach nur :massa:. Ok... mit 32xAF kann ich auch noch leben. ;)
Ailuros
2011-04-21, 13:53:53
Anstaendiges (ohne Optimierungs-Mist) zumindest 8xAF waere wirklich wuenschenswert bei zukuenftigen Konsolen. Im Gegensatz wird 2xSSAA (was die Fuell-rate betrifft) alles andere als umsonst sein.
Zusaetzlich ist es dann auch stets eine Angelegenheit des Spiel-Entwicklers wie er die vorhandenen Resourcen verteilen will.
Haetten ISVs bzw. Entwickler genuegend Resourcen bei der Entwicklung koennten sie eventuell durchaus an umstaendlichere Sachen wie selektives SSAA denken um die shader die flimmer-anfaellig sind zu bekaempfen. In solch einem Fall kostet Supersampling unter normalen Umstaenden relativ wenig.
Wenn shader aliasing hypothetisch erst mal weg vom Fenster waere, dann reicht 4xRGMS + 8x AF (ohne Optimierungen) und fuer alpha tests noch Transparenz AA dazu vollkommen aus; da wo es aber dann wohl wieder leider zickig werden koennte ist wenn engines auf deferred shading setzen sollten:
http://www.beyond3d.com/content/news/777
SpielKind
2011-04-21, 15:14:05
bin ich mir aber. man kann heute ohne probleme eine leise, relativ kompakte konsole relativ günstig herstellen die deutlich schneller als die PS3/360 ist.
Was ist bei dir relativ?? Die Konsolen kommen aktuell in form der
PS3 slim und Xbox 360 slim mit ~5Liter Volumen daher, im falle
der PS3 mit integrierten NT was die sache nicht einfacher macht.
Ist zwar etwas anders aber:
Hast du mal versucht nen PC mit ~5liter Gehäuse, am besten noch mit NT im Gehäuse aufzubauen?Scheinbar nicht! In der Kiste werden dann mal 100W-150W verbraten welche in allen lagen angenehm leise abzuführen sind, auch in gegenden wo wir mit 40°C
und mal mehr umgebung zu kämpfen haben?? So und dann schauen wir mal
wo wir aktuell mit der Leistungsfähigkeit der PC`s liegen bei 100W-150W verbrauch.
Natürlich lässt sich für spezielle anforderrungen dinge optimieren/spezieller entwickeln , nur wer bezahlt es? ne Konsole für 1000€, bzw. als hersteller über jahre wieder verluste machen an der Hardware?
So einfach wie man sich das vorstellen mag ist das bei leibe nicht, Leistung
auf dem niveau einer GTX460 oder HD5850/6850 incl. akt. Quad bei ~3Ghz (auf irgendeiner seite hier im thread liebäugelte jemand damit zumindest auf gpu basis) in ein 5Liter Gehäuse integrieren und dies funktionell und preislich erschwinglich, sagen wir mal 300-400€ für die konsole, na viel Spaß dabei.
Klein, ohne Probleme, relativ, leise und günstig sind zwar nette worte
deinerseits, aber aktuell noch an der realität vorbei wenn es in leistungsregionen GTS450/HD5770 oder gar GTX460/HD(5/6)850 incl. angemessener fütterrung seitens CPU, gehen soll
Tesseract
2011-04-21, 15:20:22
Microsoft hat erst vor kurzem die XBox 360 slim herausgebracht.
die slim-versionen müssen sich EXAKT gleich verhalten wie die normalen konsolen, d.h. man darf nix an der architektur ändern, selbst dann nicht wenn es performance bringen würde.
das kannst du nicht mit einer neuen konsole vergleichen.
Gutes AA flimmert in 720p immer noch erheblich weniger als natives 1080p ohne AA.
die bessere alternative wäre trotzdem 1080p mit minimalem AA (2x-4x)
Was ist bei dir relativ??
mit gewinn oder zumindest nullsumme pro verkaufter konsole wenn der preis in der nähe bzw. nicht deutlich über der konkurrenz liegt.
Natürlich, liefert aber auch das beste Ergebnis.
nicht pro rechenaufwand. SSAA ist ein holzhammer, wenn man die probleme anders lösen kann - und das kann man - ist SSAA resourcenverschwendung.
basti333
2011-04-21, 16:17:19
Ist zwar etwas anders aber:
Hast du mal versucht nen PC mit ~5liter Gehäuse, am besten noch mit NT im Gehäuse aufzubauen?
Hmm, spontan fällt mir da der MacMini ein, ist zwar noch nicht ganz so Leistungsstark, aber bei einem Volumen von gut einem Liter (schätzung meinerseits, finde auf die schnelle die Abmessung nicht), durchaus vertragbar. Als Privatmensch schafft man das natülrich nicht, das braucht man schon angepasste hardware und ein Team von Technikern, aber das haben ja auch MS und Sony.
Dalai-lamer
2011-04-21, 16:23:43
die slim-versionen müssen sich EXAKT gleich verhalten wie die normalen konsolen, d.h. man darf nix an der architektur ändern, selbst dann nicht wenn es performance bringen würde.
das kannst du nicht mit einer neuen konsole vergleichen.
Bei der XBox haben sie die Grafikeinheit in das CPU Package gepackt und die Fertigungsgröße angepasst und optimiert.
Klar ist es nicht optimal, aber es ist eine gute Größe um das derzeit wirtschaftliche abzuschätzen
SpielKind
2011-04-21, 17:27:26
Hmm, spontan fällt mir da der MacMini ein, ist zwar noch nicht ganz so Leistungsstark, aber bei einem Volumen von gut einem Liter (schätzung meinerseits, finde auf die schnelle die Abmessung nicht), durchaus vertragbar. Als Privatmensch schafft man das natülrich nicht, das braucht man schon angepasste hardware und ein Team von Technikern, aber das haben ja auch MS und Sony.
hat etwa 1,4L Volumen und ist ausgestattet mit CoreDuo und NV 320M,
ich denke das ist auch nicht wirklich das was man sich unter deutlich flotter vorstellt. Desweiteren Spezifiziert für umgebungstemps bis 35°C in Betrieb, was auch deutlich macht das auch hier Kühlungsmäßig am rande operiert wird.
Preise im bereich von 500-600€ (vgl. wie beim kleinsten Asrock Vison3D welcher aber etwas potenter aber auch größer ist ~3l) find ich auch nicht ohne,
zumindest in anbetracht sollte das zielpunkt für ne konsole werden.
Ich will ja auch bei leibe nicht bestreiten das es möglichkeiten gibt oder auch erarbeitet/entwickelt werden können, imo aber nicht so einfach aus dem ärmel geschütelt und nicht für lau
dargo
2011-04-21, 17:29:54
nicht pro rechenaufwand. SSAA ist ein holzhammer, wenn man die probleme anders lösen kann - und das kann man - ist SSAA resourcenverschwendung.
Man kann die Probleme nicht anders lösen beim gleichen Ergebnis. Kannst mir gerne zeigen wie du bsw. 64xAF ohne SSAA realisieren willst. Ich verbinde mit SSAA nicht nur glatteres sondern vorallem auch schärferes Bild.
Palpatin
2011-04-21, 17:59:16
Hmm, spontan fällt mir da der MacMini ein, ist zwar noch nicht ganz so Leistungsstark, aber bei einem Volumen von gut einem Liter (schätzung meinerseits, finde auf die schnelle die Abmessung nicht), durchaus vertragbar. Als Privatmensch schafft man das natülrich nicht, das braucht man schon angepasste hardware und ein Team von Technikern, aber das haben ja auch MS und Sony.
Spontan fallen mir da alle Gaming Laptops ein :) und die haben sogar noch Bildschirm, Tasta und Aku integriert ;D.
Tesseract
2011-04-21, 19:24:15
Man kann die Probleme nicht anders lösen beim gleichen Ergebnis. Kannst mir gerne zeigen wie du bsw. 64xAF ohne SSAA realisieren willst. Ich verbinde mit SSAA nicht nur glatteres sondern vorallem auch schärferes Bild.
natürlich kann man sie anders lösen. es ist überhaupt kein problem 64xAF einzubauen wenn die hersteller das wollen würden. der 3dc filter tester geht sogar zu testzwecken bis 512x über den shader.
die frage ist eher wie sinnvoll werte über 16x überhaupt sind solange texturen nicht massiv besser geworden sind. schärfe in weiter ferne wärend man auf der wand 2m neben einem die blöckchen zählen kann ist so eine sache und dagegen hilft auch kein 1024xSS.
Bei der XBox haben sie die Grafikeinheit in das CPU Package gepackt und die Fertigungsgröße angepasst und optimiert.
Klar ist es nicht optimal, aber es ist eine gute Größe um das derzeit wirtschaftliche abzuschätzen
nicht wirklich. damit kannst du höchstens abschätzen wie weit die 360-architektur noch wirtschaftlicher/sparsamer zu machen ist. mit dem potenzial einer neuen konsole hat das nicht besonders viel zutun.
00-Schneider
2011-04-22, 00:29:49
Neue Gerüchte von IGN
- Der Preis der neuen Konsole soll aufgrund der Herstellungskosten zwischen 350 und 400 Dollar liegen
- Wii 2: Überarbeitete Version des ATI/AMD R700 Grafikprozessor
- Entgegen der Erwartungen soll es keine AMD Fusion Technologie nutzen
- Die Konsole wird den Grafikprozessor der PS3 hinter sich lassen in Sachen Leistung
- Der CPU wird ein spezieller Dreikern PowerPC Chipsatz von IBM sein
- soll hohe Taktraten bieten
- 1080p Ausgabe
- Potential für Stereoskopisches 3D
- Größe der Geräts soll im Bereich der alten Xbox 360 liegen
http://www.consolewars.de/news/32612/igncom_neue_wii_2_geruechte/
san.salvador
2011-04-22, 00:31:02
Klingt nach Xbox 365. :ugly:
Finch
2011-04-22, 00:45:05
das dürfte Portierungen einfach machen
ShadowXX
2011-04-22, 01:20:50
Klingt nach Xbox 365. :ugly:
Genau das dachte ich auch, das ist ja quasi XBox 360 V1.25.
Nightspider
2011-04-22, 03:24:27
Die Zukunft wird so oder so in Richtung FullHD gehen und AA wird man günstig zusätzlich implementieren, mit Techniken, die DX11 ermöglicht. Man sieht ja wo der Trend mit Battlefield 3 und SRAA hingehen könnte. Und mit Glück können es die Konsolenspieler auf dem Wii-Nachfolger genauso genießen wie wir PC Spieler.
Ja die Wii war die Rückständigste Konsole die sie je gebracht haben. Jetzt überlegt mal was die erfolgreichste Konsole von ihnen war ?
Was einzig und allein an der Steuerung und den verblendeten Casuals, deren Großeltern, Eltern, Kinder, Geschwister, Verwandten und den Kliniken lag, die mit der Wii Dicke dünner machen wollte. ;)
Wenn 30% der Wiierianer erneut den Nachfolgenr kaufen (von den Casuals) kann sich Nintendo imho glücklich schätzen.^^
Neue Gerüchte von IGN
http://www.consolewars.de/news/32612/igncom_neue_wii_2_geruechte/
Klingt imho logisch. Dank "nur" 3 Kerne lässt sich der Code leicht portieren und muss nicht erst auf 4-6 Kerne erweitert werden.
Ein abgespeckter R700 mit nur DX10.1 fänd ich schon ziemlich schade, weil alleine DX11 massig Vorteile bringen kann.
Lightning
2011-04-22, 08:31:30
CPU und GPU würden mich nicht wundern. Aber so groß wie die alte 360? Das finde angesichts Nintendos bisheriger Strategie schwer zu glauben. Jedenfalls würde das auf deutlich höhere Hardwareleistung als 360 und PS3 hindeuten.
dargo
2011-04-22, 10:18:37
Werden die Preise eigentlich in Europa 1:1 übernommen oder kann man den Preis in Euro umrechnen? Beim letzteren wären es dann ja nur ca. 275€ was sich nicht teuer anhört.
- Die Konsole wird den Grafikprozessor der PS3 hinter sich lassen in Sachen Leistung
Das ist aber keine große Kunst. :D
- 1080p Ausgabe
Auch eine Nullaussage. Sollen alle Spiele mit Full-HD laufen? Oder wird das wieder so sein wie bei der aktuellen Gen - grafisch anspruchslose Spiele 1080p, die anderen 720p oder sogar drunter?
AnarchX
2011-04-22, 10:23:04
1080p bezieht sich wohl eher auf die Fähigkeiten des HDMI-Ports. Es gibt ja auch Entertainment-Geräte die nur 1080i ausgeben.
dargo
2011-04-22, 10:25:02
1080p bezieht sich wohl eher auf die Fähigkeiten des HDMI-Ports. Es gibt ja auch Entertainment-Geräte die nur 1080i ausgeben.
Achso ok... dann heißt es einfach nur die Konsole wäre technisch in der Lage 1080p auszugeben. Also kann man daran überhaupt keinen Bezug zur Leistungsfähigkeit in Spielen ableiten.
AnarchX
2011-04-22, 10:29:58
Hier wird es ganz auf Nintendo ankommen, ob sie den Entwicklern eine Mindestauflösung und AA-Level vorgeben oder ob sie ähnlich wie Microsoft die Restriktionen nachträglich lockern müssen.
Die 1080p Ausgabe könnte wohl interessanter für Streaming-Angebote wie Hulu sein.
erstes Bild zur Wii2 aufgetaucht:
http://www.consolewars.de/news/32615/erstes_bild_zur_wii_2_aufgetaucht/
Ringwald
2011-04-22, 12:08:56
Wenn schon DevKit, die retail Version konnte vollkommen anders aussehen.
Aber halte ich eh eher für Fake...
Crazy_Chris
2011-04-22, 13:35:13
Und wieder ein PPC Triplecore von IBM... Die Xbox 360 CPU ist ja nun auch wieder 6 Jahre alt. Was für eine Core würde denn für die Wii 2 in Frage kommen? Wie weit ist IBM inzwischen bzw. gibt es fertige Prozessoren auf dem Markt die für die Wii 2 in Frage kommen würden? :confused: IBM muss doch nach so langer Zeit auch irgendetwas neues in petto haben. Soweit ich das sehe hat sich ja seit dem G5 nichts mehr so richtig getan(?)
dildo4u
2011-04-22, 13:44:37
Es gibt Neues das würde aber nicht in eine Konsole passen.
http://en.wikipedia.org/wiki/POWER7
Vermutlich wird der Takt höher und der Verbrauch niedriger sein,damit wär der Vorteil der neuen Fertigung aufgebraucht.Wichtig ist halt das Ports von der 360 so einfach wie möglich sind,deshalb wird wohl was Vergleichbares verbaut.
dargo
2011-04-22, 13:52:44
Heißt es demnächst beim Spiel XY:
PC und Wii 2 = 60fps
PS3 und XBox360 = 30fps
???
:D
dildo4u
2011-04-22, 13:58:37
Also manche Ports brauchen schon recht dicke Hardware für 1080p und 60fps,ich vermute das man eher erstmal die Auflösung auf 1080p hebt fps bleiben bei 30.Denke nicht das es dann häufig für die doppelten FPS reicht,wie gesagt rechne damit das die GPU was um 60 Watt verbrauchen wird nicht mehr.Das geht in Richtung 4830 oder 4770,schon eine 6850 oder 460 würde mehr als das ganze System brauchen.
dargo
2011-04-22, 14:15:25
Ich gehe bei der Wii 2 auch nicht von 1080p aus sondern von 720p @60fps. Dafür braucht man nur eine GPU mit ca. 200-300% der Leistung der aktuellen Konsolen. Das dürfte denke ich kein Problem sein. Zumal sich einige Effekte auch dank DX10.1 beschleunigen lassen. Die Frage ist nur ob die CPU diese 60fps immer halten kann. Und natürlich welches Ziel überhaupt Nintendo verfolgt.
Edit:
Für 1080p müsste man der Wii 2 mindestens 1GB Speicher spendieren. Bleibt es immer noch bei dem Gerücht @512MB?
dildo4u
2011-04-22, 14:22:03
Mit 1080p kann man imo besser werben,FPS da wissen die Meisten nicht mal was das ist aber 1080p das wurde eingetrichtert das das der neue flache TV kann.
Crazy_Chris
2011-04-22, 14:24:02
Denke auch das das erklärte Ziel erstmal durchgängig 1080p @30fps sein wird. :wink: Sollte bei der Hardware und den aktuellen Spielen sicher auch ohne weiteres möglich sein. Als PC Spieler guckt man dann aber weiterhin in die Röhre. :mad:
dargo
2011-04-22, 14:27:37
Denke auch das das erklärte Ziel erstmal durchgängig 1080p @30fps sein wird. :wink: Sollte bei der Hardware und den aktuellen Spielen sicher auch ohne weiteres möglich sein.
Wie gesagt, nicht wenn man der Konsole wieder nur 512MB verpasst. Aber dazu gibts noch keine verlässlichen Quellen oder?
Crazy_Chris
2011-04-22, 14:31:36
Mal angenommen die Grafikqualität der aktuellen Konsolenspiele verändert sich nicht und nur die Auflösung wird auf 1080p gehievt. Sollten dann nicht auch 512MB VRAM rein für die GPU reichen? Wenn sich CPU und GPU wieder Speicher teilen müssen so wären 512MB RAM aber sowas von dürftig...das kann ich garnicht glauben das jemand sowas heute noch bauen würde. :eek:
dildo4u
2011-04-22, 14:34:04
Denk mal 1GB GDDR5(Unified wie bei 360) sind schon drinn wenn die Konsole 350-400 kosten soll.Ich schätze das die PS4 maximal 2Gb haben wird dafür halt XDR2.
http://www.rambus.com/de/technology/solutions/xdr2/xdr2_vs_gddr5.html
dargo
2011-04-22, 14:34:37
Mal angenommen die Grafikqualität der aktuellen Konsolenspiele verändert sich nicht und nur die Auflösung wird auf 1080p gehievt. Sollten dann nicht auch 512MB VRAM rein für die GPU reichen?
Mit einer Verdoppelung der Auflösung steigt selbstverständlich auch der Speicherverbrauch. Ich glaube nicht, dass 512MB da immer reichen. Außer bei den grafisch anspruchslosen Games. Siehe paar Beispiele bei der aktuellen Gen.
Edit:
Es wird sicherlich keinen Vram nur für GPU geben. Auf den Speicher wird die CPU ebenfalls zugreifen. Ich gehe vom nahezu gleichen Design wie der Xbox360 aus, zumindest nach den Gerüchten. Könnte natürlich auch alles Fake sein.
AnarchX
2011-04-22, 14:42:09
Denk mal 1GB GDDR5(Unified wie bei 360) sind schon drinn wenn die Konsole 350-400 kosten soll.Ich schätze das die PS4 maximal 2Gb haben wird dafür halt XDR2.
Bei PS4 und XBox720 wäre auch eine Speicherhierarchie mit Stacked-DRAM und danach eine größere Menge an DDR4-RAM denkbar.
1GiB GDDR5 UMA sollte man bei der Wii HD schon bieten.
dargo
2011-04-22, 14:42:41
Wenn sich CPU und GPU wieder Speicher teilen müssen so wären 512MB RAM aber sowas von dürftig...das kann ich garnicht glauben das jemand sowas heute noch bauen würde. :eek:
Für <= 720p scheint es noch zu reichen. Denkbar wären aber auch 768MB sollte es ein 192Bit SI werden. Mit bsw. 1000Mhz GDDR5 hätte man eine Bandbreite von 48GB/s was mehr als doppelt so viel wäre wie bei MS oder Sony.
Nightspider
2011-04-22, 15:03:05
Wäre es auch denkbar, das IBM spezielle für den Wii-Nachfolger eine CPU zusammenschustert?
Mit höherer ProMhz-Leistung, 3 Kernen und höherem Takt als bei der 360?
Das der Wii-Nachfolger aber mehr RAM/VRAM besitzen wird, ist alleine durch die Mehrleistung im GPU Bereich von einem Faktor von 2-4 schon klar. Man wird bei aktuellen Preisen mit Sicherheit 1GB verbauen wobei 1,5-2GB für 2012 schon nicht schlecht wären in einer Konsole.
Kann man schon ausschließen, ob Hardware in 28nm verbaut wird, wenn die Konsole Ende 2012 erscheint und mit ersten kleinen 28nm GPUs Anfang 2012 zu erwarten sind?
Edit:
Absprachen zwischen Sony und MS das Nachfolger erst 2014 kommen?
http://hartware.net/news_51537.html
Crazy_Chris
2011-04-22, 15:31:44
Absprachen zwischen Sony und MS das Nachfolger erst 2014 kommen?[/B]
http://hartware.net/news_51537.html
Vielleicht nur ne Finte? Und dann bringt MS Ende 2012 doch etwas neues und Sony steht mit herunter gelassenen Hosen da. ;D
AnarchX
2011-04-22, 15:37:52
Für <= 720p scheint es noch zu reichen. Denkbar wären aber auch 768MB sollte es ein 192Bit SI werden. Mit bsw. 1000Mhz GDDR5 hätte man eine Bandbreite von 48GB/s was mehr als doppelt so viel wäre wie bei MS oder Sony.
GDDR5 @ 2Gbps? Wenn du 4Gbps meinst, der momentan sehr häufig verbaut wird, dann erreicht man mit 192-Bit 96GB/s.
Wäre es auch denkbar, das IBM spezielle für den Wii-Nachfolger eine CPU zusammenschustert?
Mit höherer ProMhz-Leistung, 3 Kernen und höherem Takt als bei der 360?
Ein entsprechend angepasster Power 7 wäre wohl schon eine sehr vernünftige Lösung. Mit 32MiB eDRAM und 8 Kernen liegt man bei ~550mm² @ 45nm, eine 3-Kern-Version mit deutlich weniger eDRAM sollte wohl für eine ~$400 Konsole bezahlbar sein.
Im Worst-Case halt nur ein Xenon mit etwas mehr Takt und L2-Cache.
Exxtreme
2011-04-22, 15:49:25
Und wieder ein PPC Triplecore von IBM... Die Xbox 360 CPU ist ja nun auch wieder 6 Jahre alt. Was für eine Core würde denn für die Wii 2 in Frage kommen? Wie weit ist IBM inzwischen bzw. gibt es fertige Prozessoren auf dem Markt die für die Wii 2 in Frage kommen würden? :confused: IBM muss doch nach so langer Zeit auch irgendetwas neues in petto haben. Soweit ich das sehe hat sich ja seit dem G5 nichts mehr so richtig getan(?)
Drei Kerne sind ja nicht unbedingt schlecht. Der Punkt ist nämlich, je mehr Kerne man hat desto schwieriger wird es sie auszunutzen. Und Computerspiele geben zunächst wohl nicht soviel Potential her um massive Parallelisierung wirtschaftlich einsetzen zu können.
Und über die CPU im Wii2 weiss man so gut wie gar nix. Vielleicht hat sie größere Caches und Dinge wie Out-of-order-Execution? Damit wäre so eine CPU der Xbox360-CPU weit überlegen trotz 3 Kernen. :)
MfG
dargo
2011-04-22, 17:21:03
GDDR5 @ 2Gbps? Wenn du 4Gbps meinst, der momentan sehr häufig verbaut wird, dann erreicht man mit 192-Bit 96GB/s.
Ups... da habe ich wohl falsch gerechnet. Ok... in diesem Fall würde ich auf 1GB 4Gbps @128Bit tippen und somit 64GB/s. Das wäre fast Faktor 3 zur aktuellen Gen. und somit mehr als ausreichend.
Bei IBM gibts auch OOO-PowerPC-Kerne für HPC und Mainframes (neben System z und Power). Das PowerPC970-Design könnte man auch wiederverwerten, ich halte Xenon für viel zu schwach wenn da ein RV740-Derivat als GPU verwendet werden soll.
y33H@
2011-04-25, 14:54:08
Offizielle Meldung seitens Nintendo ist raus, Wii-Nachfolger kommt "2010". Wird auf der E3 gezeigt.
http://www.nintendo.co.jp/ir/pdf/2011/110425_4e.pdf
http://www.abload.de/img/2011-04-25_1459311udn.png
reallive
2011-04-25, 16:16:37
und wo kann ich die schon letes jahr kaufen......?
das nenn ich schnell;-))
Naitsabes
2011-04-25, 21:19:16
hä?
Da steht, dass sie 2012 erscheinen wird und zwar erst nach März, da die Erlöse nicht im Geschäftsjahr 2011 (bis März 2012!) auftauchen werden...
Ps. Denk dran, atm haben wir 2011^^
edit.
Mist, jetzt seh´ ich den Fehler erst -.-
reallive
2011-04-26, 11:41:26
mensch dit war spaß und bezog sich auf :
Wii-Nachfolger kommt "2010". Wird auf der E3 gezeigt
;D
Crazy_Bon
2011-04-26, 11:49:28
Bin auch gespannt was gezeigt wird, aber Nintendo bitte keine utopische Techdemos sondern reelle Spielszenen.
Avalox
2011-04-26, 13:22:02
Bin auch gespannt was gezeigt wird, aber Nintendo bitte keine utopische Techdemos sondern reelle Spielszenen.
Nintendo ist ja nach Toyota das japanische Unternehmen mit dem höchsten Börsenwert, den wollen sie bestimmt auch behalten.
Ich denke nicht, dass Nintendo die Fa. für Techdemos ist. Das was gezeigt wird funktioniert auch.
Palpatin
2011-04-26, 14:11:19
Nintendo ist ja nach Toyota das japanische Unternehmen mit dem höchsten Börsenwert.
Nein, z.B. ist allein Honda doppelt soviel Wert wie Nintendo.
Avalox
2011-04-26, 14:25:04
Nein, z.B. ist allein Honda doppelt soviel Wert wie Nintendo.
Ja, stimmt. Sah vor gar nicht langer Zeit noch anders aus. Mehr Wert als ein Sony, oder Panasonic, usw. ist Nintendo aber immer noch.
xxxgamerxxx
2011-04-26, 14:42:47
Ja, stimmt. Sah vor gar nicht langer Zeit noch anders aus. Mehr Wert als ein Sony, oder Panasonic, usw. ist Nintendo aber immer noch.
Das hat doch nichts zu sagen. Sony macht trotzdem mehr Umsatz/Gewinn.
Avalox
2011-04-26, 15:07:16
Das hat doch nichts zu sagen. Sony macht trotzdem mehr Umsatz/Gewinn.
Ach quatsch. Umsatz ist egal, wenn jemand für 99€ einkauft und dann für 100€ verkaut hat er auch einen hohen Umsatz, aber nur eine bescheidene Marge.
Da Sony handfeste Fernseher verkauft und Nintendo vor allen weiche Software, ist der Umsatz völlig irrelevant. Der Gewinn ist ein Indikator für ein gutes Geschäft, ergo einen hohen Börsenwert des Unternehmen. Der Gewinn war ja gerade extrem gut bei Nintendo. Eigentlich dreht sich alles nur um den Börsenwert.
Nintendo ist schon gezwungen etwas ordentliches abzuliefern. Das ist halt die Crux an der Geschichte. Wenn man so spezialisiert ist, hat man zwar unglaublichen Erfolg, wenn etwas so gigantisch einschlägt wie die Wii, aber man ist natürlich auch abhängig davon, dass solcher Wurf auch glückt. Insofern wird man sich bei Nintendo schon was einfallen lassen.
Palpatin
2011-04-26, 15:10:24
Das hat doch nichts zu sagen. Sony macht trotzdem mehr Umsatz/Gewinn.
Nein. Grad beim Gewinn liegen und lagen sie die letzten Jahre hinter bis weit hinter Nintendo, ist wohl der Hauptgrund warum der Börsenwert geringer ist.
fizzo
2011-04-26, 15:20:15
Das hatten wir ja schon mehrfach:
http://i55.tinypic.com/95wwi1.png
http://neogaf.net/forum/showthread.php?t=370257&page=2
Nun sollte auch klar sein, warum die neue Konsolengeneration von Sony und MS noch länger auf sich warten lässt!
Avalox
2011-04-26, 16:03:22
http://i55.tinypic.com/95wwi1.png
Nun sollte auch klar sein, warum die neue Konsolengeneration von Sony und MS noch länger auf sich warten lässt!
Kannte ich gar nicht und ist sehr beeindruckend.
Passt aber perfekt zu den Geschichten, wie Bill Gates persönlich im Fünfeck vor irgend einen Verantwortlichen gesprungen sein soll, als Nintendo die Wii auf den Markt gebracht hat.
xxxgamerxxx
2011-04-26, 16:42:50
Ach quatsch. Umsatz ist egal, wenn jemand für 99€ einkauft und dann für 100€ verkaut hat er auch einen hohen Umsatz, aber nur eine bescheidene Marge.
Da Sony handfeste Fernseher verkauft und Nintendo vor allen weiche Software, ist der Umsatz völlig irrelevant. Der Gewinn ist ein Indikator für ein gutes Geschäft, ergo einen hohen Börsenwert des Unternehmen. Der Gewinn war ja gerade extrem gut bei Nintendo.
Hätte ich jetzt nicht gedacht, dass Nintendo höhere Gewinne einfährt als Sony. Klar zählt der absolute Gewinn und nicht alleine der Umsatz. Diese Binsenweisheit sollte klar sein. Deswegen habe ich ja auch beides erwähnt.
Crazy_Chris
2011-04-26, 16:46:03
Passt aber perfekt zu den Geschichten, wie Bill Gates persönlich im Fünfeck vor irgend einen Verantwortlichen gesprungen sein soll, als Nintendo die Wii auf den Markt gebracht hat.
Hat er das? :biggrin: Kann man das irgendwo nachlesen? ;D
zustand
2011-04-26, 17:38:03
Kannte ich gar nicht und ist sehr beeindruckend.
Passt aber perfekt zu den Geschichten, wie Bill Gates persönlich im Fünfeck vor irgend einen Verantwortlichen gesprungen sein soll, als Nintendo die Wii auf den Markt gebracht hat.
Bei dieser Grafik frage ich mich immer, wann denn Nintendo jemals vor der Pleite gestanden sein sollte, von der man desöfteren liest.
sry OT
bei all den Umsatz, Gewinn Diskussionen würde mich eins interessieren:
Wieviel ist die Marke bzw. das Produkt Playstation Sony Wert? Wieviel von Ihrem Geschäft macht es aus? Könnten sie es sich leisten zu sagen: Scheiß drauf, wir stellen keine mehr her? Kann man sagen, dass Playstation zu 30% vom Gesamtkuchen Sony ist?
john carmack
2011-04-26, 22:46:30
Mit einer Verdoppelung der Auflösung steigt selbstverständlich auch der Speicherverbrauch. Ich glaube nicht, dass 512MB da immer reichen. Außer bei den grafisch anspruchslosen Games. Siehe paar Beispiele bei der aktuellen Gen.
Edit:
Es wird sicherlich keinen Vram nur für GPU geben. Auf den Speicher wird die CPU ebenfalls zugreifen. Ich gehe vom nahezu gleichen Design wie der Xbox360 aus, zumindest nach den Gerüchten. Könnte natürlich auch alles Fake sein.
Bei PS4 und XBox720 wäre auch eine Speicherhierarchie mit Stacked-DRAM und danach eine größere Menge an DDR4-RAM denkbar.
1GiB GDDR5 UMA sollte man bei der Wii HD schon bieten.
Für <= 720p scheint es noch zu reichen. Denkbar wären aber auch 768MB sollte es ein 192Bit SI werden. Mit bsw. 1000Mhz GDDR5 hätte man eine Bandbreite von 48GB/s was mehr als doppelt so viel wäre wie bei MS oder Sony.
Wäre es auch denkbar, das IBM spezielle für den Wii-Nachfolger eine CPU zusammenschustert?
Mit höherer ProMhz-Leistung, 3 Kernen und höherem Takt als bei der 360?
Das der Wii-Nachfolger aber mehr RAM/VRAM besitzen wird, ist alleine durch die Mehrleistung im GPU Bereich von einem Faktor von 2-4 schon klar. Man wird bei aktuellen Preisen mit Sicherheit 1GB verbauen wobei 1,5-2GB für 2012 schon nicht schlecht wären in einer Konsole.
Kann man schon ausschließen, ob Hardware in 28nm verbaut wird, wenn die Konsole Ende 2012 erscheint und mit ersten kleinen 28nm GPUs Anfang 2012 zu erwarten sind?
Edit:
Absprachen zwischen Sony und MS das Nachfolger erst 2014 kommen?
http://hartware.net/news_51537.html
Man muss aber schon dazu sagen das es wirklich bemerkenswert ist was die Entwickler aus so alter Hardware der aktuellen Konsolen grafisch rausholen können!
Trotzdem ist es wirklich an der Zeit für neue Konsolen. Ich lese immer wieder das sich die Entwickler beschweren weil die Hardware einfach am Limit angelangt ist. Viel mehr kann man wohl nicht erwarten. Schade...
2GB RAM Unified für die Wii 2? Warum nicht? Bei den Preisen!
Wenn die Wii2 wirklich erst 2012 erscheint sind sogar 3GB bis 4GB denkbar.
Und das Zauberwort heißt bei Konsolen natürlich RISC und nicht CISC!
Bin mir sicher das die Wii 2 die aktuellen Konsolen locker in den Schatten stellen wird. Vorrausgesetzt man kann die Spiele einfach auf die Hardware zuschneiden.
Kann mich noch an das SEGA Saturn Desaster erinnern. Die Konsole hatte für Ihre Zeit revolutionäre 2 CPUs an Board und war dementscprechend schwer zu Programmieren.
viel bla bla bla... Her mit den neuen Konsolen! Damit die PC´ler (und ich auch:D) endlich Ruhe geben.
Xbox360 Daten aus Wikipedia:
CPU
115,2 GFLOPS (theoretische Spitzenleistung)
3 × 3,2 Gigahertz Taktfrequenz
165 Millionen Transistoren
je 32 KB L1-Cache für Daten und Instruktionen pro Prozessorkern
1 MB L2-Cache für alle drei Prozessorkerne
45-nm-Architektur (Vejle), 65 nm von November 2007 bis Juni 2010 (Falcon-Mainboard), davor 90 nm
GPU
ATI Xenos (Bassierend auf der R500 Architektur)
500 MHz Taktfrequenz
10 MB eDRAM Framebuffer, exklusiv für Antialiasing-Daten, bei der Xbox 360 S („Vejle“) in einen Chip bestehend aus Haupt- und Grafikprozessor integriert
332 Millionen Transistoren (232 Millionen GPU, 100 Millionen eDRAM)
48 Unified-Shader-Architektur (jede Pipeline kann Pixel- und Vertex-Shader ausführen)
verfügt über Tessellations-Einheiten
48 Milliarden Shader-Operationen pro Sekunde (ohne CPU)
500 Millionen Polygone pro Sekund
160 Shader-Vorgänge pro Taktzyklus
Shader Model 3.0+ (bedeutet einige zusätzliche Funktionen)
Unterstützt werden die Bildschirmformate 480p, 720p, 1080i und 1080p, sowie die TV-Modi PAL-50 und PAL-60
45-nm-Architektur, 65 nm bis Juni 2010 („Jasper-Mainboard“), davor 90 nm
RAM
Die Xbox 360 verfügt über insgesamt 512 MB DDR3-Arbeitsspeicher mit 700 MHz Taktfrequenz auf den sowohl Haupt- als auch Grafikprozessor zugreifen können (Unified Memory Architecture).
PS3 Daten aus Wikipedia:
CPU
Cell Broadband Engine Prozessor, bestehend aus:
einem Power Processor Element (PPE, General Purpose CPU)
sieben aktiven Synergistic Processing Elements (SPE, Stream Processing)
einem Element Interconnect Bus (EIB, verbindet SPEs, PPE, Memory Controller und I/O-Controller untereinander)
PPE:
PowerPC-970-kompatibler Kern
zweifach SMT
Taktrate: 3,2 GHz
L1-Cache: 32 KB Instruktionen, 32 KB Daten
512 KB L2-Cache
Eine VMX-Einheit
Jedes SPE verfügt über:
Memory Flow Controller (MFC), bestehend aus DMA-Controller, MMU und Bus-Interface
Synergistic Processing Unit (SPU): RISC-Kern mit 128 Bit SIMD-Architektur
128 × 128 Bit Register-File
256 KB lokaler Speicher (local store)
4 Berechnungen parallel (insgesamt 24 Berechnungen parallel bei 6 aktiven SPEs)
GPU
Nvidia RSX („Reality Synthesizer“) mit 550 MHz
Basierend auf Nvidias GeForce 7800 GTX (NV47)
Vielseitig programmierbare Parallel-Floating-Point-Shader-Pipelines
unterstützt S3 Texture Compression (DXT1-5)
Shader-Modell-3.0-kompatibel, basierend auf CG Shader Language von Nvidia
24 Pixel-Shader Pipelines (5 Operationen pro Takt pro Pipeline)
8 Vertex-Shader Pipelines (2 Operationen pro Takt pro Pipeline)
128 bit Pixel-Precision (32 Bit pro RGBA-Kanal) (theoretisch, eventuell zu wenig Speicherbandbreite)
Keine Multisample-Kantenglättung in Kombination mit FP16-Rendertargets (meist verwendet für HDRR) möglich, nur jeweils eines von beiden
300,2 Millionen Transistoren (in 90 nm gefertigt; seit 2008 in 65 nm und seit 2010 in 45 nm)
256 MB GDDR3-VRAM mit 700 MHz
Zugriff auf den XDR-Hauptspeicher (insgesamt 512 MB RAM)
RAM
256 MB XDR DRAM mit 3,2 GHz Taktfrequenz.
Ailuros
2011-04-27, 07:51:14
Taktet RSX in neuesten Versionen auf 550MHz? Wenn ich mich nicht irre taktete in der originalen 360 PS3 der RSX bei 500MHz. Wieso frag ich ueberhaupt...wikipedia :rolleyes:
Exxtreme
2011-04-27, 09:27:46
Und das Zauberwort heißt bei Konsolen natürlich RISC und nicht CISC!
Dieser Running Gag ist schon mindestens 15 Jahre alt.
=Floi=
2011-04-27, 09:33:29
Taktet RSX in neuesten Versionen auf 550MHz? Wenn ich mich nicht irre taktete in der originalen 360 der RSX bei 500MHz. Wieso frag ich ueberhaupt...wikipedia :rolleyes:
der RSX ist in der PS3! :rolleyes:
steht ja alles einen post über deinem.
john carmack
2011-04-27, 12:23:49
Dieser Running Gag ist schon mindestens 15 Jahre alt.
? muss ich das verstehen ?
Exxtreme
2011-04-27, 12:33:44
? muss ich das verstehen ?
Diese Glaubensstreit dürfte so alt sein wie Opel Manta vs. VW Golf GTI.
Und die Praxis zeigt leider, dass das RISC-Konzept so nicht aufgeht. Deshalb sind die heutigen CPUs meistens auch hybrid. Aussen CISC, innen RISC. Intels EPIC/Itanium ist noch so eine pure RISC-Architektur. Und wie erfolgreich die ist sieht man ja.
john carmack
2011-04-27, 13:51:58
Aha... hab ich gar nicht mitbekommen :D
Ailuros
2011-04-27, 14:00:09
der RSX ist in der PS3! :rolleyes:
steht ja alles einen post über deinem.
Tippfehler; ich weiss Gott sei Dank schon in welcher Konsole der RSX steckt. Danke fuer die Korrigierung.
Deshalb sind die heutigen CPUs meistens auch hybrid.
Meistens? Außer x86 ist keine CISC-Architektur mehr übrig.
Allerdings hast du insofern recht, dass das keine große Rolle spielt.
IBMs zArchitecture ist auch noch CISC.
Edit: Freescale sollte auch noch 68k-Abkömmlinge verkaufen, der Rest ist aber Geschichte.
Drill
2011-05-21, 13:36:26
netter artikel von Eurogamer/Gamesindustry.biz darüber, wie Projekt Cafe Microsoft, Sony und den spielemarkt insgesamt beeinflussen könnte:
http://www.eurogamer.net/articles/2011-05-20-war-is-over-editorial_5
That's why the reception for Nintendo's Project Cafe is going to have such a huge influence on Microsoft and Sony's thinking - even though both companies are already well into the design and development process for their next-gen systems. If Nintendo can get by with current generation power levels, the option for Sony and Microsoft to reign back their graphical ambition and focus their efforts on other aspects of the console will be wide open. If that does happen, plenty of journalists and commentators will rush to lament the death of progress - but in reality, it could be the best thing to happen to the progress of videogames in decades.
Zatoichi
2011-05-21, 21:42:51
Der Artikel gehört auch definitiv in den "ist der PC tot" Thread.
Käsetoast
2011-05-21, 22:49:04
Ich weiß nicht - ich finde den Artikel sehr nichtssagend. Die ersten 2/3 der ersten Seite fassen sowieso nur die "Vorgeschichte" grob zusammen. Was danach kommt ist nur sehr vage und ich stimme oft nicht mit der Meinung des Autors überein...
So spricht er davon, dass Spekulationen über das was der Wii Nachfolger können wird sinnlos sei (das er direkt danach erwähnt, dass einige schon wissen was das sein wird aber unter NDA stehen ist auch recht merkwürdig - ist eine Aussage Marke "Captain Obvious") und stattdessen über die Marktreaktion gesprochen werden sollte. Ganz davon abgesehen, dass seine Grundlage von wegen die Konsole wird nur leicht bessere Grafik bieten als PS3 & Co eine Aussage eben jener Spekulationen ist, die er als "pointless" bezeichnet, ist diese ganze Marktentwicklungsgeschichte in diesem Fall doch genau das was wir mit der Wii schon hatten. Klar lässt sich auch vortrefflich über das Erscheinen einer etwaigen innovativen Konsole im Sinne des Bedienkonzeptes sprechen, aber die ganze Geschichte einer Konsole, die grafisch unterlegen ist aber ein innovatives Konzept hat ist ja nun wirklich nicht neu...
Auch finde ich die ganze Geschichte von wegen "Vorteile von verlässlichen Chips" eher blödsinnig. Die Konsolenhersteller kaufen sich ja eigentlich nur bestehende Designs, die dann den Bedürfnissen der Konsole angepasst werden. Ein aktuelles Chipdesign zu wählen hat dabei quasi keine Nachteile, solange man nicht ein "experimentelles" Design nutzen will, mit dem der Hersteller auch keine Erfahrung hat. Das einzige Risiko das man eingehen könnte wäre das Nutzen einer gewissen Fertigungstechnik à la 28nm und so weiter. Hier kann es bekannterweise zu so einigen unvorhersehbaren Problemen kommen. Gleichzeitig hat man natürlich auch Vorzüge wie bessere Kosten oder weniger Abwärme. Auch versucht der Autor hier den Eindruck zu erwecken, dass Nintendo wegen seiner Entscheidung ein sehr altes Design zu benutzen so viele Verkäufe erhalten hat. Die von ihm genannten fast 90 Millionen verkauften Einheiten sind aber mit Sicherheit nicht deswegen zustande gekommen, weil die Wii alte Hardware benutzt hat. Das lag am Innovativem Konzept und dem relativ geringem Preis...
Auch bei Dingen wie, man müsste es deutlich teurer werden lassen um Spiele wie LA Noire deutlich besser aussehen zu lassen kann ich mich nicht anschließen. Das sehe ich nämlich nicht so - die Modelle der heutigen Spiele werden oft sowieso in Kino Qualität erstellt um sich daraus dann die Normal Maps etc. zu errechnen. Dieser unglaubliche Detailgrad liegt also heute schon vor und bis wir diese Detailgrade auch in Echtzeit darstellen können ist's noch eine ganze Weile hin. Mit einer leistungsfähigeren Grafikeinheit können wir aber das was wir haben besser nutzen und so zum Beispiel anstatt Normal Mapping echtes Displacement Mapping nutzen. Vor allem bei den Konsolen sieht es was den Texturspeicher angeht ähnlich aus. Sei es weil man auch für den PC entwickelt wo man mehr Speicher hat oder weil es an sich sinnvoll ist - mit mehr Texturspeicher könnte man auch die Texturen deutlich schöner aussehen lassen (und gerade die sind im Vergleich zu PC Versionen der Spielen auf den Konsolen ja oft eher "matschig"), weil auch sie meist schon in höheren Auflösungen vorliegen. Dafür braucht man keine Unmengen an Geld, sondern einfach bessere Chips und wegen der feineren Fertigungstechniken sind ja auch Dinge wie Speicher heute deutlich billiger als noch vor 5 Jahren und auch bei den GPUs an sich lässt sich ja viel mehr Leistung auf gleicher Chipfläche und bei vernünftigem Verbrauch unterbringen...
Auch seine Aussage von wegen, dass durch die Popularität von den Apple Produkten & Co die PC Spielehersteller nun die Grafikeinheiten von Laptops & Co anvisieren halte ich für quatsch. Es haben sich halt die sogennanten "Casualgames" etabliert, die sich nicht selten im Browser abspielen. Da braucht's dann keine großartige Grafik. Das heisst aber nicht, dass der nächste Shooter Entwickler sich deshalb eine schwache Laptopgrafik als Zielhardware setzt. Das ist Unsinn - es besteht ein großer Unterschied zwischen so einem Browserspiel und einem aufwendigem Titel für PC oder Konsole. Das einzige was passiert und weswegen nicht mehr so stark High-End-Komponenten anvisiert werden ist, dass Titel jetzt oft für mehrere Plattformen entwickelt werden und man eben auch die inzwischen etwas betagten Konsolen im Hinterkopf behalten muss...
Seine nächste Aussage darüber, dass die Spielehersteller gerne weg von toller Grafik & Co als Hauptaugenmerk sehen würde finde ich auch nicht korrekt. Wenn dem so wäre, wären alle auf den Wii Zug aufgesprungen und hätten neue innovative Spiele gebracht ansatt ach so grafisch aufwendige Spiele für PS3 & Co zu entwickeln. Daran wird auch das Project Cafe nichts ändern...
Zu guter Letzt wäre da das Schlussplädoyer von wegen Project Cafe würde Microsoft und Sony zum Umdenken animieren. Gerade wenn Nintendo wirklich etwas ältere Hardware und Fertigungsprozesse nutzen will (Architektur der HD4000er Reihe sowie 40nm Fertigung machen ja als Gerücht die Runde), werden Microsoft und Sony sich ja ins Fäustchen lachen. Genau dann wird es ja nicht sehr schwer sein das zu toppen! Netter 22nm Prozess oder was es in zwei Jahren zuverlässig geben wird zusammen mit einer netten GPU auf DirectX11 Technologielevel - ergo deutlich mehr Power und Schmankerl wie Tesselation und schon ist Nintendo ohne große Anstrengung grafisch überholt. Den neuen Controller muss man im Gegensatz zur Wii ja auch nicht mehr fürchten: Mit Kinect und Move hat die Konkurrenz ja schon längst bewiesen, dass auch sie in Punkto Bedienkonzept innovativ sein kann. Nur weil Nintendo dann nochmal was anderes bietet geht ja nicht direkt die Welt unter. Das war nur bei der Wii anders, weil man überrumpelt wurde und einfach gar nichts hatte um jene Spieler, die die Wii ansprach zu erreichen. Das ist heute anders und so halte ich die Argumentation des Autors für falsch bzw. sehr kurzsichtig...
Nightspider
2011-05-21, 23:00:27
Was heißt innovativ? Es war klar das Sony oder MS mit einer anderen Motion Controller Technik gegenhalten müssen und das sowas kommt. Move oder Kinect sind imho keinesfalls innovativ.
Und nach 1-2 Jahren eine Konsole zu schlagen ist auch kein Kunststück, wenn Sony oder MS 2013/2014 nachziehen sollten, sondern ein logischer Prozess.
Deinorius
2011-05-21, 23:07:34
Move oder Kinect sind imho keinesfalls innovativ.
Wobei man hier M$ zumindest zu Gute halten sollte, dass sie einen Schritt weiter gegangen sind und den Körper selber zum Controller umfunktioniert haben. Sony hingegen hat wirklich nur abgekupfert. Also wie immer.
Käsetoast
2011-05-21, 23:39:33
Was heißt innovativ? Es war klar das Sony oder MS mit einer anderen Motion Controller Technik gegenhalten müssen und das sowas kommt. Move oder Kinect sind imho keinesfalls innovativ.
Und nach 1-2 Jahren eine Konsole zu schlagen ist auch kein Kunststück, wenn Sony oder MS 2013/2014 nachziehen sollten, sondern ein logischer Prozess.
Also ich finde Kinect ziemlich innovativ. Ist ja nicht nur ein aufgeblähtes Eyetoy, sondern die ganze Geschichte mit dem Raster auf einen Werfen und der Verbindung mit einer Skelettsimulation (nicht umsonst kann man ja sogar Motion Capturing mit seinem Kinect betreiben) ist schon eine Hausnummer und es sind weitaus aufwendigere Dinge möglich wie etwa die Tanzspiele wo man wirklich was mit dem ganzen Körper machen muss und nicht nur eine "Fernbedienung" durch die Gegend wedelt. Heute gibt es sowas halt - zu Zeiten der Wii hatte die Konkurrenz da gar nichts, was den Siegeszug der Wii begünstigte...
Auch das Schlagen mit neuerer Hardware ist ja gerade laut dem Autor kein logischer Prozess. Er sagt ja, dass das Nutzen einer alten Technik ein probates Mittel ist, da diese "zuverlässiger" sein soll und er versucht dies anhand der Wii zu belegen, die ja eben auch sehr rückständige Hardware hatte. Das versucht er dann auch mit einem "wir müssen nicht die ultimativ grafikpotente Konsole vor dem Herrn herausbringen" in einen Kontext zu bringen. Meine Kritik an den Punkten habe ich dann ja geschildert...
=Floi=
2011-05-22, 10:49:42
nur ist die umsetzung eher bescheiden. wenn ich nicht mal leneken muß und trotzdem ans ziel komme, dann ist das eher ein fail...
Drill
2011-05-22, 11:16:16
viel text...
irgendwie habe ich den eindruck, du solltest den text nochmal lesen.
ein großteil deiner angeschnittenen themen, sind entweder völlig am thema des artikels vorbei oder zugedichtete annahmen, die so im text nie gefallen sind.
aber ich will mich nicht streiten, jeder zieht andere dinge aus einem artikel.
der eine hängt sich halt an kleinigkeiten auf, die nichts an der kernaussage ändern, andere halt nicht.
00-Schneider
2011-05-22, 11:20:19
nur ist die umsetzung eher bescheiden. wenn ich nicht mal leneken muß und trotzdem ans ziel komme, dann ist das eher ein fail...
Man kann nicht immer die schlechtesten Beispiele als Maßstab nehmen, alias "haters gonna hate". Joy Ride ist nunmal für Kinder. Aber Sachen wie Kinect Sports oder Dance Central zeigen, wie man es richtig macht.
AYAlf_2
2011-05-27, 15:12:36
PS4 (http://winfuture.de/news,63430.html) wird noch schlechter, als die bisher katastrophale PS3. So werden wir wohl ewig auf dem gleichen Grafik- und Gameplaystand bleiben. Nach der enttäuschenden Ankündigung zur Wii2 ist das wohl der nächste Tiefschlag.
Surrogat
2011-05-27, 15:16:07
ist mir egal, es gibt noch genug PC-only Games und zur Not spiel ich halt paar Jahre Oldies
@PS4 :P
Mr.Freemind
2011-05-27, 15:16:38
Wo steht da das sie schlechter wird? Die wollen doch nur weniger in die Entwicklung stecken, da die Akte Cell wohl geschlossen ist auch nachvollziehbar.
SamLombardo
2011-05-27, 15:20:52
PS4 (http://winfuture.de/news,63430.html) wird noch schlechter, als die bisher katastrophale PS3. So werden wir wohl ewig auf dem gleichen Grafik- und Gameplaystand bleiben. Nach der enttäuschenden Ankündigung zur Wii2 ist das wohl der nächste Tiefschlag.
Erstens steht nirgendwo dass die PS4 schlechter als die PS3 sein wird - Das wird definitiv nicht der Fall sein, da brauch ich gar keine Glaskugel. Wieso sollte man sonst überhaupt eine PS4 bringen?
Und zweitens muss das nicht zwangsläufig was schlechtes für den PC bedeuten, weil so der grafisch/technische Unterschied sich immer weiter zu Gunsten des PC verschieben wird (und so mancher halbwegs Grafik -Interessierte vielleicht wieder zum PC zurückkehrt.) Ich fände eher das Gegenteil für den PC bedenklicher, nämlich wenn man wieder Hardware mit mehr Leistung als der beste Highend PC zum Bruchteil des Preises bekommen würde.
Alles Mutmaßungen natürlich;)
thade
2011-05-27, 15:21:12
Ein Blu-Ray Laufwerk kostet keine Unmengen an Geld mehr, man muss keinen Cell verbauen. Das scheint der Alf nicht zu checken, wundert mich aber nicht bei seinen geistreichen Posts.
Bestes Gameplay gibt es schon längst Konsolenexklusiv und als Grafikgamer aka PC-Gamer kann einem das Gameplay doch eh egal sein. Die vermeintliche Elite wieder mal am Rumheulen, ist schon schlimm wenn man nix zu spielen hat.
DeadMeat
2011-05-27, 15:23:15
Nach der enttäuschenden Ankündigung zur Wii2 ist das wohl der nächste Tiefschlag.
Die wii2 wird erst nächsten Monat vorgestellt btw, da ist noch gar nix offiziell.
Bestes Gameplay Konsolenexklusiv? Der war gut :>
Eidolon
2011-05-27, 15:27:33
Ein Blu-Ray Laufwerk kostet keine Unmengen an Geld mehr, man muss keinen Cell verbauen. Das scheint der Alf nicht zu checken, wundert mich aber nicht bei seinen geistreichen Posts.
Bestes Gameplay gibt es schon längst Konsolenexklusiv und als Grafikgamer aka PC-Gamer kann einem das Gameplay doch eh egal sein. Die vermeintliche Elite wieder mal am Rumheulen, ist schon schlimm wenn man nix zu spielen hat.
Du solltest Deinen ersten Absatz, letzter Teil langsam mal selbst zu Herzen nehmen.
Exxtreme
2011-05-27, 15:30:32
PS4 (http://winfuture.de/news,63430.html) wird noch schlechter, als die bisher katastrophale PS3. So werden wir wohl ewig auf dem gleichen Grafik- und Gameplaystand bleiben. Nach der enttäuschenden Ankündigung zur Wii2 ist das wohl der nächste Tiefschlag.
Ich glaube, du hast den Artikel völlig missverstanden. Da steht bloß drinne, dass Sony keine überteuerte Schrotthardware mehr verbauen will. Ist ja auch logisch. Die PS3 hat am Anfang in der Herstellung 840$ gekostet. Die mussten so krass subventionieren, dass sie 3,3 Milliarden(!) $ Verluste gemacht haben.
Und darauf haben die keinen Bock mehr. Micros~1 wird wohl einen ähnlichen Weg mit mit dem Xbox360-Nachfolger gehen.
MiamiNice
2011-05-27, 15:34:21
Kann uns doch nur recht sein. Laufen wir keine Gefahr das allzu umfangreiche Spiele auf den Konsolen rauskommen und so bleiben uns die guten Games auf dem PC erhalten. Nicht das die auch noch abwandern.
san.salvador
2011-05-27, 15:51:54
Je weiter Konsolen vom PC entfernt sind, desto größer sind die Chancen auf eigene Entwicklungen.
AYAlf_2
2011-05-27, 15:54:36
Ich glaube, du hast den Artikel völlig missverstanden. Da steht bloß drinne, dass Sony keine überteuerte Schrotthardware mehr verbauen will. Ist ja auch logisch. Die PS3 hat am Anfang in der Herstellung 840$ gekostet. Die mussten so krass subventionieren, dass sie 3,3 Milliarden(!) $ Verluste gemacht haben.
Und darauf haben die keinen Bock mehr. Micros~1 wird wohl einen ähnlichen Weg mit mit dem Xbox360-Nachfolger gehen.
Ich habe da nichts falsch verstanden. Die PS3 war wenigstens auf Höhe der Zeit (zumindest zu Ihrem Release). Dies wird durch weniger Kosten dieses mal nicht der Fall sein. Weniger Kosten == totaler Schrott! :freak:
Und über die Wii2 sollte man schon den Grafikchip erahnen können. Zumindest gab es dazu auch schon News.
Iceman346
2011-05-27, 16:00:31
Die PS3 ist technisch nicht stärker als eine Xbox 360, die ein Jahr eher auf dem Markt war. Auf der Höhe der Zeit ist was anderes.
Das man nun Kosten sparen will spricht dafür, dass man keine Chipeigenentwicklungen nehmen wird sondern "nur" Chips von Fremdherstellern zusammenbasteln wird. Ein Rückschluss auf die Stärke der finalen Konsole lässt sich dadurch nicht treffen.
Jonny1983
2011-05-27, 16:00:47
Zwischen den Playstations lag ein Geschwindigkeitsfaktor von ~10.
Das wird diesmal nicht zutreffen, ist aber auch nicht nötig.
Es wird so viel Power benötigt, dass man FullHD inkl. 3D anbieten kann.
Also Faktor 4-6 wird schon reichen. Jemand anderer Ansicht?
san.salvador
2011-05-27, 16:02:41
Zwischen den Playstations lag ein Geschwindigkeitsfaktor von ~10.
Das wird diesmal nicht zutreffen, ist aber auch nicht nötig.
Es wird so viel Power benötigt, dass man FullHD inkl. 3D anbieten kann.
Also Faktor 4-6 wird schon reichen. Jemand anderer Ansicht?
Damit kannst du die heutige Grafik in 1080p + 60fps + 3D darstellen. Das ist dann hochaufgelöste Shicegrafik.
Nightspider
2011-05-27, 16:04:31
Eben, die 360 war in der Herstellung deutlich billiger, gleich schnell und eher auf dem Markt.
MS hat bei der 360 bis auf die Kühlung alles richtig gemacht.
Karümel
2011-05-27, 16:04:37
Irgendwie kann man Sony ja auch verstehen ;)
Nachdem die nach Jahren endlich mal Geld mit der Hardware/PS3 verdienen kann die nächste Konsolengeneration wohl nicht wieder so viel subventioniert werden. Dafür ist wohl der Kuchen zu klein geworden, man muß ja jetzt gegen 2 andere Konsolenhersteller ankämpfen.
Außerdem was muß den eine Konsole wirklich in der nächsten Generation können müssen?
Einzig endlich FullHD, sprich 1080p sind Pflicht alles andere ist doch nur Zugabe.
BTW.: Nettes Stichwort zum Topic ;D
Exxtreme
2011-05-27, 16:08:17
Ich habe da nichts falsch verstanden. Die PS3 war wenigstens auf Höhe der Zeit (zumindest zu Ihrem Release). Dies wird durch weniger Kosten dieses mal nicht der Fall sein. Weniger Kosten == totaler Schrott! :freak:
Und über die Wii2 sollte man schon den Grafikchip erahnen können. Zumindest gab es dazu auch schon News.
Auf der Höhe der Zeit?
Das Ding war völlig veraltet als es rauskam. Schon bei der Vorstellung waren PCs wesentlich leistungsstärker. Und selbst die Xbox360 ist einen Ticken stärker und die kam 1 Jahr früher raus.
Nochmal, die PS3 ist totale Schrotthardware gewesen als sie rauskam. Extrem teuer in der Herstellung weil man meinte wieder Extrawürste zu braten, dann schwer zu beherrschen etc. Ich habe mir echt überlegt das Ding zu kaufen wegen des BR-Laufwerks. Hab's dann aber doch gelassen.
dargo
2011-05-27, 16:16:20
Dass die PS4 zum Releasezeitpunkt kein "High-End" mehr bieten wird war doch schon lange klar. Man muss sich nur die Verluste der letzten Jahre anschauen. Die Strategie wird halt geändert, es wird entweder weniger stark subventioniert oder man verabschiedet sich gleich ganz von der subventionierten Hardware. So langsam hat Sony die Fehlplanung der PS3 erkannt, hat ja lange genug gedauert. Und ich bin mir ziemlich sicher, dass beim Nachfolger der XBox360 es ähnlich aussehen wird.
PS: und sollte Nintendo mit der Wii2 den Coregamer tatsächlich bedienen wollen wird die Bilanz in Zukunft noch viel schlechter für Sony und MS aussehen als dies der Fall jetzt schon ist.
MGeee
2011-05-27, 16:27:40
Ganz ehrlich, wenn die PC Spiele irgendwann mal langweilig werden, suche ich mir ein anderes Hobby.
Auf Konsolen-Spiele habe ich jedenfalls seit Super Mario World auf dem SNES keine Lust mehr.
dargo
2011-05-27, 16:29:44
Zwischen den Playstations lag ein Geschwindigkeitsfaktor von ~10.
Das wird diesmal nicht zutreffen, ist aber auch nicht nötig.
Es wird so viel Power benötigt, dass man FullHD inkl. 3D anbieten kann.
Also Faktor 4-6 wird schon reichen. Jemand anderer Ansicht?
Zwischen der PS1 und PS2 lagen afaik 5 Jahre. Der zeitliche Abstand zwischen der PS3 und PS4 wird wesentlich größer. Außerdem braucht man für den "Wow-Effekt" bei der PS4 wesentlich mehr als Faktor 10. Eine starke Verbesserung der Optik wird in Zukunft immer teurer.
N0Thing
2011-05-27, 16:39:20
Man sollte dabei aber auch bedenken warum die PS3 so teuer war. Dies lag nicht nur am Cell, sondern auch am Blu-Ray-Laufwerk, das zum Release der PS3 noch verdammt teuer war. Diese Extrakosten hat man bei einer PS4 nicht, dort kann man das Budget in 3D@1080p stecken und vielleicht die Techniklücke zum PC schließen. Ich bin mir sicher, daß damit am Anfang auch eine Grafikdarstellung möglich ist, die dem PC voraus ist, dank Optimierung auf eine Hardwarekonfiguration.
Zwischen den Playstations lag ein Geschwindigkeitsfaktor von ~10.
Das wird diesmal nicht zutreffen, ist aber auch nicht nötig.
Es wird so viel Power benötigt, dass man FullHD inkl. 3D anbieten kann.
Also Faktor 4-6 wird schon reichen. Jemand anderer Ansicht?
psp2 wird schon ps3 leistung (optik) erzielen da kann man wohl drauf wetten das zw. ps3 und ps4 schon welten liegen werden.
Wie das in "Vielfachen" zu rechnen ist kann ich nicht sagen aber ich denke schon das PS4 zum erscheinen erstmal wieder neue Maßstäbe setzt und der GamerPC 1-2 Jahre benötigt um aufzuschliessen/vorbeizuziehen
AnarchX
2011-05-27, 16:51:11
Wie das in "Vielfachen" zu rechnen ist kann ich nicht sagen aber ich denke schon das PS4 zum erscheinen erstmal wieder neue Maßstäbe setzt und der GamerPC 1-2 Jahre benötigt um aufzuschliessen/vorbeizuziehen
Und wie viel soll dann dieser 50x50x50cm 2kW Brüllwürfel kosten?;D
Heutige Gamer PCs mit mehreren >300W GraKas wird man wohl kaum noch einmal überbieten können, es sei denn man setzt auf 3D-Grafik in der Cloud, was aber auch auf dem PC angeboten werden könnte.
Eher werden wohl zukünftigen Konsolen sich als gehobene Gaming-Home-Computing-Station oberhalb der Pads positionieren.
akuji13
2011-05-27, 16:53:30
So werden wir wohl ewig auf dem gleichen Grafik- und Gameplaystand bleiben.
Der gesamte technische Fortschritt hat in meinen Augen keine besseren Spiele geschaffen.
Die sind anders als früher, aber machen auch nicht mehr Spaß...eher weniger.
Ich kriege heute für 500€ leistungsfähigere Hardware als vor einem Jahr für 500€, also ist das bei der PS4 gegenüber der PS3 nicht anders.
sei laut
2011-05-27, 16:53:33
Wie das in "Vielfachen" zu rechnen ist kann ich nicht sagen aber ich denke schon das PS4 zum erscheinen erstmal wieder neue Maßstäbe setzt und der GamerPC 1-2 Jahre benötigt um aufzuschliessen/vorbeizuziehen
Stimmt. Deswegen hatte die PS3 in allen Spielen Full HD zur Auswahl. :|
dargo
2011-05-27, 16:53:52
Ich bin mir sicher, daß damit am Anfang auch eine Grafikdarstellung möglich ist, die dem PC voraus ist, dank Optimierung auf eine Hardwarekonfiguration.
Oje... geht das Märchen mit der Optimierung schon wieder los? Wenn portierte Spiele am Anfang am PC schlecht performen dann liegt das einfach an schlechten Tools. Das war auch das Hauptproblem bei den ersten Ports.
Und ich kann dir versichern, dass bei den zukünftigen Konsolen (sollten vernünftige Porttools vorliegen) die Grafik nicht besser sein wird als auf dem dann aktuellen PC weil diese Kisten ganz einfach nicht die thermischen Gegebenheiten bieten wie ein Midi/Bigtower. Niemand wird in so eine kleine Kiste eine Grafikeinheit verbauen die 250W+ verbrät. Eine aktuelle GTX580 dürfte schon mindestens den Faktor 12 bieten im Vergleich zu dem was in der PS3 steckt. Bis die PS4 kommt erscheinen noch mindestens 2 neue Grafikkartengenerationen.
blackbox
2011-05-27, 16:59:23
Die PS3 war damals schon sehr teuer und ist es heute immer noch.
Außerdem wird die zukünftige Leistung alleine schon dadurch begrenzt, wie man es schafft, Gerät und Netzteil ausreichen zu kühlen.
Ich erwarte keine großen Sprünge mehr in der Hardware, die Grafik ist heute schon relativ gut und stellt die allermeisten Spieler zufrieden.
Aber eine Hiobsbotschaft für PC-Spieler ist diese Nachricht ganz sicher nicht.
Lightning
2011-05-27, 17:36:19
Also erstmal: Wie die PS4 wirklich aussehen wird, und welche Auswirkungen das auf zukünftige PC-Spiele haben wird: Pure Spekulation. Daher passt die Meldung besser ins Spekuforum. Und da wir dort schon einen inhaltsähnlichen Thread über die Next-Gen-Konsolen haben, habe ich die Themen zusammengeführt.
Zwischen der PS1 und PS2 lagen afaik 5 Jahre. Der zeitliche Abstand zwischen der PS3 und PS4 wird wesentlich größer. Außerdem braucht man für den "Wow-Effekt" bei der PS4 wesentlich mehr als Faktor 10. Eine starke Verbesserung der Optik wird in Zukunft immer teurer.
Es waren sieben Jahre zwischen PS2 und PS3. Sollte die PS4 beispielsweise Anfang 2014 kommen, wäre das der gleiche zeitliche Abstand. Ansonsten gebe ich dir recht.
psp2 wird schon ps3 leistung (optik) erzielen[...]
Das war mal ein Gerücht, ist aber unbestätigt und passt auch nicht zu den letzten Meldungen über die Hardware-Specs. Diese Leistung kriegt man imo einfach noch nicht in einen Handheld, da Verbrauch und Abwärme einfach zu groß sind.
Oje... geht das Märchen mit der Optimierung schon wieder los?
Ein Märchen ist es nicht. Man hat auf Konsolen einen direkteren Hardwarezugriff und kann auf eine konkrete Architektur und Auslegung mit all ihren Vorteilen und Flaschenhälsen optimieren. Dass man dadurch keine Wunder bewirken kann, ist klar, aber ein bisschen was geht schon. John Carmack spricht beispielsweise grob von einem Faktor 2 ggü. vergleichbarer PC-Hardware, auch wenn sich das natürlich schwer generalisieren lässt.
Man sollte dabei aber auch bedenken warum die PS3 so teuer war. Dies lag nicht nur am Cell, sondern auch am Blu-Ray-Laufwerk, das zum Release der PS3 noch verdammt teuer war.
Genaue Aufschlüsselung der Kosten (http://www.digitimes.com/news/a20061117PR200.html).
Es lag bestimmt nicht an einem Bauteil allein, dass die PS3 beim Launch so teuer war.
Sorkalm
2011-05-27, 18:18:33
Und da wir dort schon einen inhaltsähnlichen Thread über die Next-Gen-Konsolen haben, habe ich die Themen zusammengeführt.
(Ich erlaube mir mal den Modtexte normal zu zitieren. ;))
Da ja jetzt langsam mehr Details bekannt werden, insbesondere für den Wii-Nachfolger der ja demnächst präsentiert werden soll, halte ich es für nicht mehr so praktikabel alles in einen Thread zu hauen. Anfangs wo nur wild herumspekuliert wird klappt das zwar gut, aber wenn man einige wenige Fakten als "Spekulationsgrundlage" bekommen während verschiedene Threads schon hilfreich (es gibt genug zu spekulieren solange die Geräte nicht endgültig vorgestellt sind -> genaue Hardwarezusammensetzung etwa).
Und wie viel soll dann dieser 50x50x50cm 2kW Brüllwürfel kosten?;D
Heutige Gamer PCs mit mehreren >300W GraKas wird man wohl kaum noch einmal überbieten können, es sei denn man setzt auf 3D-Grafik in der Cloud, was aber auch auf dem PC angeboten werden könnte.
Eher werden wohl zukünftigen Konsolen sich als gehobene Gaming-Home-Computing-Station oberhalb der Pads positionieren.
Der durchschnittliche GamerPC hat aber keine mehrere 300W Grakas ;) sondern als Neuanschaffung eher sowas wie eine GTX560/70 oder 6870 etc.
Ausserdem wer redet denn hier von reiner Rohleistung? Ich spreche vom Gebotenen.
Wenn man mal bedenkt wieviel Lichtjahre die PS3/Xbox360 heutzutage rein technisch hinterherhinken, ist die gebotene Optik aber immer noch erstaunlich.
Stimmt. Deswegen hatte die PS3 in allen Spielen Full HD zur Auswahl. :|
Zum release gabs keine normalen GamerPCs und Spiele die PS3 Optik darstellen konnten.
Das war mal ein Gerücht, ist aber unbestätigt und passt auch nicht zu den letzten Meldungen über die Hardware-Specs. Diese Leistung kriegt man imo einfach noch nicht in einen Handheld, da Verbrauch und Abwärme einfach zu groß sind.
naja der PSP2 steckt ein SGX543MP4+ also eine "Quadcore" GPU mit ordentlich bums.
Schaut man sich mal einen Vorserienvergleich von Uncharted an
http://www.gamesaktuell.de/Uncharted-3-Drakes-Deception-PS3-233760/News/Uncharted-fuer-NGP-Erster-echter-Screenshot-erschienen-So-gut-wie-PS3-Grafik-809442/
finde ich das doch schon äusserst beachtlich.
Man sollte auch nicht vergessen das man auf so einem 4.3" screen deutlich besser tricksen kann als auf dem 40" im Wohnzimmer.
Drill
2011-05-27, 18:20:47
(Ich erlaube mir mal den Modtexte normal zu zitieren. ;))
Da ja jetzt langsam mehr Details bekannt werden, insbesondere für den Wii-Nachfolger der ja demnächst präsentiert werden soll, halte ich es für nicht mehr so praktikabel alles in einen Thread zu hauen. Anfangs wo nur wild herumspekuliert wird klappt das zwar gut, aber wenn man einige wenige Fakten als "Spekulationsgrundlage" bekommen während verschiedene Threads schon hilfreich (es gibt genug zu spekulieren solange die Geräte nicht endgültig vorgestellt sind -> genaue Hardwarezusammensetzung etwa).
es gibt einen thread im konsolenforum (irgendwie logisch, wenn man bedenkt, dass es sich dabei um eine konsole handelt)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=506519
gruntzmaker
2011-05-27, 18:30:44
Oje... geht das Märchen mit der Optimierung schon wieder los? Wenn portierte Spiele am Anfang am PC schlecht performen dann liegt das einfach an schlechten Tools. Das war auch das Hauptproblem bei den ersten Ports.
Und ich kann dir versichern, dass bei den zukünftigen Konsolen (sollten vernünftige Porttools vorliegen) die Grafik nicht besser sein wird als auf dem dann aktuellen PC weil diese Kisten ganz einfach nicht die thermischen Gegebenheiten bieten wie ein Midi/Bigtower. Niemand wird in so eine kleine Kiste eine Grafikeinheit verbauen die 250W+ verbrät. Eine aktuelle GTX580 dürfte schon mindestens den Faktor 12 bieten im Vergleich zu dem was in der PS3 steckt. Bis die PS4 kommt erscheinen noch mindestens 2 neue Grafikkartengenerationen.
Punkt 1:
Die Entwickler wollen viel verkaufen also halten die sich an den Standard des Mainstreams und der ist in einem Jahr vielleicht ansatzweise die besagte GTX.
Kein Softwareentwickler baut auf eine Hardware, die gerade mal 10% der Käuferschaft besitzt. Auch good ol Crytek hat sich den Zahn ziehen lassen.
Punkt 2:
Weil die Entwicklung von Spielen immer teurer wurde, ist die Multiplattformstrategie nur ein logisches Vorgehen.
Da sich aber Konsolen immer schon besser verkaufen lassen als teure PCs, ist eine Entwicklung, die sich nur nach dem PC richtet nunmal nicht zu erwarten.
Die PC Spiele Verkäufe müssten hierfür explodieren und PS4 und Xbox 720 sowie Wii HD in der Summe hinter sich lassen. Wie wahrscheinlich ist das wohl? Was PS4, Xbox 720 und Wii HD angeht, müsste das sehr bald eintreten, die Entwicklung für besagte Konsolen dürfte schon angelaufen sein. Davor wird entschieden, nicht danach.
Fazit: Wie stark die nächste PS4 wird, ist völlig egal, weil ziemlich sicher für diese entwickelt wird und eben gleichzeitig auch für Xbox 720 und Wii HD.
Da gibt es keine Leadplattform sondern nur ein Standard, der von allen Plattformen ansatzweise erfüllt werden kann.
Der PC ist als Verkaufsplattform einfach nicht stark genug, oft verkaufen sich dieselben Titel, auch zB Ego Shooter fast 4mal so oft auf nur einer Konsolenart.
Das ist ernüchternd für PC only Leute, aber wonach gehen wohl gewinnorientierte Spielehersteller?
dargo
2011-05-27, 18:55:56
Es waren sieben Jahre zwischen PS2 und PS3. Sollte die PS4 beispielsweise Anfang 2014 kommen, wäre das der gleiche zeitliche Abstand. Ansonsten gebe ich dir recht.
Argh... ich sehe jetzt erst, dass ich hier einiges durcheinander geworfen habe. Erstens meine ich natürlich den zeitlichen Abstand zwischen PS2 und PS3 und nicht PS1 und PS2. Und zweitens sind die 5 Jahre tatsächlich falsch. In Europa waren es laut Wikipedia 6 Jahre und 4 Monate.
Ein Märchen ist es nicht. Man hat auf Konsolen einen direkteren Hardwarezugriff und kann auf eine konkrete Architektur und Auslegung mit all ihren Vorteilen und Flaschenhälsen optimieren. Dass man dadurch keine Wunder bewirken kann, ist klar, aber ein bisschen was geht schon. John Carmack spricht beispielsweise grob von einem Faktor 2 ggü. vergleichbarer PC-Hardware, auch wenn sich das natürlich schwer generalisieren lässt.
Naja... dass man Grafikleistung bei der PS3 durch Auslagerung bestimmter Effekte auf den Cell einsparen kann ist klar. Dass dabei aber gleich ein Faktor 2 bei rumkommen soll kann ich kaum glauben und gilt erstmal zu beweisen. Faktor 2 halte ich ohne Beweise eher für Marketinggeblubber. Diese Vergleiche gab es früher schon mehrmals und ich glaube man ist sich einig geworden der RSX wäre mit einer G7900GT vergleichbar. Durch den Cell-Vorteil von mir aus gerne auch im besten Fall G7900GTX. Dann sollte es aber wirklich gut sein.
Zum release gabs keine normalen GamerPCs und Spiele die PS3 Optik darstellen konnten.
Wie bitte? Die PS3 erschien laut Wikipedia in Europa im März 2007. Im November 2006 erschien bereits die G8800GTX. Ich habe jetzt mal spontan zwei Multiplattformtitel rausgesucht:
http://www.computerbase.de/artikel/grafikkarten/2006/test-nvidia-geforce-8800-gtx/16/
http://www.computerbase.de/artikel/grafikkarten/2006/test-nvidia-geforce-8800-gtx/26/
In 1280x1024 (was eine etwas höhere Auflösung ist als das was die PS3 bei diesen Spielen bietet) liefert diese Karte deutlich mehr Frames als eine PS3. Selbst die X1900XTX die afaik Anfang 2006 erschien liefert schon deutlich mehr fps.
Edit:
Ich bin mir jetzt gar nicht so sicher ob die beiden Spiele für die PS3 erschienen sind. Sorry... ist schon lange her. Dann halt als Beispiel Fear:
http://www.computerbase.de/artikel/grafikkarten/2006/test-nvidia-geforce-8800-gtx/18/
Das wird wenigstens von b3d bestätigt:
http://forum.beyond3d.com/showpost.php?p=1113342&postcount=2
@gruntzmaker
Ich suche verzweifelt in deinem Post den Zusammenhang zu dem was du von mir zitiert hast.
Lightning
2011-05-27, 19:21:03
Naja... dass man Grafikleistung bei der PS3 durch Auslagerung bestimmter Effekte auf den Cell einsparen kann ist klar. Dass dabei aber gleich ein Faktor 2 bei rumkommen soll kann ich kaum glauben und gilt erstmal zu beweisen. Faktor 2 halte ich ohne Beweise eher für Marketinggeblubber. Diese Vergleiche gab es früher schon mehrmals und ich glaube man ist sich einig geworden der RSX wäre mit einer G7900GT vergleichbar. Durch den Cell-Vorteil von mir aus gerne auch im besten Fall G7900GTX. Dann sollte es aber wirklich gut sein.
Mir geht es da gar nicht mal um den Cell. Beispielsweise ist man nicht auf DirectX festgenagelt, sondern kann u.U. direkter und an mehr Funktionen der GPU herankommen. Aber das kann Coda oder ein anderer Entwickler sicher besser erklären.
dargo
2011-05-27, 19:37:55
Aber das kann Coda oder ein anderer Entwickler sicher besser erklären.
Ich glaube der hat keine Lust mehr. :D Die Diskussionen gibt ja jedes Jahr aufs Neue. :ugly:
Lightning
2011-05-27, 19:56:37
Ich glaube der hat keine Lust mehr. :D Die Diskussionen gibt ja jedes Jahr aufs Neue. :ugly:
Ein bisschen was zu dem Thema gibts in diesem Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=505025
Ist aber nur ein Aspekt. Auch ich kenne keine Details, nur als Denkanstoß: Es muss einen Grund haben, warum es auf Konsolen bereits problematisch sein kann, wenn sich die Hardwarelatenzen ändern (siehe letzter Die-Shrink in der 360), geschweige denn Taktraten oder gar die Architektur; während man auf dem PC hingegen prinzipiell erstmal kompatibel zu allem ist, was konform zu den Schnittstellen ist.
AYAlf_2
2011-05-27, 22:27:25
Erstens steht nirgendwo dass die PS4 schlechter als die PS3 sein wird - Das wird definitiv nicht der Fall sein, da brauch ich gar keine Glaskugel. Wieso sollte man sonst überhaupt eine PS4 bringen?
Und zweitens muss das nicht zwangsläufig was schlechtes für den PC bedeuten, weil so der grafisch/technische Unterschied sich immer weiter zu Gunsten des PC verschieben wird (und so mancher halbwegs Grafik -Interessierte vielleicht wieder zum PC zurückkehrt.) Ich fände eher das Gegenteil für den PC bedenklicher, nämlich wenn man wieder Hardware mit mehr Leistung als der beste Highend PC zum Bruchteil des Preises bekommen würde.
Alles Mutmaßungen natürlich;)
Stimmt ... weniger Geld macht bestimmt einen größeren Sprung der Technik möglich :freak:
PS1 -> PS2 -> PS3 -> PS4
Jetzt rate mal wie in der Vergangenheit der Faktor Technik gestiegen ist von Konsolen zu nächsten Konsolengeneration. Dann kannst du es dir selber ableiten ^^
Exxtreme
2011-05-27, 22:46:14
Stimmt ... weniger Geld macht bestimmt einen größeren Sprung der Technik möglich :freak:
PS1 -> PS2 -> PS3 -> PS4
Jetzt rate mal wie in der Vergangenheit der Faktor Technik gestiegen ist von Konsolen zu nächsten Konsolengeneration. Dann kannst du es dir selber ableiten ^^
Nochmal, du machst den Fehler, indem du davon ausgehst, dass teure Technik = gute Technik. Das wurde dir aber schon anhand des Xbox360-Beispiels gezeigt, dass dem nicht so sein muss.
Und zweitens, es ist nicht so, dass Sony eine Wahl hat. Noch einen 3,3 Milliarden-Flop überstehen sie mit Sicherheit nicht. Die wären beinahe an der PS3 krepiert.
Mr.Magic
2011-05-27, 23:42:29
Wie das in "Vielfachen" zu rechnen ist kann ich nicht sagen aber ich denke schon das PS4 zum erscheinen erstmal wieder neue Maßstäbe setzt und der GamerPC 1-2 Jahre benötigt um aufzuschliessen/vorbeizuziehen
Diese Aussage stört mich einfach.
Wann konnte denn jemals eine Konsole an einem guten Computer vorbeiziehen, und technische Maßstäbe setzen?
Atari 2600 vs. Apple II
NES vs. Amiga
Xbox vs. Athlon XP + GF4
PS3 vs. C2D + GF8SLI
Die Bereiche dazwischen bitte selbst ausfüllen.
Je mächtiger die neuen Konsolen werden, desto weniger sind sie eine Technologiebremse. Abgesehen von gesponsorten Exklusivtiteln kommen sowieso mindestens 1:1-Umsetzungen.
Wobei die Technik für mich das kleinste Problem aktueller Spiele ist - spätestens ab Dreamcast-Niveau taugt mir die (3D-)Grafik. Mich stört eher der häufige Einheitsbrei der hollywoodmäßigen "was auch immer gerade ankommt"-Klone.
Naja. Spart Geld, und man kann verpasste Klassiker nachholen.
[/rant]
Deathcrush
2011-05-27, 23:50:35
Wenn ich mir recht erinnere, hatte die XBox360 zur Zeit der VÖ einen Vorsprung. Als ich damals Kameo das erste mal gesehen habe, war ich doch sehr beeindruckt. Zu dem wurde dadurch erst das Programmieren für Mehrkern CPU´s Saloonfähig.
ShadowXX
2011-05-28, 01:16:08
Wenn ich mir recht erinnere, hatte die XBox360 zur Zeit der VÖ einen Vorsprung. Als ich damals Kameo das erste mal gesehen habe, war ich doch sehr beeindruckt. Zu dem wurde dadurch erst das Programmieren für Mehrkern CPU´s Saloonfähig.
Nicht wirklich....ich hatte zu dem Zeitpunkt eine 4 Core CPU von Intel, eine X1900 XT und 4 GB Ram....und die konnten es schon damals mit ner X360 aufnehmen (Dirt lief bei mir besser als auf ner X360).
Wenn ich mir recht erinnere, hatte die XBox360 zur Zeit der VÖ einen Vorsprung. Als ich damals Kameo das erste mal gesehen habe, war ich doch sehr beeindruckt. Zu dem wurde dadurch erst das Programmieren für Mehrkern CPU´s Saloonfähig.
Das Problem ist du vergisst die Auflösung. Die Konsolen erkaufen sich Grafikpracht mit niedrigen Auflösungen. 720p war auf dem PC nichteinmal Anno 2006 standard.
Lightning
2011-05-28, 08:52:32
Nicht wirklich....ich hatte zu dem Zeitpunkt eine 4 Core CPU von Intel, eine X1900 XT und 4 GB Ram....und die konnten es schon damals mit ner X360 aufnehmen (Dirt lief bei mir besser als auf ner X360).
Welche CPU soll das gewesen sein? Der Core 2 Duo kam erst Mitte 2006, der Quad noch später. Die X1900 XT erschien kurz nach der 360 (und etwa zu gleichem Gesamtpreis ;)), und dürfte etwa auf einem Niveau mit Xenos liegen. Vielleicht etwas mehr Rohleistung durch die höheren Taktraten, dafür aber keine Unified Shader.
Aquaschaf
2011-05-28, 08:57:14
Nicht wirklich....ich hatte zu dem Zeitpunkt eine 4 Core CPU von Intel, eine X1900 XT und 4 GB Ram....und die konnten es schon damals mit ner X360 aufnehmen (Dirt lief bei mir besser als auf ner X360).
Ich denke es war so gemeint, dass die Tatsache dass in Konsolen Multicore-CPUs verbaut wurden wesentlich dazu beigetragen hat dass Spiele überhaupt für Multicore-CPUs programmiert wurden.
dargo
2011-05-28, 09:50:28
Nicht wirklich....ich hatte zu dem Zeitpunkt eine 4 Core CPU von Intel, eine X1900 XT und 4 GB Ram....und die konnten es schon damals mit ner X360 aufnehmen (Dirt lief bei mir besser als auf ner X360).
4 Core CPU? :confused: Zum damaligen Zeitpunkt gabs afaik höchstens den Pentium 4 mit HT oder irre ich mich da?
AnarchX
2011-05-28, 10:18:17
Seit Anfang 2005 gab es Endkunden-Dual-Cores (teilweise mit 4 Threads - Pentium-D). Endkunden-Quadcores gab es erst Ende 2006.
Ein paar Enthusiasten hatten aber auch Dual-Sockel-Systeme. :D
Deathcrush
2011-05-28, 10:26:29
Nicht wirklich....ich hatte zu dem Zeitpunkt eine 4 Core CPU von Intel, eine X1900 XT und 4 GB Ram....und die konnten es schon damals mit ner X360 aufnehmen (Dirt lief bei mir besser als auf ner X360).
Ne ist klar ;) Und das Ende 2005. Und die 1900er kam doch auch erst 2006 raus. Und dann vergesse bitte nicht, das die GPU der Graka eine andere Architektur hatte, als deine reine DX9 Grafikkarte.
Ich denke es war so gemeint, dass die Tatsache dass in Konsolen Multicore-CPUs verbaut wurden wesentlich dazu beigetragen hat dass Spiele überhaupt für Multicore-CPUs programmiert wurden.
Richtig, denn auf Konsolen musste man für Mehrkern CPU´s programmieren, da sonnst die CPU zu "langsam" wäre. Und so musste man sich auch auf dem PC damit auseinander setzen.
Ailuros
2011-05-28, 11:12:51
Da PS4 schon im Design liegen soll, weiss vielleicht jemand schon von wem die GPU IP stammt? :biggrin:
Mr.Magic
2011-05-28, 11:39:07
Ich kenne Leute, die hatten 1999 schon Multi-CPU-Systeme. Dummerweise hatte das damals der kleinste gemeinsame Nenner aka Konsole noch nicht. AFAIR wurde der Support aus Quake 3 sogar rausgepatcht.
Unified Shader hatte man am PC als die 360 rauskam nicht, das stimmt. Aber selbst frühe 360 "Ports" (Call of Duty 2, Condemned, Gun, NFS: Most Wanted, Quake 4) waren am PC problemlos spielbar - spätestens in Konsolenauflösung.
Deathcrush
2011-05-28, 11:44:53
Ich kenne Leute, die hatten 1999 schon Multi-CPU-Systeme.
Aber die Regel war es sicher nicht, schon gar nicht für einen Spiele PC. Zu dem wird das ganze auch schwer bezahlbar gewesen sein
Dummerweise hatte das damals der kleinste gemeinsame Nenner aka Konsole noch nicht. AFAIR wurde der Support aus Quake 3 sogar rausgepatcht.
An den Konsolen lag es sicher nicht. Singlecore war damals einfach ausreichend und selbst Grafikreferenzen wir Far Cry konnten damit nix anfangen.
Mr.Magic
2011-05-28, 11:52:07
Natürlich war Singlecore ausreichend. Ich habe obige 2005er "360 Spiele" noch am Athlon XP gespielt.
Natürlich lag der fehlende Multicore-Support an den nichtvorhandenen Multicore-Konsolen. Außerhalb der Computerländer (u.a. Russland, Brasilien, Deutschland) wird traditionell auf der Konsole gespielt ($$$).
Deathcrush
2011-05-28, 12:17:35
Natürlich lag der fehlende Multicore-Support an den nichtvorhandenen Multicore-Konsolen.
Das kann man sich auch einreden. Multicore war einfach nicht erschwinglich und wurde daher nicht berücksichtigt. Bei Quake 3 kam der Support auch nur wegen dem HT zum Einsatz. Warum wohl haben die damaligen PC Exklusivespiele keine Multicoresupport. Bestimmt nicht wegen der Konsolen. Und Multiplattformtitel waren bei der PS2 und XBox auch noch kein so großes Thema wie heute.
Sven77
2011-05-28, 12:22:25
Da PS4 schon im Design liegen soll, weiss vielleicht jemand schon von wem die GPU IP stammt? :biggrin:
IBM (nur geraten ;))
thade
2011-05-28, 12:25:19
Ich kenne Leute, die hatten 1999 schon Multi-CPU-Systeme. Dummerweise hatte das damals der kleinste gemeinsame Nenner aka Konsole noch nicht. AFAIR wurde der Support aus Quake 3 sogar rausgepatcht.
Mein Sega Saturn der 1994 released wurde, hatte eine Multi-CPU-Architektur. :eek:
PC-Failwars geht weiter...
Mr.Magic
2011-05-28, 12:34:02
@Deathcrush
Carmack machte damals großen Hype um Multicore, und dass Quake 3 dies unterstützen würde. Deshalb, und weil sie gerade erschwinglich waren, hatten sich damals einige Leute Multi-CPU-Systeme zugelegt (schnelle Pentium 2 AFAIR). Dann kam der Athlon auf den Markt...
Hyperthreading gibt es seit 2002. Zu dem Zeitpunkt war der verbuggte Threading-Support längst aus Quake 3 entfernt.
Multiplattform war immer ein großes Thema. Abgesehen mal von der frühen NES-Zeit, als Nintendo noch mit illegalen Mitteln Developer exklusiv an ihre Konsole band, wofür sie dann auch bestraft wurden.
Selbst wenn du Multiplattform auf Konsolen vs. Computer beschränken willst, große Publisher bringen ihre Megaseller idR für beides raus.
@Apple
Nur war der Sega Saturn ein ziemlicher Flop. Sega brachte zu viele Systeme in zu kurzem Abstand. Deshalb, und wegen dem Erfolg der PlayStation, wurde die Hardware des Saturn kaum ausgereizt.
Ailuros
2011-05-28, 14:31:25
IBM (nur geraten ;))
IBM und GPUs? :rolleyes:
Sven77
2011-05-28, 14:39:54
Ups... ^^
Tesseract
2011-05-28, 14:42:55
es gibt ja im prinzip eh nur brauchbare architekturen von amd und nvidia. wer sollte sonst die GPU stellen? eventuell vielleicht noch was aufgeblasenes von powerVR aber das ist schon eher unwahrscheinlich. viel mehr gibt sonst ja nicht mehr was auf einem halbwegs kompetitiven level mitspielen kann.
besonders interessant werden wohl die kommenden CPU/GPU-hybriden sein die auf der einen seite die "falsche" architektur haben (ARM bei nvidia, x86 bei amd; alle aktuellen konsolen sind jedoch powerPC) auf der anderen seite aber eine ziemliche ideallösung für konsolen darstellen.
Nakai
2011-05-28, 14:47:26
Die Frage ist doch eher was Sony ausgeben will, bzw. was man sich selber zutraut. ;)
Man könnte ja bei AMD oder Nvidia nachfragen. Bei AMD hätte Sony eine gute Chance gleiche eine gesamte Plattform zu bekommen. Vor allem wäre bei AMD der SOC-Vorteil deutlich präsenter. NV bietet noch keine synthetisierbare Grafiklösung an. Bei AMD hat man praktisch schon zwei Chips mit integrierter GPU veröffentlicht.
Aber mein Geheimtipp ist und bleibt PowerVR mit RGX.;)
Falls Sony gute Erfahrungen mit dem SGX in der NGP macht, wäre es nur ein kleiner Schritt direkt auf den RGX zu gehen. Vor allem könnte man den gut in jedes Design integrieren, schön skalieren und dank guter Fertigung mit vielen Toleranzen hoch takten lassen.
es gibt ja im prinzip eh nur brauchbare architekturen von amd und nvidia. wer sollte sonst die GPU stellen? eventuell vielleicht noch was aufgeblasenes von powerVR aber das ist schon eher unwahrscheinlich. viel mehr gibt sonst ja nicht mehr was auf einem halbwegs kompetitiven level mitspielen kann.
Genau aufgeblasen. Der Witz an der Sache ist, dass PowerVR den SGX5MP maximal auf 16 Cores hochpumpen kann. Nur hat das bis jetzt noch keiner gemacht, bzw. wird niemand im Embedded Bereich machen. Es ist interessant, dass man diese Option eingebaut hat...ein Schelm wer böses denkt.
dargo
2011-05-28, 14:51:41
Da PS4 schon im Design liegen soll, weiss vielleicht jemand schon von wem die GPU IP stammt? :biggrin:
Intel. :D :weg:
Tesseract
2011-05-28, 14:54:43
Intel. :D :weg:
als später konter auf die wii oder was? :D
AnarchX
2011-05-28, 15:18:58
Stellt sich die Frage wozu man vielleicht kompatibel sein will. Zur PS3 oder NGP?
Bei ersterem wäre wohl auch breiter Cell mit SPs und mehr Steuer-PPC-Cores und einem breiteren (oder Multi-Core) RSX denkbar.
Also ich sag mal, dass die PS4 mindestens so stark sein wird, dass sie PS3 Games emulieren kann.
G.A.S.T.
2011-05-28, 15:57:31
Die Frage ist doch eher was Sony ausgeben will, bzw. was man sich selber zutraut. ;)
Man könnte ja bei AMD oder Nvidia nachfragen. Bei AMD hätte Sony eine gute Chance gleiche eine gesamte Plattform zu bekommen. Vor allem wäre bei AMD der SOC-Vorteil deutlich präsenter.
Entwickelt nV nicht grade ein SoC mit CPUs auf ARM-Basis?
Bis Ende 2013 wäre es ja auch gut möglich, dass CPU samt GPU von nV kommen.
Exxtreme
2011-05-28, 16:00:42
Also ich sag mal, dass die PS4 mindestens so stark sein wird, dass sie PS3 Games emulieren kann.
Wenn sie weiterhin auf Cell setzen dann vielleicht ja. Nutzen sie aber was anderes dann eher nope. Bzw. mit ziemlicher Sicherheit nope. ;)
san.salvador
2011-05-28, 16:01:46
Wenn sie weiterhin auf Cell setzen dann vielleicht ja. Nutzen sie aber was anderes dann eher nope. Bzw. mit ziemlicher Sicherheit nope. ;)
Das wäre dann aber keine Eumlation, sondern eine PS3 in der PS4.
Yo dawg, i heard u like PS, so.... :D
Tesseract
2011-05-28, 16:20:13
IIRC hat ein sonymitarbeiter (halboffiziell) vor einiger zeit schon gesagt, dass sie keinen cell mehr einsetzen werden.
Avalox
2011-05-28, 17:02:35
Also ich sag mal, dass die PS4 mindestens so stark sein wird, dass sie PS3 Games emulieren kann.
Wieso? Die PS3 hat sich erst besser verkauft, als Sony die PS2 Emulation entfernt hat und deshalb etwas günstiger verkauft wurde.
Schon diese Erfahrung wird Sony ganz sicher nicht übermäßig motivieren alte PS3 Spiele zugänglich zu halten.
G.A.S.T.
2011-05-28, 17:11:45
Wieso? Die PS3 hat sich erst besser verkauft, als Sony die PS2 Emulation entfernt hat und deshalb etwas günstiger verkauft wurde.
Schon diese Erfahrung wird Sony ganz sicher nicht übermäßig motivieren alte PS3 Spiele zugänglich zu halten.
sinnvoller wäre doch eh eine Umsetzung der "besten" Titel der PS3,
dann in 1080p und 3D, mit AA und AF und ohne ruckeln :cool:
Schaffe89
2011-05-28, 17:19:18
Hm, wäre schön wenn die zukünftige PS4 auf solche Schmenkerl wie gescheite Kantenglättung setzen würde.
Allerdings würde das wieder die Kosten zu hoch treiben.
Man setzt wohl lieber auf Post Processing Effekte wie MLAA...
Tesseract
2011-05-28, 17:26:15
Man setzt wohl lieber auf Post Processing Effekte wie MLAA...
MLAA ist extrem teuer und auf aktuellen konsolen eher eine notlösung.
Ganon
2011-05-28, 17:26:25
Meiner Meinung nach sollte Sony mehr auf den "Standard-Pfad" gehen.
"Einfach" von IBM einen Quadcore auf G5-Basis machen lassen, einen passenden Grafikchip dazu und viel RAM reinpflastern. Ich schätze mal, dass Microsoft nix anderes tun wird. Vllt. noch eine kleinere GPU für Physik-Berechnungen, aber das müsste man ggf. abschätzen...
Das Design lässt sich flexibel für die Zukunft aufbohren und Entwickler sind nicht gezwungen bei jeder neuen Playstation-Generation bei 0 anzufangen.
Sehe echt keinen Sinn darin bei Konsolen dieses "Spezial-Hardware"-Spiel noch weiterzutreiben. Das hat im Endeffekt für den Anwender nur Nachteile (keine Abwärtskompatibiltät, ggf. schlechtere Spieltechik (ruckeln), etc.).
Man sollte das gesparte Geld durch ein Standard-Design eher in die Software stecken.
G.A.S.T.
2011-05-28, 17:27:36
Zwischen den Playstations lag ein Geschwindigkeitsfaktor von ~10.
Das wird diesmal nicht zutreffen, ist aber auch nicht nötig.
Es wird so viel Power benötigt, dass man FullHD inkl. 3D anbieten kann.
Also Faktor 4-6 wird schon reichen. Jemand anderer Ansicht?
Das wird nicht reichen, um sich von der alten Generation abzusetzen.
Die nächsten Konsolen werden bestimmt wieder das 10 bis 20fache an Grafik-Leistung haben.
Es wird doch nur deswegen so lang gewartet, damit man diesen Leistungssprung auch bei ertragbaren Herstellungskosten bieten kann.
Tesseract
2011-05-28, 17:36:46
Das wird nicht reichen, um sich von der alten Generation abzusetzen.
man muss sich nicht von der alten generation absetzen sondern von der konkurrenz der neuen. wenn die eigene konsole 4x so schnell ist wie die alte, die der konkurrenz jedoch 8x so schnell und man keine weiteren alleinstellungsmerkmale (wie damals die wii) hat, wird man ein problem bekommen.
dargo
2011-05-28, 17:37:25
MLAA ist extrem teuer und auf aktuellen konsolen eher eine notlösung.
Wenn CPU-Leistung brach liegt weil die Engine nicht alle Kerne auslasten kann dann ist MLAA ein Segen. "Kantenglättung" quasi for free. Das gilt übrigens auch für den PC. Ich bin schon auf das MLAA in Shift 2 gespannt. Gerade weil Shift 2 ein Dualcore-Game ist ist noch sehr viel freie CPU-Leistung bei =>Quadcores vorhanden.
Tesseract
2011-05-28, 17:40:09
Wenn CPU-Leistung brach liegt weil die Engine nicht alle Kerne auslasten kann dann ist MLAA ein Segen.
wenn das der fall ist (wie bei der PS3), ist die hardware einfach schlecht designt, vor allem wenn es sich um eine reine spielekonsole handelt.
in dem fall wär das transistor/abwärme/herstellungskosten-budget in einer stärkeren GPU wesentlich besser aufgehoben.
es hat schon einen grund warum die eigentlich stärkere PS3 der 360 meist eher hinterherdackelt.
G.A.S.T.
2011-05-28, 17:54:04
man muss sich nicht von der alten generation absetzen sondern von der konkurrenz der neuen. wenn die eigene konsole 4x so schnell ist wie die alte, die der konkurrenz jedoch 8x so schnell und man keine weiteren alleinstellungsmerkmale (wie damals die wii) hat, wird man ein problem bekommen.
man muss sich sehr wohl auch von der alten Generation absetzten........nur bisher war das ja auch immer problemlos der Fall ;)
Was es wohl für ein Theater geben würde, wenn die meisten Spiele sich nicht von denen der alten Gen absetzen können?
dargo
2011-05-28, 17:54:38
wenn das der fall ist (wie bei der PS3), ist die hardware einfach schlecht designt, vor allem wenn es sich um eine reine spielekonsole handelt.
Ich sehe es nicht so. Wenn heutige Software nicht über einen Dualcore hinauskommt ist imho die Software nicht mehr zeitgemäß. Die Schuld der "breiteren" Hardware in die Schuhe zu schieben halte ich für unangebracht. Ein Quadcore lässt sich einfacher herstellen als ein doppelt so hoch getakteter Dualcore. Es gibt schon einen Grund warum wir heute keinen Intel Core i3 mit 6-7Ghz sehen. Beim Sechskerner vs. Zweikerner siehts noch übler aus.
Tesseract
2011-05-28, 18:02:26
Wenn heutige Software nicht über einen Dualcore hinauskommt ist imho die Software nicht mehr zeitgemäß.
du kannst immer irgendwas finden, mit dem du ungenutzte CPU-power nutzen kannst (oft mit fraglichem kosten/nutzen-faktor), du kannst aber nicht jede software beliebig parallelisieren.
nur weil es software gibt die sich irgendwelche "beschäftigungstherapien" für die restlichen cores sucht ist diese nicht per se moderner.
dargo
2011-05-28, 18:16:38
du kannst immer irgendwas finden, mit dem du ungenutzte CPU-power nutzen kannst...
Und warum tut man das heute bei einigen Games nicht?
...du kannst aber nicht jede software beliebig parallelisieren.
Ich wüßte nicht warum sich Rennspiele schwer über einen Dualcore skalieren lassen sollten. Schließlich schaffen das andere Rennspiele auch wesentlich besser.
nur weil es software gibt die sich irgendwelche "beschäftigungstherapien" für die restlichen cores sucht ist diese nicht per se moderner.
Ich habe keine Ahnung was du damit meinst. Für mich zählt nur der fps-Zuwachs.
Tesseract
2011-05-28, 18:37:43
Und warum tut man das heute bei einigen Games nicht?
damit dualcores nicht an künstlich aufgeblasener last eingehen die eventuell kaum einen mehrwert bietet.
Ich wüßte nicht warum sich Rennspiele schwer über einen Dualcore skalieren lassen sollten. Schließlich schaffen das andere Rennspiele auch wesentlich besser.
weißt du was diese rennspiele intern alles machen? wenn nicht kannst du die nicht wirklich vergleichen.
Ich habe keine Ahnung was du damit meinst. Für mich zählt nur der fps-Zuwachs.
wenn die performance an einem bestimmten thread hängt, der nicht weiter parallelisierbar ist, bringen dir mehr cores keine FPS, es sei denn man beschäftigt die anderen cores noch mit etwas anderem, dass dann wiederum einen dualcore ausbremst. wenn dieses "andere" aber nicht wirklich relevant ist (z.B. eine AI für leute in gebieten, in denen du die nächsten 2 stunden nicht sein wirst und solche späße) ist es eher ein scheingewinn weil du nicht durch den quad gewinnst sondern nur den dualcore unnötig verlierst.
überhaupt sind sehr gut parallelisierbare aufgaben tendenziell sowieso eher GPGPU aufgaben und wenn man dann eine konsole plant, die im gegensatz zu high-end-PCs normalerweise kaum durch die grenzen des fertigungsprzesses beschränkt ist sondern durch herstellungskosten/TDP/platz und man die wahl hat zwischen mehr CPU-cores oder mehr shadercores ist letzteres wohl die sinnvollere variante.
ehrlich gesagt glaube ich eine dualcore konsole mit einer guten pro-thread-performace (ähnlich der eines i3-SB) und einem schwerpunkt auf GPU-power wäre die sinnvollste variante für eine next-gen-konsole wenn ich mir die aktuelle generation so ansehe, die schon mid-life (eigentlich schon seit knapp nach release) grandenlos am GPU-limit hängt.
dargo
2011-05-28, 19:01:02
damit dualcores nicht an künstlich aufgeblasener last eingehen die eventuell kaum einen mehrwert bietet.
Ich habe vorhin mit Absicht Shift 2 erwähnt weil die Performance dank schlechtem Multithreading unterirdisch ist. Schau dir mal die Skalierungen von Shift 1 und Shift 2 an:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6973305&postcount=2
Die Skalierung ist im Prinzip im Nachfolger genauso schlecht wie im ersten Teil. Im ersten Teil finde ich es aber noch nicht so tragisch weil selbst zwei Kerne eines i5-750 über 60fps liefern. Beim zweiten Teil hat sich die CPU-Last deutlich erhöht, sodass zumindest in dieser Szene ein i5-750 nicht über 40fps kommt. Das finde ich ziemlich arm, diese CPU ist nicht gerade Mainstream. Ich erwarte nicht von jedem Spiel, dass es perfekt mit einem Quadcore oder sogar einem Sechskerner skaliert. Wenn aber ein Spiel mit einer überdurchschnittlichen CPU gerademal sich im Bereich von 40fps im zugegeben Worst Case bewegt dann wäre eine bessere Nutzung weiterer Kerne schon angebracht.
wenn die performance an einem bestimmten thread hängt, der nicht weiter parallelisierbar ist, bringen dir mehr cores keine FPS, es sei denn man beschäftigt die anderen cores noch mit etwas anderem, dass dann wiederum einen dualcore ausbremst. wenn dieses "andere" aber nicht wirklich relevant ist (z.B. eine AI für leute in gebieten, in denen du die nächsten 2 stunden nicht sein wirst und solche späße) ist es eher ein scheingewinn weil du nicht durch den quad gewinnst sondern nur den dualcore unnötig verlierst.
Nochmal... für mich zählen nur dazugewonnene Frames. Dein Beispiel ist insofern fehl am Platz, weil mir in dieser Szene auch mehr Kerne keinen einzigen Frame mehr bieten werden.
Tesseract
2011-05-28, 19:12:05
Nochmal... für mich zählen nur dazugewonnene Frames. Dein Beispiel ist insofern fehl am Platz, weil mir in dieser Szene auch mehr Kerne keinen einzigen Frame mehr bieten werden.
und ich will dir klar machen, dass mein beispiel der hauptgrund ist, warum nicht längst alles unbegrenzt mit multicore skaliert und warum ein 1GHz hexacore nichtmal im traum die performance eines 6GHz singlecores erreicht und das nicht immer an den "schlechten entwicklern" liegt, auch wenn es diese fälle natürlich auch gibt.
bloub
2011-05-28, 19:39:37
Mein Sega Saturn der 1994 released wurde, hatte eine Multi-CPU-Architektur. :eek:
PC-Failwars geht weiter...
das ganze war lustigerweise nicht wirklich ausgereift, deswegen wurde im normalfall nur eine cpu genutzt. epic fail, um mal in deinen slang zu bleiben.
gruntzmaker
2011-05-28, 20:28:48
und ich will dir klar machen, dass mein beispiel der hauptgrund ist, warum nicht längst alles unbegrenzt mit multicore skaliert und warum ein 1GHz hexacore nichtmal im traum die performance eines 6GHz singlecores erreicht und das nicht immer an den "schlechten entwicklern" liegt, auch wenn es diese fälle natürlich auch gibt.
X Durchzuführender Thread, perfekt parallelisierbar
y Zwingend nachfolgender Thread, muss zuerst bearbeitet werden, Aufteilung auf anderen Kern unmöglich.
Für Amateure, wie mich, stellt sich das zeichnerisch so dar.
Mehr Kerne bringen an der Y-Stelle nix, weil der zweite Core leider keinen Mitarbeitsnutzen bringt.
Warum dann nicht den zweiten Kern mit einem Y belasten?
Wäre der zweite Core mit nem Y Thread beschäftigt, wird das ihn möglicherweise noch beschäftigen, wenn Core 1 bereits problemlos X'en verteilen könnte.
Core 1 XXXXXXXYYYYYYYXXXXXXXX
Core 2 XXXXXXXLeerlauf XXXXXXXX
Was in der Praxis ein X und was ein Y sein kann, ist mir nicht bekannt. Aber müsste nicht alleine schon viel Rechenpower für das Zusammenführen der Threads draufgehen? Von dem Faktor 2 durch Doppelkern bleibt dann vielleicht noch gerade mal praktische 1,4 übrig oder?
Übrigens: Wird auf Cell nicht schon seit Uncharted 2 auch ein nicht unerheblicher Anteil der Grafiklast verteilt?
Ailuros
2011-05-28, 22:39:33
es gibt ja im prinzip eh nur brauchbare architekturen von amd und nvidia. wer sollte sonst die GPU stellen? eventuell vielleicht noch was aufgeblasenes von powerVR aber das ist schon eher unwahrscheinlich. viel mehr gibt sonst ja nicht mehr was auf einem halbwegs kompetitiven level mitspielen kann.
Um ehrlich zu sein haette ich schon etwas davon gehoert im Hintergrund wenn dem so waere, ergo ist mit 99% Wahrscheinlichkeit die Antwort wohl negativ; was heisst aufgeblasenes? Rogue kann mit ziemlich grosser Leichtheit die Leistungsansprueche einer zukuenftigen Konsole decken und immer noch einen ziemlich grossen Abstand zur maximalen Latenz des Designs zu halten. Kurz IMG braeuchte gar nichts aufblasen; nur X mehr cores benutzen als fuer smart-phones.
Im Hintergrund schreiben die meisten alle design wins AMD zu; irgendwie klingt mir das Ganze aber doch als Uebertreibung. Dass NV ganz weg vom Fenster ist kann ich momentan schwer verdauen.
Deinorius
2011-05-29, 01:47:15
Im Hintergrund schreiben die meisten alle design wins AMD zu; irgendwie klingt mir das Ganze aber doch als Uebertreibung. Dass NV ganz weg vom Fenster ist kann ich momentan schwer verdauen.
Um das jetzt vom PC-Sektor abzuleiten (auch wenn man es nicht übertreiben sollte, da Konsolen IPs immerhin an Konsolen-Bedürfnisse angepasst sein sollten) hat AMD gerade mit Evergreen den besseren Stand. Mehr Leistung bei niedrigerer TDP und Die Größe.
Würde da nvidia mithalten wollen, müssten sie wohl mehr anpassen als AMD. Aber wenn es wirklich so käme: alle drei Konsolen hätten dann einen IBM/AMD Mix. :freak:
Tesseract
2011-05-29, 02:10:33
@gruntzmaker: ich versteh ehrlich gesagt nicht was du genau meinst. das (dynamische) verteilen der threads auf die cores macht btw. der scheduler vom OS.
was heisst aufgeblasenes? aufblasen = mehr cores, takt, speicher etc. ohne viel an der architektur zu ändern.
Ailuros
2011-05-29, 09:47:59
Um das jetzt vom PC-Sektor abzuleiten (auch wenn man es nicht übertreiben sollte, da Konsolen IPs immerhin an Konsolen-Bedürfnisse angepasst sein sollten) hat AMD gerade mit Evergreen den besseren Stand. Mehr Leistung bei niedrigerer TDP und Die Größe.
Würde da nvidia mithalten wollen, müssten sie wohl mehr anpassen als AMD. Aber wenn es wirklich so käme: alle drei Konsolen hätten dann einen IBM/AMD Mix. :freak:
Wieso hat irgend jemand schon erwaehnt wie die perf/mm2 oder perf/W Verhaeltnisse bei Rogue genau aussehen? Ich erinnere dass das zukuenftige ST Ericsson A9600 210GFLOPs, >350M Tris/s, >5 GTexels nur fuer ein smart-phone Design ist.
aufblasen = mehr cores, takt, speicher etc. ohne viel an der architektur zu ändern.
Das obrige duerfte ein MP3 sein.
Deinorius
2011-05-29, 10:30:08
Das war auch eher zwischen nvidia und AMD gedacht. Beherrscht Rogue überhaupt das D3D11 Featureset?
Ailuros
2011-05-29, 16:47:13
Das war auch eher zwischen nvidia und AMD gedacht. Beherrscht Rogue überhaupt das D3D11 Featureset?
Maximal wohl schon, aber es wird wohl keiner so bloed sein und etwas mit DX11 in ein smart-phone integrieren. Maximal ging Serie5 offiziell bis auf D3D10.1 beim SGX545 (siehe Intel GMA7xx), sonst liegt der grosse Rest irgendwo ueber DX9.0 SM3.0 und unter DX10. Man muss eben auf die offiziellen Ankuendigungen warten aber bezweifle dass auch diese schon am Anfang alles verraten werden. Auf jeden Fall ueber double precision in den ALUs und atomic operations u.a. bin ich mir bei Rogue schon relativ sicher welches erstmal OpenCL und nicht nur OpenCL embedded bedeuten koennte.
Das einzige was mir jemand ausserhalb IMG privat zufluesterte ist dass ich ziemlich grosse Ueberraschungen erwarten sollte; an SONY hab ich nie gedacht und denke immer noch nicht dran. Mir ist die originale These die ich im Hinterkopf habe um einiges wichtiger ;)
=Floi=
2011-05-29, 17:02:04
warum nicht?
mit DX11 hat man 1. die ganzen vorteile auf seiner seite und 2. die nächsten 3-5 jahre ruhe.
Nightspider
2011-05-29, 17:07:28
Falls der Wii Nachfolger DX11 haben und ca. doppelt-drei mal so schnell sein sollte wie die 360 würden die Ports der PS4 und Xbox3 auch für den Wii Nachfolger umgesetzt werden, rein theoretisch. Damit würde BigN viele Käufer vom jetztigen Markt mitnehmen und quasi auch vom nächsten "Nextgen" Markt.
Rein theoretisch.
00-Schneider
2011-05-30, 20:53:21
K.A. ob Fake:
http://img12.imageshack.us/img12/1228/prcspec13iu.jpg
Specs sinnig?
fizzo
2011-05-30, 20:57:25
@ 00-Schneider
Ein Plagiat (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8758239#post8758239) ;) - würde mich aber auch interessieren....
san.salvador
2011-05-30, 21:01:44
Doppelt soviel Vram wie Ram?
Wut? ;D
dargo
2011-05-30, 21:02:50
Halte ich für Fake. Erstens würde die Performance vom Grafikchip ca. einer HD4890 oder HD5770 entsprechen was ich für zu hoch empfinde, passt außerdem nicht zur RV770 Familie. Und irgendwie passen die GFlops nicht zur Taktrate beim RV770. Außerdem würde ich keinen eDRAM erwarten.
Edit:
Rein rechnerisch müsste der RV770 mit 766Mhz bei 1226Gflops liegen.
http://www.computerbase.de/artikel/grafikkarten/2008/test-ati-radeon-hd-4870-x2/2/
Ob man sich das aber so einfach zusammenrechnen kann weiß ich nicht. Schließlich könnte die GPU für die Konsole "umgekrempelt" worden sein. Wobei ich mich frage ob das aus Kostengründen überhaupt Sinn macht? Ein einfacher Shrink wäre doch viel günstiger.
Botcruscher
2011-05-30, 21:12:41
Warum sollte der Grafikchip zu schnell sein? Von den Herstellungskosten und der Geschwindigkeit liegt man in einem super Bereich. Der RAM ist auch lustig. Minimum würde man dem Ding 1GB und 512MB VRAM geben. Klar ist es nicht echt.
dildo4u
2011-05-30, 21:13:44
Warum sollte der Grafikchip zu schnell sein? Von den Herstellungskosten und der Geschwindigkeit liegt man in einem super Bereich. Der RAM ist auch lustig. Minimum würde man dem Ding 1GB und 512MB VRAM geben. Klar ist es nicht echt.
Es gibt kein Hersteller der GPU's@32nm fertigt daher Murks.Die Konsole soll ab Oktober gefertigt werden da ist immer noch 40nm aktuell.
Hm, daran würde ich es jetzt nicht ausschließen. Es könnte ja durchaus ein Custom-Design sein, das bei z.B. Samsung, IBM o.ä. in 32nm gefertigt wird.
Aber es sind halt auch die anderen Punkte die es komplett unglaubwürdig machen.
gruntzmaker
2011-05-30, 21:17:55
Nur etwas unter 1400 Gflops? Enttäuschend... das kommt doch nichtmal an die jetzige neueste PC Grafikkartengeneration ran.
Schätze da ist der erste Konsolenhersteller an der aktuellen Grafikkarten Generation gescheitert. Sony machts bestimmt besser. Allerdings nicht mit einem Gigabyte Grafik Ram. Sony mag keine scharfen Texturen :D.
Im Ernst: Die Speccs sind sehr wahrscheinlich sehr viel schlechter.
dargo
2011-05-30, 21:18:20
Aber es sind halt auch die anderen Punkte die es komplett unglaubwürdig machen.
Kläre uns auf. :)
fizzo
2011-05-30, 21:21:01
Es gibt kein Hersteller der GPU's@32nm fertigt daher Murks.Die Konsole soll ab Oktober gefertigt werden da ist immer noch 40nm aktuell.
Sollte doch bis Ende des Jahres machbar sein: link (http://www.pcgameshardware.de/aid,819341/Llano-Auslieferung-der-32nm-APUs-gestartet/CPU/News/) oder bei IBM?
dargo
2011-05-30, 21:21:37
Nur etwas unter 1400 Gflops? Enttäuschend... das kommt doch nichtmal an die jetzige neueste PC Grafikkartengeneration ran.
Lol, ein RV770 mit den Gflops würde den Boden mit der Xbox360 und PS3 aufwischen. Außerdem will/kann die Wii2 gar nicht mit dem PC konkurieren, zumindest was die Leistung angeht. Aus thermischen und finanziellen Gründen.
Nightspider
2011-05-30, 21:26:13
Dargo das Ding heißt immernoch nicht Wii2.
Wenn die GPU schon von AMD kommt, wieso sollte man dieses Custom Design nicht bei Global Foundries fertigen? Oder Intel, siehe aktuelle Gerüchte.
32nm wird in der Chipgröße schon lange beherrscht.
Imo hat GDDR5 ne höhere Bandbreite als DDR2/3.
Ob der GDDR5 Speicher auch für andere Zwecke missbraucht wird weiß hier keiner. Zudem braucht man nicht viel mehr RAM, dank MultiCores und Steaming. VRAM braucht man jedoch weiterhin massiv für höher aufgelöste Texturen.
dildo4u
2011-05-30, 21:29:03
Dargo das Ding heißt immernoch nicht Wii2.
Wenn die GPU schon von AMD kommt, wieso sollte man dieses Custom Design nicht bei Global Foundries fertigen? Oder Intel, siehe aktuelle Gerüchte.
32nm wird in der Chipgröße schon lange beherrscht.
GPU's in der Klasse sind wesentlich schwieriger zu fertigen als der APU Abfall,wenns so einfach wäre müsste AMD nicht noch die nästen Jahre ihre GPUs bei TSMC fertigen lassen.
Nightspider
2011-05-30, 21:31:09
Wer sagt denn dass das einfach ist?
TSMC fertigt bald in 28nm, auch größere Chips.
Ein RV770 hat bei 32nm einen (relativ) niedrigen Platzbedarf. Und die Fertigung beginnt frühestens Oktober, wobei das auch Spekulation ist.
dargo
2011-05-30, 21:37:53
GPU's in der Klasse sind wesentlich schwieriger zu fertigen als der APU Abfall,wenns so einfach wäre müsste AMD nicht noch die nästen Jahre ihre GPUs bei TSMC fertigen lassen.
Ich denke eine GPU mit ~1 Milliarde Transistoren dürfte keine große Herausforderung Ende des Jahres in 32nm sein.
dildo4u
2011-05-30, 21:42:52
Ich denke eine GPU mit ~1 Milliarde Transistoren dürfte keine große Herausforderung Ende des Jahres in 32nm sein.
AMD kann nicht mal den weit weniger Komplexen(Viel mehr Cachefläche als Logik) BD rechtzeitig fertigen da verlässt sich Nintendo sicherlich nicht drauf.
dargo
2011-05-30, 21:51:48
AMD kann nicht mal den weit weniger Komplexen(Viel mehr Cachefläche als Logik) BD rechtzeitig fertigen da verlässt sich Nintendo sicherlich nicht drauf.
Wer sagt denn, dass die GPU von AMD gefertigt wird? :)
gruntzmaker
2011-05-30, 22:07:45
Lol, ein RV770 mit den Gflops würde den Boden mit der Xbox360 und PS3 aufwischen. Außerdem will/kann die Wii2 gar nicht mit dem PC konkurieren, zumindest was die Leistung angeht. Aus thermischen und finanziellen Gründen.
Ja aber das sollte man auch erwarten, beide Konsolen kamen ja auch schon vor nem halben Jahrzehnt raus.
Der PC hat schon immer den Maßstab vorgegeben und wenn man den nicht übertrifft, besitzt eine Konsole imho gar nicht die nötige Power um über mehrere Jahre konkurrenzfähig zu bleiben.
Konsolen wurden immer schon unter Hardware-Wert verkauft, aber wegen der Thermik wundert mich der Einsatz eines völlig veralteten RV770ers. Hohe Taktraten braucht der ja auch, ein neues Chipdesign wäre aber vielleicht mit deutlich weniger ausgekommen und trotzdem schneller gewesen.
Nach derzeitigem Stand wäre die Wii HD ne bessere 360/PS3 und wird dann technisch von PS4 und Xb720 hardwaretechnisch weggepustet.
dildo4u
2011-05-30, 22:09:23
Wer sagt denn, dass die GPU von AMD gefertigt wird? :)
IBM fertigt keine GPU's hat also keine Erfahrung Intel dito,TSMC bietet 32nm nicht an.Wenn man überlegt wie spektakulär Intel gescheitert ist größere GPU's zu fertigen,ist jedes andere Scenario als TSMC 40nm absurd,weil niemand auf der Welt über die Fertigungsmöglichkeiten bzw Forschungsbudget's von Intel verfügt.
Tesseract
2011-05-30, 22:09:29
Doppelt soviel Vram wie Ram?
Wut? ;D
warum denn nicht? in einer konsole ist das garnicht so verkehrt.
LovesuckZ
2011-05-30, 22:11:20
Hoffentlich nicht 10.1. Die sollen dort ein Juniper-Abklatsch einbauen. Dann gib es wenigsten Ports mit Tessellation, dass entsprechend einfach auf DX11 angepasst werden kann.
Kläre uns auf. :)
Wurden doch schon angesprochen. Vor allem die Rechenleistung passt halt nicht zur Taktrate.
robbitop
2011-05-30, 22:17:11
Ich hätte Nintendo eher so eingeschätzt, dass sie einen Liano einbauen - oder eine Customversion davon.
Die Specs sehen nach einer aktualisierten X360 aus.
Allerdings was seltsam wirkt:
Warum RAMBUS als Hauptspeicher? Sehr exotisch und sicher nicht günstiger als DDR2/3 Speicher.
Wäre 1-2 GiB GDDR5 @128 bit @aktuelle Taktraten für VRAM und RAM nicht sinnvoller gewesen? Dazu hätte man dann allerdings den eDRAM für die Entlastung des Framebuffers gut gebrauchen könnn.
Tesseract
2011-05-30, 22:22:46
Ich hätte Nintendo eher so eingeschätzt, dass sie einen Liano einbauen - oder eine Customversion davon.
solange es keine echte killer-alternative gibt die einen umstieg rechtfertigt ist es doch am vernünftigsten auf powerPC zu bleiben. allein wegen der kompatiblität.
robbitop
2011-05-30, 22:26:14
Na es wäre für die BOM sicher gut. Und die Frage ist, ob man diesmal rückwärtskompatibel bleiben will.
Exxtreme
2011-05-30, 22:30:52
Naja, die Specs sind komisch. Gleich 3 verschiedene RAM-Arten. :| Das treibt die Kosten wohl sehr stark in die Höhe. Da wären 2 GB oder gar 4 GB unified memory wohl viel geschickter.
robbitop
2011-05-30, 22:49:34
Vieleicht sind ja ein paar Sony Ingenieure zu Nintendo gewechselt. :D (und forderten ursprünglich 5x verschiedene RAM-Sorten)
zustand
2011-05-30, 23:13:09
Vieleicht sind ja ein paar Sony Ingenieure zu Nintendo gewechselt. :D (und forderten ursprünglich 5x verschiedene RAM-Sorten)
Mit deiner Vermutung scheinst du nicht falsch zu liegen:
http://www.playwii.de/ein-sony-ingenieur-arbeitet-mit-der-wii-2/
Insgesamt natürlich nicht nützlich; ohne deinen Kommentar wäre es mir auch nicht mehr eingefallen.
Knuddelbearli
2011-05-30, 23:28:12
soll 2012 kommen und Rv 770 ?
Wurde nicht bereits angedeutet, das die Specs Unsinn sind ;)
Brillus
2011-05-31, 01:51:44
Na es wäre für die BOM sicher gut. Und die Frage ist, ob man diesmal rückwärtskompatibel bleiben will.
Basierend auf den Specs wollen dies, sonst wäre es sinnlos auch GC und Wii Disc explizit als supported rein zu schreiben.
Aber ich glaub auch das die Specs Bullshit sind.
dargo
2011-05-31, 10:52:15
Konsolen wurden immer schon unter Hardware-Wert verkauft...
Das stimmt so nicht. Erst die stark subventionierte Gen von Sony und MS bricht denen das Genick. Ok, bei MS war es auch die vorige Gen. Aus Fehlern sollte man eigentlich lernen.
Nach derzeitigem Stand wäre die Wii HD ne bessere 360/PS3 und wird dann technisch von PS4 und Xb720 hardwaretechnisch weggepustet.
1. Man weiß noch gar nichts wann die nächste Gen von Sony und MS kommt.
2. Man weiß noch gar nichts über die Leistung der nächsten Gen von Sony und MS unter Berücksichtigung was ich oben geschrieben habe. Es wäre genauso möglich, dass Sony oder MS in ihrer nächsten Gen (2014, kein offizielles Datum!) "nur" einen Cayman verbauen würden. Von den reinen Gflops wäre das dann auch nur Faktor 2 gegenüber den wahrscheinlich gefakten Daten vom Grafikchip in Project Cafe. Zwischen zwei Konsolengenerationen (Projekt Cafe vs. PS4 oder "XBox720") ist Faktor 2 praktisch nichts. Selbst ein Grafikchip mit der Leistung zwei Caymans (~ 5 Milliarden Transistoren!) würde nur einen Faktor 4 ergeben. Möglich ist also alles.
3. Nach der nächsten Gen von Sony und MS kann eine Wii 3 kommen die wieder beide übertrifft usw. usf.
IBM fertigt keine GPU's hat also keine Erfahrung Intel dito,TSMC bietet 32nm nicht an.
Achso... TSMC überspringt quasi den 32nm Fertigungsprozess und geht direkt auf 28nm? Hmm... dann bleibt wohl wirklich nur 40nm für Project Cafe. Zumindest am Anfang.
AnarchX
2011-05-31, 11:27:26
Der aktuelle XBox360 SoC wird doch auch bei IBM gefertigt, insofern wäre ein 32nm SoC für Cafe von IBM auch denkbar.
dargo
2011-05-31, 11:40:09
Der aktuelle XBox360 SoC wird doch auch bei IBM gefertigt, insofern wäre ein 32nm SoC für Cafe von IBM auch denkbar.
Ja... aber nur wenns tatsächlich ein SoC wird. Ist das schon sicher?
=Floi=
2011-05-31, 11:40:33
die nächsten konsolen werden sicherlich eine erheblich stärkere GPU haben. bei den cpus werden wir höchstens einen quad oder six core mit 2 threads pro core sehen. der takt wird maximal 30% steigen. Bei den gpus werden wir aber faktor 10+ sehen und auch zukünftig wird man da viel mehr potenzial haben wie bei den jetzigen krücken.
Deinorius
2011-05-31, 12:15:36
@=Floi=
Wenn die nächsten CPUs wirklich so viele Threads bearbeiten könnten, dann nur unter der Annahme, dass diese Threads auch immer mehr durch besseren Sound und Physikeffekte ausgenutzt werden. Sonst wäre es wohl besser bei 3-4 Threads zu bleiben, dafür aber die IPC zu verbessern.
Ja... aber nur wenns tatsächlich ein SoC wird. Ist das schon sicher?
Sicher ist es nicht, aber wenn Nintendo nicht zuviel mehr Leistung einbaut, wäre es doch logischer, besonders wenn ihnen ein 32 nm Prozess zur Verfügung stehen würde. Immerhin kommt die Konsole ja nicht dieses Jahr raus, also wäre ja noch Zeit, um in diesem Prozess fertigen können.
Ein SoC bietet auch fertigungstechnische Vorteile, von Kostenvorteilen beim Mainboard und der Kühlung ganz zu schweigen.
fizzo
2011-05-31, 13:16:13
Sicher ist es nicht, aber wenn Nintendo nicht zuviel mehr Leistung einbaut, wäre es doch logischer, besonders wenn ihnen ein 32 nm Prozess zur Verfügung stehen würde. Immerhin kommt die Konsole ja nicht dieses Jahr raus, also wäre ja noch Zeit, um in diesem Prozess fertigen können.
Ein SoC bietet auch fertigungstechnische Vorteile, von Kostenvorteilen beim Mainboard und der Kühlung ganz zu schweigen.
Sehe ich auch so. 'Vejle' (http://www.tomshardware.com/news/xbox-360-gpu-vejle-vahalla-stealthbox,11146.html) der xbox 360 wird auch schon seit geraumer Zeit bei IBM und Globalfoundries hergestellt.
Bezüglich der kolportierten 16MB eDRAM habe ich mich einwenig schlau gemacht. Das wären ausgehend vom Xenon ~ 160Mio Transistoren. Bei gleicher Packdichte wie bei der Sandy Bridge wären das in 32nm gerade mal ~ 35mm2 Die-Fläche. Fake hin oder her....
edit: Bereits der Flipper/Hollywood hatten schon 3MB eDRAM onboard!
dildo4u
2011-05-31, 13:33:22
AMD hat die besten SOC zur Zeit und selbst die sind noch deutlich langsamer als eine diskrete 5670.Die Lösung wäre Kosteneffektiv aber im Prinzip wieder ein echter Wii Nachfolger Technik die Leistungsmäßig vor 4 Jahren aktuell war.
5670 Vantage 6300
http://www.computerbase.de/artikel/grafikkarten/2010/test-ati-radeon-hd-5670/5/#abschnitt_3dmark_vantage
2800 für das 45W Fusion Modell.
http://www.nordichardware.com/news/69-cpu-chipset/43288-official-numbers-for-amd-llano-in-3dmark-vantage.html
AnarchX
2011-05-31, 13:43:39
Und was soll der Vergleich einer 61W GraKa mit GDDR5 gegen eine 45W APU mit UMA DDR3?
Bezüglich der kolportierten 16MB eDRAM habe ich mich einwenig schlau gemacht. Das wären ausgehend vom Xenon ~ 160Mio Transistoren. Bei gleicher Packdichte wie bei der Sandy Bridge wären das in 32nm gerade mal ~ 35mm2 Die-Fläche. Fake hin oder her....
edit: Bereits der Flipper/Hollywood hatten schon 3MB eDRAM onboard!
Nur braucht eDRAM wohl einen speziellen Prozess, was man auch an der 45nm Xbox mit zusätzlichem eDRAM+ROP-Die sieht.
Ausserdem ist man bei heutigen GPUs im Bezug auf Bandbreitenmanagement um einiges weiter.
dildo4u
2011-05-31, 13:48:54
Und was soll der Vergleich einer 61W GraKa mit GDDR5 gegen eine 45W APU mit UMA DDR3?
Selbst wenn du mit dem 100W Desktop Modell rechnest kommst du maximal auf 5670 Leistung,mir geht's nur um die mögliche Leistung in diesem Jahr,die mit einem SOC einfach noch zu schlecht ist.
fizzo
2011-05-31, 13:52:47
Nur braucht eDRAM wohl einen speziellen Prozess, was man auch an der 45nm Xbox mit zusätzlichem eDRAM+ROP-Die sieht.
Ausserdem ist man bei heutigen GPUs im Bezug auf Bandbreitenmanagement um einiges weiter.
Hm, da bin ich leider nicht so bewandert. Was solls, einwenig Brainstorming kann ja nicht schaden und heute Abend in einer Woche wissen wir vielleicht schon mehr.
AnarchX
2011-05-31, 13:52:57
Selbst wenn du mit dem 100W Desktop Modell rechnest kommst du maximal auf 5670 Leistung,mir geht's nur um die mögliche Leistung in diesem Jahr,die mit einem SOC einfach noch zu schlecht ist.
Bei einem Konsolendesign wäre ein GDDR5-IMC denkbar, der die Leistung deutlich steigert.
Und bei Nintendo wärn wohl ein paar platzsparendere PPC-Cores denkbar, sodass man etwas mehr in die GPU investieren kann.
Im Endeffekt landet man damit ein gutes Stück über 360 und PS3.
Deinorius
2011-05-31, 14:28:34
Selbst wenn du mit dem 100W Desktop Modell rechnest kommst du maximal auf 5670 Leistung,mir geht's nur um die mögliche Leistung in diesem Jahr,die mit einem SOC einfach noch zu schlecht ist.
Solange Nintendo Abwärtskompatibilität wichtig ist, wird man eher einen für Konsolen optimierten SoC mit PowerPC fertigen. In diesem Sinne ist dein Vergleich nichts wert. Dazu kommen noch die Argumente von AnarchX.
Telema
2011-05-31, 14:35:06
aus der consolenwars Seite:
Im Vorfeld der E3 brodeln die Suppen in der Gerüchteküche über und wir haben für euch eine ziemliche heisse Gerüchtesuppe ausgekramt: Die angeblichen Specs von Project Cafe, Nintendos neuer Konsole die auf der E3 präsentiert werden wird.
Ein paar interessante Details:
- 4 Kern Power Prozessor bei 3,5GHz Takt
- AMD RV 770 basierender Grafikkern mit 766 MHz Taktung
- 512 MB Hauptspeicher
- 1 GB Grafikspeicher + 32 MB eDRAM
- 320 GB Festplatte
- 1080p Full HD Ausgabe
- Blu-Ray Laufwerk mit speziellen Disc-Format
http://www.consolewars.de/news/33011/project_cafe_specs_geleaked/
dargo
2011-05-31, 14:46:17
Jetzt werden schon 32 MB eDRAM draus. Wird ja immer besser. ;D
Sven77
2011-05-31, 14:47:41
Jetzt werden schon 32 MB eDRAM draus. Wir ja immer besser. ;D
Noe, consolewars ist einfach zu doof zum lesen.. die haben nur das gleiche Bild das hier gestern schon reinpostet wurde verlinkt
Nightspider
2011-05-31, 14:48:00
Nur noch 7 Tage, dann wissen wir mehr.
][immy
2011-05-31, 14:48:50
aus der consolenwars Seite:
Im Vorfeld der E3 brodeln die Suppen in der Gerüchteküche über und wir haben für euch eine ziemliche heisse Gerüchtesuppe ausgekramt: Die angeblichen Specs von Project Cafe, Nintendos neuer Konsole die auf der E3 präsentiert werden wird.
Ein paar interessante Details:
- 4 Kern Power Prozessor bei 3,5GHz Takt
- AMD RV 770 basierender Grafikkern mit 766 MHz Taktung
- 512 MB Hauptspeicher
- 1 GB Grafikspeicher + 32 MB eDRAM
- 320 GB Festplatte
- 1080p Full HD Ausgabe
- Blu-Ray Laufwerk mit speziellen Disc-Format
http://www.consolewars.de/news/33011/project_cafe_specs_geleaked/
wie oft noch, die folie ist ein fake
Sven77
2011-05-31, 14:50:29
Jetzt werden schon 32 MB eDRAM draus. Wir ja immer besser. ;D
Noe, consolewars ist einfach zu doof zum lesen.. die haben nur das gleiche Bild das hier gestern schon reinpostet wurde verlinkt
was aber an eDram so lustig sein soll, ist mir schleiherhaft, die Xbox hat auch schon 10MB drin.. Problem?
dargo
2011-05-31, 14:50:38
Noe, consolewars ist einfach zu doof zum lesen.. die haben nur das gleiche Bild das hier gestern schon reinpostet wurde verlinkt
Achso... ich habe gar nicht auf den Link geklickt. :biggrin:
Vielleicht sollte ich auch paar angebliche Specs zum Project Cafe erstellen. Mal schauen wie schnell sich die Seiten drauf stürzen. ;D
Deinorius
2011-05-31, 14:52:33
Es ist peinlich, wenn gewisse Seiten offensichtliche Fakes nicht erkennen und dann auch noch Specs falsch abschreiben.
Aber nicht viel weniger peinlich ist es auch, wenn User Links posten, in denen es um das exakt gleiche Bild handelt, das zum gefühlten dritten, vierten Mal gepostet/verlinkt wurde. :rolleyes:
dargo
2011-05-31, 15:00:04
was aber an eDram so lustig sein soll, ist mir schleiherhaft, die Xbox hat auch schon 10MB drin.. Problem?
Die XBox360 erreicht mit ihrem GDDR3 gerade mal ~22GB/s. Mit heutigem 1,2Ghz GDDR5 würde Nintendo bei 128Bit 77GB/s erreichen. Das sollte locker reichen. Die PS3 liegt in etwas gleich auf mit der XBox360, und das ohne eDRAM. Also was hat der eDRAM der XBox360 eigentlich gebracht, außer höheren Kosten?
Die PS3 hat zwei voneinander getrennte Speicher und eine entsprechend viel höhere Gesamtbandbreite als die Xbox 360 auf ihren einzigen Hauptspeicher. Ohne eDRAM für den Framebuffer wäre die Xbox 360 natürlich um einiges langsamer.
Und von der reinen Performance, ohne deferred Rendering mit Unterstützung durch Cell, ist die PS3 auch langsamer als eine Xbox 360 auf GPU-Seite.
Ach, und ich bin mir auch ziemlich sicher, das die PS3 Hardware deutlich teurer ist in der Herstellung.
Deinorius
2011-05-31, 15:17:52
Nur, würde Project Café von eDRAM wirklich ausreichend profitieren? Profitieren an sich sicher, aber würden sich die höheren Kosten rechnen? GDDR5 bietet ja schon höhere Bandbreiten, auch wenn ich nicht gleich mit 1,2 GHz rechnen würde.
Wenn man nur einen gemeinsam genutzen Speicher hat, dann ist eDRAM für den Frambuffer schon eine sinnvolle Option. Hat die Wii ja auch, wenn ich mich richtig erinnere.
AnarchX
2011-05-31, 15:25:32
Wobei das aber doch auch mit den sehr primitiven ROPs zusammenhing? Heutige ROPs gehen deutlich sparsamer mit der Bandbreite um.
Nett wäre eine Speicherarchitektur mit vielleicht 512MiB GDDR5 und dahinter noch 2-4GiB DDR3, welches beides von CPU und GPU genutzt werden kann.
dargo
2011-05-31, 15:47:02
Die PS3 hat zwei voneinander getrennte Speicher und eine entsprechend viel höhere Gesamtbandbreite als die Xbox 360 auf ihren einzigen Hauptspeicher. Ohne eDRAM für den Framebuffer wäre die Xbox 360 natürlich um einiges langsamer.
Das ist soweit richtig. Aber so einfach kann man die Gesamtbandbreite denke ich auch nicht rechnen auf das Endergebniss, sprich verdoppeln. Oder irre ich mich da? Die PS3 hat 2x 256MB mit 2x ca. 22GB/s. Die XBox360 1x 512MB mit ca. 22GB/s (den eDRAM jetzt außen vor gelassen).
Nur, würde Project Café von eDRAM wirklich ausreichend profitieren? Profitieren an sich sicher, aber würden sich die höheren Kosten rechnen? GDDR5 bietet ja schon höhere Bandbreiten, auch wenn ich nicht gleich mit 1,2 GHz rechnen würde.
Ich habe jetzt bewußt die 1,2Ghz genommen weil 1GB davon bereits bei einer 80€ Grafikkarte verbaut wird.
http://geizhals.at/deutschland/a496801.html
So teuer kann der also gar nicht sein. Zumal bei dieser Graka ein DX11 Chip verbaut ist.
Das ist soweit richtig. Aber so einfach kann man die Gesamtbandbreite denke ich auch nicht rechnen auf das Endergebniss, sprich verdoppeln. Oder irre ich mich da?
Nö tust du nicht, trotzdem hat RSX eben komplett eigene Bandbreite für Texturen und Framebuffer. Wenn RSX und Cell beide auf unabhängigen Daten arbeiten, dann können die 44GB/s sehr wohl ausgelastet sein.
Ohne eDRAM müsste Xenos sich mit der CPU um alles prügeln. Vor allem Blending braucht enorm Bandbreite, und das fällt durch die ROPs im eDRAM sogar nichtmal im Interconnect zwischen eDRAM und GPU an bei der Xbox-360-Architektur.
Sven77
2011-05-31, 16:14:19
Frage meinerseits: Reichen 16MB fuer 1080p oder muss man da wieder zu Tricks greifen a la Non-Square Pixel?
dargo
2011-05-31, 16:24:14
Nö tust du nicht, trotzdem hat RSX eben komplett eigene Bandbreite für Texturen und Framebuffer. Wenn RSX und Cell beide auf unabhängigen Daten arbeiten, dann können die 44GB/s sehr wohl ausgelastet sein.
Leuchtet ein. Nur wie groß dieser Vorteil sich tatsächlich auf die Frames auswirkt kann wohl niemand sagen.
Ohne eDRAM müsste Xenos sich mit der CPU um alles prügeln. Vor allem Blending braucht enorm Bandbreite, und das fällt durch die ROPs im eDRAM sogar nichtmal im Interconnect zwischen eDRAM und GPU an bei der Xbox-360-Architektur.
Die Vorteile vom eDRAM leuchten auch ein, der macht bei fester Hardware auch am meisten Sinn. Mir geht es eher um den Kosten/Nutzen Faktor und vorallem wie groß dieser bei als Ziel gesetzter 1080p Ausgabe sein müsste. Soll jetzt nicht heißen Project Cafe würde alle Spiele in 1080p rendern.
Asahi
2011-05-31, 16:30:25
Frage meinerseits: Reichen 16MB fuer 1080p oder muss man da wieder zu Tricks greifen a la Non-Square Pixel?
Frag ich mich auch die ganze Zeit...
Ich weiß nicht was ich von den Specs halten soll, weil sie wurden auch von einem amerikanischen Entwickler im IGN Board veröffentlicht. Offensichtlich stammen die Daten aus einer PDF http://www.youtube.com/watch?v=5ctM6AD5qCk
Deinorius
2011-05-31, 16:32:57
Ich hoffe doch, ihr stellt euch diese Fragen hinsichtlich 1080p nicht zu Project Café.
Leuchtet ein. Nur wie groß dieser Vorteil sich tatsächlich auf die Frames auswirkt kann wohl niemand sagen.
He was? Natürlich kann man das sagen. Die PS3 hätte mit einem Speicherinterface natürlich noch viel mehr Performanceprobleme.
Sven77
2011-05-31, 16:36:50
Ich hoffe doch, ihr stellt euch diese Fragen hinsichtlich 1080p nicht zu Project Café.
Nur weil die Folie als Fake enttarnt wurde, darf man nicht weiter spekulieren wie sinnig einige Angaben waeren?
Asahi
2011-05-31, 16:41:38
Nur weil die Folie als Fake enttarnt wurde, darf man nicht weiter spekulieren wie sinnig einige Angaben waeren?
Wo wurde die Folie denn zu 100% als Fake enttarnt?
Sven77
2011-05-31, 16:51:23
Nirgendwo, deshalb kann man ja noch darüber sprechen
thade
2011-05-31, 17:04:27
Es ist peinlich, wenn gewisse Seiten offensichtliche Fakes nicht erkennen und dann auch noch Specs falsch abschreiben.
Ihr seid peinlich hier im 3DC. Arrogant bis zum geht nicht mehr und nicht fähig auf den Link zu klicken und zu lesen. Na was steht dort geschrieben? :freak:
Sven77
2011-05-31, 17:12:17
Ihr seid peinlich hier im 3DC. Arrogant bis zum geht nicht mehr und nicht fähig auf den Link zu klicken und zu lesen. Na was steht dort geschrieben? :freak:
32MB eDRAM... Also zu blöd zum abschreiben und keinerlei Ahnung was da steht. Facepalm deluxe
dargo
2011-05-31, 17:15:21
He was? Natürlich kann man das sagen. Die PS3 hätte mit einem Speicherinterface natürlich noch viel mehr Performanceprobleme.
Du hast mich nicht verstanden. ;(
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.