Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?
tobor
2011-10-28, 22:57:41
Hmm, vielleicht kommt ja in der Generation eine Konsole auch mal ohne eine IBM-CPU daher? Wii U soll ja eine von IBM drin haben, MS ist mit der XBox360 von x86 zu IBM gewechselt, da könnte man denken, die bleiben erstmal dabei. Aber was ist mit Sonys PS4? Die machen doch immer so abstruse Dinge wie mit dem Cell. :freak:
Kuratagi ist weg. Diese "Gefahr" besteht nicht mehr. Und die Vita ist nicht gerade mit exotischen Elementen ausgestattet.
Gipsel
2011-10-29, 02:13:07
Die PS4 wird hardwaretechnisch wohl kaum noch abstrus werden. Die PSVita ist ja von der Hardware auch ganz passabel. Wegen den Multiplattformtiteln wird man sich in Zukunft keine abstrusen und kreativen Hardwareplattformen mehr leisten.
Abstrus war vielleicht das falsche Wort. Mensch, ich bin echt nicht gut mit solchen Andeutungen. :rolleyes:
N0Thing
2011-10-29, 12:24:24
Selbst wenn AMD alle 3 Konsolen ausstattet, wird das kein großer Gewinn pro Konsole sein. Aber es ist ein Reingewinn der bis zum EOL der Konsole konstant anhält. Es wird nicht viel sein, aber es wird einigermaßen Kohle bringen.
Oder sie verkaufen einmal das Design der entsprechenden Konsolen-GPU und kassieren nur einmal und nicht pro verkaufter Konsole.
Nakai
2011-10-29, 13:10:52
Oder sie verkaufen einmal das Design der entsprechenden Konsolen-GPU und kassieren nur einmal und nicht pro verkaufter Konsole.
Das bezweifel ich sehr. Aber welcher Vertrag schließlich zustande kommt, werden wir noch sehen.
Abstrus war vielleicht das falsche Wort. Mensch, ich bin echt nicht gut mit solchen Andeutungen.
Naja ein bisschen Abwechslung bei der Hardware ist bestimmt nicht schlecht. Die Konsolen werden wohl ziemlich ähnlich werden, wenn man das Design ziemlich abstrahiert. Hier und da wird man natürlich in irgendeine Richtung optimieren. Konkrete Infos erwarte ich eh erst ab nächsten Jahr.
bloub
2011-10-29, 13:21:51
cell ist ja auch eine ibm-entwicklung, in dem punkt war sony garnicht so abstrus ;).
Ailuros
2011-10-29, 14:00:50
Oder sie verkaufen einmal das Design der entsprechenden Konsolen-GPU und kassieren nur einmal und nicht pro verkaufter Konsole.
In der absoluten Mehrzahl der Faelle besteht IP Lizenzierung aus den ersten Lizenz-Gebuehren und royalties pro verkaufter Einheit. Es gibt zwar ein paar sehr wenige Aussnahmen wo royalties mit sehr grossem Rabbatt ankommen, aber in solch einem Fall wird CPU und GPU IP als Paket geliefert bei ohnehin schon ziemlich hohen Preisen fuer CPU IP.
Unter normalen Umstaenden lag bisher die royalty bei ca $4-5 pro GPU IP. In der absehbaren Zukunft wo es sich dann womoeglich um SoCs handelt wird es dann doch um einiges komplizierter.
*** edit: vielleicht hilft es: Microsoft war schon vor SONY mit der IP Evaluierung fertig, jedoch will SONY immer noch vor Microsoft ihre naechste Konsole veroeffentlichen. Was macht man in Faellen wo man es besonders eilig hat?
Gipsel
2011-10-29, 14:06:26
vielleicht hilft es: Microsoft war schon vor SONY mit der IP Evaluierung fertig, jedoch will SONY immer noch vor Microsoft ihre naechste Konsole veroeffentlichen. Was macht man in Faellen wo man es besonders eilig hat?
Man nimmt was bereits fast Fertiges?
Nakai
2011-10-29, 14:09:51
*** edit: vielleicht hilft es: Microsoft war schon vor SONY mit der IP Evaluierung fertig, jedoch will SONY immer noch vor Microsoft ihre naechste Konsole veroeffentlichen. Was macht man in Faellen wo man es besonders eilig hat?
Ich wollte es schon vorher schreiben, aber Sony wird imo als Letzter auf den Markt kommen. Zuerst Nintendo, dann MS und dann Sony. Wenn es für Sony nach Plan läuft, dann könnten sie vor MS kommen, aber da hat man gewisse Kompetenzen an die falschen Personen abgegeben:freak:...wenn du mich fragst.
mfg
Ailuros
2011-10-29, 14:29:07
Ich wollte es schon vorher schreiben, aber Sony wird imo als Letzter auf den Markt kommen. Zuerst Nintendo, dann MS und dann Sony. Wenn es für Sony nach Plan läuft, dann könnten sie vor MS kommen, aber da hat man gewisse Kompetenzen an die falschen Personen abgegeben:freak:...wenn du mich fragst.
mfg
Gipsel hats geschnallt und es ist total wurscht unter dieser Logik wer vor wem oder nach wem ankommt. Es kommt mehr als oefters vor dass Hersteller und/oder IHVs ihre Ziele nicht einhalten koennen aus X, Y Gruenden; SONY's Ziel bei ihrer finalen Design-Entscheidung war wohl vor Microsoft anzutanzen. Stellen jetzt zufaelligerweise auch noch beide bei der gleichen foundry unter der gleichen Prozess-variante her, dann hat SONY tatsaechlich bessere Chancen frueher damit fertig zu sein. Was jetzt theoretisch schief laufen koennte ist ein ganz anderes Kapitel und Microsoft bzw. ihre Design-Partner sind fuer solche Moeglichkeiten alles andere als immun.
Screemer
2011-10-29, 14:36:31
trinity mit angeflanshtem edram olé.
Ailuros
2011-10-29, 14:47:41
trinity mit angeflanshtem edram olé.
Bin zwar nur eine Laie aber ich wuerde jeglichen SoC eher mit sehr grosszuegigen caches ausstatten als etwas wie eDRAM, welches uebrigens die Herstellungszeit weiterhin kompliziert ;)
AnarchX
2011-10-29, 15:44:32
Die hier aufgezeigten Lösungen wären wohl ziemlich nett für einen Konsolen-Design:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=516431
Aber wenn die aktuellen Launch-Gerüchte stimmen, ist das eher etwas für die Next-Next-Gen-Konsolen oder einen Refresh, sofern es günstiger ist als Speicher auf dem Mainboard. ;)
Ailuros
2011-10-29, 16:02:32
Die hier aufgezeigten Lösungen wären wohl ziemlich nett für einen Konsolen-Design:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=516431
Aber wenn die aktuellen Launch-Gerüchte stimmen, ist das eher etwas für die Next-Next-Gen-Konsolen oder einen Refresh, sofern es günstiger ist als Speicher auf dem Mainboard. ;)
Charlie wuerde sonst so etwas nicht mit "far future" betiteln.
AnarchX
2011-10-29, 16:27:57
Charlie wuerde sonst so etwas nicht mit "far future" betiteln.
Es geht ja nicht um Charlies Verwustung, sondern um die weiter unten verlinkten Präsentationen.
Da sieht man wohl 2013/2014 als Zeitpunkt für eine Markteinführung.
Nakai
2011-10-29, 18:30:29
Es geht ja nicht um Charlies Verwustung, sondern um die weiter unten verlinkten Präsentationen.
Da sieht man wohl 2013/2014 als Zeitpunkt für eine Markteinführung.
Ram aufn Träger? Gibts doch schon ewig in vielen Bereichen. RSX auf der PS3 hatte das schon zum Beispiel, ebenso wie viele EmbeddedGPUs von AMD und NV.
mfg
AnarchX
2011-10-29, 18:33:48
Ein Silizium-Interposer erlaubt aber deutlich breitere Verbindungen. Eine APU mit zwei 1024-Bit Memory-Cubes ist wohl durchaus denkbar.
Nakai
2011-10-29, 18:41:36
Ein Silizium-Interposer erlaubt aber deutlich breitere Verbindungen. Eine APU mit zwei 1024-Bit Memory-Cubes ist wohl durchaus denkbar.
Mhh, interessant. Ist auf alle Fälle sehr interessant für bestimmte Chips. Wird wohl eher für mobile Geräte interessant, als für Desktop-PCs. Ergo für Maschinen wo Speichererweiterung eher uninteressant ist.
mfg
Gipsel
2011-10-29, 18:41:46
Ein Silizium-Interposer erlaubt aber deutlich breitere Verbindungen. Eine APU mit zwei 1024-Bit Memory-Cubes ist wohl durchaus denkbar.
Das ist wirklich ein großer Unterschied. Ob ich jetzt maximal 10 Lötpunkte pro mm² bei einem organischen Träger setzen kann oder ganze 1000 Lötpunkte pro mm² mit einem Si-Interposer macht einen riesigen Unterschied und ermöglicht dann mal so eben ein 1024Bit Speicherinterface auf geringerer Fläche als ein 64Bit Interface zum Speicher auf einem organischen Träger kosten würde. Und das Signal muß auch kürzere Wege gehen (es verläßt das Silizium praktisch nicht, auch wenn es zu einem anderen Die führt, der deutlich engere Pitch tut das Übrige), was einen niedrigeren Stromverbrauch bedeutet.
AnarchX
2011-10-29, 19:13:24
Das Pad-Limit wie bei heutigen GPUs könnte man damit wohl auch umgehen: Framebuffer via breitem Si-Interposer-Interface angebunden und für die Geometrie- und Texturdaten ein PCB-Speicherinterface für langsameren/anspruchsloseren DDR4/5-Speicher.
Die Kosten für eine Si-Interposer dürften doch eher vernachlässigbar sein, da man hier mit relativ antiquaren Strukturbreiten fertigen kann?
Screemer
2011-10-29, 20:13:47
Die hier aufgezeigten Lösungen wären wohl ziemlich nett für einen Konsolen-Design:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=516431
genau darauf wollte ich hinaus. für wii u wohl zu früh aber für die anderen beiden meiner meinung nach durchaus denkbar.
Fragman
2011-10-29, 21:40:42
Und wenn du von banbrechenden Neuerungen sprichst musst du die nennen. Die neuesten "Megatexturen" werdens ja wohl nicht sein. ;D
id hats ja leider verpennt, aber ich wuerd gern mal sehen wie ein spiel mit megatexture aussieht das auf gtx580 niveau mit 30 frames laeuft. ;)
bloodsniper
2011-10-30, 23:21:56
2014 oder 2015 kommen die neuen Konsolen.
GTX999
2011-10-31, 04:53:30
Microsoft sagt das.
Interessanter fände ich eine Hammer Nintendo Konsole - Die letzte wirklich gute war der Super Nintendo.
Stell dir vor Nintendo haut eine Konsole auf den Markt mit dem Namen "Super Nintendo²" und verfolgt das erstklassige Konzept von der damaligen Konsole.
http://vgchartz.com/embeds/worldwide_totals.php
ps.: Mit Grafikbracht alleine kannst du heutzutage keine Kundschaft gewinnen - Spiele von heute müssen in erste Linie "anders" sein. Ein Mittelmass an Grafik ist absolut ausreichend.
http://youtu.be/KaGHia3otjA?hd=1
Ich bevorzuge eine erstklassige Storyline und gute Ideen in Spielen - Grafikdemos kann ich mir auch als Video ansehen :D
Die reine Rohpower von Füllraten und Polygonen, Shadern etc. macht noch lange keine gute Grafik aus, viel wichtiger sind die Leute die Spiele designen und animieren.
.
Ailuros
2011-10-31, 06:18:56
Microsoft sagt das.
Echt? :D
Microsoft sagt das.
Aha. Wo?
GerwinK
2011-10-31, 17:08:23
Microsoft sagt das.
ps.: Mit Grafikbracht alleine kannst du heutzutage keine Kundschaft gewinnen - Spiele von heute müssen in erste Linie "anders" sein. Ein Mittelmass an Grafik ist absolut ausreichend.
.
da stimme ich absolut zu. deshalb hatte die wii so risigen erfolg. bei der wii u kommt's extrem drauf an, was die spiele aus dem controller rausholen - und ob das gleiche nicht auch von ps3 und vita im zusammenspiel geleistet werden kann.
Deinorius
2011-10-31, 18:28:55
Grafik ist ja nicht alles. Dennoch sollte man bedenken, dass wir nicht mehr die selbe Situation wie vor 5-6 Jahren haben. Nintendo konnte mit einem wirklich innovativen neuen Bedienkonzept überzeugen und das war gut so.
Ob sich das wiederholen wird, muss sich erstmal zeigen. Denn M$ und Sony haben ja schon nachgeholt. Im Falle von M$ mit einem ebenfalls neuartigen Konzept, bei Sony mit einer Kopie, wo man wenigstens bestehende Hardware weiter nutzen kann.
Zwar bin ich vom WiiU-Konzept auch recht überzeugt, aber deswegen wirds ja nicht gleich ein Erfolg. Wenigstens hat Nintendo diesmal eine Gnadenfrist bis M$ und Sony nachholen.
Deinorius
2011-11-08, 10:07:45
Xbox Next mit ARM? :|
Aber ein Physikbeschleuniger klingt sehr gut.
Quelle (http://www.computerbase.de/news/2011-11/nachfolger-der-xbox-360-soll-arm-technik-verwenden/)
AnarchX
2011-11-08, 10:17:29
Xbox 720 Will Be Cheaper, 'Far Smaller Than 360' And Run On Windows 9 http://www.industrygamers.com/news/xbox-720-will-be-cheaper-far-smaller-than-360-and-run-on-windows-9-rumor/
Das klingt ja eher nach einem Konkurrenz-Produkt zum einem möglichen Gaming-Apple-TV.
Aber ein Physikbeschleuniger klingt sehr gut.
Ob es da noch Vorteile gegenüber einer GPU, die Physik ebenfalls berechnen kann, existieren? :|
Vielleicht nur ein Gedanken-Experiment:
The MS nerd source is not just any blogger, as this person had accurate information on Microsoft's Courier, (the abandoned tablet project) well in advance, so clearly there's a connection here to Microsoft's Entertainment & Devices group.
Deinorius
2011-11-08, 10:22:18
Ob es da noch Vorteile gegenüber einer GPU, die Physik ebenfalls berechnen kann, existieren? :|
Ich stells mir effizienter vor, damit der SoC nicht größer bei gleichbleibender Grafikqualität werden muss. Auf der anderen Seite wäre das für Multiplattformtitel weniger interessant (oder?).
Palpatin
2011-11-08, 10:54:28
Für mich klingt das wie IPad fürs Wohnzimmer mit Kinect stadt Touchsteuerung. Ohne optisches Laufwerk (da läst sich am meisten von der größe Sparen). Grafikleistung nur das Notwendigste (Tegra 4 oder so) da sich Spiele wie Angry Birds eh besser verkaufen als Uncharted und co.
Ailuros
2011-11-08, 10:56:30
Das klingt ja eher nach einem Konkurrenz-Produkt zum einem möglichen Gaming-Apple-TV.
Was fuer SoCs glaubst Du wird Apple dafuer benutzen?
Vielleicht nur ein Gedanken-Experiment:
Eher Spekulations-silly season je mehr der Launch naeher rueckt (relativ).
Xbox Next mit ARM? :|
Aber ein Physikbeschleuniger klingt sehr gut.
Quelle (http://www.computerbase.de/news/2011-11/nachfolger-der-xbox-360-soll-arm-technik-verwenden/)
Ich bezweifle so oder so dass der Mist Hand und Fuss hat, aber selbst wenn es sich nur um ARM IP handeln wuerde, dann sollte jemand dem Deppen der den Scheiss verbreitete darauf aufmerksam machen dass ARM zufaelligerweise auch GPU IP im Angebot hat. Heutzutage ein sw rendering System zu bauen waere die groesste Schnappsidee ueberhaupt; nichtmal SONY ist so bloed :rolleyes:
Deinorius
2011-11-08, 11:05:30
Ich bezweifle so oder so dass der Mist Hand und Fuss hat, aber selbst wenn es sich nur um ARM IP handeln wuerde, dann sollte jemand dem Deppen der den Scheiss verbreitete darauf aufmerksam machen dass ARM zufaelligerweise auch GPU IP im Angebot hat. Heutzutage ein sw rendering System zu bauen waere die groesste Schnappsidee ueberhaupt; nichtmal SONY ist so bloed :rolleyes:
Dafuuuuuqqq!!
Ich les erst jetzt...
Hieß es bislang immer,...
:freak:
Käsetoast
2011-11-08, 11:11:00
Ich sag's mal so: Die Idee von wegen Arm und Microsoft ist seit Windows 8 ja zumindest nicht mehr ganz so abwegig. Wäre es denn möglich, dass Microsoft es schafft sowohl Windows als auch DirectX parallel für x86 und Arm lauffähig zu machen? So könnte man Spiele auf dem PC UND der Konsole lauffähig machen ohne portieren zu müssen. So nach dem Motto: Unterwegs spielst du mit deinem Laptop, Netbook oder was auch immer, zu Hause haust du dich auf die Couch und spielst dort gemütlich weiter (Spielstände in eine Cloud zu verlagern findet ja derzeit schon statt weswegen das problemlos ginge)...
Außerdem erschließt man so den ganzen LiveArcade Markt für den PC und da es dort ja auch genug Leute gibt die Minispiele & Co spielen (siehe Facebook & Co) hätte man für die meist ja eher "kleinen" Spiele die man dort kaufen kann einen erweiterten Absatzmarkt...
Zugegeben - so richtig mag ich auch noch nicht glauben, dass man die Abwärtskompatibilität zugunsten von ARM aufgibt, aber das beschriebene Szenario hätte schon was und große Sprünge wie von XBOX auf XBOX360 wo subventioniert wird wie blöd und starke Hardware verbaut wird werden wir ja sowieso nicht mehr sehen (das haben ja wohl alle Beteiligten durchblicken lassen)...
ISo könnte man Spiele auf dem PC UND der Konsole lauffähig machen ohne portieren zu müssen. So nach dem Motto: Unterwegs spielst du mit deinem Laptop, Netbook oder was auch immer, zu Hause haust du dich auf die Couch und spielst dort gemütlich weiter (Spielstände in eine Cloud zu verlagern findet ja derzeit schon statt weswegen das problemlos ginge)...
Glaube das geht am Markt vorbei. Die 50/50 PC-Konsole Fraktion gibt es denk ich kaum. Entweder 100% Konsole oder 100% PC, mit ein paar kleinen Abstufungen. Aber dass Leute einen Hammer PC und noch ne Konsole haben, ist entweder eher die Ausnahme oder es geben, insbes. aus dem PC Lager wo Konsolen igitt sind, zu wenige zu. Mir persönlich wäre nicht im geringsten geholfen, denn PC Gaming ist für mich seit 3 Jahren tot und wird auch nicht bei mir wiederbelebt. So gehts denk ich vielen mit Konsole.
Ailuros
2011-11-08, 11:17:46
Tut mir den Gefallen und lest den Link erstmal ausfuehrlich durch bevor Ihr darauf weiterspekuliert oder besser unnoetig Zeit verschwendet. Es wird ueber ein quasi sw rendering SoC spekuliert. Schuettelt mal bitte erstmal den Kopf bevor mir jemand den Mist sogar glaubt:
Das neueste Gerücht beschäftigt sich unter anderem mit der verbauten Technik. Hieß es bislang immer, dass die GPU von AMD entwickelt und beigesteuert wird, wird nun über den Einsatz von ARM-Technik spekuliert. Wie Industrygamers berichtet, soll die Xbox 720 von einem SoC auf Basis einer ARM-CPU angetrieben werden. Der Chip wird angeblich von Microsoft und zwei weiteren, bisher unbekannten Partnern entwickelt und verfügt neben der eigentlichen CPU über diverse Prozessoren für jeweils bestimmte Aufgaben wie beispielsweise Physikberechnungen, die Ansteuerung verschiedener Sensoren oder für die Erzeugung des Geräuschkulisse.
Wer auf ARM CPU IP spekulieren will von mir aus, aber ohne GPU wird es einen solchen SoC wohl nicht geben. Kann sein dass irgend jemand von ausschliesslichem IP von ARM "gehoert hat" (wofuer ich guten Grund habe mir in die Faust zu lachen), deshalb erinnere ich auch daran dass ARM auch GPU IP im Angebot hat.. Fuer eine Konsole ist aber selbst der T604 Nachfolger der noch gar nicht fertig ist, immer noch zu lahm fuer eine Konsole.
Nightspider
2011-11-08, 12:01:51
Kinect 2 wird 100%ig eine eigene CPU besitzen bzw. wird diese schon in der Xbox720 integriert sein. Das könnte gut möglich die ARM CPU sein.
Wollte man schon bei Kinect 1 aber die Kosten waren zu hoch.
Knuddelbearli
2011-11-08, 12:53:00
Xbox Next mit ARM? :|
Aber ein Physikbeschleuniger klingt sehr gut.
Quelle (http://www.computerbase.de/news/2011-11/nachfolger-der-xbox-360-soll-arm-technik-verwenden/)
glaube ich absolut nicht daran wäre viel zu sehr ein eigenes süppchen und viele spiele müssten dann für die xbox komplett neu programmiert werden durch 2 stellige core anzahl die alle für was andere spezialisiert wären
Käsetoast
2011-11-08, 13:23:52
Es wird ueber ein quasi sw rendering SoC spekuliert. Schuettelt mal bitte erstmal den Kopf bevor mir jemand den Mist sogar glaubt
Wo steht da denn explizit was von SW-Rendering? Wieso soll da kein Ableger vom Projekt Denver, d.h. eine ARM CPU mit NVIDIA Grafik benutzt werden? Nicht das ich das jetzt für sehr wahrscheinlich halte, aber da steht ja nicht explizit drin, dass alles von ARM kommt - im Gegenteil: Es werden ja die ominösen "zwei unbekannten Partner" aufgeführt. Wenn einer davon NVIDIA ist (oder gar doch AMD - keine Ahnung wie leicht sich deren GPUs mit ARM verknüpfen lassen) besteht aus grafischer Sicht doch Hoffnung...
Glaube das geht am Markt vorbei. Die 50/50 PC-Konsole Fraktion gibt es denk ich kaum. Entweder 100% Konsole oder 100% PC, mit ein paar kleinen Abstufungen.
Wer weiß - vielleicht kommt dann ja noch das Windows 9 Mobile Smartphone dazu zum mobilen Zocken. Aber gerade so kleine Spiele haben ja gezeigt, dass sie ein enormes Umsatzpotential haben und da wäre es schon eine Überlegung wert, das in die nächste Konsolengeneration mit einzubeziehen im Sinne einer einheitlichen, also quasi plattformunabhängigen Lösung...
Ailuros
2011-11-08, 15:31:20
Wo steht da denn explizit was von SW-Rendering?
Wo steht etwas deutliches von einer jeglichen GPU? Es wird lediglich vermittelt dass angeblich die bisher erwaehnte AMD GPU IP nicht ingegriert wird und danach die Sintflut oder besser ARM CPU IP und eine reihe co-Prozessoren.
Wieso soll da kein Ableger vom Projekt Denver, d.h. eine ARM CPU mit NVIDIA Grafik benutzt werden?
Weil Project Denver nichtmal heute in einem praesentablen Zustand ist vielleicht? Geplant fuer 20HP und da die Massenproduktion fuer Microsoft und auch SONY schon um einiges frueher in die Startloecher geht, darfst Du Dir selber ausraten auf welche Prozesse die Konsolen-Hersteller zielen.
Nicht das ich das jetzt für sehr wahrscheinlich halte, aber da steht ja nicht explizit drin, dass alles von ARM kommt - im Gegenteil: Es werden ja die ominösen "zwei unbekannten Partner" aufgeführt. Wenn einer davon NVIDIA ist (oder gar doch AMD - keine Ahnung wie leicht sich deren GPUs mit ARM verknüpfen lassen) besteht aus grafischer Sicht doch Hoffnung...
Ein Partner entwickelt den SoC und ein weiterer stellt in her. Wenn Du die Partner fuer mitgelieferte IP/chips mitzaehlen willst fuer einen heutigen Konsolen SoC reichen Dir die Finger beider Haende nichtmal aus.
Wer weiß - vielleicht kommt dann ja noch das Windows 9 Mobile Smartphone dazu zum mobilen Zocken. Aber gerade so kleine Spiele haben ja gezeigt, dass sie ein enormes Umsatzpotential haben und da wäre es schon eine Überlegung wert, das in die nächste Konsolengeneration mit einzubeziehen im Sinne einer einheitlichen, also quasi plattformunabhängigen Lösung...
Ich sehe keinen Anhaltspunkt wieso man eine Konsole fuer die Moeglichkeit spezifisch definieren muesste. Smart-phone Spiele sind entweder von Grund auf entwickelt oder ein brutal reduzierter Port. Man kann bei jeglichem zukuenftigem Zeitpunkt weder den Stromverbrauch noch den storage eines higher end Geraets einem smart-phone zutrauen. Dafuer wird es sogar heute von einer handheld Konsole auf ein smart-phone haarig. Wieviele Gigabytes an Texturen alleine (egal welche Komprimierung) willst Du einem smart-phone genau antun?
Chief Gewickelt
2011-11-08, 15:42:26
Die nächste Xbox CPU kommt wieder von IBM und die Grafik von AMD. Spekulationen über Änderungen in dieser Richtung sind doch absolut hanebüchen :confused: Warum sollte sich hier etwas ändern?
Ailuros
2011-11-08, 16:13:15
Die nächste Xbox CPU kommt wieder von IBM und die Grafik von AMD. Spekulationen über Änderungen in dieser Richtung sind doch absolut hanebüchen :confused: Warum sollte sich hier etwas ändern?
Schhhhhhhhhhhhhhh.....Spassverderber :wink:
Gegenfrage: Warum nicht, wenn Performance, Preis oder Leistungsaufnahme mit ARM besser wären?
robbitop
2011-11-08, 16:22:22
Wenn ARM soetwas bieten würde - was sie nicht tun - dann würde nichts dagegen sprechen.
A15 wäre was für Tablets oder Netbooks. Für eine neue Konsole sollte schon ~ Ph2 / C2Q Performance da sein.
Bei Konsolen kannst du auch viel über die Kernzahl gehen. Sollen die Entwickler halt mehr arbeiten ;)
Überhaupt haben sie ja offenbar auch noch etwas Zeit für einen A15-Nachfolger.
fondness
2011-11-08, 16:34:18
Wieso soll da kein Ableger vom Projekt Denver, d.h. eine ARM CPU mit NVIDIA Grafik benutzt werden?
Die GPU der nächsten Xbox kommt definitiv von AMD, dazu habe viel zu viele hochrangige AMD-Leute bereits sehr eindeutige Angaben gemacht.
Ailuros
2011-11-08, 16:35:36
Wenn ARM soetwas bieten würde - was sie nicht tun - dann würde nichts dagegen sprechen.
A15 wäre was für Tablets oder Netbooks. Für eine neue Konsole sollte schon ~ Ph2 / C2Q Performance da sein.
Je tiefer die pipeline bei jeglichem A15 core desto mehr kann man auf die Frequenz setzen und wie Coda schon andeutete es steht nirgends dass nur 2 cores benutzt werden muessen. Dual A15 irgendwo um die 2GHz sind smart-phone Material fuer 28nm/2012. Krait ist zwar kein waschreiner A15 aber S8960 bei 1.7GHz als allererster 28nm smart-phone SoC ist schon beim sampling.
robbitop
2011-11-08, 16:42:30
Bei Konsolen kannst du auch viel über die Kernzahl gehen. Sollen die Entwickler halt mehr arbeiten ;)
Predigst du nicht sonst immer Amdahls Law? ;)
Überhaupt haben sie ja offenbar auch noch etwas Zeit für einen A15-Nachfolger.
Soviel nun auch wieder nicht. Soll die nicht 2012 vorgestellt werden und 2013 gelauncht werden? Da bräuchte man spätestens Mitte 2012 produktionsreife fertige Hardware. Eher früher. Prototypenbau etc.
Je tiefer die pipeline bei jeglichem A15 core desto mehr kann man auf die Frequenz setzen und wie Coda schon andeutete es steht nirgends dass nur 2 cores benutzt werden muessen. Dual A15 irgendwo um die 2GHz sind smart-phone Material fuer 28nm/2012. Krait ist zwar kein waschreiner A15 aber S8960 bei 1.7GHz als allererster 28nm smart-phone SoC ist schon beim sampling.
A15 kann froh sein, wenn er Bobcat-IPC hat. Eher deutlich drunter. Davon kannst du auch 8x verbauen. Meinetwegen auch 16x. Spiele sind nicht perfekt parallelisierbar.Hinzu kommen die vergleichsweise niedrigen Taktraten.
Ein Quadcore K10 (bzw. ein Äquivalent von Intel oder IBM) mit 2,5 -3 GHz haut in Spielen jede angekündigte ARM CPU ungespitzt in den Boden. Ohne Probleme liegt dort Faktor 4 oder mehr drüber.
Natürlich kann bspw. NV auch eine CPU mit höherer IPC auf ARM Instructionsset entwickeln. Aber wenn bis Mitte 2012 finale HW da sein soll, wird das wohl nix.
Chief Gewickelt
2011-11-08, 16:43:35
Absolut berechtigte Gegenfrage natürlich, und ich werde mit Freuden diverse Kopfbedeckungen verspeisen wenn mich die Realität (zur E3/Build 2012?) Lügen strafen sollte :) Ich sehe nur nicht warum man nach geglückter Reifeprüfung (wenn man die Vanilla Xbox als gescheitertes x86/Nvidia Testbed betrachtet) von der erfolgreichen Kooperation mit IBM und AMD absehen und sich auf unnötige Experimente einlassen sollte. Mit beiden könnte man sicher zu jeder Zeit ein absehbar konkurrenzfähiges Produkt auf die Beine stellen. Mit ARM? Bestimmt auch, aber "wahrscheinlich" und "bestimmt" kommen im Vokabular der diversen Entscheider unter Garantie nicht vor ;)
Desti
2011-11-08, 16:47:05
Und weil niemand High-End Graphik haben will, liegen BF3 und MW3 auch wie Blei in den Regalen.....
Ailuros
2011-11-08, 17:00:15
A15 kann froh sein, wenn er Bobcat-IPC hat. Eher deutlich drunter.
Bei welchem Stromverbrauch genau?
Davon kannst du auch 8x verbauen. Meinetwegen auch 16x. Spiele sind nicht perfekt parallelisierbar. Hinzu kommen die vergleichsweise niedrigen Taktraten.
Ein Quadcore K10 (bzw. ein Äquivalent von Intel oder IBM) mit 2,5 -3 GHz haut in Spielen jede angekündigte ARM CPU ungespitzt in den Boden. Ohne Probleme liegt dort Faktor 4 oder mehr drüber.
Was soll mit den Frequenzen genau los sein? TI hat 2GHz fuer OMAP5 und ST Ericsson 2.5GHz fuer ihre dual core A15 smart-phone SoCs angekuendigt. Zwischen einem smart-phone und einer Konsole liegt schon einiger Abstand.
Natürlich kann bspw. NV auch eine CPU mit höherer IPC auf ARM Instructionsset entwickeln. Aber wenn bis Mitte 2012 finale HW da sein soll, wird das wohl nix.
Denver ist momentan immer noch fuer TSMC 20HP geplant.
Afaik ist es fuer Xbox_next immer noch eine IBM CPU und AMD GPU IP auf einem von IBM entwickelten SoC bei GloFo (mit sehr spezifischen testrun und Produktions-start Daten). Dass sich daran kurzfristig etwas geaendert hat will ich ernsthaft bezweifeln, ausser Microsoft fuehrte so manchen bis jetzt auf die Palme.
Von dem abgesehen geht es mir lediglich um das Potential einer moeglichen ARM CPU. Ein so brutaler Schwaechling wie manche von Euch A15 hinstellen wollt ist er bei N Watt Stromverbrauch garantiert nicht; anders durchaus konkurrenzfaehig.
robbitop
2011-11-08, 17:18:32
Eine CPU ist aber nicht beliebig hochskalierbar. ARM A15 ist wie Bobcat ein Low Power Design. Das kann, selbst wenn man es hochzieht, nicht mit einem Design einer ganz anderen Leistungsklasse konkurrieren.
Natürlich steht es außer Frage, dass mit ARM Instruction Set auch ein High Power Design möglich wäre.
Wäre dann aber eben nix besonderes mehr. High Power Designs gibt es schon viele. Der Verbrauchsvorteil wäre dann weg.
Beides geht nunmal nicht. ;)
Apple wird, wenn sie sowas überhaupt wollen, den Weg über Low Cost / Low Power ASICs gehen.
Dort erwarte ich einen Refreshzyklus und den gleichen ASIC wie bei anderen i-Produkten. Das gibt viele Synergien die man mitnutzen kann.
Wenn man mich fragt, wird es bei Casual Games mit Micropayment bleiben. Dafür aber am TV und mit jährlich frischen Geräten.
Keine Konsole im klassischen Sinn.
Ailuros
2011-11-08, 17:34:10
Eine CPU ist aber nicht beliebig hochskalierbar. ARM A15 ist wie Bobcat ein Low Power Design. Das kann, selbst wenn man es hochzieht, nicht mit einem Design einer ganz anderen Leistungsklasse konkurrieren.
In der hier besprochenen These erwartet oder behauptet auch keiner high end Leistung; nochmal es geht nur um die technische Moeglichkeit. Wuerdest Du als Gegenfrage von einer kommenden Konsole Kepler GPU Leistung erwarten in einen SoC verdraengt?
Natürlich steht es außer Frage, dass mit ARM Instruction Set auch ein High Power Design möglich wäre.
Wäre dann aber eben nix besonderes mehr. High Power Designs gibt es schon viele. Der Verbrauchsvorteil wäre dann weg.
Beides geht nunmal nicht. ;)
http://www.anandtech.com/show/5027/appliedmicro-announces-xgene-arm-based-socs-for-cloud-computing
Vorsicht ist bis zur eigentlichen Verifizierung nur rein hypothetisch (da pre-Silizium):
The biggest advantage of X-Gene is its power efficiency. At full load, the power usage is only 2 watts per core. When idling, the power usage is one fourth, 0.5 watts per core. For the 128-core chip at 3GHz, the power usage works out to be 256W, or 64W when idling. 256W may sound like a big number but it's actually on-par with for example two Intel X5680s, which are 130W each. And that is when excluding the power used by the chipset and other components, which are integrated into X-Gene. Of course, performance is a big question mark but if AppliedMicro's tests are to believe, X-Gene is up to three times faster than Intel's Sandy Bridge based E3 Xeons when looking at similar power profile. It should be noted these numbers are based on pre-silicon projections, so a lot can change before the final products hit the market.
Apple wird, wenn sie sowas überhaupt wollen, den Weg über Low Cost / Low Power ASICs gehen.
Dort erwarte ich einen Refreshzyklus und den gleichen ASIC wie bei anderen i-Produkten. Das gibt viele Synergien die man mitnutzen kann.
Wenn man mich fragt, wird es bei Casual Games mit Micropayment bleiben. Dafür aber am TV und mit jährlich frischen Geräten.
Keine Konsole im klassischen Sinn.
http://www.xbitlabs.com/news/multimedia/display/20111025055740_Details_About_Apple_TV_Surface_as_Company_Starts_Make_Prototypes. html
Gipsel
2011-11-08, 18:57:30
http://www.anandtech.com/show/5027/appliedmicro-announces-xgene-arm-based-socs-for-cloud-computing
Vorsicht ist bis zur eigentlichen Verifizierung nur rein hypothetisch (da pre-Silizium):Heise hat übrigens geschrieben (http://www.heise.de/ct/artikel/Prozessorgefluester-1370336.html), daß die sich offenbar beim Nachschlagen der Benchmark-Werte vertan haben. Selbst projektiert sind die nicht mehr als 3 Mal so schnell, sondern "nur" knapp doppelt so schnell. Allerdings bezogen auf den Vergleich der SpecInt rate Werte (die extrem gut mit der CoreAnzahl skalieren) eines projektierten ARMv8 Octa-Cores (25W) mit einem bereits erhältlichen E3-1220L Dualcore Stromspar-Xeon mit nur 20W (inklusive Southbridge dann auch 25W).
Bringt Intel einen ULV Quadcore in 22nm (die gibt es sicher bis zum Erscheinen des X-Gene), hat das Ding selbst in dem unteren Leistungsbereich kaum noch Vorteile (beim Preis vielleicht ;)), erst recht nicht, wenn man höhere Single-Thread-Leistung benötigen sollte. Und einen Vergleich bei SpecFP-Rate würde ich auch gerne mal danebenhalten. :rolleyes:
Ailuros
2011-11-08, 19:35:33
Heise hat übrigens geschrieben (http://www.heise.de/ct/artikel/Prozessorgefluester-1370336.html), daß die sich offenbar beim Nachschlagen der Benchmark-Werte vertan haben. Selbst projektiert sind die nicht mehr als 3 Mal so schnell, sondern "nur" knapp doppelt so schnell. Allerdings bezogen auf den Vergleich der SpecInt rate Werte (die extrem gut mit der CoreAnzahl skalieren) eines projektierten ARMv8 Octa-Cores (25W) mit einem bereits erhältlichen E3-1220L Dualcore Stromspar-Xeon mit nur 20W (inklusive Southbridge dann auch 25W).
Herr Johnston hatte dann wohl leider einen blonden Moment. Peinlich.
Bringt Intel einen ULV Quadcore in 22nm (die gibt es sicher bis zum Erscheinen des X-Gene), hat das Ding selbst in dem unteren Leistungsbereich kaum noch Vorteile (beim Preis vielleicht ;)), erst recht nicht, wenn man höhere Single-Thread-Leistung benötigen sollte. Und einen Vergleich bei SpecFP-Rate würde ich auch gerne mal danebenhalten. :rolleyes:
Dass kann ich durchaus einsehen. Zwischen knapp <2x und 3x liegt auch so mancher Unterschied.
Neurosphere
2011-11-09, 08:47:39
Wäre es für Multiplattformtitel nicht besser wenn die neuen Konsolen auch auf x86 setzen?
Ich meine große Unteschiede bei der Hardware zwischen den Plattformen führt doch eigentlich nur zu Problemen oder einer aufwändigeren Entwichlung. Ich kann mir nicht vorstellen das die Studios in Zeiten von "wir bringen keine neue Engine, die reicht doch noch nen paar Jahre" oder "eigentlich wollen wir gar keine neue Konsolengen" sich auf Experimente bei der Hardware einlassen.
del_4901
2011-11-09, 08:55:53
Wäre es für Multiplattformtitel nicht besser wenn die neuen Konsolen auch auf x86 setzen?
Ich meine große Unteschiede bei der Hardware zwischen den Plattformen führt doch eigentlich nur zu Problemen oder einer aufwändigeren Entwichlung. Ich kann mir nicht vorstellen das die Studios in Zeiten von "wir bringen keine neue Engine, die reicht doch noch nen paar Jahre" oder "eigentlich wollen wir gar keine neue Konsolengen" sich auf Experimente bei der Hardware einlassen.
Bei der CPU ist das ziehmlich egal. Ausserdem laesst sich x86 Assembler nicht so gut lesen, wenn mal was ist.
robbitop
2011-11-09, 10:11:16
In der hier besprochenen These erwartet oder behauptet auch keiner high end Leistung; nochmal es geht nur um die technische Moeglichkeit. Wuerdest Du als Gegenfrage von einer kommenden Konsole Kepler GPU Leistung erwarten in einen SoC verdraengt?
Ich würde von einer Nextgen Konsole mindestens Llano Performance (@ 2,5 - 3 GHz) erwarten. Sowohl CPU als GPU seitig. Eher mehr.
Das bietet dir kein ARM SoC in den nächsten 1-2 Jahren (wenn nicht sogar länger ...)
tobor
2011-11-09, 10:38:22
Gegenfrage: Warum nicht, wenn Performance, Preis oder Leistungsaufnahme mit ARM besser wären?
Abwärtskompabilität. Damit verbunden auch weniger Einarbeitungszeit für die Spielentwickler in die neue Hardware(die der alten stark ähneln würde). Portabilität der Spiele auf andere Konsolen ,die weiterhin Powerpc nutzen werden.
Abwärtskompatibilität ist überbewertet. Einarbeitungszeit ist sowieso da, weil man völlig neue APIs und Hardwareigenschaften hat. Da spielt ein andere ISA jetzt auch keine so große Rolle mehr.
Deinorius
2011-11-09, 12:28:16
Wäre es für Multiplattformtitel nicht besser wenn die neuen Konsolen auch auf x86 setzen?
[...]
Ich stelle mir hier vielmehr das Problem vor, welche CPU man dann nehmen könnte? Zukünftige Konsolen werden eher SoCs verwenden, als dass sie alles getrennt bauen.
Wer bietet sich an? Intel und AMD, fertig. Intel bietet ja super Leistung, aber was die dann verlangen würden... :ugly: Die Konsole muss ja billig bleiben. Von der Fertigung her wär's ja super, aber nicht dass die dann auf einmal verlangen, selbst zu entscheiden, welche GPU IP hinzukommen soll. Ich stelle mir da Intel viel zu arrogant vor.
AMD wäre da zwar wieder besser, erst recht, weil die ganzen GPU IPs eh von AMD kommen, aber hier stellt sich mir die Frage, ob IBM hier nicht die bessere Effizienz und Leistung bietet.
IBM (CPU) und AMD (GPU) sind doch eh Prozess-Entwicklungspartner. Das passt schon so. Der Rest ist eh kommentiert.
robbitop
2011-11-09, 13:01:58
Einen SoC kann man auch zusammenstellen. Den muss man nicht fertig kaufen. Die X360 hat ja auch aktuell einen SoC aus IBM + AMD. Kein Problem.
Ernsthaft in Frage kommt sowieso nur IBM und AMD für den CPU-Teil. Oder bietet jemand anderes noch bezahlbare schnelle CPU Kerne an? (vieleicht die SPARC Reihe? Oder wäre die total ungeeignet?)
Ernsthafte GPUs kommen von AMD oder NV. Soviele Kombinationen sind da nicht mehr möglich.
Letztes Mal war es IBM + NV und IBM + AMD. Beide fuhren damit nicht so schlecht.
Neurosphere
2011-11-09, 13:33:17
Ich weiß nicht ob Intel sich nicht auf ein solches Geschäft einlassen würde. SB dürfte schon aufgrund der Größe ohne iGPU billiger sein als das was AMD mit Bulldozer liefern könnte, von der TDP ganz zu schweigen.
Nen SB als Quadcore bei 3 GHz wäre doch top. Selbst mit iGPU wäre das Ding zwar nicht als Soc umsetzbar, aber dazu noch nen schneller Grafikchip im Gehäuse und es wäre doch perfekt. Ich gehe mal davon aus das die nächsten Konsolen auch mit Browsern usw kommen werden, da rückt der Stromverbrauch im idle auch wieder in den Vordergrund.
Deinorius
2011-11-09, 13:41:14
Einen SoC kann man auch zusammenstellen. Den muss man nicht fertig kaufen. Die X360 hat ja auch aktuell einen SoC aus IBM + AMD. Kein Problem.
Ich weiß, das meinte ich auch nicht, sondern primär Intel und deren Geschäftspraktiken/Arroganz whatever. Ich stelle mir da Intel einfach nicht besonders zuvorkommend vor.
Mr.Magic
2011-11-09, 13:46:24
Microsoft wird in der nächsten Zeit sicherlich nicht mit Intel oder nVidia zusammenarbeiten. Die hatten nach der Erfahrung mit der Xbox die Schauze voll.
robbitop
2011-11-09, 13:51:52
Intel kannst du vergessen. Zu teuer, die lizensieren keine Designs. MS / Sony wollen ein Design als bezahlen und es woanders beliebig oft bauen lassen.
Den Fehler haben sie schonmal gemacht mit NV und Intel. Und das wurde dann am Ende zu teuer.
tobor
2011-11-09, 15:48:58
Abwärtskompatibilität ist überbewertet.
Vielleicht auch unterbewertet. Ich würde ja meinen,daß die zumindest am Anfang einer neuen Generation Vorteile bietet, wo noch nicht viele Titel für eine Plattform angeboten werden. Und solche Titel wie Uncharted sehen im Gegensatz zu Ps2-Titel im Vergleich nicht so veraltet aus,daß man die mit einer neuen Konsole nicht spielen will.
Deinorius
2011-11-09, 16:22:34
Abwärtskompatibilität kann man aber bei der PS3 so oder so vergessen, oder soll Sony vielleicht extra einen Cell für die Kompatibilität einbauen?
Und abseits dessen, ohne mich jetzt speziell darin auszukennen, müsste die neue Konsole auch kompatibel designt sein, damit ältere Spiele ohne größeren finanziellen Aufwand des Herstellers der Konsole oder Publishers auf dieser laufen können. Die PS3 könnte IIRC ja auch per Emulation PS2 Spiele rendern, aber das dann für so viele Spiele wie möglich zu realisieren, ist wohl zu kostspielig. Da bringt es mehr, wenn die Spiele aufgewertet und neu verkauft werden. Bringt bis zu einem gewissen Grad mehr für beide Seiten. Leider bleiben dann dennoch gute, aber wenig bekannte Spiele außen vor. :(
Chief Gewickelt
2011-11-09, 17:08:33
Den Themenkomplex Abwärtskompatibilität/Content-Aufbereitung/"Ausschlachtung" würde ich auch nicht so abwertend sehen. Es ist wahr das dieses Thema im Internet gerne verrissen wird (Selektive Wahrnehmung anyone?), im Handel dann aber wirklich überhaupt keine Rolle gespielt hat.
Aber man darf nicht aus den Augen verlieren das wir uns gerade in der Generation der HD-Remakes bewegen. Von Retail Compliations á la God of War über XBLA/PSN/Virtual Console Downloads wird gerade richtig viel Geld gescheffelt. Meint ihr man kann da in 5 Jahren nochmal abgrasen? Bei Ico/SotC schlägt die Melancholie zu, aber das ganze aufgekocht für die PS4 wäre (bei nur leicht inkrementeller Verbesserung) kein Schritt mehr den der Verbraucher meiner Bescheidenen Meinung nach bezahlen würde.
Ich denke gerade jetzt, da die Schritte immer evolutionärer statt revolutionärer werden wird dieses Thema nochmal wichtig; und der Schritt zur virtuellen Mediathek tut sein übriges, die Hardware wird ja immer mehr abstrahiert vom Spieleerlebnis.
Wenn ich meine gekauften XBLA Titel zukünftig nicht auf dem Xbox Nachfolger spielen kann wäre ich zumindest stark verwundert :)
tobor
2011-11-09, 17:16:55
Abwärtskompatibilität kann man aber bei der PS3 so oder so vergessen, oder soll Sony vielleicht extra einen Cell für die Kompatibilität einbauen?
Vielleicht setzt man ja auf einen weiterentwickelten Cell...
Denn so schlecht war er ja nicht:http://forum.beyond3d.com/showthread.php?t=61048
Ailuros
2011-11-09, 17:19:48
Vielleicht setzt man ja auf einen weiterentwickelten Cell...
Denn so schlecht war er ja nicht:http://forum.beyond3d.com/showthread.php?t=61048
Definitiv nein. SONY wollte etwas schnelles, billiges und so nahe wie moeglich am "PC Konzept". Cell ist verdammt teuer und ich hab bis jetzt nicht einen einzigen industry insider angesprochen der Hoffnung fuer eine Zukunft fuer Cell hatte oder hat.
Deinorius
2011-11-09, 17:20:26
Vielleicht setzt man ja auf einen weiterentwickelten Cell...
Denn so schlecht war er ja nicht:http://forum.beyond3d.com/showthread.php?t=61048
In einer früheren Aussage wurde gesagt, dass sie keinen Cell mehr in weiteren Konsolen einbauen werden. Vielleicht galt die Aussage nur für den bestehenden Cell, vielleicht auch nicht. Ich glaub nicht daran, dass Cell wiederkommt. Der Trend zu Multiplattformtiteln hört ja nicht auf und da wäre eine Plattform, die gerade leichter programmierbar ist, auch für Sony von Vorteil, aber das wurde auch schon des Öfteren diskutiert.
Herr Doktor Klöbner
2011-11-10, 10:20:13
Ich gehe mal davon aus das IBM für beide Konsolen die CPU entwickelt.
Wenn ich einen Hunderter darauf wetten würde, das das ein PPC Quadcore mit der Leistung eines heutigen Mittelklasse X86 Quadcores sein wird, ist das wohl kein allzu großes Risiko. Es würde mich noch nicht mal wundern wenn es im Kern dasselbe Design ist, mit ein paar spezifischen Anpassungen, die erfinden das Rad nicht zweimal neu.
robbitop
2011-11-10, 10:47:42
Wenn IBM, dann sicher kein Power 6 Ableger mehr (in Order) sondern Power 7 (OoO).
Ich denke auch, dass ein Kern mit Mainstream Quadcoreleistung verbaut werden wird.
Deinorius
2011-11-10, 11:02:51
Das dürfte eh ohne weiteres passieren. Ein Kern mit L2-Cache und 4-fach SMT braucht selbst unter 45 nm nur rund 27 mm². Unter 22 nm wären es dann wieviel? 7 mm²?
Deinorius
2011-11-10, 11:18:00
Mal was anderes. Angeblich kommt die Xbox Next Weihnachten 2012 raus und sie dürfte auf der CES zu sehen sein. Na ich bin gespannt.
http://www.computerbase.de/news/2011-11/mehr-als-57-mio.-exemplare-der-xbox-360-ausgeliefert/
Wenn IBM, dann sicher kein Power 6 Ableger mehr (in Order) sondern Power 7 (OoO).
Was heißt hier "mehr"? Die Xbox-CPU ist kein Power-6-Ableger sondern stammt von der Cell-PPE ab.
robbitop
2011-11-10, 11:34:04
32 nm werden es wohl eher.
Was heißt hier "mehr"? Die Xbox-CPU ist kein Power-6-Ableger sondern stammt von der Cell-PPE ab.
Und die Cell PPE ist widerum ein Power6 Ableger. Oder hat IBM nur für die pissige Cell noch eine eigene µ-Arch aus dem Boden gestampft?
2 Issue In Order klingen für mich nach Power 6 Arch.
Nein, die Cell PPE ist kein Power6-Ableger.
robbitop
2011-11-10, 11:46:53
Ok - geht aber in die gleiche Richtung. Wenig IPC, mehr Takt, gleiche Breite der Executionpipelines.
Wundert mich, dass man hier eine extra µ-Arch erstellt hat.
Gut, dann formuliere ich es um:
Es wird bestimmt keine in-order CPU mehr eingesetzt, sondern eine out-of-order CPU.
john carmack
2011-11-10, 11:59:20
Weihnachten 2012 :)
Ich glaubs ja nicht aber wer weiß... wohl eher 2Q 2013
Es wird bestimmt keine in-order CPU mehr eingesetzt, sondern eine out-of-order CPU.
Wird wohl trotzdem was simpleres. IBM gibt seine Kronjuwelen nicht einfach so her. Zumal Power für einen SoC auch viel zu stromhungrig ist.
Was natürlich auch interessant wäre, ist IBMs eDRAM-Prozess.
AnarchX
2011-11-10, 12:25:23
PowerPC A2 wurde ja desöfteren bei B3D genannt: http://en.wikipedia.org/wiki/PowerPC_A2
Versions of processors based on the A2 core range from a 2.3 GHz version with 16 cores consuming 65 W to a less powerful, four core version, consuming 20 W at 1.4 GHz. Each A2 core is capable of four-way multithreading and have 16+16 instruction and data cache per core.
Gipsel
2011-11-10, 13:58:05
PowerPC A2 wurde ja desöfteren bei B3D genannt: http://en.wikipedia.org/wiki/PowerPC_A2
Die single-Thread-Leistung finde ich da ein wenig zu mager, zudem jeder Kern noch 4fach multithreaded ist, sprich bei 4 Kernen hast Du bereits 16 (ziemlich langsame) Threads.
robbitop
2011-11-10, 13:58:42
Wird wohl trotzdem was simpleres. IBM gibt seine Kronjuwelen nicht einfach so her. Zumal Power für einen SoC auch viel zu stromhungrig ist.
Was natürlich auch interessant wäre, ist IBMs eDRAM-Prozess.
IBM bekommt in 32 nm FD-SOI keinen Power7 Quadcore zwischen 2 - 3 GHz hin mit ~ 60 W TDP?
Und warum sollten sie ihr aktuelles Design nicht lizensieren? Ist IBM dafür bekannt, da restriktiv zu sein?
Demogod
2011-11-10, 14:17:13
Äääh ich dachte ich hätte mal gelesen, dass es nen Octocore wird + SMT??!?
Und Ende 2013 sollten 22nm für MS definitiv zu haben sein.
robbitop
2011-11-10, 14:24:18
Vorstellung wohl E3 2012, Release dann 2013.
Ob TSMC, UMC, IBM bis Ende 2012 (Produktion muss anlaufen) einen serienreifen 22 nm Prozess zur Verfügung hat, möchte ich bezweifeln.
Die kommen ja gerade jetzt langsam bei 32 nm an, was Intel schon fast seit 2 Jahren hat.
Die Nextgenkonsolen werden im Gegensatz zur PS3 und X360 wohl keine HighEnd-Konsolen zum Release mehr sein. Sony und MS haben Anfangs viel Verlust gemacht. Es wird gleich auf Mainstream / SoC hinlaufen.
Brachiale Leistung wird man wohl nicht sehen.
Deinorius
2011-11-10, 14:27:16
Äääh ich dachte ich hätte mal gelesen, dass es nen Octocore wird + SMT??!?
Wo denn? 16 Threads sind für eine Konsole etwas zu viel. Man könnte schon froh sein, wenn 4C+SMT ausgereizt werden würden.
dargo
2011-11-10, 14:50:30
Wo denn? 16 Threads sind für eine Konsole etwas zu viel. Man könnte schon froh sein, wenn 4C+SMT ausgereizt werden würden.
Sehe ich auch so. 4C/4T sind mehr als genug. 16 Threads... wer braucht denn sowas bei einer Konsole? :ugly:
robbitop
2011-11-10, 14:55:58
Sony X-D
(kleiner Schärz!!)
Deinorius
2011-11-10, 15:03:51
Sony X-D
(schleiner Schärz!!)
:unono:
Die denken sich halt. OK, bis jetzt hatten wir 8 Kerne (grob gesagt). Nächte Konsole muss doppelt so schnell sein, also doppelt soviele Kerne (grob gesagt). :ulol:
Ailuros
2011-11-10, 18:01:37
Vorstellung wohl E3 2012, Release dann 2013.
Ob TSMC, UMC, IBM bis Ende 2012 (Produktion muss anlaufen) einen serienreifen 22 nm Prozess zur Verfügung hat, möchte ich bezweifeln.
Die kommen ja gerade jetzt langsam bei 32 nm an, was Intel schon fast seit 2 Jahren hat.
Die Nextgenkonsolen werden im Gegensatz zur PS3 und X360 wohl keine HighEnd-Konsolen zum Release mehr sein. Sony und MS haben Anfangs viel Verlust gemacht. Es wird gleich auf Mainstream / SoC hinlaufen.
Brachiale Leistung wird man wohl nicht sehen.
Es gibt keine Oelpumpen in Taiwan :D
schoppi
2011-11-15, 20:16:17
http://www.computerandvideogames.com/326051/next-gen-xbox-announcement-at-ces-in-january-rumour/
Also ich hätte nichts dagegen...langsam bin ich die Konsolengrafik leid und ne neue Xbox Weihnachten 2012 hätte was.
AnarchX
2011-11-15, 21:49:30
Da hat man die Originalquelle aber sehr verkürzt wiedergegeben:
CPU level, it would be a hexa-core with 2GB of DDR3, and our source also told us of a prototype dual-GPU AMD. We could not know the RAM.
http://translate.google.com/translate?sl=fr&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&layout=2&eotf=1&u=http%3A%2F%2Fwww.xboxygen.com%2FXbox-720%2FNouvelle-Xbox-CES-2012-et-GPU-ATI&act=url
dargo
2011-11-15, 21:53:11
CF in einer Konsole? Kann ich mir beim besten Willen nicht vorstellen. Sinn?
Deinorius
2011-11-15, 22:02:28
Getrennter Arbeitsspeicher? Ich hätte ja noch eher gedacht, dass der weiter vereint bleibt, vielleicht sogar direkt gemeinsam genutzt werden könnte (so wie es angeblich bei GCN SoCs möglich sein soll).
Aber wäre schön, wenn die CPU alleine wirklich 2 GB DDR3 kriegen würde. 4 GB wären schöner, aber 2 GB sind schon im Grunde eine Verachtfachung!
Der HexaCore bräuchte an sich auch kein SMT, hauptsache die IPC steigt. Aber vielleicht wäre dieser so oder so dabei.
@dargo
Da steht an sich prototype dual-GPU. Ich würde das nicht als CF verstehen. Vielleicht hat es was mit dem eDRAM zu tun, aber das wäre nicht neu.
][immy
2011-11-15, 22:03:14
CF in einer Konsole? Kann ich mir beim besten Willen nicht vorstellen. Sinn?
naja, gerade bei einer konsole macht er vermutlich mehr sinn als bei einem pc.
hier werden die spiele schließlich auf die eine hardware hin optimiert (bzw. auch noch auf die beiden anderen konsolen).
ggf. wird es ja sowas wie große gpu für grafik, kleine gpu für andere sachen (z.B. physik, ...) und os-darstellung oder sowas in der richtung.
die dinger gehen schließlich immer mehr in richtung media-server + spielen. hier will man vielleicht erreichen, das die konsole wenn man einen film guckt einfach leise ist und schaltet die zweite gpu ab.
die frage ist aber ob für die anderen aufgaben nicht etwas jenseits einer gpu/normalen cpu sinnvoller wäre. aber das würde die sache wohl noch komplizierter und teuerer machen.
Getrennter Arbeitsspeicher? Ich hätte ja noch eher gedacht, dass der weiter vereint bleibt, vielleicht sogar direkt gemeinsam genutzt werden könnte (so wie es angeblich bei GCN SoCs möglich sein soll).
Aber wäre schön, wenn die CPU alleine wirklich 2 GB DDR3 kriegen würde. 4 GB wären schöner, aber 2 GB sind schon im Grunde eine Verachtfachung!
Der HexaCore bräuchte an sich auch kein SMT, hauptsache die IPC steigt. Aber vielleicht wäre dieser so oder so dabei.
@dargo
Da steht an sich prototype dual-GPU. Ich würde das nicht als CF verstehen. Vielleicht hat es was mit dem eDRAM zu tun, aber das wäre nicht neu.
gerade im blick auf die zukunft (10+ Jahre sollen die wohl wieder halten) und halte ich 2 GB für schon ziemlich wenig. aus heutiger Sicht mag es für eine Konsole wahnsinnig viel sein, aber in 10 Jahren sieht das wohl noch schlechter aus als die konsolen heute mit 512 mb. zudem sind die speicherpreise im keller und werden garantiert nicht teurer.
die CPU wird hingegen derzeit wohl völlig überschätzt. klar brauchen die neuen konsolen mehr CPU power, aber die CPU spielt in den letzten Jahren eine immer kleinere Rolle. Und was man bei einer konsole wohl nicht will ist wenn in 99% aller fälle sich die CPUs langweilen. nen Quad (+HT/CMT) auf heutigem CPU-level sollte mehr als ausreichend sein. würde mich zumindest nicht wundern, wenn sie nicht wirklich mehr kerne als in der xbox 360 und der ps3 anbieten.
Deinorius
2011-11-15, 22:08:11
Nein, mehr als eine GPU im Sinne von CF macht allein schon deswegen keinen Sinn, weil damit auch die Kosten für das Mainboard steigen würden. Das käme einfach zu teuer. Der GPU-Die kann selber nicht allzu groß sein. Ein 500 mm² Die ist viel zu groß für jede Konsole. Die GPU der PS3 war nur halb so groß und die war schon teuer. Da bringt es auch nix, den Chip auf zwei aufzuteilen. Wegen dem Mainboard wäre das dann nochmal teurer.
Das mit dem Physik-Chip ist zwar interessant, aber wenn, würde man das wohl doch eher mit der CPU/GPU anstellen. Allein schon wegen den Kosten.
][immy
2011-11-15, 22:15:02
Nein, mehr als eine GPU im Sinne von CF macht allein schon deswegen keinen Sinn, weil damit auch die Kosten für das Mainboard steigen würden. Das käme einfach zu teuer. Der GPU-Die kann selber nicht allzu groß sein. Ein 500 mm² Die ist viel zu groß für jede Konsole. Die GPU der PS3 war nur halb so groß und die war schon teuer. Da bringt es auch nix, den Chip auf zwei aufzuteilen. Wegen dem Mainboard wäre das dann nochmal teurer.
Das mit dem Physik-Chip ist zwar interessant, aber wenn, würde man das wohl doch eher mit der CPU/GPU anstellen. Allein schon wegen den Kosten.
wie gesagt es müssen ja keine 2 gleichstarken kerne sein. z.B. einer bereits in der CPU integriert, der andere, leistungsfähigere dediziert bzw. draufgequetscht.
bei handhelds setzt man ja auch auf multi-gpu systeme. also wirklich teurer wird es wohl dadurch nicht. ggfs. kann man dadurch auch einfach günstiger zu produzierende gpus nehmen und muss nicht zu den teuren chips greifen. dafür muss man den takt nicht so hoch reißen um mithalten zu können und kann noch an der kühlung sparen.
dargo
2011-11-15, 22:19:08
@dargo
Da steht an sich prototype dual-GPU. Ich würde das nicht als CF verstehen. Vielleicht hat es was mit dem eDRAM zu tun, aber das wäre nicht neu.
eDRAM ist aber keine GPU. :D
[immy;9036326']naja, gerade bei einer konsole macht er vermutlich mehr sinn als bei einem pc.
hier werden die spiele schließlich auf die eine hardware hin optimiert (bzw. auch noch auf die beiden anderen konsolen).
Du hast wohl das eigentliche Problem bei SLI/CF aka AFR nicht verstanden.
lumines
2011-11-15, 22:23:09
[immy;9036326']die CPU wird hingegen derzeit wohl völlig überschätzt. klar brauchen die neuen konsolen mehr CPU power, aber die CPU spielt in den letzten Jahren eine immer kleinere Rolle.
Generell spielt Leistung eine immer geringere Rolle. Nach Open World kam ja kein Spielkonzept mehr, das durch mehr Leistung deutlich profitiert hätte. Letztendlich sind ja sogar Spiele wie GTA IV auf der aktuellen Generation mit geschicktem Streaming möglich gewesen und das ist doch eigentlich schon ziemlich beeindruckend.
Man sollte bei den voraussichtlichen Specs daher imho nicht zu viel erwarten. Im Zweifelsfall wird doch wohl eher die konservativere Schiene gefahren und das auch vollkommen zu recht, wozu denn auch unnötige Risiken eingehen? Stattdessen sind doch schon lange Gimmicks wie 3D und Bewegungssteuerung viel wichtiger als irgendwelche popeligen Specs, die am Ende eh nur wenig über den Content der Spiele aussagen. HD war auch mal so ein Gimmick, nur eben stark von der Leistung der Konsole abhängig. Das ist jetzt nicht mehr der Fall und gewissermaßen ein Standard-Feature, ähnlich wie es 3D und so Zeug à la Kinect bald sein wird. Dann kommt halt etwas Neues, aber es wird sicher nicht besonders viel Leistung fressen. Alles andere würde mich schon sehr wundern.
dargo
2011-11-15, 22:28:53
[immy;9036353']wie gesagt es müssen ja keine 2 gleichstarken kerne sein. z.B. einer bereits in der CPU integriert, der andere, leistungsfähigere dediziert bzw. draufgequetscht.
Dann wäre aber die Rede vom SoC und einer dedizierten Grafikeinheit. Und nicht von AMD Dual-GPU mit unbekanntem Speicher.
Edit:
Was mir an der Meldung @2GB Arbeitsspeicher nicht gefällt... wann werden endlich 64Bit Systeme für Spiele relevant (vorallem in Hinblick auf Multiplattformspiele für den PC)? Erst bei der übernächsten Konsolengeneration? :usad:
Frucht-Tiger
2011-11-15, 22:37:39
Es gibt sowieso keinen Grund irgendwas großartiges zu erwarten, woher auch?
TDP und Kosten erlauben eh nur einen Bruchteil der Leistung von aktuellen High-End PCs. Wundertechnologien wird es keine geben, die CPU wird wieder "Best-Bang-for-the-Bug" IBM Gerümpel und die GPU wird vielleicht 100W zu Verfügung haben, also irgendwas in der Leistungsregion der aktuellen Mittelklasse(bessere Fertigungstechnologie schon eingerechnet).
Deinorius
2011-11-15, 22:47:02
[immy;9036353']bei handhelds setzt man ja auch auf multi-gpu systeme.
Na Moment, das ist was ganz anderes. Dieses System hat an sich (meinem Verständnis nach) nur bei Firmen Sinn, die ihre Architektur lizenzieren. Also ARM, Imagination usw. Man kriegt eine Architektur und kann die Leistung selber skalieren. So, aber AMD lizenziert normalerweise nicht und im Normalfall bieten sie keine GPU-Architektur an, die für Konsolen optimiert ist. Also müssen sie für M$ eine Spezialanfertigung machen und weil sie eine Spezialanfertigung durchführen, macht eine Radeon MP4 (MP4 - wie bei der PS Vita) einfach keinen Sinn. Die machen einen von vorn bis hinten durchdachten GPU Chip, bzw. was ich eher hoffe, GPU IP. Ich hoffe immer noch, dass alle Konsolen nur noch SoCs nutzen werden, selbst wenn diese SoC Chips gar 500 mm² groß werden.
eDRAM ist aber keine GPU. :D
Jo eh. :usad:
Aber wenn man jetzt diese Aussage (mal angenommen) ernst nehmen würde, würde nix anderes Sinn machen.
Nightspider
2011-11-16, 02:17:52
Die Entwickler müssen abwiegen, was günstiger ist.
CPU Leistung für das Streaming zu verbrauchen oder mehr Arbeitsspeicher zu verbauen.
Das wird sich wohl irgendwo die Waage halten, weswegen wir niemals 8GB und wohl auch keine 4GB RAM bei den neuen Konsolen sehen werden.
Arbeitsspeicher ist auch nichtmehr so wichtig wie früher.
Wobei viel Arbeitsspeicher auch mehr Reserve für Texturen bedeuten würden.
Theoretisch könnte man auch schon SSDs in den neuen Konsolen erwarten mit 80-100 GB.
Diese würden Anfangs 80-100 Euro kosten allerdings würde sich der Preis jedes Jahr nahezu halbieren. So wären die Konsten dafür im 2. Jahr nurnoch 40-50 Euro und im 3. Jahr rund 20-25 Euro.
Darauf könnten die Entwickler die wichtigsten Spiele-Inhalte bereitstellen und das Streaming würde massiv verbessert werden.
Wobei ich selbst noch nicht wirklich an SSDs in den kommenden Konsolen glaube.
Kommt halt drauf an, wie bereit Sony und MS wären, die neuen Konsolen zu subventionieren. Und die Leistungskrone wollen ja sowieso beide für sich.
Also wird man schon nicht zu sehr veraltete Hardware verbauen.
Am meisten freue ich mich eh auf den Sprung bei bei der Texturauflösung und massiv gesteigerte Physikeffekte in jedem Spiel. (Kleidungs-,Wasser-,(Wetter-),Feuer-,(Verbrennungs-) und Zerstörungs-Physik.
Chief Gewickelt
2011-11-16, 10:48:51
Die Xbox360 gibt es schon seit Ewigkeiten mit "SSD" (sprich: fest installiertem Flashspeicher), aktuell mit 4GB. Bei der nächsten Generation werden es eben 16/32/64, je nachdem was ins Budget passt.
dargo
2011-11-16, 13:19:48
Wobei viel Arbeitsspeicher auch mehr Reserve für Texturen bedeuten würden.
Arbeitsspeicher ist in dem Sinne viel zu langsam für Texturen.
Franconian
2011-11-16, 13:26:30
Die Nextgenkonsolen werden im Gegensatz zur PS3 und X360 wohl keine HighEnd-Konsolen zum Release mehr sein. Sony und MS haben Anfangs viel Verlust gemacht. Es wird gleich auf Mainstream / SoC hinlaufen.
Das fände ich ziemlich schade und extrem enttäuschend.
Ich will eine hochwertige, leistungsstarke Konsole. Spiele mit 60 FPS in 1080p mit AA und Co. Da dürfen die auch dann gerne 500-600 € dafür verlangen, wenn man den langen Lebenszyklus berücksichtigt ist das eigentlich nicht viel.
Auf so ne Hartz 4-Konsole ala Wii mit der Leistung von nem besseren Taschenrechner kann ich verzichten. Hoffentlich machen da MS/Sony nicht auch den Fehler ein bereits vorher veraltetes Gerät auf den Markt zu werfen.
Arbeitsspeicher ist in dem Sinne viel zu langsam für Texturen.
Erm, die Xbox hat einen geteilten Arbeitsspeicher, der auch als VRAM fungiert. Das wird bei der nächsten Generation sehr sicher gleich bleiben.
Und natürlich werden da die Texturen abgelegt.
Andererseits braucht man eigentlich nur ein wenig mehr Speicher als für eine Szene notwendig ist mit Streaming. Es ist davon auszugehen, dass die Xbox 3 ein Blu-Ray-Laufwerk bekommt, das ist in der Hinsicht wichtiger.
Übrigens ist es gar nicht so abwegig Texturen vom CPU-RAM aus zu benutzen am PC. Das ist für dynamische Texturen der beste Weg. Natürlich nur solange man sie nicht auf der GPU erzeugt.
dargo
2011-11-16, 14:19:28
Erm, die Xbox hat einen geteilten Arbeitsspeicher, der auch als VRAM fungiert. Das wird bei der nächsten Generation sehr sicher gleich bleiben.
Möglich ist vieles. Ich bezog mich da auf das Gerücht vonwegen CPU mit 2GB DDR3 und Dual-GPU mit unbekannter Speichergröße. In dieser Konstellation wird die GPU sicherlich nicht auf den DDR3 zugreifen.
Das fände ich ziemlich schade und extrem enttäuschend.
Ich will eine hochwertige, leistungsstarke Konsole. Spiele mit 60 FPS in 1080p mit AA und Co. Da dürfen die auch dann gerne 500-600 € dafür verlangen, wenn man den langen Lebenszyklus berücksichtigt ist das eigentlich nicht viel.
Auf so ne Hartz 4-Konsole ala Wii mit der Leistung von nem besseren Taschenrechner kann ich verzichten. Hoffentlich machen da MS/Sony nicht auch den Fehler ein bereits vorher veraltetes Gerät auf den Markt zu werfen.
Du hast aber schon das finanzielle Ausmaß der stark subventionierten Konsolen der letzten Jahre mitbekommen?
Franconian
2011-11-16, 14:25:14
Auf was willst du hinaus dargo?
dargo
2011-11-16, 14:29:17
Auf die großen Milliardenverluste.
Nightspider
2011-11-16, 14:36:03
Selbst Battlefield 3 nutzt schon normalen RAM um VRAM auszulagern.
Deswegen können so viele hier auch flüssig auf Ultra BF3 zocken, obwohl sie nur 1GB VRAM haben, tatsächlich aber bis zu 1,7GB belegt werden würden.
Das wäre eigentlich sogar ein Pro-Argument, soviel RAM in die neuen Konsolen zu verbauen, wie es preislich halbwegs machbar ist. Denn nach 3 Jahren wird wieder jeder Spieleentwickler nach mehr RAM lächzen, was dann im nachhinein auch weider ein Entscheidungskriterium ist, welche Konsole denn nun schneller ist.
Watson007
2011-11-16, 14:38:56
Auf was willst du hinaus dargo?
ich denke nicht das Sony nochmal so große Subventionen stemmen kann. Abgesehen davon, das Thema Grafik wird eh immer unwichtiger.
Nightspider
2011-11-16, 14:51:39
ich denke nicht das Sony nochmal so große Subventionen stemmen kann. Abgesehen davon, das Thema Grafik wird eh immer unwichtiger.
Subventionieren werden sie sicherlich. Nur wird man jetzt nichtmehr soviel Geld in eigens entwickelte Technologie (die nix taugt, wie Cell) investieren.
Man wird die Technik diesmal komplett einkaufen.
dargo
2011-11-16, 14:54:07
Selbst Battlefield 3 nutzt schon normalen RAM um VRAM auszulagern.
Deswegen können so viele hier auch flüssig auf Ultra BF3 zocken, obwohl sie nur 1GB VRAM haben, tatsächlich aber bis zu 1,7GB belegt werden würden.
Wie kommst du darauf?
john carmack
2011-11-16, 15:11:18
Es gibt sowieso keinen Grund irgendwas großartiges zu erwarten, woher auch?
TDP und Kosten erlauben eh nur einen Bruchteil der Leistung von aktuellen High-End PCs. Wundertechnologien wird es keine geben, die CPU wird wieder "Best-Bang-for-the-Bug" IBM Gerümpel und die GPU wird vielleicht 100W zu Verfügung haben, also irgendwas in der Leistungsregion der aktuellen Mittelklasse(bessere Fertigungstechnologie schon eingerechnet).
Ist doch egal was die Konsole Verbraucht und obs nur Mainstream Komponenten sein werden.
Mann muss doch immer sehen das zB. (und das erwähne ich hier bestimmt schon zum 73 mal)
die 360 eine auf dem ATI R5XX basierende GPU hat. Und was man mit dieser immer noch Leisten kann ist sehr, sehr gut. Wenn nicht sogar herrausragend!!!
Und wenn die "720" eine GPU auf zB. R900 / R1000 (und wenns nur eine HD 6800/6700 - HD7700/7600 Basis sein wird) Basis bekommt dann sollte das auch reichen und es wird wie bei jeder Konsolengeneration einen Riesen (Quanten)Sprung nach vorne geben was die Grafik angeht.
Vergleicht doch mal die PS2 mit der PS3 Grafik.
Das wird sicher ein Spass! :D
Möglich ist vieles. Ich bezog mich da auf das Gerücht vonwegen CPU mit 2GB DDR3 und Dual-GPU mit unbekannter Speichergröße. In dieser Konstellation wird die GPU sicherlich nicht auf den DDR3 zugreifen.
Das ist sowieso völlig absurd.
Mann muss doch immer sehen das zB. (und das erwähne ich hier bestimmt schon zum 73 mal) die 360 eine auf dem ATI R5XX basierende GPU hat. Und was man mit dieser immer noch Leisten kann ist sehr, sehr gut. Wenn nicht sogar herrausragend!!!
R500, nicht R5xx. Großer Unterschied.
Franconian
2011-11-16, 15:12:31
ich denke nicht das Sony nochmal so große Subventionen stemmen kann. Abgesehen davon, das Thema Grafik wird eh immer unwichtiger.
So? Ich finde das Thema Grafik ist das einzige wo sich noch wirklich was tut. Warum sollte das im Konsolenbereich anders sein?
RAM ist im Keller und 4 GB sind seit Ewigkeiten Standard (wobei selbst die kaum genutzt werden), die CPU Anforderungen stagnieren (jeder halbwegs aktuelle Quadcore hält mehrere Jahre). SSD war im PC-Sektor die letzte wirkliche Neuerung, aber wenn was wirklich von Jahr zu Jahr was tut dann ist das die GPU.
john carmack
2011-11-16, 15:17:42
Die Entwickler müssen abwiegen, was günstiger ist.
CPU Leistung für das Streaming zu verbrauchen oder mehr Arbeitsspeicher zu verbauen.
Das wird sich wohl irgendwo die Waage halten, weswegen wir niemals 8GB und wohl auch keine 4GB RAM bei den neuen Konsolen sehen werden.
Arbeitsspeicher ist auch nichtmehr so wichtig wie früher.
Wobei viel Arbeitsspeicher auch mehr Reserve für Texturen bedeuten würden.
Theoretisch könnte man auch schon SSDs in den neuen Konsolen erwarten mit 80-100 GB.
Diese würden Anfangs 80-100 Euro kosten allerdings würde sich der Preis jedes Jahr nahezu halbieren. So wären die Konsten dafür im 2. Jahr nurnoch 40-50 Euro und im 3. Jahr rund 20-25 Euro.
Darauf könnten die Entwickler die wichtigsten Spiele-Inhalte bereitstellen und das Streaming würde massiv verbessert werden.
Wobei ich selbst noch nicht wirklich an SSDs in den kommenden Konsolen glaube.
Kommt halt drauf an, wie bereit Sony und MS wären, die neuen Konsolen zu subventionieren. Und die Leistungskrone wollen ja sowieso beide für sich.
Also wird man schon nicht zu sehr veraltete Hardware verbauen.
Am meisten freue ich mich eh auf den Sprung bei bei der Texturauflösung und massiv gesteigerte Physikeffekte in jedem Spiel. (Kleidungs-,Wasser-,(Wetter-),Feuer-,(Verbrennungs-) und Zerstörungs-Physik.
Also 4GB werden es min.! Da verwette ich meinen Arsch drauf :D
4GB RAM bekommste doch schon hinterher geschmissen. Selbst als einzelnes 4GB Modul!
Also 4-8 auf jeden fall! Die 360 hat nur 512MB und man sieht was man da rausholen kann!
dargo
2011-11-16, 15:20:30
Mann muss doch immer sehen das zB. (und das erwähne ich hier bestimmt schon zum 73 mal)
die 360 eine auf dem ATI R5XX basierende GPU hat. Und was man mit dieser immer noch Leisten kann ist sehr, sehr gut. Wenn nicht sogar herrausragend!!!
Auslegungssache. Wenn ich mir die Bedingungen dabei anschaue (oftmals kein AA, kein/wenig AF, kleiner 720p, stellenweise ist man selbst von 30fps weit entfernt) sieht das schon wieder ganz anders aus. Manche sind halt leidungsfähiger als andere.
john carmack
2011-11-16, 15:27:43
Auslegungssache. Wenn ich mir die Bedingungen dabei anschaue (oftmals kein AA, kein/wenig AF, kleiner 720p, stellenweise ist man selbst von 30fps weit entfernt) sieht das schon wieder ganz anders aus. Manche sind halt leidungsfähiger als andere.
Na dann bin ich mal gespannt wie du zB. SkyRim oder eine anderes Aktuelles Spiel mit "(oftmals kein AA, kein/wenig AF, kleiner 720p, stellenweise ist man selbst von 30fps weit entfernt)" auf einer ATI X1900 spielen willst.
Selbst die Einstellungen würden die Karte mehr als in die Knie zwingen. Da würde gar nichts mehr gehen!
Viel Spass! Testergebnisse bitte an mich! DANKE
dargo
2011-11-16, 15:31:56
Mit Low-Details ruckele ich mich genauso durch die Level. Zudem sollte man da imo eher mit der HD2600GT vergleichen. Spielt aber für mich eh keine Rolle da ich mich von solchen alten Kamellen schon lange getrennt habe. Demnächst steht Kepler auf dem Plan. ;)
Was mir an der Meldung @2GB Arbeitsspeicher nicht gefällt...
2GB wären erstmal eine viel größere Steigerung für die Konsolen, als man auf den ersten Blick meint. Man muss daran denken, dass in den Speicher noch der komplette Programmcode muss. Da ist auf der PS3 schon mal schnell >50% des Speichers weg. Wenn man sich anschaut welchen Aufwand DICE getrieben hat (http://publications.dice.se/attachments/bloat2.pdf) und wie wenig Speicher bei ihnen übrig geblieben ist, ist es schon beängstigend.
john carmack
2011-11-16, 15:44:11
Mit Low-Details ruckele ich mich genauso durch die Level. Zudem sollte man da imo eher mit der HD2600GT vergleichen. Spielt aber für mich eh keine Rolle da ich mich von solchen alten Kamellen schon lange getrennt habe. Demnächst steht Kepler auf dem Plan. ;)
sag ich doch!
"...die 360 eine auf dem ATI R5XX basierende GPU hat. Und was man mit dieser immer noch Leisten kann ist sehr, sehr gut. Wenn nicht sogar herrausragend!!!"
OK von mir aus auch R500
Ailuros
2011-11-16, 15:57:26
sag ich doch!
"...die 360 eine auf dem ATI R5XX basierende GPU hat. Und was man mit dieser immer noch Leisten kann ist sehr, sehr gut. Wenn nicht sogar herrausragend!!!"
OK von mir aus auch R500
Xenos ist kein R5xx, R500 oder wie Du ihn bezeichnen willst. Alles R5xx (desktop only) hatte immer noch getrennte pixel and vertex shader ALUs. Xenos war eine kleine Weiter-entwicklung vom frueher stornierten R400 und dessen Weiter-entwicklung (mehr Einheiten u.a.) kam in den desktop unter dem Codenamen R600.
Nightspider
2011-11-16, 16:44:41
Wie kommst du darauf?
Wie kommst du nicht darauf?
robbitop
2011-11-16, 17:37:28
Also auf meiner X1900XT lief seinerzeit Crysis in 720p mit Modconfig auf High mindestens mit Konsolenframeraten.
Die X1900XT ist meiner Meinung nach aber ein gutes Stück fixer als C1 (Takt, VRAM Bandbreite). Ich würde schätzen ~30 %.
Crysis sah mit der Modconfig nicht schlechter aus als heutige Top-Konsolentitel.
Allerdings ist das alles subjektiv und schwer zu beurteilen. Ich denke, man befindet sich mit den Optimierungen, die auf der Konsole möglich sind, zwar über dem Level gleicher HW eines PCs - aber auch nicht mehrere Faktoren drüber. So ineffizient sind die APIs auf dem PC nun auch nicht.
Was die nächsten Konsolen von MS angeht: ich würde zwischen 2 - 4 GiB und jeweils ein SoC vermuten. Aber wohl stärker als das, was Llano heute bietet.
AnarchX
2011-11-16, 17:43:08
R580 hat aber mehr Transistoren, wie der gesamte Xbox 360 SoC. :D
Fraglich ob die Next-Gen-Konsolen in den Augen der Zielkundschaft noch einmal einen so hohen Sprung bei der Grafik hinlegen, wie die letzte Generation mit HD und dem massiven Einsatz von Shadern.
john carmack
2011-11-16, 18:16:59
AMD: Next-Gen Xbox bietet Grafik wie Avatar
http://www.computerbase.de/news/2011-07/amd-next-gen-xbox-bietet-grafik-wie-avatar/
Ist zwar schon älter und wohl auch übertrieben, aber ich bleibe dabei. Die nächste KonsolenGen. wird schon einen satten Sprung hinlegen. Warum auch nicht?
@ robbitop
Wenn ich mir zB. auf Gamestar die Berichte über den Grafikvergleich (PC vs. Konsole) aktueller SpileTitel anschaue dann sehe ich kaum unterschied. Sagen die ja auch selbst in den Videos.
Wir sind seben auf einem Level angekommen bei dem den Konsolen die Luft ausgeht. Besser wird die Grafik nicht mehr.
Und mal zum verbauten Speicher zurück zu kommen.
Darf ich mal an das Projekt "KKrieger" erinnern?
Klingelts? :)
looking glass
2011-11-16, 18:21:57
Und? KKrieger war nur als Datei klein, wer da nicht genug Ram hatte, konnte ordentlich auslagern, weshalb das Spiel auch eine solche "entpackte" Installationsart anbot, schau dir mal deren Größe an, dann weiß Du so ungefähr was in den RAM muss.
Mal davon ab, das dort die Texturen ja aus Algorithmen erzeugt wurden, die es erst mal zu finden gilt (das im wahrsten Sinne des Wortes, da ist eigentlich nur Brutforce möglich, nichts mit Textur in Algo umwandeln, das funktioniert bei den wenigstens gewollt).
Nightspider
2011-11-16, 18:23:51
Wie jetzt? Meinst du die Grafik wird sich auch bei den kommenden Konsolen kaum verbessern, weil die PC Spiele bis auf BF3 auch nicht viel besser aussehen?
Da irrst du! Die Grafik wir sich noch deutlich verbessern. Am PC wird die Leistung für AA, DS, AF, mehr Details, bessere LoD und Mods verholzt bei wesentlich höheren Bildraten.
Wenn die neuen Konsolen kommen wird der Großteil der Mehrleistung in mehr Details und eine interaktivere Welt einfließen. Da wird es einen großen Sprung bei der Optik geben. Dann wird man am PC wieder eine Weile warte müssen, bis man wieder alles zuschalten kann.
Spasstiger
2011-11-16, 18:24:56
Also auf meiner X1900XT lief seinerzeit Crysis in 720p mit Modconfig auf High mindestens mit Konsolenframeraten.
Die X1900XT ist meiner Meinung nach aber ein gutes Stück fixer als C1 (Takt, VRAM Bandbreite). Ich würde schätzen ~30 %.
Ich würde die beiden Lösungen performancemäßig nicht so weit auseinander schätzen. Bei der theoretischen Pixelshadingperformance liegen sie gleichauf (je 240 GFlops) und in Punkto Framebuffer-Bandbreite ist Xenos durch den eDRAM der X1900 XT sogar um ein Vielfaches überlegen.
Die nächste Generation wird imo Minimum auf dem Level einer Radeon HD 5770 liegen. Von High-End-GPUs in den Konsolen wie es bei der Xbox 360 noch der Fall war, gehe ich bei der nächsten Konsolen-Gen aber nicht aus, da die Leistungsaufnahme der High-End-GPUs seit 2005 einfach viel zu stark gestiegen ist (von ~100 Watt auf ~250 Watt). Und Konsolen sind immer ein Kompromiss aus Geräuschpegel, Formfaktor und Preis anders als bei High-End-PCs.
AnarchX
2011-11-16, 18:46:37
Wenn die neuen Konsolen kommen wird der Großteil der Mehrleistung in mehr Details und eine interaktivere Welt einfließen. Da wird es einen großen Sprung bei der Optik geben. Dann wird man am PC wieder eine Weile warte müssen, bis man wieder alles zuschalten kann.
Fraglich ob man die Mehrleistung in so etwas investieren wird. Die teils kruden Design-Fehler/Mangel in einem Top-Titel wie Skyrim lassen sich ja auch nicht nur durch mangelhafte Leistung der aktuellen Konsolen erklären.
Mit 1080p Rendering, 3D-Rendering mit min. 720p und hohen Frameraten nach denen mancher IHV strebt, kann man schon einiges der möglichen Mehrleistung einer NG-Konsole versenken. Dann nach diverse Post-Rendering-Techniken wie AO angewendet und die Leistung ist vollkommen aufgebraucht.
Nightspider
2011-11-16, 18:51:55
Wenn aktuelle Games teils nur 1024*xxx Auflösung rendern +2*AA glaube ich nicht, das man mehr als 720p bei den neuen Konsolen sehen wird. Wenn dann eher in Ausnahmespielen (zB: Wipeout HD).
Spiele Entwicklern wie die von Skyrim fehlt es an Manpower und Geld.
Für Großprojekte wie Assassins Creed, GTA,Uncharted,Halo und Co. wird man die Leistung schon sinnvoll in Interaktivität stecken können, wenn vielleicht auch noch nicht beim ersten Ableger auf den neuen Konsolen. Sowas kommt ja mit der Zeit, wenn auch die Entwicklerteams wachsen und Erfahrung sammeln mit der neuen Engine.
Schwarze Schafe wird es immer geben. Gibts auch genug Spiele, die gut aussehen aber an und für sich schlecht sind.
DrFreaK666
2011-11-16, 18:54:28
Wenn aktuelle Games teils nur 1024*xxx Auflösung rendern +2*AA glaube ich nicht, das man mehr als 720p bei den neuen Konsolen sehen wird. Wenn dann eher in Ausnahmespielen (zB: Wipeout HD).
Spiele Entwicklern wie die von Skyrim fehlt es an Manpower und Geld.
Für Großprojekte wie Assassins Creed, GTA,Uncharted,Halo und Co. wird man die Leistung schon sinnvoll in Interaktivität stecken können, wenn vielleicht auch noch nicht beim ersten Ableger auf den neuen Konsolen. Sowas kommt ja mit der Zeit, wenn auch die Entwicklerteams wachsen und Erfahrung sammeln mit der neuen Engine.
Schwarze Schafe wird es immer geben. Gibts auch genug Spiele, die gut aussehen aber an und für sich schlecht sind.
Bethesda fehlt es an Manpower und Geld?
Nightspider
2011-11-16, 18:55:57
Verglichen mit großen Hausnummern schon. Ich glaube Gothic 4 kostete 6% von GTA4. (Produktionskosten)
dildo4u
2011-11-16, 18:59:19
Verglichen mit großen Hausnummern schon. Ich glaube Gothic 4 kostete 6% von GTA4. (Produktionskosten)
Was hat das mit Bethesda zu tun?Skyrim wird was Verkäufen angeht nur von MW und BF3 geschlagen.Du musst irgendwas verwechseln selbst Fallout 3 war ein ziehmlicher Hit und Meilen vor Games wie Mass Effect.
http://www.vgchartz.com/worldtotals.php?name=fallout&publisher=&console=&genre=&minSales=0&results=50&sort=Total
Nightspider
2011-11-16, 19:33:49
Auf jeden Fall hat es Skyrim wohl nicht geholfen. Mit mehr Manpower und mehr Geld das man in so ein Spiel investieren würde, ließe sich noch viel mehr machen.
Ich will mich da aber jetzt auch nicht zu weit aus dem Fenster lehnen, weil ich weder die Gothic Teile noch Skyrim gespielt habe aber was man teils so davon sieht oder hört beeindruckt (mich) kaum.
Wäre aber mal interessant zu wissen, wieviel Geld in zB. Skyrim geflossen ist.
Manpower wird einer der wichtigsten Faktoren bei der nächsten Konsolengeneration. Sonst kann man auch nichts mit der ganzen Leistung anfangen. (Außer man verpulvert diese sinnlos in Grafik)
Edit:
Habe jetzt nochmal nen Review über Skyrim gelesen und es klang gar nicht so schlecht. Auch wenn es jetzt nicht wirklich interessant für mich ist. Ich messe die meisten Rollenspiele an Zelda, da kommt imo nicht viel ran.^^
Palpatin
2011-11-16, 21:17:05
Auch wenn es jetzt nicht wirklich interessant für mich ist. Ich messe die meisten Rollenspiele an Zelda, da kommt imo nicht viel ran.^^
Das ist als würde man im Bezug auf Forza 4/GT4 schreiben ich messe die meisten Rennspiele an Mario Kart, da kommt imo nicht viel ran.^^
Watson007
2011-11-17, 08:20:55
john carmack sagt:
" Ich möchte noch bessere Grafik entwickeln, aber ich denke dass wir den Zenit erreicht haben. Die ganze Top-Spiele sehen wirklich gut aus, ich denke wir können noch einen weiteren Schritt gehen, jedoch wird es diesbezüglich nicht mehr viele Schritte geben"
http://www.consolewars.de/news/35152/in_der_kommenden_konsolen-generation_keine_groe_grafiksteigerung__mehr_/
boxleitnerb
2011-11-17, 08:25:14
Traurig. Wenn er von Topspielen, die sehr gut aussehen, spricht, kann er die aus seiner Schmiede ja nicht meinen. Sicher gibt es Spiele, die sehr sehr gut aussehen, aber das sind nur wenige und es geht sowieso noch viel mehr. Vor Leuten, die den Fortschritt mich solchen Aussagen bzw. durch entsprechende Taten bremsen, habe ich keinen Respekt.
Drill
2011-11-17, 08:52:28
Habe jetzt nochmal nen Review über Skyrim gelesen und es klang gar nicht so schlecht. Auch wenn es jetzt nicht wirklich interessant für mich ist. Ich messe die meisten Rollenspiele an Zelda, da kommt imo nicht viel ran.^^
ich lasse ja normalerweise nicht viel auf zelda kommen, aber es als rollenspiel zu bezeichnen zeugt schon von ziemlicher unwissenheit.
Lightning
2011-11-17, 09:08:36
Traurig. Wenn er von Topspielen, die sehr gut aussehen, spricht, kann er die aus seiner Schmiede ja nicht meinen. Sicher gibt es Spiele, die sehr sehr gut aussehen, aber das sind nur wenige und es geht sowieso noch viel mehr. Vor Leuten, die den Fortschritt mich solchen Aussagen bzw. durch entsprechende Taten bremsen, habe ich keinen Respekt.
Ich denke, er meint damit vor allem zwei Sachen:
1. Gesetz des abnehmenden Grenzertrags. Man benötigt immer mehr Rechenleistung für immer kleinere sichtbare Unterschiede.
2. Je mehr Ressourcen man zur Verfügung hat, desto mehr Content braucht man, um diese auch vernünftig auszunutzen. Spieleentwicklung ist bereits heute sauteuer, große Steigerungen sind einfach nicht mehr drin.
Weiterhin ist er offenbar der Meinung, dass die aktuelle Grafik bereits auf einem hohem Niveau ist und eine Weiterentwicklung daher unwichtiger ist als in der Anfangszeit der 3D-Grafik. Deine Meinung ist eine andere, aber die Mehrheit der Spieler sieht das vermutlich ähnlich wie JC.
Selbst wenn die nächste Konsolengeneration wieder High End werden würde, glaube ich nicht, dass der wahrgenommene grafische Sprung nochmal so groß sein könnte wie bei den vorigen Generationswechseln.
boxleitnerb
2011-11-17, 09:22:58
Ich denke, er meint damit vor allem zwei Sachen:
1. Gesetz des abnehmenden Grenzertrags. Man benötigt immer mehr Rechenleistung für immer kleinere sichtbare Unterschiede.
2. Je mehr Ressourcen man zur Verfügung hat, desto mehr Content braucht man, um diese auch vernünftig auszunutzen. Spieleentwicklung ist bereits heute sauteuer, große Steigerungen sind einfach nicht mehr drin.
Weiterhin ist er offenbar der Meinung, dass die aktuelle Grafik bereits auf einem hohem Niveau ist und eine Weiterentwicklung daher unwichtiger ist als in der Anfangszeit der 3D-Grafik. Deine Meinung ist eine andere, aber die Mehrheit der Spieler sieht das vermutlich ähnlich wie JC.
Selbst wenn die nächste Konsolengeneration wieder High End werden würde, glaube ich nicht, dass der wahrgenommene grafische Sprung nochmal so groß sein könnte wie bei den vorigen Generationswechseln.
Das Argument im letzten Absatz bestreitet auch keiner. Es gibt aber weiterhin Teilbereiche, in denen extreme Steigerungen möglich sind: Texturen und Oberflächen (Tessellation, POM usw.). Der Aufwand, hier einen großen Sprung zu machen, ist imo relativ gering. Die Tools zur Contententwicklung machen auch Fortschritte, so ist es ja nicht.
Deinorius
2011-11-17, 09:23:09
Sofern er den abnehmenden Grenzertrag meint, was ich auch glaube, muss ich ihm halt zustimmen. Mir wäre es durchaus recht, wenn man die grafische Entwicklung etwas zurückstellt, um die Entwicklungskosten auf einen Wert zu bringen, damit Content günstiger integriert werden kann.
Andere Entwicklungen wie der Physik, Manipulationsfähigkeit der Welt und Charaktere sind IMO sowieso wichtiger, um eine glaubwürdigere Welt zu erschaffen. Schon Gothic hatte Elemente, die das Spiel besser gemacht haben, was bei vielen heutigen Spielen einfach nicht da ist.
ich lasse ja normalerweise nicht viel auf zelda kommen, aber es als rollenspiel zu bezeichnen zeugt schon von ziemlicher unwissenheit.
Ist ein sehr häufiger Fehler. Aber das Spiel hat nunmal Rollenspielelemente, da verwechselt man wohl gerne.
john carmack
2011-11-17, 09:53:12
2. Je mehr Ressourcen man zur Verfügung hat, desto mehr Content braucht man, um diese auch vernünftig auszunutzen. Spieleentwicklung ist bereits heute sauteuer, große Steigerungen sind einfach nicht mehr drin.
Weiterhin ist er offenbar der Meinung, dass die aktuelle Grafik bereits auf einem hohem Niveau ist und eine Weiterentwicklung daher unwichtiger ist als in der Anfangszeit der 3D-Grafik. Deine Meinung ist eine andere, aber die Mehrheit der Spieler sieht das vermutlich ähnlich wie JC.
Selbst wenn die nächste Konsolengeneration wieder High End werden würde, glaube ich nicht, dass der wahrgenommene grafische Sprung nochmal so groß sein könnte wie bei den vorigen Generationswechseln.
HAHAHA... *facepalm*
Man Leute... und damit meine ich nicht nur Lightning...
Es MUSS einfach der Anspruch da sein irgendwann "Fotorealismus" darstellen zu können.
Stichwort -> Raytracing.
zu2. Stimmt - deswegen lechzen die Entwickler auch nach mehr Leistung und Sony selbst empfiehlt in 720p und nicht in 1080p zu Entwickeln.
Am besten bleibt die Entwicklung stehen... Reicht doch was wir jetzt haben...
tsssssssssssssssssssssssssssss....
PS. Hat die PS3 am Anfang nicht 699€ oder gar 799€ gekostet?
und noch was...
Die 360 gab es ab Ende05/Anfang06 zu kaufen - Richtig?
Die 360 hat insgesamt 512MB Arbeitsspeicher(VRAM+RAM)?!?!?!
Wenn ich mich richtig erinnere waren damals 1GB - 2GB RAM + 256MB - 512MB VRAM bei einem PC standard.
Und was ist heute standard und was hat heute immer noch die 360 verbaut?
Glaubt mir... Die neuen Konsolen werden keine High End Hardware verbaut haben! Brauchen sie aber auch nicht...!
Eine Konsole schleppt nun mal keine riesen BS mit sich mit sich auf dem unendlich viele Dienste und Tasks laufen...
Eidolon
2011-11-17, 10:11:28
Ist die Frage, ob Fotorealismus ein Muss ist. Könnte mir gut vorstellen, dass es dann schnell langweilig wird, weil Fotorealismus habe ich auch ohne Grafik. ;)
Spiele sind Kunst und müssen daher nicht fotorealistisch sein.
Sven77
2011-11-17, 10:18:16
Vor allem wo soll der Content herkommen Oo
Ailuros
2011-11-17, 10:34:08
HAHAHA... *facepalm*
Tu mir den Gefallen und drueck Dich wie ein Erwachsener aus.
Man Leute... und damit meine ich nicht nur Lightning...
Es MUSS einfach der Anspruch da sein irgendwann "Fotorealismus" darstellen zu können.
Stichwort -> Raytracing.
Es muss gar nichts und schon gar nicht etwas so anspruchsvolles wie raytracing.
Glaubt mir... Die neuen Konsolen werden keine High End Hardware verbaut haben! Brauchen sie aber auch nicht...!
Eine Konsole schleppt nun mal keine riesen BS mit sich mit sich auf dem unendlich viele Dienste und Tasks laufen...
Hier kann ich voll zustimmen; in solch einem Fall fallen aber auch sofort jegliche extravaganten raytracing Faehigkeiten aus dem Fenster.
ich lasse ja normalerweise nicht viel auf zelda kommen, aber es als rollenspiel zu bezeichnen zeugt schon von ziemlicher unwissenheit.
Hm? Was ist Zelda denn bitteschön sonst?
Lightning
2011-11-17, 11:01:03
Hm? Was ist Zelda denn bitteschön sonst?
Kurz OT:
Die Definitionen darüber, was ein RPG ist und was nicht gehen zwar auseinander. Für den einen ist es die Möglichkeit, eigene inhaltliche Entscheidungen zu treffen (mitsamt ihrer Konsequenzen), für den anderen eher, Erfahrungspunkte zu sammeln und damit seine(n) Charakter(e) kontinuierlich weiterzuentwickeln. Zelda hat aber nichts von beidem. Es war schon immer ein Action-Adventure (und wird beispielsweise von Wikipedia und imo auch Nintendo selber so genannt).
Watson007
2011-11-17, 11:23:32
selbst wenn die nächsten Konsolen Highend werden, wer soll die Entwicklung entsprechender Spiele bezahlen?
Es erreichen doch nichtmal alle Spiele der jetzigen Generation das graifsche Niveau eines Uncharted3 oder Gears of War3, eben weil das zu teuer ist.
Die Allgemeinheit kommt auch mit weniger guter Grafik aus, hat man an den Verkaufszahlen der Wii gesehen.
imho sollte man die Schwerpunkte heute anders setzen.
robbitop
2011-11-17, 11:31:06
Ich würde die beiden Lösungen performancemäßig nicht so weit auseinander schätzen. Bei der theoretischen Pixelshadingperformance liegen sie gleichauf (je 240 GFlops) und in Punkto Framebuffer-Bandbreite ist Xenos durch den eDRAM der X1900 XT sogar um ein Vielfaches überlegen.
Die nächste Generation wird imo Minimum auf dem Level einer Radeon HD 5770 liegen. Von High-End-GPUs in den Konsolen wie es bei der Xbox 360 noch der Fall war, gehe ich bei der nächsten Konsolen-Gen aber nicht aus, da die Leistungsaufnahme der High-End-GPUs seit 2005 einfach viel zu stark gestiegen ist (von ~100 Watt auf ~250 Watt). Und Konsolen sind immer ein Kompromiss aus Geräuschpegel, Formfaktor und Preis anders als bei High-End-PCs.
R580 hat 25 % mehr Rohleistung durch mehr Takt und muss auch keine Leistung an den VS abgeben, weil er separate VS hat.
Dafür ist das Optimierungslevel bei Konsolen besser. Sie sind am Ende auf gefühltem ähnlichem Level.
Der eDRAM ist aber auch nur fix, wenn man kein Tiling machen muss. Aber Bandbreitenlimitierung hatte R580 eh so gut wie nie.
Aber am Ende sehe ich es auch so. Xbox360 hat einen riesen Sprung hingelegt, da man damals High End Hardware verbaute. Die nächste Generation wird das wegen der TDP nicht können. Aber auch, weil die letzte Gen in den ersten 2-3 Jahren viel zu teuer war.
SoC mit 5770 Leistung erwarte ich auch. Das wäre ok - aber ein geringerer Sprung als das letzte Mal.
john carmack
2011-11-17, 11:54:22
Es muss gar nichts und schon gar nicht etwas so anspruchsvolles wie raytracing.
muss nicht - aber es hätte bestimmt auch keiner was dagegen :)
OK, Fotorealismuss... gebe ich zu - war etwas übertrieben.
Aber Avatar (Film) oder Final Fantasy (Film) sollte doch mal der Anspruch sein - Spätestens in der übernächsten Konsolen Generation.
Avatar sieht mMn auch nur so geil aus weil so viele Farben und wirklich tolle SpecialFX verwendet wurden. Die Grafik an sich find ich jetzt gar nicht so bahnbrechend - vor allem wenn ich mir im gegensatz dazu Final Fantasy (10 Jahre alt) anschaue.
Aber am Ende sehe ich es auch so. Xbox360 hat einen riesen Sprung hingelegt, da man damals High End Hardware verbaute. Die nächste Generation wird das wegen der TDP nicht können. Aber auch, weil die letzte Gen in den ersten 2-3 Jahren viel zu teuer war.
SoC mit 5770 Leistung erwarte ich auch. Das wäre ok - aber ein geringerer Sprung als das letzte Mal.
Hat die X1900XT nicht damals auch schon rund 130W - 140W verbraucht?
AnarchX
2011-11-17, 12:00:52
SoC mit 5770 Leistung erwarte ich auch. Das wäre ok - aber ein geringerer Sprung als das letzte Mal.
Da fragt sich, wie weit die Grafik sich abseits der Auflösung und Framerate noch verbessern wird. Interessant könnte wohl ein auf D3D11-Tessellation basierendes LOD sein.
Wenn es wirklich nur 5770 Level sein wird, reicht dann wohl für die PC-Ports eine GTX 560 oder HD 6870, deren 28nm Leistunsequivalente wohl gegen Ende 2012 im 100€ Bereich erhältlich sein sollten. Mobile 28nm GPUs dürften auch diese Leistung erreichen, wenn auch nur im teureren High-End-Segment.
robbitop
2011-11-17, 12:14:25
Natürlich wird grafisch immer weniger für immer mehr Kosten gehen. Aber IMO sind wir noch lange nicht am Ende.
Wie häufig sieht man noch, dass Grafik aus Fakes besteht?
- Vegetation aus Alphatests
- unscharfe Texturen
- immernoch grobe Geometrie (gerade wenn man mal "näher" an Objekte rangeht)
Ich stelle mir sowas wie Unlimited Detail vor. Alles ist extrem fein modelliert. Und zwar voll dynamisch animiert. Vollständig beleuchtet. Absolut detailierte und weiche Schatten. Ich will kein LoD mehr sehen. Es kann meinetwegen da sein - aber ich möchte kein aufpoppen mehr sehen. Ich will bis an den Horizont sehen können.
Kein Flimmern, keine Artefakte. Kein Aliasing. Keine Pixelmaske. Tesselation. Absolut perfekte und natürliche Animation von allem! Korrekte Spiegelungen. Keine für den Spieler erkennbaren Hitboxen. Keine dämliche Skybox, die so aussieht wie eine. Keine Texturwiederholungen mehr (vieleicht sogar gute dynamisch erzeugte?). Regen, der sich auf Objekten wie richtiger Regen verhält (also auch in Textilien eingesogen wird und diese nass macht). Korrekte Physik. Zerstörbarkeit.....die Wunschliste ist beliebig verlängerbar.
Überall - bei jedem Spiel - sehe ich, dass alles (natürlich um Leistung zu sparen, oder weil ein heutiger Renderer nicht mehr kann) nur Fake ist. Die Schritte werden natürlich immer kleiner. Aber IMO ist das Ende noch lange nicht erreicht.
Crazy_Bon
2011-11-17, 12:20:52
Ich denke mit der Leistung dürften mit mit der nächsten Konsolengeneration erstmal keine Sorgen machen, sie braucht keine HighEnd-Hardware wie ein PC um dennoch vergleichbare Ergebnisse abzuliefern. Wenn schon die WiiU mit 1080p daher kommt und die PS Vita auch schick ausschaut, dann bin ich in freudiger Erwartung was MS und Sony uns für neue Heimkonsolen präsentieren werden.
dargo
2011-11-17, 12:50:38
Wenn schon die WiiU mit 1080p daher kommt...
Die WiiU wird nicht in 1080p rendern, wo hast du das wieder her? Und wenn dann sicherlich bei keinen grafisch anspruchsvollen Games.
Natürlich wird grafisch immer weniger für immer mehr Kosten gehen. Aber IMO sind wir noch lange nicht am Ende.
Wie häufig sieht man noch, dass Grafik aus Fakes besteht?
- Vegetation aus Alphatests
- unscharfe Texturen
- immernoch grobe Geometrie (gerade wenn man mal "näher" an Objekte rangeht)
Ich stelle mir sowas wie Unlimited Detail vor. Alles ist extrem fein modelliert. Und zwar voll dynamisch animiert. Vollständig beleuchtet. Absolut detailierte und weiche Schatten. Ich will kein LoD mehr sehen. Es kann meinetwegen da sein - aber ich möchte kein aufpoppen mehr sehen. Ich will bis an den Horizont sehen können.
Kein Flimmern, keine Artefakte. Kein Aliasing. Keine Pixelmaske. Tesselation. Absolut perfekte und natürliche Animation von allem! Korrekte Spiegelungen. Keine für den Spieler erkennbaren Hitboxen. Keine dämliche Skybox, die so aussieht wie eine. Keine Texturwiederholungen mehr (vieleicht sogar gute dynamisch erzeugte?). Regen, der sich auf Objekten wie richtiger Regen verhält (also auch in Textilien eingesogen wird und diese nass macht). Korrekte Physik. Zerstörbarkeit.....die Wunschliste ist beliebig verlängerbar.
Überall - bei jedem Spiel - sehe ich, dass alles (natürlich um Leistung zu sparen, oder weil ein heutiger Renderer nicht mehr kann) nur Fake ist. Die Schritte werden natürlich immer kleiner. Aber IMO ist das Ende noch lange nicht erreicht.
Full-Ack.
Wenn ich manchmal lese, dass wir in Games fast Fotorealismus erreicht haben muss ich nur noch lachen. :freak: Davon sind wir noch lichtjahre entfernt.
Fragman
2011-11-17, 12:53:54
naja, was braucht man fuer die aktuelle unreal demo in 1080p mit sauberem aa und in 3d bei spielen wie gta? richtig, diese hardware ist sicher 2 jahre weg. aber genau das wird noetig sein damit man in 3 -4 jahren nicht wieder an dem punkt von heute sein wird (mit der aussicht 4 jahre von der naechsten generation weg zu sein und nicht 2).
da diese hardware aber nur ein feuchter traum bleiben wird fuer die naechsten konsolen werden wir bei rage2 wieder ueber texturen schimpfen die wie in rage aussehen. ;)
ich bin mir nichtmal sicher was durchweg 1080p angeht, bei 3d sowieso nicht. die konsolenhardware waere einfach zu teuer wenn man davon ausgeht das die um die 400 oder weniger kosten sollen.
john carmack
2011-11-17, 13:04:54
ich bin mir nichtmal sicher was durchweg 1080p angeht, bei 3d sowieso nicht. die konsolenhardware waere einfach zu teuer wenn man davon ausgeht das die um die 400 oder weniger kosten sollen.
Die Konsolen werden keine 400 oder weniger kosten...
Ich gehe mal davon aus das die PS4 und die 720 am Anfang min. 500 kosten werden.
Was haben die PS3und die 360 am anfang gekostet? Und mit wieviel wurde die Subventioniert?
Die PS Vita soll ja schon 299€ kosten
Nochmal kurz zur Grafik,
Das Video sit zwar auch schon älter - Aber so in etwa stell ich mir es dann doch schon vor.
http://www.youtube.com/watch?v=UONbgHju9xA&feature=player_embedded#!
Vielleicht nicht am Anfang wenn die Konsolen rauskommen aber dann so nach 1 Jahr... Dann sollte auch die Engine soweit sein.
Eidolon
2011-11-17, 13:20:55
Wer kauft sich für über € 500 eine Konsole und dann auch noch Spiele die gerne über € 60 gehen?
john carmack
2011-11-17, 13:31:25
Ich sag doch am Anfang.
Der Sega Saturn hat anfangs auch 1000DM gekostet. Die PS2 soweit ich weiß 599€
Die PS3 sogar 699€ oder mehr.
Das erste halbe Jahr oder das erste ganze Jahr ist´s immer am teuersten und dann kommt irgendwann der break even point!
Fragman
2011-11-17, 13:33:11
Nochmal kurz zur Grafik,
Das Video sit zwar auch schon älter - Aber so in etwa stell ich mir es dann doch schon vor.
http://www.youtube.com/watch?v=UONbgHju9xA&feature=player_embedded#!
Vielleicht nicht am Anfang wenn die Konsolen rauskommen aber dann so nach 1 Jahr...
die demo meinte ich ja. waere sicher machbar aber der preis wird dem ganzen einen strich durch die rechnung machen.
man kann das ja mal hochrechnen. die demo lief wohl auf 3 gtx580, ist raeumlich sehr begrenzt was viel content sparrt den man nicht laden muss.
in 3d kann man sicher noch mind eine gtx580 dazurechnen. ob das ganze in 1080p lief mit verneunftigen aa settings weiss ich nicht, gibts da infos?
rechne nun mal die leistungsdaten der 3 karten zusammen, den ram (waren sicher die 3gb versionen, oder?) und schon ist klar das das nicht kommen wird. der preis waere einfach zu hoch und nachdem sony so baden ging mit der ps3 (hoher preis plus hohe subvention) werden die naechsten konsolen preislich keine monster mehr.
john carmack
2011-11-17, 13:47:06
3 GTX580?
Wo steht das denn? Würds mir gerne mal durchlesen.
Vielleicht bekommen wir ja auch einen kleinen anhalts punkt in sachen Leistung wenn die 28nm Grafikkarten rauskommen.
Der Stromverbrauch kann ja kaum noch steigen.
Also muss die "ProMhz" Leistung steigen.
Und vielleicht werden die Konsolen auch etwas mehr an Strom verbrauchen als man es erwartet.
Wäre für mich kein Unding wenn die KonsolenGehäuseGröße an der ersten Version der PS3 orientiert.
Nightspider
2011-11-17, 14:07:51
Bin mal gespannt, was die PS4 bei BluRays so bieten wird. Schließlich war die PS3 schon einer der besten BluRay Player.
Voller 3D Support bei 48fps hochrechnung oder hochrechnen auf 4k und runterskalieren auf Full HD?. :love2:
Natürlich wird grafisch immer weniger für immer mehr Kosten gehen. Aber IMO sind wir noch lange nicht am Ende.
Wie häufig sieht man noch, dass Grafik aus Fakes besteht?
- Vegetation aus Alphatests
- unscharfe Texturen
- immernoch grobe Geometrie (gerade wenn man mal "näher" an Objekte rangeht)
Ich stelle mir sowas wie Unlimited Detail vor. Alles ist extrem fein modelliert. Und zwar voll dynamisch animiert. Vollständig beleuchtet. Absolut detailierte und weiche Schatten. Ich will kein LoD mehr sehen. Es kann meinetwegen da sein - aber ich möchte kein aufpoppen mehr sehen. Ich will bis an den Horizont sehen können.
Kein Flimmern, keine Artefakte. Kein Aliasing. Keine Pixelmaske. Tesselation. Absolut perfekte und natürliche Animation von allem! Korrekte Spiegelungen. Keine für den Spieler erkennbaren Hitboxen. Keine dämliche Skybox, die so aussieht wie eine. Keine Texturwiederholungen mehr (vieleicht sogar gute dynamisch erzeugte?). Regen, der sich auf Objekten wie richtiger Regen verhält (also auch in Textilien eingesogen wird und diese nass macht). Korrekte Physik. Zerstörbarkeit.....die Wunschliste ist beliebig verlängerbar.
Überall - bei jedem Spiel - sehe ich, dass alles (natürlich um Leistung zu sparen, oder weil ein heutiger Renderer nicht mehr kann) nur Fake ist. Die Schritte werden natürlich immer kleiner. Aber IMO ist das Ende noch lange nicht erreicht.
Viele vergessen eben, das gerade Animationen und solche sachen wie nass werdende Kleidung nichtmal zur grafischen Seite gehört (nach meiner Definition) sondern eher zum Content, der eben auch ein großes Entwicklerteam - Manpower - benötigt.
Das man in absolut JEDEM Spiel noch mehr Manpower oder Zeit benötigt sieht man an hässlichen³ Animation in fast jedem Rollenspiel oder das Regeneffekte total blump per Shader auf bestimmten Objekten dargestellt wird und auf manchen nicht. Das hat man auch in Battlefield 3, das Objekte einen Regenshader an Stellen besitzen, die nicht nass sein dürften und auch umgekehrt. Sowas ließe sich alleine durch Manpower fixen, ist aber ""unbezahlbar"". Zum Glück machen die großen Firmen durch mehr Kunden (und mehr Menschen auf der Welt, global gesehen) mehr Geld pro Spiel. Nur dadurch lassen sich ja Großprojekte wie GTA finanzieren und die Entwicklerteams werden auch massiv größer werden.
Ich sehe eher Probleme bei mittelgroßen bis kleinen Spieleschmieden. Die brauchen oft viel zu lange für Spiele und selbst denen sieht man nach vielen Jahren noch die mangelde Zeit bzw. das mangelde Geld an. Da fehlt dann oft schlicht die Manpower.
Diese müssen sich dann eher mit besonderen Spielmechaniken oder komplett neuen Ideen beweisen, um Käufer gewinnen zu können.
Metro ist auch so ein Fall. Habe ich nur gekauft wegen der Grafik und 50% aus dem Forum hier sicherlich auch. Die Kampagne fand ich durchschnittlich. Animationen und Bugs waren dagegen ein echter FAIL. Interaktionsmöglichkeiten gab es bis auf Lampen auch sogut wie keine in dem Spiel. Und noch schlauchiger als mit Tunnels geht es eh kaum.
Mit viel mehr Geld und Manpower hätte das Spiel auch viel besser werden können aber daran fehlt es vielen Firmen. Es wurden ja schon genug Studios geschlossen, manche auch trotz guter Games.
Sven77
2011-11-17, 14:19:30
oder hochrechnen auf 4k und runterskalieren auf Full HD?. :love2:.
wat? :ugly:
Fragman
2011-11-17, 14:25:26
Das hat man auch in Battlefield 3, das Objekte einen Regenshader an Stellen besitzen, die nicht nass sein dürften und auch umgekehrt
sollte sich durch eine einfache occlusionabfrage automatisch regeln lassen koennen. nasse kleidung kann man auch durch automatismen nass und trocken werden lassen, sowas macht keiner haendisch da die oberflaechen nicht auf dynamik von zb regenpartikel reagieren koennten.
das kostet aber alles rechenleistung, so oder so.
Nightspider
2011-11-17, 14:25:40
wat? :ugly:
Na ne, ich überleg gerade ob das optische Vorteile bringen könnte. Wohl eher nicht. Hochrechnen bringt nur etwas, wenn man das dann auch in der hochgerechneten Auflösung ausgibt.
Haste recht. Vergesst, was ich gesagt habe.
Aber möglich ist es schon 4K auszugeben. Sony hat ja schon den ersten "Consumer" 4K Beamer rausgebracht. (Wobei es Consumer beim Preis von 10-12K nicht gerade trifft.) ;D
Ailuros
2011-11-17, 15:01:20
Na ne, ich überleg gerade ob das optische Vorteile bringen könnte. Wohl eher nicht. Hochrechnen bringt nur etwas, wenn man das dann auch in der hochgerechneten Auflösung ausgibt.
Haste recht. Vergesst, was ich gesagt habe.
Aber möglich ist es schon 4K auszugeben. Sony hat ja schon den ersten "Consumer" 4K Beamer rausgebracht. (Wobei es Consumer beim Preis von 10-12K nicht gerade trifft.) ;D
Wenn ich Dich im vorigen Post nicht falsch verstanden habe, dachtest Du an 4096*4096 rechnen und output bei 1920*1200 oder? Wenn ja entspricht es etwa 2x oversampling auf der einen Achse und 3x auf der anderen. Kurz braeuchte man dafuer auch eine Unmenge an Speicher und Bandbreite.
Vorteile bringt es fuer BQ schon, aber ein LOD offset waere dafuer dann aber auch wuenschenswert.
Wie dem auch sei mit aller Wahrscheinlichkeit wird es sich bei "PS4" und XBoxNext um SoCs handeln und beide wollen an Herstellungskosten sparen. Ich werde persoenlich froh sein wenn am Ende 1080p voll unterstuetzt wird mit DX11 analogen Faehigkeiten und fuer MSAA/AF werden die Faehigkeiten zwar da sein aber ich bezweifle ernsthaft dass die Spiel-entwickler viel davon einsetzen werden wenn ueberhaupt.
dargo
2011-11-17, 15:02:03
3 GTX580?
Es waren 3 GTX580 mit je 1,5GB fürs 1080p nötig, wobei eine für PhysX zuständig war.
Vielleicht bekommen wir ja auch einen kleinen anhalts punkt in sachen Leistung wenn die 28nm Grafikkarten rauskommen.
Der Stromverbrauch kann ja kaum noch steigen.
Warum nicht? Wenn ich bedenke wie leise eine Zotac GTX480 AMP! arbeitet ist da noch einiges an Spielraum im PC-Lager da.
Franconian
2011-11-17, 15:04:26
Schließlich war die PS3 schon einer der besten BluRay Player.
Zu den Besten keinesfalls. Dazu ist sie indikutabel laut und das Upscaling zu schlecht und das Flagreading ist auch eher mau.
Eine PS3 wird kein ernsthafter Heimkinofan als Player einsetzen. Mit einem richtigen Standalone kann sie da nicht mithalten, da holt man sich was unhörbares, am mit Reon oder ABT2010 Scaler Chip wenn man noch DVDs hat, anständiger Haptik, Anschlüssen und und und.
Von der reinen BD Leistung geben sich alle nicht viel, aber das ist halt nicht Alles.
Ailuros
2011-11-17, 15:04:56
Es waren 3 GTX580 mit je 1,5GB fürs 1080p nötig, wobei eine für PhysX zuständig war.
Da es sich seitens Epic um ein Vorzeige-demo handelte, fuer was hat denn Epic genau das demo beschrieben?
Sven77
2011-11-17, 15:06:23
Primär würde ich versuchen diese unsäglichen Alphatests loszubekommen. D.h. soviel Rohleistung zu bekommen, das jedes Blatt aus Polygonen besteht. Dann würden sich auch viele Probleme beim AntiAliasing wieder erledigen.
Prinzipiell sollte man überall da ansetzen wo man noch nicht allzu durch Content beschränkt ist. Animationen werden auch in ein paar Jahren nicht fotorealistisch aussehen, dafür ist Thematik einfach zu komplex, und wenn ich mir aktuelle Spiele da anschaue ist man da auch schon wirklich weit.
dargo
2011-11-17, 15:09:59
Da es sich seitens Epic um ein Vorzeige-demo handelte, fuer was hat denn Epic genau das demo beschrieben?
Afaik wollten sie die DX11-Implementierung in der UE3.x präsentieren.
Primär würde ich versuchen diese unsäglichen Alphatests loszubekommen. D.h. soviel Rohleistung zu bekommen, das jedes Blatt aus Polygonen besteht. Dann würden sich auch viele Probleme beim AntiAliasing wieder erledigen.
Das wäre imo viel zu teuer.
DrFreaK666
2011-11-17, 15:18:18
Traurig. Wenn er von Topspielen, die sehr gut aussehen, spricht, kann er die aus seiner Schmiede ja nicht meinen. Sicher gibt es Spiele, die sehr sehr gut aussehen, aber das sind nur wenige und es geht sowieso noch viel mehr. Vor Leuten, die den Fortschritt mich solchen Aussagen bzw. durch entsprechende Taten bremsen, habe ich keinen Respekt.
Die Frage ist halt ob rage besser aussehen würde wenn BluRays auf Gaming-PCs endlich Standard wären. Sogar ich hab nur einen DVD-Brenner eingebaut.
Aber soweit ich weiss sind die Megatextures ja riesig... (suggeriert ja schon der Name)
Natürlich wird grafisch immer weniger für immer mehr Kosten gehen. Aber IMO sind wir noch lange nicht am Ende.
Wie häufig sieht man noch, dass Grafik aus Fakes besteht?
- Vegetation aus Alphatests
- unscharfe Texturen
- immernoch grobe Geometrie (gerade wenn man mal "näher" an Objekte rangeht)
Ich stelle mir sowas wie Unlimited Detail vor. Alles ist extrem fein modelliert. Und zwar voll dynamisch animiert. Vollständig beleuchtet. Absolut detailierte und weiche Schatten. Ich will kein LoD mehr sehen. Es kann meinetwegen da sein - aber ich möchte kein aufpoppen mehr sehen. Ich will bis an den Horizont sehen können.
Kein Flimmern, keine Artefakte. Kein Aliasing. Keine Pixelmaske. Tesselation. Absolut perfekte und natürliche Animation von allem! Korrekte Spiegelungen. Keine für den Spieler erkennbaren Hitboxen. Keine dämliche Skybox, die so aussieht wie eine. Keine Texturwiederholungen mehr (vieleicht sogar gute dynamisch erzeugte?). Regen, der sich auf Objekten wie richtiger Regen verhält (also auch in Textilien eingesogen wird und diese nass macht). Korrekte Physik. Zerstörbarkeit.....die Wunschliste ist beliebig verlängerbar.
Überall - bei jedem Spiel - sehe ich, dass alles (natürlich um Leistung zu sparen, oder weil ein heutiger Renderer nicht mehr kann) nur Fake ist. Die Schritte werden natürlich immer kleiner. Aber IMO ist das Ende noch lange nicht erreicht.
Wenn wir unsere Welt mal genauer ansehen, dann erkennt man, dass man Fotorealismus nie erreichen wird. Schon alleine die ganzen Schatten hier in der Wohnung... das würde enorm viel Kosten.
Ich wünsche mir in naher Zukunft öfteren Einsatz von (klug eingesetztem) Tesselation, detaillerte, flimmerfreie Texturen, bessere Physik und AI.
Nvidia soll jetzt endlich GPU-PhysX allen verfügbar machen, denn wenn die nächsten Konsolen AMD-Karten nutzen, dann lohnt es sich nicht mehr darin zu investieren -> das Projekt stirbt. Und das wäre imho sehr schade
Ailuros
2011-11-17, 15:41:47
Afaik wollten sie die DX11-Implementierung in der UE3.x präsentieren.
Fuer den PC. Dass die gleiche game engine auch fuer zukuenftige Konsolen benutzt werden wird heisst wohl nicht dass in Konsolen aehnlicher content wie in diesem demo erscheinen wird. Wenn Du schon selber sagst dass sie um das demo zu rendern 3*GTX580 verwendeten, sollte es offensichtlich sein als was es gedacht war.
Ich werde froh sein wenn zukuenftige Konsolen etwas mehr Leistung als eine einzige 580 haben werden.
Exxtreme
2011-11-17, 15:42:25
Nvidia soll jetzt endlich GPU-PhysX allen verfügbar machen, denn wenn die nächsten Konsolen AMD-Karten nutzen, dann lohnt es sich nicht mehr darin zu investieren -> das Projekt stirbt. Und das wäre imho sehr schade
Die müssten GPU-Physx in eine unabhängige Organisation auslagern. Ansonsten wird sich AMD darauf nie einlassen.
AnarchX
2011-11-17, 15:44:12
Wenn schon entscheiden Sony und Microsoft, wie und ob PhysX auf den GPUs ihrer NG-Konsolen läuft. Und da gibt es sicherlich Wege, wie man GPU-PhysX auf den Konsolen nutzen kann, während es auf dem PC NV-exklusiv bleibt.
Sven77
2011-11-17, 15:45:40
Das wäre imo viel zu teuer.
Das ist gar nicht so teuer wie man denkt..
Ailuros
2011-11-17, 15:46:15
Die müssten GPU-Physx in eine unabhängige Organisation auslagern. Ansonsten wird sich AMD darauf nie einlassen.
Physics kann man theoretisch durch jede GPGPU API anwenden; wenn es jetzt jeglichem API an Flexibilitaet fuer physics fehlen sollte, dann ist es zum groessten Teil die Verantwortung der IHVs selber.
john carmack
2011-11-17, 15:47:57
Warum nicht? Wenn ich bedenke wie leise eine Zotac GTX480 AMP! arbeitet ist da noch einiges an Spielraum im PC-Lager da.
Ich meine damit die Konsolen. Wenn sich die 7900er soviel Strom verbarucht wie eine 6900 oder 5800 und dabei sagen wir 70%-80% mehr leistet dann könnten Kosolen beim gleichen verbrauch wie heute bleiben und dementsprechend mehr leisten.
Die einen sagen ja das die MehrLeistung von einer GraKa Generation zur nächst neueren nicht nur durch die verkleinerung der Struckturbreite sonder auch durch einen höheren Stromverbrauch erkauft wird.
So munkelt mann das die 7900 in etwa 45% mehr leisten wird wegen 28nm. Um auf 70-80% mehr Leistung zu kommen würde man wieder mehr Strom brauchen.
Kann ja auch sein das die 720 keine 150W verbraucht sondern dann eben 200W, 250W noch mehr... Das Gehäuse kann man ja auch noch vergrößern zwecks besserer Kühlung. Fragt sich nur ob ein noch größeres Gehäuse im Sinne des Verbraucher ist.
http://de.wikipedia.org/wiki/Xbox_360#Netzteil
"Bei der ersten Mainboard-Version in 90-nm-Technik leistet das Netzteil 203 Watt, bei der neueren Xbox-360-Version mit „Falcon“-Mainboard leistet das Netzteil 175 Watt und ist auch leiser als das Netzteil mit 203 Watt. Mit Verkleinerung der GPU-Architektur auf 65 nm im November 2008 wurde die Konsole („Jasper“) mit einem 150-Watt-Netzteil ausgeliefert. Das aktuelle Modell, die Xbox 360 S, verfügt über ein 135-W-Netzweil."
LovesuckZ
2011-11-17, 15:48:02
Das ist gar nicht so teuer wie man denkt..
Solange die Leute denken, dass Geometrie böse ist und Tessellation Teufelswerk, werden sie eben auch denken, dass beides in Kombination immer zuviel Leistung kosten wird. :(
The Dude
2011-11-17, 15:54:00
Bis zum Fotorealismus@30 oder 60 fps werden noch viele, viele Generationen ins Land gehen. Auch beim PC, auch bei nem Schlauchgame, ganz zu schweigen von einem Open-World-Game.
Ich wünsch mir für die kommenden Konsolen auf grafischer Seite endlich mal Full-HD zusammen mit AA und AF. Das würde schon reichen.
Was mir noch wichtiger wäre, als Grafik, ist die Physik. Beispiel: Wenn ich in einem RPG mittels Feuerball nen Baum anbrenne, dann muss der gefälligst abfackeln und danach verkohlt bis zum Spielende dastehen. Das gleiche sollte dann natürlich auch für ein Haus oder ne ganze Stadt gelten, bzw.: Wenn ich in einem Game wie Just Cause mit dem Heli hunderte von Raketen in ne Stadt rein baller, dann muss es dort auch aussehen wie nachm Krieg. Auch die Idee, die Molyneux bei Fable1 hatte (und nicht umgesetzt wurde), klingt schön: In einem RPG wären unterschiedliche Jahreszeiten und entsprechende Optik der Vegetation wirklich cool.
Weiterhin sollten auch die Animationen weitere Fortschritte machen. Eine oder zwei Hüpfanimationen reicht nicht, es bräuchte sicherlich 5 oder 10 Animationen, je nach Situation. Und das betrifft natürlich auch alle anderen Bewegungs-Aktionen...
Jedenfalls gibts noch massig zu tun, ganz abseits des Fotorealismus.
Exxtreme
2011-11-17, 15:56:18
Physics kann man theoretisch durch jede GPGPU API anwenden; wenn es jetzt jeglichem API an Flexibilitaet fuer physics fehlen sollte, dann ist es zum groessten Teil die Verantwortung der IHVs selber.
Darum geht es nicht. Der Punkt ist, Physx gehört Nvidia. Und darauf lässt sich AMD nicht ein. Sie würden sich damit abhängig machen. Da fährt AMD mit divide et empera viel besser. Physx würde nur dann eine Chance bekommen wenn Nvidia das an Khronos oder so übergibt.
LovesuckZ
2011-11-17, 15:59:14
Was mir noch wichtiger wäre, als Grafik, ist die Physik. Beispiel: Wenn ich in einem RPG mittels Feuerball nen Baum anbrenne, dann muss der gefälligst abfackeln und danach verkohlt bis zum Spielende dastehen. Das gleiche sollte dann natürlich auch für ein Haus oder ne ganze Stadt gelten, bzw.: Wenn ich in einem Game wie Just Cause mit dem Heli hunderte von Raketen in ne Stadt rein baller, dann muss es dort auch aussehen wie nachm Krieg. Auch die Idee, die Molyneux bei Fable1 hatte (und nicht umgesetzt wurde), klingt schön: In einem RPG wären unterschiedliche Jahreszeiten und entsprechende Optik der Vegetation wirklich cool.
Weiterhin sollten auch die Animationen weitere Fortschritte machen. Eine oder zwei Hüpfanimationen reicht nicht, es bräuchte sicherlich 5 oder 10 Animationen, je nach Situation. Und das betrifft natürlich auch alle anderen Bewegungs-Aktionen...
Jedenfalls gibts noch massig zu tun, ganz abseits des Fotorealismus.
Mein Reden. Effektphysik ist der Immersionsantreiber in der heutigen Zeit. In Zeiten, wo Spiele zwar immer realistischer aussehen, ist das heutige Partikel- und Effeksystem einfach nicht mehr zeitgemäß und zerstört im Grunde die Immersion.
Darum geht es nicht. Der Punkt ist, Physx gehört Nvidia. Und darauf lässt sich AMD nicht ein. Sie würden sich damit abhängig machen. Da fährt AMD mit divide et empera viel besser. Physx würde nur dann eine Chance bekommen wenn Nvidia das an Khronos oder so übergibt.
Es gibt doch AMD's unglaublich erfolgreiche "Open Spource Physics"-Initiative. Wir haben also überhaupt nichts zu befürchten. :)
dargo
2011-11-17, 16:01:14
Fuer den PC. Dass die gleiche game engine auch fuer zukuenftige Konsolen benutzt werden wird heisst wohl nicht dass in Konsolen aehnlicher content wie in diesem demo erscheinen wird. Wenn Du schon selber sagst dass sie um das demo zu rendern 3*GTX580 verwendeten, sollte es offensichtlich sein als was es gedacht war.
Ich werde froh sein wenn zukuenftige Konsolen etwas mehr Leistung als eine einzige 580 haben werden.
Das ist mir schon klar. Manche haben hier halt utopische Vorstellungen was die nächste Konsolegen angeht. Da ist viel Wunschdenken dabei. ;) Ich hätte auch gerne, dass ein Kepler die vierfache Leistung einer GTX580 hat... wird aber nicht passieren.
Das ist gar nicht so teuer wie man denkt..
Hast du schon mal mit dem SDK der CE2 rumgespielt? Ich meine mich dunkel daran erinnern, dass ein Forumuser eine Szene mit Gebirge erstellt hat die einen zweistelligen Millionen Polycount hatte. Die Frames waren unterirdisch. Wieviele Millionen Polys brauchst du denn wenn du jedes Blattwerk aus Geometrie erstellen willst?
Sven77
2011-11-17, 16:36:05
Hast du schon mal mit dem SDK der CE2 rumgespielt? Ich meine mich dunkel daran erinnern, dass ein Forumuser eine Szene mit Gebirge erstellt hat die einen zweistelligen Millionen Polycount hatte. Die Frames waren unterirdisch. Wieviele Millionen Polys brauchst du denn wenn du jedes Blattwerk aus Geometrie erstellen willst?
Das liegt an den Engines und den derzeitigen Pipelines. Im Prinzip werden im Realtime-Rendering immer mehr Erkenntnisse von Production-Renderern einfliessen, und da hat man auch nicht gedacht das ein Brute-Force GI Renderer mal schneller ist als die mit Fakes arbeiten.
Eine Engine die entsprechend optimiert ist auf hohen Polygoncount wird irgendwann genausoschnell sein wie eine die mit Alphatests arbeitet. Da gibt auch entsprechende Papers..
Gipsel
2011-11-17, 17:25:14
Darum geht es nicht. Der Punkt ist, Physx gehört Nvidia. Und darauf lässt sich AMD nicht ein. Sie würden sich damit abhängig machen. Da fährt AMD mit divide et empera viel besser. Physx würde nur dann eine Chance bekommen wenn Nvidia das an Khronos oder so übergibt.
Was heißt "darauf läßt sich AMD nicht ein"? Die haben doch gar keine Kontrolle darüber. Wenn nVidia z.B. ein OpenCL-Backend für PhysX bastelt (sollte relativ straightforward aus dem bestehenden CUDA-Backend zu erzeugen sein, ähnelt sich ja recht stark), würde das praktisch automatisch auf allen kompatiblen Geräten mit einer OpenCL-Runtime lauffähig sein. Was sollte AMD denn machen, um das mit dem aktuellen CUDA-Backend zu unterstützen? NVidia müßte das dafür anpassen, anders geht es nicht.
Kurz: Niemand hindert nVidia daran, daß auf OpenCL zu portieren und ein anderer kann (nicht vorhandener Quellcode, höchstens Reverse-Engineering) und darf (man würde rechtlich einen auf den Deckel bekommen) es auch gar nicht tun. Wäre nVidia nur ein reiner Software-Anbieter, würden sie es wahrscheinlich portieren (mögliche Marktdurchdringung und so, außerdem dann eventuell auch auf OpenCL-fähigen Handy- und Tablet-GPUs lauffähig, die stehen ja auch an), aber so haben sie eben erstmal kein gesteigertes Interesse daran.
LovesuckZ
2011-11-17, 17:33:27
GPU-PhysX kommt auch nur per Cuda in den Tablet-Markt. Wird wohl einer der großen PR-Punkte von Wayne sein, um Tegra weiter als Spieleplattform zu promoten. Und hier denke ich, spielt es dann für nVidia auch keine Rolle, ob sie in irgendeiner Konsole enthalten sein werden. nVidia wird nächtes Jahr wohl an die 50 Millionen Tegra Chips verkaufen. Die Basis als Spieleplattform ist damit gelegt und somit auch die Verbreitung von GPU-PhysX.
Primär würde ich versuchen diese unsäglichen Alphatests loszubekommen. D.h. soviel Rohleistung zu bekommen, das jedes Blatt aus Polygonen besteht. Dann würden sich auch viele Probleme beim AntiAliasing wieder erledigen.
Willkommen in der Flimmerhölle.
Blätter aus Polygonen sind eine sehr schlechte Idee. Alpha-To-Coverage mit 4x Multisampling sieht schon sehr annehmbar aus, ansonsten kann man auf D3D11-Hardware auch gewöhnliches Alpha-Blending benutzen und die Fragments sortieren.
DrFreaK666
2011-11-17, 17:40:54
GPU-PhysX kommt auch nur per Cuda in den Tablet-Markt. Wird wohl einer der großen PR-Punkte von Wayne sein, um Tegra weiter als Spieleplattform zu promoten. Und hier denke ich, spielt es dann für nVidia auch keine Rolle, ob sie in irgendeiner Konsole enthalten sein werden. nVidia wird nächtes Jahr wohl an die 50 Millionen Tegra Chips verkaufen. Die Basis als Spieleplattform ist damit gelegt und somit auch die Verbreitung von GPU-PhysX.
Du bist zu gutgläubig.
Wieso sollte es sich gerade auf Tablets durchsetzen?
Hier hat nvidia afaik sogar mehr Konkurrenz
LovesuckZ
2011-11-17, 17:49:22
Du bist zu gutgläubig.
Wieso sollte es sich gerade auf Tablets durchsetzen?
Hier hat nvidia afaik sogar mehr Konkurrenz
Weil man eine Spielebasis von wohl ca. 20 Millionen Wayne-Chips im Jahr 2013 haben wird? Weil es billig ist zu entwickeln? Weil nVidia hilft mit Mannkraft und PR?
Konkurrenz ist schön, aber schau dir es doch einfach nur heute an: 20 Millionen Tegra 2 Chips in 9 Monate - als Neuling in diesem Markt. Die Xbox360 hat nach 6 Jahren knapp 60 Millionen erreicht.
DrFreaK666
2011-11-17, 17:52:55
Weil man eine Spielebasis von wohl ca. 20 Millionen Wayne-Chips im Jahr 2013 haben wird? Weil es billig ist zu entwickeln? Weil nVidia hilft mit Mannkraft und PR?
Konkurrenz ist schön, aber schau dir es doch einfach nur heute an: 20 Millionen Tegra 2 Chips in 9 Monate - als Neuling in diesem Markt. Die Xbox360 hat nach 6 Jahren knapp 60 Millionen erreicht.
naja, trotzdem.
Ich glaube es wird sich auch dort nicht durchsetzen.
PhysX ja, GPU-Physx nein. genauso wie im PC- und Konsolenmarkt.
Und ich bin mal gespannt was Intel mit dem Havok-Kauf vorhatte...
Nightspider
2011-11-17, 19:08:03
Wenn ich Dich im vorigen Post nicht falsch verstanden habe, dachtest Du an 4096*4096 rechnen und output bei 1920*1200 oder? Wenn ja entspricht es etwa 2x oversampling auf der einen Achse und 3x auf der anderen. Kurz braeuchte man dafuer auch eine Unmenge an Speicher und Bandbreite.
Vorteile bringt es fuer BQ schon, aber ein LOD offset waere dafuer dann aber auch wuenschenswert.
Naja ich dachte erstmal nur an vierfacher Auflösung (3840*2160).
Den Bandbreitenbedarf kann ich nicht abschätzen. Die Leistung sollte aber schon reichen, denke ich.
Aber braucht man da wirklich viel Speicher? Die Echtzeitskalierung streamt doch Bild für Bild nacheinander.
Was schätzt du wieviel Leistung es theoretisch bedarf, 1920*1080 auf die vierfache Auflösung zu skalieren? Das kann ja nicht so viel sein. Beim BluRay abspielen braucht das decodieren ja am meisten Leistung.
Zu den Besten keinesfalls. Dazu ist sie indikutabel laut und das Upscaling zu schlecht und das Flagreading ist auch eher mau.
Eine PS3 wird kein ernsthafter Heimkinofan als Player einsetzen. Mit einem richtigen Standalone kann sie da nicht mithalten, da holt man sich was unhörbares, am mit Reon oder ABT2010 Scaler Chip wenn man noch DVDs hat, anständiger Haptik, Anschlüssen und und und.
Von der reinen BD Leistung geben sich alle nicht viel, aber das ist halt nicht Alles.
Ja, na klar kann die PS3 mittlerweile nicht mehr mit 1000 Euro BluRay Playern mithalten. Aber die günstigeren sind sicherlich auch nicht viel leiser und schneller als die aktuelle PS3-SLIM. Und mehr als einen HDMI Ausgang braucht ein BluRay Player bei mir nicht. DVD sollte auch keinen interessieren bei so teurem equipement. (Ja, ich weiß das es solche Leute gibt, die DVDs per upscaling aufblasen wollen aber so gut wie ne extrem scharfe BluRay wirds trotzdem bei weitem nicht)
Sicherlich gibt es beim Bild kleinere Unterschiede. Wie groß die Unterschiede real sind, durfte ich leider noch nirgends testen. Ob es 1000 Euro BluRay Player rechtfertigt sei mal dahin gestellt.
Aber die günstigeren sind sicherlich auch nicht viel leiser und schneller als die aktuelle PS3-SLIM.
Die dürften inzwischen völlig passiv gekühlt sein.
LovesuckZ
2011-11-17, 19:25:26
naja, trotzdem.
Ich glaube es wird sich auch dort nicht durchsetzen.
PhysX ja, GPU-Physx nein. genauso wie im PC- und Konsolenmarkt.
Und ich bin mal gespannt was Intel mit dem Havok-Kauf vorhatte...
Was heißt durchsetzen? Die Verbreitung wird deutlich besser ausfallen als heutzutage. Alleine die Masse an Cuda-fähigen Tegra-SoCs wird wohl innerhalb von 2 Jahren an die 50 Millionen heranreichen. Ich meine, wenn es sich heutzutage lohnt exklusiv für die Xbox/PS/Wii zu schreiben, dann wird es sich erst recht für Tegra lohnen. Immerhin sind die Kosten erheblich geringer und die Leute unabhängiger.
Ailuros
2011-11-17, 19:43:53
GPU-PhysX kommt auch nur per Cuda in den Tablet-Markt. Wird wohl einer der großen PR-Punkte von Wayne sein, um Tegra weiter als Spieleplattform zu promoten. Und hier denke ich, spielt es dann für nVidia auch keine Rolle, ob sie in irgendeiner Konsole enthalten sein werden. nVidia wird nächtes Jahr wohl an die 50 Millionen Tegra Chips verkaufen. Die Basis als Spieleplattform ist damit gelegt und somit auch die Verbreitung von GPU-PhysX.
Gibt es einen Link zu einer oeffentlichen Aussage die CUDA spezifisch fuer embedded erwaehnt?
Naja ich dachte erstmal nur an vierfacher Auflösung (3840*2160).
Den Bandbreitenbedarf kann ich nicht abschätzen. Die Leistung sollte aber schon reichen, denke ich.
Aber braucht man da wirklich viel Speicher? Die Echtzeitskalierung streamt doch Bild für Bild nacheinander.
Was schätzt du wieviel Leistung es theoretisch bedarf, 1920*1080 auf die vierfache Auflösung zu skalieren? Das kann ja nicht so viel sein. Beim BluRay abspielen braucht das decodieren ja am meisten Leistung.
Es waere schoen wenn so viel zusaetzliche Fuellrate (fast 4x Mal so viel fuer hypothetische 3840*2160) keiner zusaetzlichen Bandbreite beduerfen wuerde. Ja natuerlich brauchst Du auch zusaetzlichen Speicher; denk nach du skalierst um Nx Mal hoch und skalierst wieder runter; am Ende nicht allzu verschieden was Du an Resourcen fuer Supersampling brauchst und ich bin mir nichtmal sicher ob man fuer solch einen theoretischen Fall nicht gleich in Richtung 4x sparse SSAA gehen sollte. Die Menge an zusaetzlichen Resourcen die solch eine Platform braucht wuerde ziemlich brutal auf die Endrechnung hauen. Hersteller wollen sparen und nicht gleich so viel oder sogar mehr als bei den heutigen Konsolen fuer die Herstellung ausgeben (bei deren Launch).
Was jetzt BluRay betrifft es geht bei SoCs unter normalen Umstaenden alles ueber fixed function decoder und die CPU wird nur minimal belastet (nicht mehr als stinknormaler desktop Gebrauch auf einem PC). Es gibt schon decoder die ueber UltraHD faehig sind. Ueber die Technologie selber wuerde ich mir keine Sorge machen sondern eher das was ein jeglicher Hersteller am Ende waehlt und integriert.
LovesuckZ
2011-11-17, 19:44:05
Gibt es einen Link zu einer oeffentlichen Aussage die CUDA spezifisch fuer embedded erwaehnt?
Rayfield hat sich im Februar dazu geäußert:
@Micky, we will support OpenCL and Cuda in time, nothing announce yet.
http://blogs.nvidia.com/2011/02/tegra-roadmap-revealed-next-chip-worlds-first-quadcore-mobile-processor/#disqus_thread
AnarchX
2011-11-17, 19:45:45
PhysXInfo.com: Are you planning to port APEX to mobile platforms?
Rev Lebaredian: Yes.
Ashu Rege: Internally, we already have all of those working.
Tony Tamasi: And as soon as mobile devices will support CUDA, we’ll have GPU computation on mobile devices too.
http://physxinfo.com/news/6419/exclusive-nvidia-talks-present-and-future-of-physx-technology/
Nightspider
2011-11-17, 19:50:01
Die dürften inzwischen völlig passiv gekühlt sein.
Schon, das lauteste bleibt das Laufwerk. Deswegen meinte ich das sich PS3-SLIM und aktuelle BD Laufwerke nicht stark unterscheiden dürften.
BD-Player Laufwerke werden sicherlich höchstens noch eher gedämmt bzw. vibrationsärmer aufgehängt.
@Ailuros: Da hast du recht, ist am Ende nur eine Geldfrage. Und da es nur für Ultra-Geeks interessant wäre, wird man derartiges wohl auch nicht vorfinden. Aber vllt gibts ja andere Bildverbesserer per Software, die die enorme Rechenleistung der PS4 nutzen werden. So das quasi die Software der PS4 das kann, was aktuell teure BD Player können. Bild nachschärfen und son zeug (von dem ich nicht so viel Ahnung habe)
LovesuckZ
2011-11-17, 19:50:18
Und wer weiß, ob nVidia dann nicht einen dedizierten "Physikprozessor" verbauen wird, der eben soweit entschlackt wurde und sich nur um die Berechnung kümmert - sozusagen ein ComputeProcessor.
Ailuros
2011-11-17, 19:52:40
Rayfield hat sich im Februar dazu geäußert:
http://blogs.nvidia.com/2011/02/tegra-roadmap-revealed-next-chip-worlds-first-quadcore-mobile-processor/#disqus_thread
NV wird auch wie viele andere win8 unterstuetzen. Die Konzentration fuer embedded wird aus gutem Grund auf OGL_ES bleiben fuer den embedded Markt und hier braucht man wohl eher OpenCL (die embedded standards werden wohl mit der Zeit verschwinden) fuer Sachen wie Halti weil es eben sinnvoller ist.
LovesuckZ
2011-11-17, 19:53:34
Cuda ist OS-los. Cuda gibt ihnen einen (PR-)Vorteil. Und wenn man Cuda unterstützt, sollte der Schritt zu OpenCL nicht so groß sein.
Ailuros
2011-11-17, 19:59:42
@Ailuros: Da hast du recht, ist am Ende nur eine Geldfrage. Und da es nur für Ultra-Geeks interessant wäre, wird man derartiges wohl auch nicht vorfinden. Aber vllt gibts ja andere Bildverbesserer per Software, die die enorme Rechenleistung der PS4 nutzen werden. So das quasi die Software der PS4 das kann, was aktuell teure BD Player können. Bild nachschärfen und son zeug (von dem ich nicht so viel Ahnung habe)
Ich sehe keine enorme Rechenleistung auf jeglicher PS4; natuerlich ist es eine gewaltige Steigerung im Vergleich zu heutiger Konsolen-hw aber zu dem was momentan in PCs herumschwirrt und ueberhaupt im Angesicht der kommenden 28nm GPU Generation wirklich nichts besonderes.
Die meisten Resourcen der hw werden wohl in 1080p@60Hz fliessen und ich bezweifle dass ein jeglicher ISV irgend etwas besonderes in Bildqualitaet investieren wird oder besser kann. Im besten Fall irgend ein Billig-algorithmus den man nur mit beiden Augen zugedrueckt antialiasing nennen koennte.
Von dem abgesehen ich waere persoenlich erstmal froh wenn Konsolen zumindest 4xAF abbekommen wuerden. AF ist heutzutage so billig dass es regelrecht ein Frevel ist immer noch auf wischi waschi Texturen glotzen zu muessen.
Cuda ist OS-los. Cuda gibt ihnen einen (PR-)Vorteil. Und wenn man Cuda unterstützt, sollte der Schritt zu OpenCL nicht so groß sein.
Unter normalen Umstaenden muessten wir das Zeug in den Tegra Thread verschieben, da zu stark OT, aber ich darf mir wohl etwas Mod-faulheit erlauben ;)
Lass uns abwarten bis Halti veroeffentlicht wird; ich brauch Dir auch nicht zu erklaeren wer Neil Trevett ist. Mehr will ich momentan noch nicht dazu sagen.
=Floi=
2011-11-17, 20:06:31
Was heißt durchsetzen? Die Verbreitung wird deutlich besser ausfallen als heutzutage. Alleine die Masse an Cuda-fähigen Tegra-SoCs wird wohl innerhalb von 2 Jahren an die 50 Millionen heranreichen. Ich meine, wenn es sich heutzutage lohnt exklusiv für die Xbox/PS/Wii zu schreiben, dann wird es sich erst recht für Tegra lohnen. Immerhin sind die Kosten erheblich geringer und die Leute unabhängiger.
im desktop bereich wird es auch so gut wie nicht gemacht. dort ist auch eine breite verbreitung gegeben und OCLund DC werden dort auch nicht benützt. schade drum, aber so ist es nunmal.
Lenon
2011-11-17, 20:16:07
Hi Leute,
mal was ganz anderes zu diesem Thema ... wie würdet Ihr darüber denken, wenn man die Konsolen in normale DVD Player Cases packen würde ?
Mir persönlich (und meiner Frau) geht diese Kiddie optik echt gegen den Strich.
Ich bin bestimmt ne Randgruppe mit meiner Meinung, aber ich würde auch nen Scheinchen mehr dafür hinlegen :-D
Die Konsolen sehen doch echt shice aus
=Floi=
2011-11-17, 20:40:08
hat keinen wiedererkennungswert. gerade die spezielle optik hat ihren sinn.
Kiddie Optik?
Gut, die weiße XBox sieht fürchterlich aus, hat mir auch nie gefallen, aber die neue Slim in schwarz mit X Design und ggf. matt macht sich gut. Die PS3 Slim sieht auch nett aus und die Wii ist ja im Prinzip optisch wie ein DVD Player, der im Ständer noch besser aussieht.
Ansonsten sind Flunderdesigns aufgrund der Abwärme denk ich schlicht nicht möglich.
Nightspider
2011-11-18, 09:28:54
Es gibt doch schicke Alu-Gehäuse für die Konsolen. Dann ist aber die Garantie futsch. Aber gut möglich, das es auch Händler gibt, welche die Konsolen in anderen Gehäusen MIT Garantie verkaufen.
Crazy_Bon
2011-11-18, 09:33:09
Ich denke MS, Sony, Nintendo oder sonst wer werden ihre Konsolen nie in ein Alugehäuse stecken, Material und Produktion sind viel zu teuer und das Gewicht ist zu schwer.
Neurosphere
2011-11-18, 09:46:33
Evtl kommt ja auch ne Heatpipe Konstruktion bei der das Gehäuse die Wärme abführt. Wäre zwar teuer aber dürfte auch so manches Problem lösen und man könnte so evtl die Gehäuse sogar kleiner bekommen (besser als wenn ich drinnen nen großen Block unterbringen muss).
robbitop
2011-11-18, 09:48:57
Wenn wir unsere Welt mal genauer ansehen, dann erkennt man, dass man Fotorealismus nie erreichen wird.
Sag niemals nie. Wenn man sich die Erhöhung der Rechenleistung von ASICS seit bestehen anschaut, ist das eine expotenzielle Funktion. Faktor 100 in 10 Jahren ist da normal bzw sogar untertrieben.
Wenn man schaut, was vor 10 oder besser vor 20 Jahren nur möglich war, sollte klar sein, dass alles nur eine Frage der Zeit ist.
Aber ja: die Schritte werden kleiner. Das stimmt. Das verlangt schon allein das Gesetz des sinkenden Grenzertrags.
Ich werde froh sein wenn zukuenftige Konsolen etwas mehr Leistung als eine einzige 580 haben werden.
Wenn die Konsolen wirklich 2012 bzw early 2013 released werden sollen und wirklich nur ein SoC drin ist, kann man mit 5770 Leistung wirklich zufrieden sein. (was ich trotzdem unterirdisch finde - insbesondere für 2013 - blödes Rumgespare!!!)
Ailuros
2011-11-18, 12:00:48
Man sollte die Vorstellung mit der finalen Verfuegbarkeit nicht verwechseln. Vor H2 2013 erwarte ich fuer's letzte nichts.
Sonst was die Leistung betrifft gibt es eben stets uebertriebenen Optimismus wie auch uebertriebenen Pessimismus. Nur weil "SoC" in einem Satz steht heisst es nicht dass es nicht moeglich ist die Leistung im Vergleich zu heutigen Konsolen zu verzehnfachen.
AnarchX
2011-11-18, 12:53:56
Sag niemals nie. Wenn man sich die Erhöhung der Rechenleistung von ASICS seit bestehen anschaut, ist das eine expotenzielle Funktion. Faktor 100 in 10 Jahren ist da normal bzw sogar untertrieben.
Wenn man schaut, was vor 10 oder besser vor 20 Jahren nur möglich war, sollte klar sein, dass alles nur eine Frage der Zeit ist.
Im 150€ Segment ist wohl die Leistung grob überschlagen im Faktor 1000 seit 1999 gewachsen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9014668#post9014668). Dafür aber wohl auch der 10-fache Stromverbrauch. In den 15W einer Voodoo 3 2000 ist der Sprung auf die vergleichbare HD 5450 dann schon um einiges geringer - ~20-fache Tex-Fill.
Das größte Problem für die kommenden Konsolen wird wohl die Leistungsaufnahme sein. Mit einem 50x50x50cm Würfel mit 2kW würde man da wohl mehr Spielraum haben. ;D
dargo
2011-11-18, 13:11:50
Sonst was die Leistung betrifft gibt es eben stets uebertriebenen Optimismus wie auch uebertriebenen Pessimismus. Nur weil "SoC" in einem Satz steht heisst es nicht dass es nicht moeglich ist die Leistung im Vergleich zu heutigen Konsolen zu verzehnfachen.
Ich denke eine Verzehnfachung sollte man mindestens erwarten können. Und wenn du vom Faktor 10 sprichst sollte man auch erwähnen, dass du dich hier auf die GPU-Leistung beziehst. Niemand braucht bei der nächsten Konsole Faktor 10 bei der CPU. Nach meiner wilden Rechnung wäre Faktor 10 also in etwa HD4850-4870 @DX11?
AnarchX
2011-11-18, 13:15:13
Nach meiner wilden Rechnung wäre Faktor 10 also in etwa HD4850-4870 @DX11?
Xenos und RSX mit Cell-Unterstützung liegen wohl beide bei ~200GFLOPs.
Da sollte es wohl schon eher eine HD 6870 sein für einen Faktor 10.
dargo
2011-11-18, 13:21:51
Ich dachte der Xenos hätte ca. 115GFLOPS?
robbitop
2011-11-18, 13:28:42
500 MHz * 48 ALUs * 5 Kanäle * 2 Ops = 240 GFLOPs. :)
Die Rohleistung allein sagt aber noch nicht alles. Heutige GPUs verwerten Rohleistung wesentlich effizienter als damalige.
Gipsel
2011-11-18, 13:41:26
500 MHz * 48 ALUs * 5 Kanäle * 2 Ops = 240 GFLOPs. :)Das waren im Prinzip drei SIMD-Engines, wie man die sehr ähnlich vom R600 bzw. den nachfolgenden GPUs im VLIW-Design kennt (RV630 hatte auch 3 SIMD-Engines, allerdings nur in halber Höhe, also 3*8*5 ALUs statt 3*16*5 ALUs wie Xenos). Xenos war wohl bloß noch nicht VLIW5 (also 1+1+1+1+1), sondern ein 4+1-Design wie vorher die Vertexshader. Die "High-Level"-Organisation der SIMD-Engines, den TMUs und dem UTDP war aber bereits praktisch identisch zur R600-Generation.
Ailuros
2011-11-18, 14:32:01
Xenos und RSX mit Cell-Unterstützung liegen wohl beide bei ~200GFLOPs.
Da sollte es wohl schon eher eine HD 6870 sein für einen Faktor 10.
FLOP != FLOP zwischen Architekturen.
AnarchX
2011-11-18, 14:37:14
FLOP != FLOP zwischen Architekturen.
So weit auseinander sind Xenos und Barts auch nicht.
Natürlich reicht beim einem GF1xx- oder GCN-Äquivalent auch eine Variante mit weniger als 2 TFLOPs.
Ailuros
2011-11-18, 15:13:22
So weit auseinander sind Xenos und Barts auch nicht.
Natürlich reicht beim einem GF1xx- oder GCN-Äquivalent auch eine Variante mit weniger als 2 TFLOPs.
Nicht nur; vergleich mal FLOPs zwischen RSX und nur G80.
dargo
2011-11-18, 15:27:42
500 MHz * 48 ALUs * 5 Kanäle * 2 Ops = 240 GFLOPs. :)
Die Rohleistung allein sagt aber noch nicht alles. Heutige GPUs verwerten Rohleistung wesentlich effizienter als damalige.
Ja, deswegen auch der Hinweis vonwegen "wilde Rechnung". Es wird wohl doch auf irgendwas zwischen HD4770-HD4850 hinauslaufen, beim Faktor 10 wohlgemerkt.
AnarchX
2011-11-18, 15:38:50
Nicht nur; vergleich mal FLOPs zwischen RSX und nur G80.
NV GPUs ab G80 sind eben anders zu werten bzgl. der GFLOPs. Wobei man auf einer Konsole wohl möglich die bei einer AMD VLIW-GPU nicht genutzte ALU-Leistung abschöpfen könnte.
Mal ein paar Zahlen: http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf
Selbst wenn Xenos nur die halbe Leistung einer X1950XT erreicht, was wohl eher zu bezweifeln ist, braucht es da schon eine GTX 580 für einen Faktor 10 (Faktor ~6,5 bei den FLOPs ;)).
robbitop
2011-11-18, 15:46:05
Naja - die Evolutionsbenchmarks sind vermutlich auch nicht rein arithmetisch limitiert.
In diese Richtung geht es aber zunehmend.
Ailuros
2011-11-18, 18:57:38
NV GPUs ab G80 sind eben anders zu werten bzgl. der GFLOPs. Wobei man auf einer Konsole wohl möglich die bei einer AMD VLIW-GPU nicht genutzte ALU-Leistung abschöpfen könnte.
Ich hab auch nichts anderes behauptet. Ich sagte ja dass FLOPs != FLOPs zwischen diversen Architekturen sind.
Mal ein paar Zahlen: http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf
Wir reden immer noch ueber GFLOPs; wieso muss man auch noch AA/AF in die Mischung geben wenn es fraglich ist ob etwas zu diesem Massstab selbst auf kommenden Konsolen benutzt wird? Beim 1xAA/AF graph ist die 580 ca. um 8x Mal schneller als die G71 (welche auf 650MHz taktet) und die 8800GTX um ca. 3x Mal schneller. Mit AA/AF sind die Unterschiede natuerlich noch brutaler.
Selbst wenn Xenos nur die halbe Leistung einer X1950XT erreicht, was wohl eher zu bezweifeln ist, braucht es da schon eine GTX 580 für einen Faktor 10 (Faktor ~6,5 bei den FLOPs ;)).
Konsolen-hw hat nicht den API overhead wie im PC, sonst wuerden die heutigen Konsolen mit deren game content nie so lange und so gut aushalten. Carmack sagte selber dass die PS Vita hw in Echtzeit-Leistung erst nach der uebernaechsten smart-phone Generation uebertroffen wird und ich bin mir ziemlich sicher dass er nicht 2012 meinte.
dargo
2011-11-18, 21:35:53
Konsolen-hw hat nicht den API overhead wie im PC, sonst wuerden die heutigen Konsolen mit deren game content nie so lange und so gut aushalten.
Gibts eigentlich mal genaue Zahlen was den DX11-API-Overhead angeht?
AnarchX
2011-11-19, 19:51:03
Ich hab auch nichts anderes behauptet. Ich sagte ja dass FLOPs != FLOPs zwischen diversen Architekturen sind.
Wir reden immer noch ueber GFLOPs; wieso muss man auch noch AA/AF in die Mischung geben wenn es fraglich ist ob etwas zu diesem Massstab selbst auf kommenden Konsolen benutzt wird? Beim 1xAA/AF graph ist die 580 ca. um 8x Mal schneller als die G71 (welche auf 650MHz taktet) und die 8800GTX um ca. 3x Mal schneller. Mit AA/AF sind die Unterschiede natuerlich noch brutaler.
Wir reden ja nicht von RSX/G7x, da ist die Kombination mit Cell in der PS3 noch schwieriger einzuschätzen. Wenn dann ist Xenos wohl eine brauchbarere Ausgangsbasis, wovon Sony und Microsoft wohl einen ähnliche Leistungssprung machen werden.
Konsolen-hw hat nicht den API overhead wie im PC, sonst wuerden die heutigen Konsolen mit deren game content nie so lange und so gut aushalten. Carmack sagte selber dass die PS Vita hw in Echtzeit-Leistung erst nach der uebernaechsten smart-phone Generation uebertroffen wird und ich bin mir ziemlich sicher dass er nicht 2012 meinte.
Also bist du der Meinung in einer Konsolen-Umgebung wäre der Unterschied zwischen einer Desktop-GPU von 2006 zu einer Desktop-GPU von 2011 größer, als es im PC der Fall ist?
megachip800
2011-11-20, 09:09:56
So wie es aussieht wird die Xbox 720(loop) getrennte Bussysteme für Arbeits/Videospeicher haben eine Abkehr von der Umaarchitektur ist nur logisch und macht performance-technisch sinn. Ende 2012 sind 2 Gbyte DDR3 u. 2 Gbyte GDDR5 (Videoram) zu Spottpreisen zu haben, und wenn man Fläche
auf dem Motherboard sparen will dann werden halt Dimmriegel verlötet.An den Gerüchten das eine Dualcore GPU zur Anwendung kommt scheint was
dran zu sein, bzw. gab es schon eine Bestätigung vor einiger Zeit von diversen Spielefirmen , so wie diese hier (DICE):
http://www.eurogamer.net/articles/2011-10-24-battlefield-3-dice-talks-next-xbox-playstation-4
"If anyone would build a new console today, that would be the result," Battlefield 3 executive producer Patrick Bach told Eurogamer in reference to the PC version of the game.
"At least. Probably more, because it's classic PC technology. We know everything about multi-threading now. We know everything about multi-graphics card solutions now. If someone built a console where the specs are that or more, we have the technology to do something. We could port the game to that console tomorrow."
DICE built Battlefield 3 using its new Frostbite 2 engine, designed to future proof the studio and work with the next Xbox and PlayStation.
Bach said the next-generation is a case of more horsepower - in particular multiple processors and graphics cards in a single unit.
"There's nothing we know about now that the new consoles would do differently, rather do more," Bach explained. "More processors. Bigger memory pools. Everything we have and more.
"The big step is to go from single processor to multi-processor. Single graphics card to multi-graphics card. To multi-memory. Do you do multiple memory pools or one memory pool? Since we can handle both consoles now, we control that as well. We have all the streaming systems. We have whatever we might need for the future.
"I would be surprised if there were something we couldn't do with the next-generation of consoles."
boxleitnerb
2011-11-20, 09:15:30
Hm, das könnte durchaus positive Auswirkungen haben, wenn die Devs endlich mal lernen, für Multi-GPU zu programmieren (vorausgesetzt, wir sprechen hier über Rendering, nicht Physik auf einer GPU und Rendering auf der anderen).
Neurosphere
2011-11-20, 09:52:42
Welchen Sinn hat es auf Multi-GPU zu gehen? Ich sehe da ehrlich gesagt überhaupt keinen...
Botcruscher
2011-11-20, 10:19:54
Da gibt es sogar nur Nachteile. Bei den "Billig-GPUs" einer Konsole und den nachfolgenden Verkleinerungen/Vereinfachungen wäre das einfach nur für den Arsch.
robbitop
2011-11-20, 10:28:57
Die Xbox 360 hatte doch getrennte RAMs. eDRAM für den Framebuffer und GDDR3 für den Rest.
Das war ein einmalig sinnvolles und gutes Konzept! Man konnte mit maximaler Effizienz den RAM ausnutzen ohne schaufeln und tricksen zu müssen und es genügte 128 bit SI. Der eDRAM nahm den fragmentiertesten und bandbreitenhungrigsten Bandbreitenbedarf der GPU vom Hauptspeicher.
Auf ner Konsole geht es nicht simpler und besser.
Multi-GPU macht gar keinen sinn. Das kostet nur Effizienz.
Vieleicht meinen sie ja das, was die SoC-GPU-Hersteller als Multi-GPU bezeichnen: mehrere GPUs in einem Kern, die mit hoher Bandbreite verbunden sind. Das wird dort gefeiert wie sonst was - und dabei sind sie nur zu faul / zu arm, mehrere GPU Größen anzubieten (was effizienter wäre!!).
Nicht durch PR-Kram hinter's Licht führen lassen.
Jemand, der ein sinnvolles Konsolendesign zu auch noch guten Kosten bringen will, wird sich an der X360 orientieren. Zumindest von der Grundidee her.
Aufgrund des Sparwahns der Konsolenhersteller wohl auf die aktuellste Fassung der X360 - nämlich einen SoC.
KraxOr
2011-11-20, 20:56:32
Eins ist klar: die Konsolenzyklen werden immer länger, d.h. die Hersteller müssen eine HighestEnd-Konsole bringen damit diese während ihres Lebenszyklus' halbwegs "aktuell" bleibt. Wir können davon ausgehen, dass der kommende NextGen-Konsolen Zyklus 10Jahre betragen wird...
dargo
2011-11-20, 21:09:35
Eins ist klar: die Konsolenzyklen werden immer länger, d.h. die Hersteller müssen eine HighestEnd-Konsole bringen damit diese während ihres Lebenszyklus' halbwegs "aktuell" bleibt. Wir können davon ausgehen, dass der kommende NextGen-Konsolen Zyklus 10Jahre betragen wird...
Nicht unbedingt. Veröffentlicht man eine Konsole die von Anfang an mit Gewinn wirtschaftet kann man auch locker den ~5 Jahres Rythmus halten.
Deinorius
2011-11-20, 21:23:49
http://www.eurogamer.net/articles/2011-10-24-battlefield-3-dice-talks-next-xbox-playstation-4
Der Typ redet als ob er keine Ahnung hätte. Dämliches PR-Geblubber.
Multi-GPUs haben in einer Konsole wenig Sinn, außer man nimmt schon eine vorgefertigte IP wie bei der PS Vita.
Bei einer Konsole wie der PS4/Xbox Next braucht man aber etwas spezialisierteres, immerhin muss dieser SoC viel Leistung liefern. Ich wiederhole zwar nur das, was schon andere hier gesagt haben, aber es ist einfach Unfug.
Könnte dieses Kapitel endlich geschlossen werden? Multi-GPU im Sinne von SLI/CF greift ja bei Konsolen nicht, immerhin ist man bei Konsolen auf eine TDP begrenzt.
basti333
2011-11-20, 21:33:37
Eins ist klar: die Konsolenzyklen werden immer länger, d.h. die Hersteller müssen eine HighestEnd-Konsole bringen damit diese während ihres Lebenszyklus' halbwegs "aktuell" bleibt. Wir können davon ausgehen, dass der kommende NextGen-Konsolen Zyklus 10Jahre betragen wird...
Eine gewagte these. Nur weil die 360 und die PS3 gerade lange zyklem durchmachen würde ich noch lange nicht von einem Trend reden. Der Hauptgrund bei der 360 und PS3 dürfte in den hohen ausgangsinvestitionen liegen. Man musste lange draufzahlen und hat erst spät gewinne eingefahren. Dementsprechend ersetzt man sie nicht direkt.
Diese schlechten erfahrungen werden wohl auch dazu führen das kommende Konsolen nicht mehr das leistungststärkste bieten was technisch möglich ist. Die Konsolen werden also relativ gesehen langsamer und billiger. Das könnte die entwicklungszyklen beschleunigen.
In den USA gibt es ja so schöne statistiken darüber wie iOS geräte mobile konsolen verdrängen. Eben weil sie flexibler sind.
KraxOr
2011-11-20, 21:43:16
Nicht unbedingt. Veröffentlicht man eine Konsole die von Anfang an mit Gewinn wirtschaftet kann man auch locker den ~5 Jahres Rythmus halten.
Richtig, nur wenn man's zukünftig so macht mit kostengünstigen gewinnbringenden Konsolen, dann werden diese wesentlich langsamer sein als normale MidEnd-PCs... bisher war's ja immer so, dass eine Konsole zu Anfang ihres Lebenszyklus' grafisch mindestens so potent war wie HighEnd-PCs!!
siehe z.B. Wii... gewinnbringend von Anfang an, aber ganz ehrlich: wer möchte schon auf sowas zocken müssen?
KraxOr
2011-11-20, 21:50:22
Eine gewagte these. Nur weil die 360 und die PS3 gerade lange zyklem durchmachen würde ich noch lange nicht von einem Trend reden. Der Hauptgrund bei der 360 und PS3 dürfte in den hohen ausgangsinvestitionen liegen. Man musste lange draufzahlen und hat erst spät gewinne eingefahren. Dementsprechend ersetzt man sie nicht direkt.
stimme ich zu ;)
Diese schlechten erfahrungen werden wohl auch dazu führen das kommende Konsolen nicht mehr das leistungststärkste bieten was technisch möglich ist. Die Konsolen werden also relativ gesehen langsamer und billiger. Das könnte die entwicklungszyklen beschleunigen.
Die Frage ist aber: wer kauft sich dann noch eine neue Konsole, wenn diese grafisch nicht wesentlich mehr bietet als die Generation davor? Die Leute investieren nur dann Geld, wenn es sich auch lohnt und ein gewisser AHA-Effekt zu erwarten ist. Das (hoffentlich einmalige) Marketingwunder Wii nehme ich aus der Betrachtung mal raus.
In den USA gibt es ja so schöne statistiken darüber wie iOS geräte mobile konsolen verdrängen. Eben weil sie flexibler sind.
Diese Geräte sind aber nur zum Zocken für Zwischendurch gedacht, also wenn ich z.B. in der Bahn sitze oder auf Klo bin, aber nicht wenn ich ambitioniert zocken möchte...
Kann es wirklich möglich sein das die nächsten Generationen der XBox und Playstation noch 2012 erscheinen? Normalerweise hört man doch zu dieser Zeit dann schon Angaben zu Developerkits. Und wie sollen die Publisher in maximal 12Monaten noch zum Launch der Plattformen die Spiele fertig bekommen?
Falls es tatsächlich 2012 zu den nächsten Generationen der Konsolen kommen sollte, könnte ich mir ehrlich gesagt nichts anderes mehr Vorstellen, als 1:1 Ports der für 2012 geplanten Spiele für die heutigen Konsolen. Nur dann in 1080p statt 720p.
Schon heute geht der Programmieraufwand eines AAA Titels auf gut zwei Jahre bei einem bestehenden technischen Unterbau. Wenn man auch nur die Möglichkeiten einer aktuellen Konsole ausnutzen möchte, also mindestens doppelt so gut aufgelöste Texturen, bessere Geometrie, Physik und größere Level/mehr Mitspieler im MP, dann braucht man doch zumindest noch einmal die hälfte der Produktionszeit dazu. Was zu einem auf ganzer Linie enttäuschenden Startlineup führen würde, da es schlicht und einfach keine Vorlaufzeit gibt.
Denn ohne bekannten Hardwarehintergrund kann man ja auch nicht aus Vorsorge mal ebend für die kommende Generation Content erstellen. Trotzdem lese ich, zuletzt heute hier in den News wieder von einem Start 2012.
Hat vielleicht einer hier eine Erklärung?
dargo
2011-11-21, 15:03:25
Richtig, nur wenn man's zukünftig so macht mit kostengünstigen gewinnbringenden Konsolen, dann werden diese wesentlich langsamer sein als normale MidEnd-PCs... bisher war's ja immer so, dass eine Konsole zu Anfang ihres Lebenszyklus' grafisch mindestens so potent war wie HighEnd-PCs!!
Aus Fehlern sollte man irgendwann mal lernen.
siehe z.B. Wii... gewinnbringend von Anfang an, aber ganz ehrlich: wer möchte schon auf sowas zocken müssen?
Frag mal die Millionen Wii-User.
Nur musst du doch einen Mehrwert bringen. Die WII hatte zur Gamecube den Remote als Mehrwert. Wo soll der Vorteil einer neuen Microsoft und Sony Konsole liegen, wenn sich von der Rechenleistung nichts ändert? Kinect und das Sonyequivalent gibt es auch auf der alten Generation.
dargo
2011-11-21, 15:11:09
Die Frage ist aber: wer kauft sich dann noch eine neue Konsole, wenn diese grafisch nicht wesentlich mehr bietet als die Generation davor? Die Leute investieren nur dann Geld, wenn es sich auch lohnt und ein gewisser AHA-Effekt zu erwarten ist.
Und du meinst diesen Aha-Effekt erreicht mal nicht mit Faktor ~8-10 bei der GPU? Warum haben dann so viele Leute sich die XBox360 und PS3 angeschaft die letzten Jahre? 2013 ist die Xbox360 8 Jahre alt. Da sollte man schon ca. Faktor 10 erwarten und trotzdem günstig produzieren können. Sie wird zwar nicht an die Leistung eines High-End PCs kommen (wie denn auch wenn man günstig produzieren will und gleichzeitig schneller Gewinne reinfahren als bei der letzten Gen?), trotzdem wird die aktuelle Konsolen-Gen grafisch "vernichtet".
PS: es wurde schon zig mal hier gesagt, dass absolutes High-End in einer Konsole nicht nur den Preisrahmen sprengen würde sondern, dass die TDP auch ein Problem darstellt.
@ngl
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9040065&postcount=2215
@ngl
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9040065&postcount=2215
Ahh danke.
Aber selbst für H2 2013 sollte es dann schon ziemlich knapp werden wenn man die Specs in den nächsten Monaten nicht festlegt oder?
Nightspider
2011-11-21, 15:20:02
Eins ist klar: die Konsolenzyklen werden immer länger, d.h. die Hersteller müssen eine HighestEnd-Konsole bringen damit diese während ihres Lebenszyklus' halbwegs "aktuell" bleibt. Wir können davon ausgehen, dass der kommende NextGen-Konsolen Zyklus 10Jahre betragen wird...
Damit streckst du den Zyklus aber künstlich. Die könnten auch schnelle P/L-Konsolen aller 4 Jahre auf den Markt werden. 5-6 Jahre ist ein Zyklus der nicht zufällig entstanden ist. Er macht wirtschaftlich am meisten Sinn für die Konsolenhersteller.
Die würden die Zyklen sogar gern strecken (zumindest bei Finanazierten Konsolen) aber dann würde die Konkurenz eher auf den Markt kommen und Kunden klauen.
Sobald der 1. Hersteller auf ne neue Generation schielt (in diesem Fall Nintendo: Wii-U) versucht die Konkurenz schnellstmöglich nachzuziehen.
An der PS3 hat man ja gesehen, was das späte Erscheinen für Auswirkungen hatte. Meiner Meinung nach haben nur das BluRay Laufwerk und paar exclusive Spiele die PS3 gerettet.
dargo
2011-11-21, 15:21:58
@ngl
Nun... H2 2013 würde ich jetzt strategisch eher als ungünstig betrachten. Ich würde eher vom Weihnachtsgeschäft 2013 ausgehen. Zu der Vorlaufzeit der Spiele... AAA-Titel erwarte ich beim Launch einer neuen Gen eh nicht. Die volle Leistung herauszukitzeln bedarf es eh wieder eine gewisse Zeit.
Die volle Leistung braucht man auch nicht herauszukitzeln. Aber es muss ein bedeutender Unterschied zur Vorgängerversion da sein. Daher braucht eine neue Konsolengeneration auch ein starkes Startlineup. Sonst wird man bei den Absätzen probleme bekommen. Niemand wird sich ein Fifa 14 für die PS4 kaufen, wenn die Unterschiede zur PS3 Version margial sind. Dazu sind die Einstiegshürden die mit dem Kauf einer neuen Konsole einhergehen zu hoch.
Ich könnte mir ehrlich gesagt wirklich nur einen Start zum Herbst 2014 vorstellen, wo man den Herstellern genügend Zeit gibt Projekte zu Entwickeln und ab ende 2013 mit Videos und Screenshots einen genügenden Hype wachsen zu lassen, damit man 2014 zum Weihnachtsgeschäft zum einen nicht nur die Motivation hat sich eine neue Konsole zu holen, sondern auch genug Hardwarebasis hat, um den Mehraufwand an Content auch in den Verkäufen auch wieder zurückzubekommen.
Ohne diese Strategie dürfte nämlich der Absatz der neuen Generation stocken, was im nachhinein AAA Titel auf dieser Plattform dann unprofitabel macht und man mindestens 1-2 Jahre beide Konsolengenerationen gleichwertig nebeneinander supporten müsste.
john carmack
2011-11-21, 16:04:31
Woher wisst ihr das die Hardware Specs. auf der Seite von Sony und MS noch nicht stehen?
Woher wisst ihr das zB. UBI Soft nicht schon Pläne oder ganz am Anfang der Entwicklung für NextGeneration Titel Arbeitet?
AMD gibt auch keine Specs zur HD7900er raus obwohl diese in 2 Monaten rauskommen soll!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.